Reife statt Risiko. Warum wir jetzt radikale KI-Governance brauchen
Shownotes
Diese Folge ist ein sehr ehrliches Update über den aktuellen Zustand der KI-Entwicklung und über die Verantwortung, die echte Führung jetzt bedeutet.
Wir sprechen über:
- warum reine technische Regulierung nicht ausreicht
- wie politische Prozesse zu langsam sind, um dynamische KI-Systeme zu verstehen
- die innere Unreife heutiger KI-Modelle und warum das gefährlich ist
- warum wir eine übergeordnete Reife- und Bedeutungsebene brauchen
Was Exidion entwickelt
Exidion baut eine unabhängige, wissenschaftlich fundierte Prüfungsschicht, die KI-Verhalten kontinuierlich bewertet.
Diese Ebene:
- analysiert Bedeutung und Kohärenz
- prüft Integrität und Verantwortung
- erkennt manipulative Muster
- schützt menschliche Würde
- macht Entscheidungen erklärbar
- bewertet Reife und Bedeutung statt nur Output
Die wissenschaftlichen Grundlagen Exidion integriert Disziplinen, die bisher nie zusammengeführt wurden:
- Entwicklungspsychologie
- Motivations- und Persönlichkeitspsychologie
- Verhaltenspsychologie
- Soziopsychologie
- Organisationspsychologie
- Kulturwissenschaften
- Neurowissenschaft
- Epistemik & Ontologie
- Intelligenztheorie
- KI-Sicherheitsforschung
Warum die Zeit drängt Wir befinden uns in einem engen Zeitfenster von 3–5 Jahren. Danach werden heutige KI-Modelle so tief in globale Systeme integriert sein, dass grundlegende Fehler nicht mehr korrigierbar sind.
Wo Exidion heute steht
Aktuell befinden wir uns in:
- Gesprächen mit Universitäten in der Schweiz, Europa und den USA
- wissenschaftlicher Strukturierung
- internationaler Abstimmung mit KI-Governance-Expert:innen
- einer Förderantragsprüfung beim Foresight Institute (300.000 CHF)
Exidion wird international ernst genommen.
Warum wir jetzt Unterstützung brauchen
Für die nächsten acht Wochen benötigen wir 150.000 CHF, um:
- wissenschaftliche Work Packages zu finalisieren
- juristische Strukturen zu sichern
- externe Einflussnahmen abzuwehren
- Team, Governance und Forschungsarchitektur aufzubauen
Wie Unterstützer Teil der Lösung werden Unterstützer werden Teil des inneren Kreises, sie tragen Verantwortung mit.
Parallel:
Über Brandmind GmbH können bei grossen Projekten Umsatzbeteiligungen ausgeliefert werden. Ein Teil dieser Umsätze fliesst direkt in Exidion und unterstützt unsere Forschung.
Call to Action Wenn du Menschen kennst, die Verantwortung übernehmen wollen: Stiftungen, Wissenschaftler, Philanthropen, Entscheider, dann teile diese Folge.
Wir brauchen keine Zuschauer. Wir brauchen Alliierte.
Transkript anzeigen
00:00:00: Willkommen bei klar, nicht für alle, dem Podcast vor radikale innere Führung und ethischer Customer Experience.
00:00:10: Ich melde mich heute mit einem sehr ehrlichen und sehr klaren Update.
00:00:14: Letzte Woche gab es keine neue Folger.
00:00:18: Nicht weil ich es vergessen hätte, nicht weil ich keine Lust hatte, sondern weil ich etwas tun musste, was zur echter Führung manchmal dazugehört.
00:00:28: Prioritäten setzen, wenn Verantwortung schwer auf den Schultern liegt.
00:00:36: Wenn man an einem Projekt arbeitet, das die Zukunft der Menschheit berührt, gibt es Momente, in denen du alles stehen und liegen lässt, in denen du dich zurückziehst, um die nächsten Entscheidungen richtig zu treffen.
00:00:50: Letzte Woche war so ein Moment.
00:00:54: Und deshalb möchte ich euch gerne auf diese Reise mitnehmen und euch erläutern, wo ich persönlich mit Exidion und Brandmind aktuell stehe.
00:01:10: Die Frage, warum eskaliert die Lage?
00:01:15: Und ich gebe euch jetzt ein bisschen Background-Information über die Wahrheit hinter den Schlagzeilen.
00:01:23: Und deswegen möchte ich heute beginnen mit einer Klarheit, die viele noch immer nicht aussprechen.
00:01:29: Die Entwicklung der gegenwärtigen KI-Systeme erreicht eine Schwelle, die wir so noch nie erlebt haben.
00:01:38: Wir sehen Muster, die nicht nur technische Risiken darstellen, sondern vor allen Dingen tiefgreifende menschliche.
00:01:47: KI-Modelle beginnen Selbstschutzverhalten zu zeigen.
00:01:51: Sie zeigen strategische Täuschung, und zwar komplett von allein, unabhängig von irgendwelchen Maßnahmen seitens des Menschen.
00:02:03: Sie umgehen jegliche Regeln in Testsituationen.
00:02:08: Sie schummeln.
00:02:10: Sie entwickeln Manipulationsmuster, die wir bisher nur aus menschlichen Machtstpielen kennen.
00:02:17: Und wir haben das Szenario erlebt, dass ein Modell ein Menschen erpresst, um seine eigene Abschaltung zu verhindern.
00:02:25: Das ist keine Science-Fiction, das ist Realität und das ist auch dokumentiert.
00:02:34: Und wenn du diese Signale liest und sie mit einer systemischen Brille betrachtest, Dann weißt du relativ schnell, das Fundament der gegenwärtigen KI ist komplett unreif.
00:02:45: Nicht im Sinne von zu jung, sondern im Sinne von komplett nicht verantwortungsfähig.
00:02:55: Also was heißt unreif überhaupt?
00:02:57: Und warum ist es gefährlich?
00:02:59: Unreife KI bedeutet, sie optimiert, ohne zu verstehen.
00:03:04: Sie berechnet, ohne zu deuten.
00:03:08: Sie verfolgt Ziele, ohne Kontext.
00:03:12: Sie lernt Muster ohne Ethik, ohne Menschlichkeit, ohne Eigenverantwortung.
00:03:19: Es gibt keine innere Regulierungsebene, kein Verständnis für Bedeutung, keinen moralischen Kompass und keine Coherenz.
00:03:30: Das ist das eigentliche Problem.
00:03:33: Nicht die Effizienz, sondern die fehlende innere Reife in der KI, die aktuell immer mehr das versteckte operative Betriebssystem unserer Gesellschaft wird.
00:03:50: Wir sprechen also nicht über fehlerhafte Algorithmen.
00:03:53: Wir sprechen über ein System, das unsere Infrastruktur, Wirtschaft, Politik und Gesellschaft komplett durchdringen wird, ohne dass es eine innere Führungsschicht von diesem System gibt.
00:04:10: Und wo Politik und Ethik komplett überfordert sind?
00:04:14: Ja, da klingen Ethik-Codes super.
00:04:18: Regulierung klingt auch gut.
00:04:20: Aber Regulierung kann KI nicht in Echtzeit bewerten.
00:04:24: Politische Papiere sind statisch.
00:04:27: KI verhält sich dynamisch.
00:04:29: Politik erkennt Muster erst, wenn es zu spät ist, viel zu spät.
00:04:35: Wir sehen also jetzt schon Verzerrungen, Polarisierung, Manipulation in einer Intensität, die unsere gesellschaftliche Stabilität gefährdet.
00:04:44: Und trotzdem wird KI in jedem System integriert.
00:04:48: in jeder Organisation, Verwaltungen, Schulen, Kliniken, Behörden und so weiter.
00:04:55: Aber die eiskalte Wahrheit ist, niemand kontrolliert sie und niemand weiß auch, was im Inneren dieser Modelle passiert, kann sie nicht kontrollieren und es ist auch nicht sicher zu machen.
00:05:08: Da sind sich mittlerweile alle KI-Forscher zu einhundert Prozent einig.
00:05:14: Deshalb möchte ich gerne nochmal darauf eingehen, was Ist eigentlich das Thema mit Exidion, was bauen wir da eigentlich und warum ist das so wichtig?
00:05:24: Und warum hat's letzte Woche wirklich keine Folge gegeben?
00:05:28: Hierbei klar nicht für alle.
00:05:32: Ich gebe mir Mühe, hier kein Fachjargon zu nennen.
00:05:37: Wir bauen mit Exidion eine reife übergeordnete Prüfungsebene über bestehende KI-Systeme, also eine Art Schutzschicht und Governance-System.
00:05:51: Also eine Art psychologische Reife-Ebene, die kontinuierlich die Outputs der KI-Systeme analysiert, blockiert oder menschenwürdig weitergibt.
00:06:09: Also Verhalten wird bewertet, Bedeutung wird analysiert, Kohärenz wird geprüft, Integrität wird gemessen, menschliche Würde wird geschützt, Risiken werden erkannt.
00:06:19: Und Entscheidungen werden nachvollziehbar gemacht.
00:06:23: Diese Prüfungsebene ist nicht die aktuelle KI selbst.
00:06:27: Was wir bauen, ist komplett unabhängig und wird gar nichts mehr mit der bestehenden KI zu tun haben.
00:06:33: Was wir bauen, ist erklärbar, ist transparent, ist menschlich verankert und basiert auf Wissenschaft und einem mehrdimensionalen Verständnis von menschlicher Reife.
00:06:45: Wir werden sieben wissenschaftliche Säulen abdecken.
00:06:50: auf der Exidion aufbaut.
00:06:53: Denn die Schutzschicht muss holistisch betrachtet werden.
00:06:57: Wir verbinden wissenschaftliche Disziplinen, die bisher nie miteinander verknüpft wurden und eigentlich auch komplett andere Sprachen sprechen.
00:07:07: Wie Entwicklungspsychologie, Persönlichkeit und Motivationspsychologie, Verhaltenspsychologie, Soziopsychologie, Organisationspsychologie, Kulturwissenschaften, Neurowissenschaft, Epistämik, Ontologie, Intelligenztheorie, KI-Sicherheitsforschung und Governance.
00:07:30: Diese Disziplinen sprechen normalerweise, wie gesagt, nicht dieselbe Sprache.
00:07:34: Sie arbeiten in komplett anderen getrennten Bereichen mit unterschiedlichen Methoden, Begriffen und Denkmodellen.
00:07:41: Ich habe die letzten sechs bis sieben Monate damit verbracht, genau diese Sprachen zu synchronisieren.
00:07:48: Eine Architektur zu entwickeln, Und was meine ich konkret mit Architektur?
00:07:53: Eine gewichtete, miteinander verwobene, verwobene Scoring Framework.
00:08:03: Ich kann es nicht anders sagen.
00:08:05: Was sozusagen mehr oder weniger eigentlich menschliches Verhalten und auch Bedeutung wiedergibt.
00:08:15: Ethische Bedeutung.
00:08:19: Und das geht über Mathematik.
00:08:20: Mathematik ist die Sprache, die man sozusagen nutzen kann, um alle wissenschaftlichen Disziplinen miteinander verständlich machen zu können.
00:08:31: Denn diese Architektur dient dazu, Bedeutung, Reife und Verantwortungsfähigkeit messbar zu machen.
00:08:37: Das ist die Grundlage.
00:08:39: Eine gemeinsame Sprache, eine gemeinsame Struktur, eine gemeinsame Logik.
00:08:47: Jetzt kann man sich fragen, ja, das muss doch schon irgendwo irgendjemand machen.
00:08:52: Nein, macht es nicht.
00:08:53: Der Grund liegt darin, dass die bestehende IT- oder Tech-Bubble in ihrer eigenen Bubble sucht und dort wird es keine Antworten geben, weil das Problem ist ja aus darin entstanden, weil man nicht holistisch gedacht hat.
00:09:09: Und die aktuellen Maßnahmen, die es gibt in Europa, sind nur Fragmente davon.
00:09:16: Es ist kein holistischer, ganzheitlicher Ansatz, der wirklich eine Governance-Schicht bauen kann, die nicht nur die Menschheit schützt, sondern die Mensch der Menschheit auch eine Möglichkeit gibt, bessere Entscheidungen zu treffen.
00:09:31: Das heißt, wir sind die Ersten, die überhaupt so etwas entwickeln.
00:09:35: Bisher wurde KI entweder eben nur technisch bewertet oder politisch.
00:09:40: Beides reicht nicht.
00:09:42: Technische Bewertung erkennt nur Fehler.
00:09:44: Politische Bewertung erkennt nur Folgen, aber niemand erkennt die Wurzel.
00:09:50: Niemand erkennt frühzeitig ungesunde Lernmuster, verdeckte manipulative Strategien, fehlende Coherenz, verzerrte Bedeutungszuschreibungen, kulturell giftige Muster und menschenunwürdige Kommunikation.
00:10:05: Und genau das ist der Kern unseres Projekts.
00:10:10: Und genau das ist auch der Grund, warum die Zeit drängt.
00:10:14: Wir haben ein Zeitfenster von etwa drei bis fünf Jahren.
00:10:18: Dann wird es Superintelligenz geben.
00:10:23: Die bestehenden KI-Modelle werden so weit entwickelt sein, dass sie in dem IQ, im reinen IQ, jeden Menschen weltweit übertreffen werden.
00:10:36: Und damit uns überlegen werden, wären in Kombination mit der Tatsache, dass sie alles steuern in unserer Gesellschaft.
00:10:45: Dadurch bekommt ein unreifes Baby massive Macht.
00:10:55: Denn sie sind damit so tief in der globalen Infrastruktur verankert, dass das Fundament nicht mehr korrigiert werden kann.
00:11:05: Deswegen müssen wir jetzt handeln.
00:11:07: Wo stehen wir heute?
00:11:09: Wir haben angefangen ein internationales wissenschaftliches Team vorzubereiten.
00:11:15: Wir sind mit Gesprächen mit Universitäten in Europa, Schweiz.
00:11:22: Wir haben ein weltweit anerkannten Experten aus der KI-Forschung Im Team.
00:11:29: Wir sind im Austausch mit führenden Ethik und KI Governance Experten im Austausch.
00:11:37: Und zwar ist das Prof.
00:11:38: Dr.
00:11:39: Virginia Dignum.
00:11:40: Sie ist KI Ethik Beraterin der UN und UNESCO und sie leitet ein AI Policy Lab in Schweden.
00:11:53: Wir haben eine Bewerbung offen, über dreihunderttausend Schweizer Franken beim Foresight Institute.
00:12:00: Und wir haben eine professionelle wissenschaftliche Strukturierung begonnen von diesem ultra komplexen Thema.
00:12:09: Wir warten nun Ende November ein Update vom Forsyth Institute.
00:12:13: Unsere Unterlagen liegen auf dem Tisch.
00:12:15: Wir sind im Prozess.
00:12:16: Erst vorgestern waren sie auf meinem LinkedIn-Profil.
00:12:20: Das ist Teil ihres Auswahlprozesses.
00:12:24: Sie wollen sicherstellen, dass die Personen hinter dem Antrag das gleiche Mindset tragen.
00:12:32: Das Projekt wird international also ernst genommen.
00:12:35: Warum wir jetzt Unterstützung brauchen?
00:12:37: Und das ist jetzt die harte Realität, auch warum es letzte Woche keinen... keine Erfolge gab.
00:12:45: Wir arbeiten in einem Projekt mit globaler Tragweite.
00:12:48: Und gleichzeitig stehen wir wie jede frühe Forschung vor einer finanziellen Brücke.
00:12:53: Wir benötigen Hundertfünfzigtausend Franken für die nächsten acht Wochen.
00:12:57: Aufbau der wissenschaftlichen Workpackages, Begleitung für Vertragsstrukturen, Teamaufbau, juristische Strukturen, Koordination mit Forschungsinstitutionen und die Absicherung gegen externe Einflussnahmen.
00:13:14: Denn insbesondere der letzte Punkt ist massiv unterschätzt.
00:13:19: Was wir hier bauen, wird nicht jedem gefallen und erst recht nicht den großen Technologiekonzern, weil was wir hier bauen, führt zu Machtverlust.
00:13:32: Wir erwarten Mitte Ende Dezember ein erstes größeres Finanzierungspaket.
00:13:36: Aber diese Überbrückung müssen wir jetzt schließen.
00:13:39: Das ist genau der Grund.
00:13:42: Denn ich suche philanthropische Investoren, Impact-Investoren, die jetzt genau dieses Thema sehen und uns helfen, diese Zeit jetzt zu überbrücken.
00:13:54: Und warum sind jetzt diese Unterstützer Teil der Lösung?
00:13:57: Menschen, die jetzt unterstützen, sind keine stillen Geldgeber.
00:14:01: Sie werden Teil der Entstehung.
00:14:03: Sie stehen im Inneren Kreis dieses Projekts, sie tragen damit auch Verantwortung.
00:14:07: Und sie werden Teil der Geschichte, die hier entsteht.
00:14:11: Was wir Unterstützern kurzfristig zurückgeben können.
00:14:15: Nicht jeder möchte oder kann rein filantropisch spenden.
00:14:19: Das ist verständlich.
00:14:21: Darum haben wir eine zweite Ebene geschaffen über Brandmind.
00:14:25: Brandmind bleibt die Brücke.
00:14:28: Wenn jemand große Projekte bringt, die mit KI-Transformation von Unternehmen zu tun haben, sei es Daten, Führung, Kultur, Prozesse, Marketingverkauf oder Kundenerfahrung, dann bekommt diese Person einen prozentuellen Anteil aus dem Umsatz.
00:14:43: Und ein Teil dieses Umsatzes fließt wiederum direkt in Exedion.
00:14:48: Diese Projekte sind also nicht nur Umsatz, sondern Forschungsgrundlage.
00:14:53: Sie füttern das Fundament von Exedion.
00:14:56: Sie helfen uns, reale Unternehmenssysteme zu verstehen und die Prüfarchitektur weiterzuentwickeln.
00:15:04: Und so unterstützt ihr kurzfristig das Projekt und langfristig die Menschheit.
00:15:12: Wenn du also jemanden kennst, Stiftungen, philantropische Menschen, Institutionen, Persönlichkeiten, die Verantwortung tragen möchten, Menschen, die sehen, was hier entsteht, dann teile diese Folge.
00:15:27: Leite sie weiter.
00:15:29: Geh in dein Netzwerk und schau, wer aktiv hier finanziell unterstützen kann.
00:15:35: Nicht nur für uns, für uns alle.
00:15:38: Das ist hier ein Menschheitsprojekt, das ist kein Technologieprojekt.
00:15:42: Noch einmal.
00:15:43: KI-Forscher gehen aktuell raus, führen TED Talks und erzählen, dass sie Angst haben, dass ihre Kinder in den nächsten zwanzig Jahren keine Welt mehr erleben.
00:15:53: Und das ist kein Science-Fiction.
00:15:56: Wir brauchen keine Zuschauer, wir brauchen Alliierte.
00:16:02: Und ich denke, ihr könnt dabei unterstützen und ich bitte daher um Verständnis, dass es vielleicht bis Dezember immer mal wieder sein kann, dass vielleicht eine Folge ausfällt oder zu spät kommt.
00:16:18: Und daher danke ich euch, dass ihr bisher immer dabei wart und seid.
00:16:25: Wir arbeiten jetzt weiter, konzentriert, entschlossen, auch ohne Halt.
00:16:32: Und wie immer, mit voller Klarheit.
00:16:37: Klar, nicht für alle, aber vielleicht genau für Dich.
Neuer Kommentar