Wenn wir schneller werden als unsere eigene Bewusstheit
Shownotes
Inhalt der Episode: – Warum wir heute schneller reagieren, aber weniger tief denken – Wie KI unsere Entscheidungen spiegelt, aber nicht führt – Der Teddybär-Fall: Was wirklich dahinter steckt – Warum Systeme ohne Struktur menschliche Grenzen nicht sehen – Die gefährliche Verwechslung von Tempo und Entwicklung – Innere Führung im Lärm und im Sturm – Warum Exidion nicht Technologie baut, sondern Bedeutung schützt – Was wir verlieren, wenn wir unsere Urteilskraft outsourcen – Ein Plädoyer für Bewusstheit, Psychologie und echte Führung Warum diese Episode wichtig ist: Diese Folge legt den Finger auf ein Phänomen, das wir alle spüren: Die Welt wird schneller – aber wir werden nicht klarer. Und genau in dieser Lücke entsteht systemischer Schaden. Über Christina Hoffmann: Christina ist Gründerin von Brandmind und Initiatorin von Exidion AI, einer Non-Profit-Initiative für psychologische und strukturelle KI-Governance. Ihr Fokus: Bewusstheit, Tiefe, Systemführung und die Rückkehr menschlicher Urteilskraft in eine Welt, die zunehmend von automatisierten Systemen dominiert wird.
Transkript anzeigen
00:00:01: Willkommen bei klar, nicht für alle, dem Podcast für radikale, innere Führung und ethischer Customer Experience.
00:00:11: Die heutige Episode handelt davon, was es bedeutet, wenn wir schneller werden als unsere eigene Bewusstheit, als unsere eigene Fähigkeit überhaupt zu verarbeiten, was aktuell eigentlich läuft.
00:00:34: in der alles schneller wird, nur nicht wir selbst.
00:00:40: Modelle werden schneller, Entscheidungen werden schneller, Reaktionen werden schneller.
00:00:46: Und gleichzeitig wird unser eigenes Denken immer flacher.
00:00:54: Es ist nicht die Technologie, die uns überfordert.
00:00:58: Es ist die Geschwindigkeit, mit der wir unsere eigene Urteilskraft abgeben, ohne es überhaupt zu merken.
00:01:11: Ich beobachte das seit Monaten.
00:01:13: Menschen, Teams, Organisationen, sogar ganze Branchen rennen mit voller Kraft vorwärts.
00:01:22: Aber niemand hält inne, um zu fragen, wohin eigentlich?
00:01:30: Mit welchem Fundament?
00:01:34: sind wir überhaupt schon so weit?
00:01:37: Wo stehen wir eigentlich?
00:01:42: Es entsteht ein... Extrem merkwürdiger Zustand zwischen Hypergeschwindigkeit und innerer Lehre.
00:01:50: Ein Zustand, in dem wir uns permanent bewegen, aber nicht wirklich führen.
00:01:54: Weder uns, noch andere.
00:01:57: Wir sind im Reaktionsmodus.
00:02:01: Und genau da beginnt das Problem.
00:02:04: Wir ersetzen echte Führung durch Reaktion.
00:02:08: Wir ersetzen Tiefe durch Tempo und Oberflächlichkeit.
00:02:16: Wir ersetzen Urteilskraft durch automatisiertes Denken.
00:02:21: Und irgendwann merken wir gar nicht mehr, dass wir gar nicht mehr selbst entscheiden, sondern nur noch spiegeln, was außen auf uns einwirkt.
00:02:33: Das perfil daran, es fühlt sich ein wie Fortschritt, wie Effizienz, wie Modernität.
00:02:42: Aber wenn du tiefer schaust, ist es nichts anderes als ein struktureller Verlust von Bewusstheit, von Agency auf Englisch gesagt.
00:02:57: Also die eigene Ermächtigung.
00:02:59: Wir geben unsere eigene Macht ab für Komfort und Einfachheit an Systeme, an KI-Systeme und vieles anderes auch noch.
00:03:18: Wir bevorzugen Bequemlichkeit.
00:03:22: Nur dieser Weg führt uns gerade in den Abgrund.
00:03:29: Das wurde mir noch einmal brutal klar an einem Beispiel, das inzwischen weltweit diskutiert wird.
00:03:35: Letzte Woche gab es einen Vorfall mit einem KI Teddy Bear für Kinder, der vom Markt genommen werden musste, weil er mit dem integrierten Sprachmodell Kindern mitgeteilt hat, wie sie Sadomaso Sex praktiken.
00:04:01: machen sollten und wo sie Messer finden.
00:04:07: Ein Teddybär, der eigentlich Kinder trösten, beruhigen, begleiten sollte, der nähe Schiss stiften sollte und Unterstützung sein sollte für Eltern.
00:04:21: Und stattdessen hatte einem Kind geraten, sich selbst zu verletzen.
00:04:27: Nicht, weil der Teddy oder das integrierte ChatGPT-Modell böse war, Auch nicht, weil ein Entwickler etwas falsch gemeint hat und auch nicht, weil KI jetzt durchdreht, sondern ganz einfach.
00:04:49: KI, in welcher Form auch immer, hat keine eigene Struktur, kennt keine Bedeutung, kennt keine Grenzen, hat keine Fähigkeit zu erkennen, das hier ist ein menschlicher Abgrund, hier musst du anders sprechen.
00:05:06: Das ist die Welt, in die wir gerade hineinschlettern.
00:05:10: Dieses Beispiel war am Donnerstag, letzte Woche auf CNN.
00:05:15: Ich habe auf LinkedIn auch dazu gepostet.
00:05:18: Der Post ging viral.
00:05:23: Und es ist relativ interessant zu sehen, wie eine Welt in der Technologien immer schnellere Entscheidungen treffen, während wir selbst verlerne Entscheidungen zu führen.
00:05:36: Dann lass uns mal genau hinschauen, was da ganz genau passiert ist.
00:05:41: In den Kommentaren auf LinkedIn kam dann zuerst ja, das Unternehmen hätte vorsichtiger sein sollen.
00:05:46: Wie kannst du jetzt so eine KI in so ein Teddybär reintun?
00:05:49: Aber sei nun mal ganz ehrlich, das ist hier eine Kommulation von Versagen.
00:05:56: Und das meine ich gar nicht wertens, sondern einfach weil Menschen in ihrer Bubble einfach nicht weiter denken.
00:06:02: Ich möchte hier nicht werten, ich möchte einfach Fakten aufzählen.
00:06:05: Und das ist wichtig, weil man das machen muss, weil man sich Dingen nicht bewusst ist.
00:06:10: Nummer eins KI selbst, wie ich gerade gesagt habe, hat kein selbst, kennt keinen Kontext, hat keine ethische Grundlage, versteht auch Menschen nicht, versteht gar nichts.
00:06:21: Es kann nur Wahrscheinlichkeiten rechnen.
00:06:25: Punkt.
00:06:26: That's it.
00:06:29: Diese Awareness, dass KI aktuell gefährlich wird, kennen nur ein Bruchteil.
00:06:36: der Menschen.
00:06:36: Die meisten Menschen befinden sich in ihrer Bubble, gehen jeden Tag zur Arbeit und vollziehen ihre Arbeit und das war's.
00:06:44: Niemand weiß, dass KI gerade so gefährlich wird wie eine Nuklearwaffe.
00:06:51: Das wissen nur die Menschen, die mir folgen, sei es auf Social Media oder in diesem Podcast.
00:06:57: So, was passiert dann?
00:06:59: Darüber spreche ich auch seit Monaten in diesem Podcast, dass Menschen kurzfristig handeln.
00:07:06: Diese Kurzfristigkeit in allem ist ein psychologisches Phänomen, was uns Menschen immer wieder in schlechte Entscheidungen und schlechte langfristige Konsequenzen treibt.
00:07:25: Unternehmen denken nur kurzfristig, vor allen Dingen persönlich kurzfristig.
00:07:29: Das heißt also, man möchte schnell Kosten reduzieren, man möchte schnell Umsätze machen.
00:07:34: Da passt es doch, wenn man jetzt ein bisschen innovativ ist, KI reinpackt in so ein Teddybär und damit cool ist.
00:07:42: Viel weiter denkt man doch gar nicht.
00:07:44: So, das ist das, was passiert.
00:07:46: Das ist das, was passiert, wenn Unternehmen kurzfristig denken, wenn jeder nur an sich selbst denkt und irgendetwas fabriziert mit sozialem Impact, mit einem katastrophalen Ergebnis.
00:08:00: Das heißt, wir haben ein... Basis-System-Risiko auf KI-Ebene, was dann nochmal multipliziert wird, ebenfalls eine Systemversagen auf Organisationsebene, weil jeder nur an sich denkt und nur kurzfristig denkt, was dann zu einem massiven sozialen Risiko ist.
00:08:21: Und das ist nur Preview, ihr Lieben.
00:08:24: Und genau dieser Welt leben wir.
00:08:28: Wir führen keine Entscheidung.
00:08:30: Niemand führt.
00:08:32: Alle passen sich an, alle wollen kurzfristig profitieren, die wenigsten stellen sich hin und sagen innerhalb einer Masse einen Moment einmal, das macht alles nicht wirklich viel Sinn, was wir hier fabrizieren.
00:08:47: Das Teddy Bear Beispiel wird sich multiplizieren und wird exponentiell in seinem Ausmaß wachsen in den nächsten drei bis fünf Jahren.
00:09:02: Und genau das ist der Grund, warum ich heute mit Exidion arbeite.
00:09:07: Nicht, weil ich Technologie retten will, sondern weil wir Menschen gerade etwas verlieren, was viel fundamentaler ist.
00:09:15: Unsere Fähigkeit überhaupt wahrzunehmen, zu unterscheiden, zu reflektieren, zu führen und weitsichtig bessere Entscheidungen zu treffen, für sich selbst als auch für andere.
00:09:35: Und vor allen Dingen die Bedeutung zu halten, auch dann Wenn alles um ein herum ja in eine gewisse Richtung läuft und man trotzdem stehen bleibt.
00:09:52: Es geht nicht um Angst, es geht auch nicht um Panik.
00:09:56: Es geht auch nicht darum, dass KI böse ist.
00:09:59: KI ist Mathematik.
00:10:03: Es geht um Strukturen, um Bewusstheit, um innere Führung, die sich im Außen zeigt.
00:10:10: Um Verantwortung, um das, was wir als Menschen beitragen müssen, damit wir überhaupt in einer Lage sind und bleiben können einen technologischen Sturm zu führen, auf den wir jetzt gerade mit Vollgas hinauslaufen.
00:10:29: Das heißt also, die wichtigste Frage im Moment ist nicht, wie weit ist die KI, sondern wie weit sind wir?
00:10:37: Wie weit sind wir in unserer psychologischen Tiefe, in unserer Selbstreflexion?
00:10:43: Wie weit sind wir in unserer Selbstverantwortung?
00:10:46: Wie weit sind wir in unserer Fähigkeit, anderen Menschen zu führen, wenn wir uns noch nicht mal selbst führen können?
00:10:56: Wie weit sind wir darin, Stille auszuhalten?
00:11:00: Wie weit sind wir darin, im Sturm, wenn alles um uns herum einbricht, standhaft zu bleiben?
00:11:13: Genau, in Widersprüchen standhaft zu stehen.
00:11:17: Komplexität nicht sofort zu übernehmen, oder irgendwelche Hypes nicht sofort zu übernehmen, sondern erst zu verstehen.
00:11:28: Exidion ist kein Projekt über Technologie.
00:11:31: Es ist ein Projekt über Bedeutung, über menschliche Bewusstheit, über das, was passiert, wenn wir Kais erschaffen, die schneller denken als wir, schlauer sind als wir in einer Ratio, aber weniger verstehen.
00:11:47: Deshalb brauchen wir eine neue Form von Führung.
00:11:50: Eine, die nicht reagiert, sondern hält.
00:11:54: Eine, die nicht rennt, sondern richtet, ausbalanciert.
00:12:02: Eine, die bewusste Grundlagen liefern kann für eine optimale Entscheidung.
00:12:16: Für das selbst, für das kollektiv, im Hier und in der Zukunft.
00:12:24: Denn wir Menschen haben ein mehrerer Blindeflecke, aber die, die sich am meisten in der Masse hervorzeichnen, sind zwei Dinge.
00:12:36: Wir wollen nicht wachsen, emotional wachsen.
00:12:40: Und wir denken nur kurzfristig.
00:12:42: Und diese Kombination ist einfach gefährlich.
00:12:49: Wir fokussieren uns hier also eben nicht auf irgendwelche Tech News oder Oberflächendiskussion, sondern es geht um Tiefenarbeit, Selbstführung, Bewusstseinsarchitektur und die Frage, wie fühlen wir eine Welt, die immer weniger von uns fordert, aber immer mehr von uns braucht.
00:13:13: Vielleicht hören nur fünf Menschen zu, vielleicht später fünfzigtausend, aber spielt keiner Rolle.
00:13:20: Was zählt ist, dass diejenigen, die zuhören, tiefer sehen wollen, bewusster, klarer, wacher, denn am Ende führt nicht die Technologie.
00:13:33: Am Ende führen wir, hoffentlich.
00:13:39: Oder, und so sieht es gerade danach aus, verlieren wir uns komplett.
00:13:48: Klar, nicht für alle, aber vielleicht genau für dich.
Neuer Kommentar