KI Ethik im Business Luxusproblem oder Überlebensfrage

Shownotes

Wichtige Begriffe kurz erklärt • Black Box: Ein System, bei dem man nicht sauber sieht, warum es zu einem Ergebnis kommt. • Bias: Verzerrung in Daten oder Entscheidungen, zum Beispiel der Hang, Bestätigungen stärker zu gewichten als

Widerspruch. • Firewall: Schutzschicht, die riskante Outputs erkennt, warnt, korrigiert, im Zweifel stoppt. • Bridge: Übersetzungsschicht, die menschlichen Kontext maschinenlesbar macht, damit KI nicht nur rechnet, sondern sinnvoll wirkt. • ASPECTS: Psychometrisches Modell für sinnvolle, respektvolle Ansprache je Wahrnehmungspräferenz. • Ego Development: Reifegrade im Umgang mit Komplexität. Hilft, Entscheidungen so zu erklären, dass sie verstanden werden.

Vier Top Use Cases • Finance: Nachvollziehbares und faires Scoring, Schutz vor historischen Verzerrungen, Prüfpfad für Aufsicht. • Healthcare: Klare Stop-Regeln und Erklärpflichten bei unsicheren Empfehlungen. • Governance & Compliance: Kontinuierliche Prüfung statt Einmal-Audit, Übersetzung der Anforderungen in konkrete Checks. • Marketing & Customer Experience: Weg von Klickjagd, hin zu ethischer Personalisierung mit echtem Warum.

Quellen und weiterführend (ohne Fachjargon, zum Einordnen) • Daniel Kahneman: „Schnelles Denken, langsames Denken“ • ProPublica COMPAS Analyse zu Risiko-Scores in der Justiz • Kleinberg, Mullainathan, Raghavan: Warum Fairness-Definitionen nicht gleichzeitig erfüllbar sind • NIST AI Risk Management Framework • EU AI Act: Pflichten steigen stufenweise an

Mitmachen Du willst das 90-Minuten-Zoom zu Risiken im Kundenkontakt und zur psychologischen Firewall und Bridge nicht verpassen → Schreib mir eine DM auf LinkedIn mit „Zoom Liste“.

Transkript anzeigen

00:00:00: Willkommen bei klar, nicht für alle, dem Podcast für radikale innere Führung und ethischer Customer Experience.

00:00:08: Heute sprechen wir über eine Frage, die viele lieber ausblenden.

00:00:12: Ist KI Ethik im Business ein Luxusproblem oder eine Überlebensfrage?

00:00:19: Ich mache es dir heute leicht und versuche ohne Fachchenesisch die Begriffe Stück für Stück zu erläutern.

00:00:26: Das sollten wir uns erstmal einen Überblick darüber verschaffen, was KI heute wirklich ist.

00:00:35: Denn viele denken, das sei jetzt die Übernatur an Intelligenz und dabei ist sie in der Basis immer noch dumm.

00:00:46: Wenn wir über KI sprechen, reden wir in Wahrheit über Wahrscheinlichkeiten.

00:00:51: Eine KI sucht Muster in Daten und berechnet, was wahrscheinlich als nächstes passiert.

00:00:58: Das ist wichtig zu verstehen.

00:01:01: Denn was ist der Mechanismus hier?

00:01:03: Die Maschine berechnet, sie versteht aber gar nichts.

00:01:08: Sie weiß nicht, was es bedeutet.

00:01:11: Es gibt Null Kontext.

00:01:14: Sie kennt kein Warum.

00:01:17: Sie kennt nur, wie oft kam das so vor.

00:01:21: Wir kennen diesen Mechanismus im Kleinen, im Business, in Datenanalysen und den Schlüssen, die wir daraus ziehen.

00:01:29: Und die sind persönlich schlecht.

00:01:31: Sie sind einfach nicht ausreichend.

00:01:33: Denn es fehlt immer das Warum.

00:01:35: Das ist das, was ich in früheren Episoden immer wieder und immer wieder aus der reinen Brandmeinsicht gesagt habe.

00:01:43: Wenn du nicht weißt, warum ein Kunde kauft, wirst du dich immer optimieren müssen ohne Ende.

00:01:51: Du wirst immer versuchen, den hinterletzten, Null, drei Prozent Teil an KPI noch zu optimieren.

00:02:00: Das kann es nicht sein.

00:02:04: Wenn den idealen Menschen den KI gern annimmt, den Homo Ökonomikus, das kommt aus der Mikro- und Makroökonomie.

00:02:14: Das heißt, der rein rationale Mensch.

00:02:17: Man geht also davon aus, dass wir Menschen, das tun wir immer noch, das wird davon ausgehen, dass der Mensch rein rational ist und immer nutzen maximiert, handelt.

00:02:29: Die Realität ist aber komplett anders.

00:02:32: Ein großer Teil unseres Verhaltens läuft automatisch ab.

00:02:36: im sogenannten limbischen System des Gehirns.

00:02:42: Das ist nicht verrückt oder unlogisch, es ist menschlich.

00:02:46: Wir reagieren aus Erinnerung, Stimmung, Gruppendruck, vor allen Dingen Gewohnheit.

00:02:54: Nennen wir es mal Bauchgefühl.

00:02:57: Das ist nicht schlecht, es ist normal.

00:03:00: Und jetzt stellen wir uns doch mal vor in der heutigen, super schnellen digitalen Welt.

00:03:05: Unser Gehirn ist gar nicht in der Lage, so viele Informationen rein rational zu verarbeiten, um immer und konstant die richtige Entscheidung zu treffen.

00:03:16: Wir handeln Pi mal Daumen, basierend auf den Aspekten, die ich gerade erwähnt habe.

00:03:22: Das nennt sich Heuristik.

00:03:25: Und diese Annahmen sind zu ninety-fünf Prozent falsch.

00:03:29: Und deswegen handeln wir irrational.

00:03:32: Und das ist nur ein Teil davon.

00:03:34: In der letzten Episode habt ich ja noch von den inneren Reifegraden gesprochen.

00:03:44: Wenn wir die noch mit reinnehmen, dann sind wir schon fast bei hundert Prozent, wo wir nicht rational handeln.

00:03:50: Wenn eine KI also nur nackte Wahrscheinlichkeit sieht, aber keinen menschlichen Kontext entstehen massive Fehler im komplett automatisierten Prozess.

00:04:05: Die wirken zuerst klein.

00:04:08: bis sie extrem groß werden und riesigen Schaden anrichten.

00:04:14: Nehmen wir mal drei Beispiele.

00:04:16: Kreditentscheidung.

00:04:18: Die KI sieht Zahlungsverhalten, Wohnort, Branche, der Klassiker.

00:04:24: Sie sieht aber nicht, dass du dich gerade um ein krankes Familiemitglied kümmerst und darum Teilzeit arbeitest und dass das eine für rübergehende Situation ist und für die Maschine sinkt deine Bonität.

00:04:38: Das bedeutet, das Ergebnis ist unfair und nicht klar auf die Situation betrachtet.

00:04:46: Und das findet heute schon statt.

00:04:49: Wenn man aber zusätzliche Informationen, also Kontext, warum und beobachtend Informationen hinzuzieht, kannst du besser reagieren, neue Produkte entwickeln, besseren Kundenservice aufbauen etc.

00:05:07: etc.

00:05:10: Nehmen wir ein zweites Beispiel, Recruiting.

00:05:13: Die KI sortiert Bewerbungen vor.

00:05:15: Das wird der erste Schritt sein, wenn es das nicht schon teilweise ist.

00:05:20: Wenn die Trainingsdaten alte Vorurteile enthalten, was sie tun, wiederholt die KI sie.

00:05:29: Nicht aus bösem Willen, sondern weil Muster kopiert werden.

00:05:33: Am Ende werden gute Leute aussortiert, nur weil sie nicht aussehen wie die Mehrheit aus der Vergangenheit.

00:05:39: So ein ähnliches Beispiel, das ging dann aber schon ziemlich weit in Richtung Rassismus, ist international schon aufgetreten.

00:05:49: Drittens, Kundenkontakt.

00:05:52: Ein Checkbot antwortet dir, er ist freundlich, aber er versteht nicht, dass du wütend bist, weil gestern zum dritten Mal etwas schief gelaufen ist.

00:06:00: Er kennt die Emotion nicht, also eskaliert er nicht.

00:06:04: Du fühlst dich nicht ernst genommen, Vertrauen sinkt.

00:06:08: Und dann versuchst du ehlendig lang irgendeine Hotline durchzuarbeiten, bis vielleicht jemand reagiert.

00:06:18: Alles passiert nicht in zehn Jahren, das ist heute schon der Fall.

00:06:26: Warum immer mehr KI das Problem verstärken kann?

00:06:30: Viele glauben, wenn wir das Modell nur größer machen, lösen sich die Fehler.

00:06:34: Das ist so ein bisschen wie Denkenauslagern.

00:06:38: Nein, im Gegenteil, das ist das Fatalste, was wir tun können.

00:06:44: Ein größerer Motor ohne Lenkung fährt nur schneller an die Wand.

00:06:52: Hier fällt oft das Wort Black Box.

00:06:55: Das heißt ganz einfach, man kann nicht wirklich reinschauen, warum die Maschine genau diese Entscheidung getroffen hat.

00:07:01: Es ist nicht transparent genug.

00:07:04: Wenn du Regeln mitten in diese Black Box packst, verschwinden sie wieder im Dunkeln.

00:07:10: Und dann kann niemand prüfen, ob die Regeln eingehalten wurden.

00:07:14: Und noch ein Wort, das oft fällt Bye jetzt.

00:07:18: Also Verzerrung, kognitive Verzerrung.

00:07:22: Eine typische Verzerrung im Alltag.

00:07:24: Du denkst alle fahren schlecht, weil du gerade Zweires Kante über Ruhlmanöver gesehen hast.

00:07:30: Die zwei Beispiele prägen dich stärker als hundert normale Farben.

00:07:35: Zumindest für diesen Tag.

00:07:38: So ähnlich lernen Modelle aus Daten.

00:07:40: Wenn die Beispiele schief sind, kippt das Ergebnis.

00:07:45: Das heißt, man schließt von gewissen Ja, Situationen, tiefgehende Situationen, wo man Details kennt, sehr schnell auf die Gesamtheit.

00:08:01: Und diese Verzerrungen sind stand heute auch mit in der KI verwurzelt.

00:08:06: Warum?

00:08:07: Weil wir Menschen solche Aspekte ganz am Anfang in der KI-Entwicklung null integriert haben.

00:08:14: Was fehlt heute also zwischen KI und Realität?

00:08:18: Es fehlt eine Bewertungsebene.

00:08:22: Die KI liefert eine Wahrscheinlichkeit.

00:08:24: Mit zweiundachzig Prozent ist Variante A richtig.

00:08:29: Aber wer entscheidet, wie dieses Ergebnis benutzt wird, wo Grenzen sind, wann gestoppt wird, wann erklärt werden muss und was ethisch ist.

00:08:42: Diese Bewertungsebene ist kein nice to have.

00:08:45: Sie ist der Unterschied zwischen funktioniert im Labor und ist verantwortbar im echten Leben.

00:09:01: jetzt in unseren gemeinnützigen Vereinen Exidion AI.

00:09:07: Und was ist Exidion AI?

00:09:11: Wir bauen eine Firewall und eine Brücke zwischen Maschine und Mensch.

00:09:19: Firewall heißt eine Schutzschicht, die im Zweifel warnt, korrigiert oder blockt, bevor ein Output Schaden anrichtet.

00:09:31: Die Brücke heißt eine Übersetzungsschicht, die menschliche wie Psychologie, Entwicklung und Kultur so aufbereitet, dass eine Maschine damit arbeiten kann.

00:09:44: Also echtes Warum in Maschinen lesbarer Form.

00:09:51: Was jetzt noch wichtig ist, erneut zu verstehen.

00:09:54: Exidion sitzt außerhalb der KI, der jetzigen KI, also des Modells.

00:10:01: Warum außerhalb?

00:10:03: Du kannst ein System nicht sinnvoll bitten, sich selbst zu auditieren.

00:10:09: Eine Blackbox kann nicht ihre eigene Prüferin sein.

00:10:14: Das ist wie bei einem Hausbau.

00:10:16: Du kannst kein neues Fundament unter ein Haus schieben, das schon steht und bewohnt wird.

00:10:22: Wenn du Stabilität willst, brauchst du etwas daneben, das hält, prüft und im Notfall stoppt.

00:10:31: Woraus bestehen diese Regeln ganz konkret?

00:10:34: Wir arbeiten zuerst an zwei Säulen, die aus der Praxis kommen und die du ganz sicher aus Brandmines schon kennst, aus den früheren Episoden.

00:10:42: Die Säule eins, die erste Säule, die wir bereits haben, aus acht Jahren Pionierarbeit.

00:10:48: Unser psychologisches Aspectsmodell, das Persönlichkeits- und Motivationspsychologie vereint und wissenschaftlich entwickelt wurde.

00:10:58: Das ist ein psychometrisches Modell, das beschreibt, wie Menschen Informationen bevorzugt wahrnehmen.

00:11:04: Manche reagieren stark auf Bilder und Atmosphäre, andere auf Zahlen und Klarheit, wieder andere auf Geschichten und Beziehungen.

00:11:12: Aspects hilft uns, Sprache und Bildwelten, so zu wählen, dass sie respektvoll passen, nicht manipulativ, sondern passend.

00:11:21: Wenn du einen Menschen abholst, wie er wirklich tickt, fühlt, wie er sich gesehen, ja, gesehen, nee, sehen möchte oder von anderen gesehen werden möchte, so rum.

00:11:34: Das ist die Basis für ethische Personalisierung.

00:11:39: Säule zwei, Egoentwicklung.

00:11:43: Das hatten wir im letzten Podcast in der letzten Folge.

00:11:47: Das klingt groß, ist aber einfach.

00:11:49: Menschen haben unterschiedliche Reife gerade und ich hatte beim letzten Mal schon erwähnt, dass die meisten Menschen sich nicht entwickeln und in den unteren Stufen leider hängen bleiben.

00:11:59: So, und das bedeutet auch, dass wir unterschiedliche Reife gerade im Umgang mit Komplexität haben.

00:12:04: Nehmen wir mal ein Beispiel.

00:12:05: Ein Kind will sofortige Belohnung.

00:12:08: Eine Erwachsene kann warten und abwägen.

00:12:12: Übertragen auf Kommunikation heißt das.

00:12:14: Sprich mit Menschen so, dass sie die Komplexität verdauen können, statt sie zu überfordern oder klein zu reden.

00:12:22: Aus diesen Reifegraden machen wir klare Regeln.

00:12:25: Zum Beispiel, wenn eine Empfehlung hohe Unsicherheit hat, dann erkläre in einfachen Schritten, was sicher ist, was unsicher ist und welche Entscheidungsspielräume es gibt.

00:12:38: Und das kann sogar weitergesponnen werden.

00:12:41: Menschen mit geringerer innerer Reife gerade brauchen sehr klare Anweisungen und Regeln, an die sie sich halten wollen.

00:12:49: Menschen mit höheren Entwicklungsstufen brauchen das nicht mehr.

00:12:54: Dementsprechend muss die Sprache angepasst werden.

00:12:58: Die beiden Säulen übersetzen wir in sogenannte Scoring, Bewertungen und Monitoring.

00:13:06: Scoring heißt also, welcher Output erfüllt die Regeln, welcher nicht?

00:13:11: Und Mentoring heißt, wir schauen kontinuierlich draus, nicht nur einmal im Audit.

00:13:17: Wenn etwas kippt, geht eine Ampel an.

00:13:20: Gelb für prüfen, rot für stoppen.

00:13:26: Mit Finanzierung, die wir jetzt gerade anpeilen, an großen Stiftungen, wir haben uns jetzt letzte Woche im UK AI Alignment Projekt beworben, für eine Million Pfund.

00:13:42: möchten wir schrittweise weitere Disziplinen ergänzen.

00:13:47: Und einige davon hatte ich immer mal wieder erwähnt.

00:13:50: Ich erwähne sie jetzt aber nochmal.

00:13:51: Sie klingen akademisch, aber sie sind wichtig und ich versuche jetzt zu erklären warum.

00:13:59: Organisationspsychologie und da befinden wir uns ja im Business.

00:14:03: Wie Gruppen entscheiden, wie Silos entstehen, wie Macht wirkt.

00:14:07: Das schützt vor Fehlentscheidungen in Teams, nicht nur bei Einzelnen.

00:14:12: Organisationen!

00:14:14: Das ist das, was ich in früheren Episoden immer wieder gesagt habe.

00:14:17: Handeln alles andere als rational.

00:14:21: Denn das kurzfristige Entscheidend führt langfristig in den Kollaps.

00:14:27: Und das ist das Fatale, weil wir Menschen nicht in der Lage sind, diese Langfristigkeit vorauszusehen.

00:14:35: Und Exidion wird in Zukunft genau das sozusagen spiegeln.

00:14:44: Dann haben wir Sozialpsychologie.

00:14:46: wie Menschen sich in Gruppen beeinflussen.

00:14:48: Nützlich, um Herde, Trend, Gruppendruck zu erkennen und nicht blind zu verstärken.

00:14:55: Dann haben wir Neuroscience.

00:14:57: Was im Gehirn passiert, wenn wir entscheiden.

00:15:00: Zum Beispiel Stress.

00:15:01: Unter Stress sinkt die Qualität von Entscheidungen.

00:15:05: Das gehört in die Bewertung rein.

00:15:09: Kulturelle Anthropologie.

00:15:11: Kontext und Kultur.

00:15:14: Was in Zürich funktioniert, kann in Tokio völlig daneben liegen.

00:15:19: Wir brauchen Regeln, die Kultur sichtbar machen.

00:15:24: Dann noch Verhaltenspsychologie.

00:15:26: Das sind die berühmten Denkfehler, von denen ich schon einmal gesprochen habe in diesem Podcast.

00:15:32: Also beispielsweise kognitive Verzerrungen im Bereich Selbstbestätigung.

00:15:40: Wir überschätzen uns konstant in allem.

00:15:43: Perfügbarkeitsverzerrung.

00:15:45: Das heißt, das, was uns zuerst im Sinn kommt, ist das, was wir als Referenz... für uns wählen, etc.

00:15:54: Es gibt ganz viele.

00:15:55: Wir haben hundred-achtzig plus solche kognitiven Verzerrungen.

00:15:59: Wir katalogisieren diese Fallen und legen fest, wie die KI damit umgehen soll.

00:16:05: Und dann, last but not least, aber recht wichtig ist Epistemic.

00:16:10: Epistemic bedeutet eigentlich nichts anderes als, wir müssen innerhalb einer KI klar belegen können, woher kommt die Information.

00:16:21: Wie lernt das System genau weiter?

00:16:23: Es muss alles transparent sein.

00:16:25: Das ist genau dieses Auflösen der Black Box.

00:16:33: So entsteht Stück für Stück ein Regelwerk, das man prüfen, erklären und verbessern kann.

00:16:38: Keine Magie, keine Black Box, sondern hartes Handwerk.

00:16:46: Viele fragen, warum baut ihr das nicht direkt in die KI ein?

00:16:50: Das wäre doch jetzt das einfachste.

00:16:51: Wieso machst du dir so dein Leben schwer und baust irgendwas Separates?

00:16:59: Naja, weil es dann wieder unsichtbar würde.

00:17:01: Es würde genau gar nichts bringen.

00:17:03: Du würdest Regeln in die Blackbox schieben und niemand könnte mehr prüfen, ob sie noch wirken.

00:17:10: Und dann wäre es besser, in die Richtung zu gehen, dir das vorzustellen wie Cyber Security.

00:17:18: Du fragst nicht den Virus, ob er sich selbst erkennt.

00:17:21: Du brauchst eine Firewall außerhalb des Systems.

00:17:24: Und genau hier ist es der gleiche Fall.

00:17:29: Das Schöne an einem externen Layer ist, er ist übertragbar.

00:17:34: Du kannst ihn in verschiedenen Modellen verbinden, heute mit diesem Anbieter, morgen mit einem anderen.

00:17:40: Deine Regeln bleiben deine Regeln.

00:17:43: Das würde gehen, zumindest für den Anfang.

00:17:47: Wenn wir aber in Richtung AGI denken, reicht das nicht mehr.

00:17:51: Dann braucht es eine eigene Version, weil das würde sonst nicht tragfähig sein.

00:18:00: Wohin steht also zuerst echter Mehrwert?

00:18:04: In der Praxis.

00:18:06: Niemmal den Bereich Finanzen.

00:18:09: Kredit- und Anlageentscheidungen heikle Sache.

00:18:12: Wir sorgen dafür, dass Entscheidungen nachvollziehbar sind, dass Verzerrungen erkannt werden und das erklärt wird, warum A und nicht B. Das Schütz Kunden schützt aber auch die Bank.

00:18:24: Beides ist nötig.

00:18:27: Healthcare.

00:18:28: Wenn eine KI bei Diagnosen oder Therapienfehlungen hilft, muss klar sein, was sicher ist, was unsicher ist und was auf keinen Fall ohne Ärztin in die Umsetzung darf.

00:18:38: Exidion macht daraus klare Stoppregeln und Erklärpflichten.

00:18:43: Das rettet Vertrauen und am Ende Gesundheit.

00:18:49: Drittens Governance und Compliance.

00:18:51: Regelwerke kommen.

00:18:53: Es reicht nicht, schöne PDFs zu schreiben.

00:18:54: Man braucht laufende Prüfungen.

00:18:57: Exidion übersetzt abstrakte Anforderungen, konkrete Prüfpunkte, nicht einmal im Jahr, sondern konstant.

00:19:04: und Lease, Marketing, Sales und Customer Experience.

00:19:08: Das ist das Erbe von Brand Mind.

00:19:11: Weg von reiner Klickoptimierung hin zur ethischer Personalisierung.

00:19:15: Das heißt, wir bringen das Warum in die KI.

00:19:18: Warum passt diese Ansprache zu diesen Menschen?

00:19:21: Warum hat er das und das in der letzten Zeit gekauft?

00:19:24: Warum ist diese Empfehlung sinnvoll?

00:19:28: Menschen fühlen sich emotional abgeholt und es bleibt sauber.

00:19:32: Kein Manipulationstrick, sondern echte Passung.

00:19:38: Vielleicht ein kleines Bild zum Mitnehmen.

00:19:42: Stell dir einen Wagen vor.

00:19:44: Der Motor ist die KI.

00:19:47: Er wird jedes Jahr stärker.

00:19:50: Exidion sind Bremsen und Lenkung.

00:19:53: Ohne die beiden wird aus Geschwindigkeit ein Risiko.

00:19:56: Mit Bremsen und Lenkung wird aus Geschwindigkeit Fortschritt.

00:20:01: Was heißt das für dich im Alltag?

00:20:03: Wenn du in deinem Unternehmen gerade KI einsetzt oder planst.

00:20:07: dann stellt ihr zwei einfache Fragen.

00:20:10: Ersten, es liefert das Modell an Wahrscheinlichkeit.

00:20:15: Und zweitens, wie bewertet, begrenzt und erklärt ihr diesen Output, bevor er echte Menschen betrifft.

00:20:24: Wenn du auf die zweite Frage keine klare Antwort hast, wovon ich ausgehe, dann fehlt dir die Schutzschicht.

00:20:31: Und genau da setzt Exidion an.

00:20:35: Die psychologische Firewall, die im Zweifel stoppt, Die Brücke, die menschlichen Kontext verständlich macht.

00:20:42: Außen am System, damit es prüfbar bleibt.

00:20:45: So wird KI von einem rein Effizienzwerkzeug zu einem System, das mit Menschen arbeitet, nicht über sie hinweg.

00:20:57: Wenn du tiefer einsteigen willst, wenn du dein Team dafür sensibilisieren willst oder wenn du konkrete Anwendungsfälle prüfen möchtest, dann melde dich.

00:21:05: Wir starten bewusst mit kleinen, beweisbaren Schritten.

00:21:09: Lieber klar und sauber als groß und hohl.

00:21:14: Klar, nicht für alle, aber vielleicht genau für dich.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.