Horizons Voice: Dorothea Winter | Ethik im Code: Warum KI-Systeme bewusst gestaltet werden müssen
Shownotes
Mit Philosophin Dorothea Winter sprechen wir über die ethische Verantwortung im Umgang mit Künstlicher Intelligenz: von diskriminierenden Algorithmen über Deepfakes bis hin zu digitaler Resilienz. Ihr erfahrt, warum bewusste Digitalisierung bei Haltung beginnt, wie Unternehmen KI verantwortungsvoll einsetzen können – und weshalb manchmal auch digitales Detox dazugehört. Ein Gespräch über Werte, Wandel und die Frage, wie viel Mensch die KI verträgt.
Der Horizons Podcast erscheint aktuell wöchentlich auf Youtube, Apple, Spotify und Deezer. Links zu allen Audio-, Video- und sozialen Plattformen findet ihr hier: https://horizons-heise.de/podcast
Weitere spannende Links zu den Teilnehmenden: https://www.dorotheawinter.com/
Wir gestalten gemeinsam den digitalen Wandel!
Transkript anzeigen
00:00:00: Herzlich willkommen zum Live-Cast der Horizons-Beheise.
00:00:04: Ich bin Bastian Brunotte und treffe hier in Hannover's Altstadt die Speakerinnen und Partnerinnen der diesjährigen Konferenz.
00:00:09: Für Gespräche über die großen und kleinen Themen des Wandels.
00:00:12: Die Horizons ist die Plattform für Gestalter in der Transformation in Unternehmen.
00:00:16: Sie eröffnet Entscheider in neue Einblicke in unternehmerische Zukunftsperspektiven.
00:00:21: Die Top-Themen sind die Zukunft der Arbeit, KI in der Anwendung, die Data-Driven-Organisation, die Zukunftsfähigkeit Deutschlands und wie Technologie auf Werte trifft.
00:00:31: Jetzt aber genug der Vorrede, ich freue mich auf spannende Einblicke.
00:00:34: Auf geht's!
00:00:36: So, eine
00:00:37: neue Folge des Horizons bei Heise Live Casts.
00:00:40: Ich hatte einen neuen Gast, wer bist du?
00:00:41: Hi, ich bin der Rotier, ich bin Philosophin und ich forsche zu KI.
00:00:45: Wo machst du das?
00:00:46: Also ich habe meine Dessertation an der Humboldt-Uni in Berlin fertiggestellt jetzt gerade und arbeite an der humanistischen Hochschule Berlin.
00:00:55: Das sind private Hochschule und in einem Executive-Masterprogramm, also einem berufsbegleitenden Master, wo eben Menschen aus ganz unterschiedlichen Bereichen kommen, die vor ethischen Fragestellungen stehen, besonders eben auch vor dem Hintergrund der zunehmenden Digitalisierung und genau.
00:01:09: Wie wird man Philosophin?
00:01:12: So wie landet man da?
00:01:13: Ja, wie bin ich da gelandet?
00:01:15: Fragen sich viele.
00:01:18: Es war bei mir jetzt immer schon immer klar, also kann ich gar keine gute Antwort darauf geben, irgendwie wollte ich schon immer Philosophie studieren, hab's dann auch als eine der wenigen irgendwie durchgezogen, weil viele dann doch davon enttäuscht sind, wie langweilig Philosophie dann als Studium auch sein kann.
00:01:32: Ich hatte einen BWL studiert, ich hatte einen Steuerprofessor, der hat in Philosophie irgendwie promoviert, obwohl er halt Ökonom war und er sagte immer eins fürs Portemonnaie, eins fürs Herz.
00:01:43: Das fand ich immer
00:01:44: ganz süß.
00:01:45: Besten Verbeides.
00:01:47: Dorothea, wir wollen über Ethik sprechen und dann können wir jetzt gerade das Top-Tier-Thema irgendwie K.I.
00:01:53: nicht so richtig sein lassen.
00:01:55: Wie passt das zusammen?
00:01:57: Warum muss man sich damit beschäftigen?
00:02:00: Also meiner Meinung nach passt es sehr gut zusammen.
00:02:02: Also oft wird es immer so als unterschiedliches Ferien gedacht und es ist immer irgendwas, was ethisch ist, kann nicht innovativ sein, aber es kann und das muss es auch.
00:02:10: Also irgendwie viele Reden, aber von diesem europäischen Weg und das ist irgendwie auch ein bisschen schon ausgelutscht, aber ich bin da trotzdem auch ganz Befürworterin davon.
00:02:19: Also einfach weil man sich... auch vorher ruhig Gedanken machen kann, wie man Sachen machen möchte, meinst du?
00:02:24: Genau.
00:02:24: Weil oft irgendwie, wenn KI zu Diskriminierung oder sowas führt, dann war das oft der Fall, dass einfach nie mitgedacht wurde, was da passieren kann auf dem ganzen Weg.
00:02:33: Also nicht geschaut wurde, sind die Daten diskriminierend oder ist irgendwie der Implementierungsprozess irgendwie problematisch oder sowas.
00:02:38: Sondern es gab z.B.
00:02:39: bei Amazon so ein Beispiel, wo Bewerber in Systematisch diskriminiert wurden.
00:02:44: Also alle Frauen wurden für eine zu besetzten Stelle einfach ausgeschlossen vom Verfahren.
00:02:49: Und da hat man sich die Frage gestellt, wie kommt die KI dazu, einfach Frauen auszuschließen?
00:02:52: Und es war nicht so, weil sie irgendwie böses oder Frauen hast oder sonst irgendwas, sondern einfach, weil die Stelle davor noch niemander Frau besetzt wurde.
00:03:00: Und deswegen, das System gelernt hat, Frau ungeeignet.
00:03:03: Aber hätte man sich vorher Gedanken darüber gemacht, wäre das nicht passiert, sondern hätte eher auf die Qualifikationen geguckt, die vorher auf der Stelle saßen, vermutlich.
00:03:10: Ja.
00:03:10: Okay.
00:03:11: Oder, also da hat es dann sogar zum Beispiel aufgezeigt, dass eigentlich ja diese Diskriminierung auch im Analogen stattfinden.
00:03:16: Und durch das KI-System, natürlich wurden da dann in dem einen Fall mal Frauen diskriminiert, aber es wird überhaupt erst irgendwie aufgezeigt, dass es eben auch nicht digital geschieht.
00:03:25: Und wenn so ein Modell erst mal trainiert ist, dann ist es halt... Zu spät?
00:03:29: Genau, da spricht man immer von dem Crap-In-Crap-Out-Prinzip.
00:03:32: Also wenn irgendwie die Datenmüll sind, dann ist eben auch der Output-Müll.
00:03:36: Und wer auch, glaube ich, jetzt das anfing, so mit ChatGPT, so das fürchterlich, dass man das mit Twitter quasi füttert, weil Twitter einfach der letzte Mol auch einfach irgendwie ist, ja.
00:03:44: Ganz, ganz, ganz schlecht.
00:03:47: The Hotel lassen uns ein bisschen über Algorithmen und Macht irgendwo auch sprechen.
00:03:53: Wir kriegen ganz viel... angezeigt, wenn wir auf Instagram oder TikTok oder sonst irgendwo surfen, von dem wir vielleicht noch gar nicht wussten, dass wir es gleich interessant finden werden, wird sowas irgendwie zu so einem unsichtbaren Sensor.
00:04:13: Also kann das passieren, wenn wir da nicht aufpassen?
00:04:16: Ist das das, worüber du auch forscht?
00:04:18: Ja, ich glaub, das ist eine riesen Gefahr, dass Leute immer das, was Algorithmen vorschlagen, aber auch was Vegetativität oder so was rauskommt, einfach so für barre Münze nehmen.
00:04:27: Und es ist ja kein Zufall, das fällt nicht vom Himmel, sondern das sind eben bewusste Verfahren, die da gewählt wurden.
00:04:32: Also das gesagt wurde eben, z.B.
00:04:34: bei den Bewerbungsdingen bei Amazon, dass da eben Frau ungeeignet.
00:04:38: Das war ja eine bewusste Entscheidung natürlich dann nicht von den Menschen, sondern ... durch die Daten gesteuert, aber es ist eben nicht so, dass das eben vom Himmel fällt und wir müssen uns damit irgendwie arrangieren, sondern die Sachen können ja gestaltet werden und das werden sie auch.
00:04:52: Und bei so Empfehlungsalgorithmen oder sowas wie bei Spotify, wir kennen alle die Debatten, dass da Songs, die zwei zwanzig nur sind, irgendwie bevorzugt werden, gegenüber eigentlichen Songs, die keine Ahnung, vier vierzig sind, das ist ja kein Zufall.
00:05:05: Und da kommt ja jetzt noch der AI-Slop irgendwo dazu, dass die jetzt einfach Musik einspielen, die irgendwie auch noch KI ist und dann den Künstlern, die wirklich damit ihr Geld verdienen, auch noch den Platz in der Playlist streitig machen.
00:05:18: Genau.
00:05:18: Also paar wenige, die dann mit KI arbeiten, verdienen mehr Geld, aber der Großteil von denen, die jetzt schon irgendwie mehr schlecht als recht irgendwie von ihrer Musik gelebt haben, die nicht mehr.
00:05:27: Wie bringt man... Also ich meine, du bist... Deiner Position nicht in der Pflicht, als großes Change Management zu betreiben.
00:05:36: Du darfst forschen daran, dass es deine Aufgabe im Moment laut sein und irgendwo stören.
00:05:43: Aber wie kriegt man das in vielleicht ein Unternehmen oder eine Einrichtung rein, die am Ende Gewinnerzielungsabsicht hat?
00:05:50: Weil es ist viel einfacher, wenn man es ... einfach so in Anführungszeichen macht, statt sich erst irgendwie wieder monatelang hinzusetzen und sich vielleicht dann noch im besten Fall mit intersectionalem Feminismus irgendwie zu beschäftigen.
00:06:04: Dann hast du ja wirklich viel zu tun.
00:06:05: Wenn man es richtig machen will, dann ist es halt voll das Brett, was du davor der Tür hast.
00:06:09: Aber ich meine, KI ist ja auch nur ein Tool.
00:06:11: Wir haben ja so was wie Compliance und so was, wir müssen jetzt nicht auf einmal denken, jetzt müssen wir alles komplett neu erfinden, sondern das ist ja alles da.
00:06:19: Und jetzt müssen wir nur in Anfangszeichen schauen, dass halt eben die KI-Systeme diesen Compliance-Regelungen zum Beispiel entsprechen.
00:06:26: Und im besten Fall, wenn man die Sachen richtig einsetzt, dann führen sie ja dazu, dass man eben mehr Freiheit hat, bessere Ergebnisse geliefert bekommt und eben mehr von den Sachen machen kann, die einem wirklich Spaß machen und nicht halt eben irgendwelche... die einfach nur Zeit fressen und die eigentlich niemand gerne macht.
00:06:45: Wenn wir über Algorithmen reden oder KI reden, dann kommen wir ganz schnell in diesen ganzen Bereich Vertrauen und auch eigentlich unsere ganzen Werte, die uns irgendwie immer getragen haben.
00:07:05: Wie gehen wir mit?
00:07:06: deepfakes und politischer Desinformation zukünftig um.
00:07:11: Also was ... Was wollen wir dagegen tun?
00:07:16: Manchmal finde ich mir das alles durch.
00:07:19: Jetzt muss ich meiner Mutter auch noch eine Passphrase für das Telefon mitgeben, damit wir sicher sind, dass wir es sind.
00:07:27: Von mir allein an heutigen Tag gibt's wieder stundenlang Audio-Material.
00:07:31: Damit kannst du meine Stimme klonen.
00:07:34: Also ich meine, einfach von den Ergebnissen her betrachtet können wir es jetzt schon sehr schlecht und in ein paar Jahren wahrscheinlich gar nicht mehr unterscheiden, ob irgendwas ein Deepfake ist, ob irgendwas KI-Gerätes oder eben echt ist.
00:07:45: Also ich glaube über die Schiene müssen wir gar nicht mehr versuchen, dass wir sagen eben, an denen und den Sachen kannst du erkennen, dass es eben nicht echt ist.
00:07:51: Sondern man muss eben quasi, aber das ist auch super schwierig, die Leute müssen Kontext wissen.
00:07:56: Also nur wenn ich weiß... Die Aussage könnte nie und nimmer Robert Havik sein, weil das gar nicht in seine politische Couleur und so was passt.
00:08:04: Nur wenn ich das weiß, kann ich erkennen, ah, das muss ein Diebfake sein.
00:08:07: Weil einfach nur von einem Video, wo er irgendwie sagt, das auf einmal für was wäre absurd bei Robert Havik.
00:08:15: Wenn es eine Erbschaftsgebe, die Abschaffung davon, weiß ich nicht, also irgendwie so in die Richtung.
00:08:20: Perfekt.
00:08:20: Er würde jetzt gern Atomkraftwerk bauen.
00:08:22: Genau.
00:08:22: Nur noch.
00:08:22: So, das würde für mich niemals von ihm kommen.
00:08:23: Nur noch Atomkraft.
00:08:25: Ja.
00:08:26: Dann würden wir wahrscheinlich denken, es ist wahrscheinlich nicht gut.
00:08:32: Kann man das regulieren?
00:08:34: Man muss es regulieren.
00:08:35: Man kann nicht nur, man muss es regulieren.
00:08:37: Also, ich meine, die ganzen technischen Fakes und so was sind supergut.
00:08:43: Und es ist aber in ihr Glaube, dass das eben die politische Regulierung das nicht auch könnte.
00:08:49: Also wir können auch wieder mit Hilfe von KI, KI steuern und regulieren.
00:08:54: Und dann beginnt dieses Red Race halt einfach immer wieder von vorne.
00:08:58: Das
00:08:58: läuft weiter, genau.
00:09:00: Ist dann halt so.
00:09:01: Aber immerhin,
00:09:02: es ist ein Wertrennen doch, wir haben noch eine Chance.
00:09:06: Das würdest du sagen, was muss ein Unternehmen, eine Organisation irgendwie machen, um seine Mitarbeitenden, die ja das wichtigste Asset irgendwo sind, um die fit zu machen für heute?
00:09:23: Also ich glaube, das wird auf jeden Fall auch schon gesehen, von Firmen ist Weiterbildung.
00:09:29: Möglichkeiten.
00:09:31: Das ist nicht nur attraktiv für das Individuum, sondern eben es regt auch dazu bei, dass die Leute halt einfach irgendwie mehr Ahnung haben und irgendwie lieber da arbeiten und besser arbeiten.
00:09:39: Aber eben auch, dass man so Prozesse nicht daran festhält und nicht mit dem Argument kommt, haben wir schon immer so gemacht.
00:09:44: Weil da bricht dann eben, wenn KI dazukommt, dass uns einfach mal das genickt.
00:09:48: Das kann dann gar nicht mehr.
00:09:49: Man kann nicht einfach nur irgendwas, was schon dreiß Jahre gemacht wurde, jetzt einfach versuchen ist, Digitale zu übernehmen, sondern man muss jetzt schon versuchen, zu reflektieren.
00:09:57: welche Prozesse sind, warum sinnvoll und bringen auch ein Output, den man will.
00:10:03: Ich bin ja aus Versehen mal Berater geworden.
00:10:07: Und ich hab irgendwie das Gefühl, die schonfrist für uns als Mitarbeiter geht langsam zu Ende.
00:10:16: Du musst halt... Leider dich damit beschäftigen.
00:10:19: Es hilft nichts.
00:10:20: Wenn du Kinder hast, musst du dich damit beschäftigen, was alles fürchterlich ist im Internet passiert.
00:10:25: Wenn du in einem Unternehmen arbeitest, wo ihr halt mit Daten arbeitet, dann siehst du, dass du schnell lernst, wie KI funktioniert.
00:10:31: Sonst wird das irgendjemand anders machen, diesen Job.
00:10:34: Und es wird auch vorausgesetzt.
00:10:35: Also es ist mal nicht nur die Schohnfrist ist vorbei, sondern du hast einen wirklich realen Wettbewerbsnachteil, wenn du jetzt eben mit den verschiedenen Tools nicht mehr so umgehen kannst wie halt andere.
00:10:46: quasi so wie fundierte Office-Kentnisse in Lebenslauf zu schreiben, was wir heute eigentlich kali
00:10:51: und
00:10:53: Resilienz können.
00:10:56: Wie wird man Resilient?
00:10:58: Kann man das üben?
00:10:59: Man kann es üben, aber ein Großteil, und das ist leider ein Problem, ist man einfach oder nicht.
00:11:03: Also, da gibt es ganz viele Studien dazu, dass man eben, es gibt verschiedene Methoden, wie man es dann irgendwie trainieren kann, aber die Menschen, die super Resilienz sind, die sind, warum auch immer, einfach so auf die Welt gekommen.
00:11:15: Mist.
00:11:18: Andere müssen sich mit digitalem Stress vielleicht irgendwie anders auseinandersetzen.
00:11:22: Hast du da irgendwas zu geforscht, hast du da eine Meinung zu?
00:11:27: Ich mach jetzt mal das Wochenende Digital Detox oder so.
00:11:30: Glaubst du, das hilft?
00:11:31: Da gibt es auf jeden Fall Studien zu.
00:11:32: Also das müssten wir alle machen und halt alles bewusster machen.
00:11:36: Also dass man nicht irgendwie zehn Sachen nebenher macht und nicht bei jedem mal irgendwie abwaschen oder Wäsche machen, sich ein Podcast reinknallt oder an der Busseite stelle irgendwie auf TikTok scrollt, sondern also ist es super langweilig, aber es stimmt laut der Forschung.
00:11:49: Also einfach auch mal warten.
00:11:50: Wir
00:11:50: müssen aufhören.
00:11:51: Genau, aushalten.
00:11:53: Und ich war jetzt gerade in Kanada und hatte da auch immer auf meinen Datenvolumen getrosselt und nicht immer verfügbar.
00:11:59: Und was ich da für nette Gespräche auf einmal hatte im Alltag ist unfassbar.
00:12:03: Und dann hast du halt so achthundert Euro Elektroschrauben in der Hosentasche irgendwie und musst dich halt mit den Menschen um dich herum ausmachen.
00:12:09: Wie schön.
00:12:11: So, daher lassen wir uns noch einen Schwenk machen und zwar zum Thema Führungskräfte.
00:12:16: Was müssen die heutzutage leisten?
00:12:18: Die müssen ja nicht alles selber machen, aber ... Was ist deren Job in dieser sich doll verändernden Welt, wo wir mehr Haltung und Ethik brauchen?
00:12:28: Also schon krass, wie informiert die heutzutage sein müssen, was du auf einmal voraussetzen musst, von was sie quasi grundlegende Ahnung haben müssen.
00:12:35: Wir haben vorhin auch in der Keynote gehört, dass wir jetzt alle Universalisten sein müssen und das stimmt.
00:12:40: Wir müssen alle auf einmal eben grundlegende Kenntnisse von so vielen Bereichen haben, was früher eigentlich so eine Expertin war.
00:12:46: Und das ist der erste Schritt, einfach informiert sein und das eben auch vielleicht über den kleinen eigenen Teich, den man so sonst beschwimmt, hinaus.
00:12:54: Und dann zweitens wirklich ... Ansagen machen.
00:12:57: Also die Leitplanken dessen schaffen, was in dem Unternehmen jeweils gedurft, gesollt und gekonnt werden kann.
00:13:03: Das waren viele Verben.
00:13:06: Genau, das muss von oben kommen.
00:13:08: Wir haben vorhin ja mit der Kollegin von der Schweizer Post auch gesprochen.
00:13:12: Die haben sich eben auch eine sehr strikte oder eine... sehr klare Daten und KI-Richtlinien in der Governance halt gegeben.
00:13:20: Und sie sagte auch, das ist einfach absolut essentiell für alles, was wir machen.
00:13:24: Also für die großen Strategien wichtig ist, aber auch eben für das Tagesgeschäft, wenn wir ein bisschen mit Co-Pilot durch die Gegend chatten.
00:13:29: So
00:13:30: dürfen
00:13:31: wir das genau hier.
00:13:31: Darf ich das eigentlich?
00:13:33: Meine Mama arbeitet nicht hier, die wird nicht kommen, um mir das zu sagen.
00:13:36: Das heißt, ich brauche irgendein anderes Regelwerk, das finde ich ganz interessant.
00:13:42: Was ist... So aus deiner Forschungsbrille, der neuste heiße Scheiß zum Abschluss.
00:13:48: Worauf, was ist das next big thing, was um die Ecke kommt, wo wir uns schon mal reingewöhnen können?
00:13:54: Also nicht aus einer Techbrille, sondern
00:13:56: so gesellschaftlich.
00:13:57: Also ich glaube schon, ich habe jetzt gerade eine Podcast-Folge gehabt mit einem Autor, der über Gedankencode geschrieben hat.
00:14:05: Und da geht es darum, dass es quasi nur ein Zwischenschritt ist, dass wir swipen, klicken, solche Sachen machen und dass in Zukunft alles über Gedanken geht, direkt.
00:14:13: Und da wird schon bei Metatrend geforscht in Paris.
00:14:16: Also brauchen wir nicht mehr... Das ist glaube ich wirklich die Zukunft.
00:14:21: Ich war so glücklich mit dieser Handysache, das passt irgendwie für mich.
00:14:24: Ich dachte, damit können wir jetzt auch alt werden, aber scheinbar
00:14:27: nicht.
00:14:27: Ja, wahrscheinlich nicht.
00:14:28: Dorothea, ich sage ganz herzlich Dankeschön, schön, dass du heute da warst.
00:14:31: Danke dir.
00:14:32: Bis bald.
00:14:33: Bis dann.
Neuer Kommentar