Nachrichten > Wirtschaft aktuell, Top-Meldungen >

Vor KI-Gefahren warnen? KI-Forscher haben Angst gefeuert zu werden

Vor KI-Gefahren warnen? - KI-Forscher haben Angst vor Entlassung

© dpa

Ein Logo von ChatGPT, offizielle App von OpenAI, ist auf einem Smartphone zu sehen.

Entwickler Künstlicher Intelligenz bei Start-ups wie OpenAI dürften am besten damit verbundene Risiken einschätzen können. Viele der Experten fürchten jedoch Vergeltungsmaßnahmen bei Kritik.

Eine Gruppe von KI-Forschern unter anderem vom ChatGPT-Erfinder OpenAI fordert das Recht ein, die Öffentlichkeit über Gefahren der Software warnen zu dürfen. Der aktuelle Schutz für Whistleblower reiche nicht aus, betonten die Experten in einem veröffentlichten offenen Brief. Denn dieser sei vor allem auf illegale Aktivitäten von Firmen ausgerichtet - aber bei Künstlicher Intelligenz gebe es in vielen Fällen noch keine rechtlichen Vorgaben. "Einige von uns fürchten zu Recht Vergeltungsmaßnahmen, da es bereits solche Fälle in der Branche gab."

Forscher zeigt sich besorgt und wird dann gefeuert

Ein Beispiel dafür wurde nur wenig später bekannt: Der ehemalige OpenAI-Forscher Leopold Aschenbrenner sagte dem "Dwarkesh Podcast", er sei gefeuert worden, nachdem er sich beim Verwaltungsrat der Firma über KI-Sicherheit besorgt gezeigt habe.

Kritik muss möglich sein

Die Forscher riefen die Unternehmen mit fortgeschrittenen KI-Modellen auf, vier Grundsätze zu befolgen. Dazu gehört, den Mitarbeitern nicht negative Äußerungen über ihre Arbeitgeber zu verbieten. Jüngst wurde bekannt, dass OpenAI ehemaligen Mitarbeitern mit dem Verfall ihrer Aktienoptionen drohte, wenn sie die Firma "verunglimpfen" sollten. OpenAI-Chef Sam Altman entschuldigte sich und ließ die Klausel, von der er nichts gewusst habe, streichen. Er behauptete auch, sie sei nie angewendet worden.

Anonym die Öffentlichkeit informieren

Eine weitere Forderung in dem Brief ist ein Verfahren, mit dem Mitarbeiter anonym die Verwaltungsräte von Unternehmen sowie Regulierer über aus ihrer Sicht bestehende Risiken bei KI-Software informieren können. Die müssten auch die Freiheit haben, an die Öffentlichkeit zu gehen, solange es keine internen Wege gebe.

Fake-News, Jobverlust und sogar Schlimmeres?

Einige KI-Experten warnen schon lange, die rasante Entwicklung Künstlicher Intelligenz könne zu autonomer Software führen, die sich der Kontrolle der Menschen entziehe. Die Folgen könnten von der Verbreitung von Falschinformation und Jobverlusten in großem Stil bis hin zur Vernichtung der Menschen reichen, heißt es oft. Regierungen arbeiten auch deswegen daran, Regeln für die Entwicklung von KI-Software aufzustellen. OpenAI gilt mit der Software hinter ChatGPT als ein Vorreiter in dem Bereich.

Eine Sprecherin von OpenAI sagte zu dem Brief, das Unternehmen glaube an eine "wissenschaftliche Herangehensweise an Risiken der Technologie". Mitarbeitern stehe frei, auch anonym ihre Sorgen zu teilen. Zugleich dürften dabei aber vertrauliche Informationen nicht öffentlich gemacht werden, die dadurch in die falschen Hände geraten könnten.

Mehrere ChatGPT-Forscher haben unterschrieben

Vier aktuelle und zwei frühere Mitarbeiter von OpenAI schlossen sich dem Brief nur anonym an. Unter den sieben Unterzeichnern, die ihre Namen öffentlich machten, sind fünf ehemalige Beschäftigte von OpenAI und ein früherer Mitarbeiter der Google-Tochter DeepMind. Neel Nanda, der derzeit bei DeepMind arbeitet und zuvor beim KI-Start-up Anthropic war, betonte zugleich, dass ihm bei seinem aktuellen und früheren Arbeitgebern nichts untergekommen sei, wovor er warnen wolle.

Debatte um Sicherheitsvorkehrungen in der KI-Branche

Altman war im November vom Verwaltungsrat von OpenAI überraschend unter Verweis auf einen Vertrauensverlust herausgedrängt worden. Nur wenige Tage später kehrte Altman wieder auf den Posten zurück, nachdem sich zahlreiche Mitarbeiter und der Großaktionär Microsoft hinter ihn gestellt hatten. Später sagte das damalige Verwaltungsratsmitglied Helen Toner zur Begründung für den Rauswurf unter anderem, das Gremium habe erst aus den Medien davon erfahren, dass ChatGPT veröffentlicht wurde. Der Schritt löste Sorgen aus, dass die Firma die Technologie ohne nötige Sicherheitsvorkehrungen für alle verfügbar gemacht haben könnte.

Zuletzt geriet OpenAI unter Druck, nachdem Schauspielerin Scarlett Johansson von der Firma wissen wollte, wieso eine Stimme von ChatGPT ihrer eigenen sehr ähnlich geklungen habe, obwohl sie das Angebot ausgeschlagen habe, Sprachdaten dafür zu liefern.

Auch interessant
Auch interessant

Deutschland ist wieder die weltweite Nummer eins beim Hopfenanbau. Zum ersten…

Eine große Mehrheit der Nato-Länder will im laufenden Jahr mindestens zwei…

Laut einer Umfrage im Auftrag des Unternehmens Slack wird fast jeder vierte…

nach oben

HIT RADIO FFH

Jetzt einschalten

HIT RADIO FFH
FFH+ 80ER
FFH+ 90ER
FFH+ CHARTS
FFH+ ROCK
FFH+ WEIHNACHTEN
FFH TOP 40
FFH LEIDER GEIL
FFH COUNTRY RADIO
RADIO FEIERBIEST
FFH PARTY
FFH KUSCHELROCK
FFH KUSCHELPOP
FFH BEST OF 2023
FFH HAPPY HITS
FFH TOP 1000
FFH OLDIES
FFH JUST WHITE
FFH DIE 80ER
FFH JUST 90s
FFH DIE 2000ER
FFH DIE 2010ER
FFH CHILL & GRILL
FFH FRÜHLINGS FEELING
FFH SUMMER FEELING
FFH EURODANCE
FFH ROCK
FFH WORKOUT
RADIO SCHLAGERHERZ
FFH SCHLAGERKULT
FFH DEUTSCH PUR
FFH BRANDNEU
FFH LOUNGE
FFH ACOUSTIC HITS
FFH SOUNDTRACK
FFH WEIHNACHTSRADIO
planet radio
planet plus fun
planet plus power
planet plus liebe
planet plus heartbreak
planet plus weihnachten
planet livecharts
deutschrap finest
planet flashback friday
planet the club
planet early morning breaks
planet oldschool
planet nightwax
planet black beats
taylor swift & friends
ed sheeran & friends
the weeknd & friends
david guetta & friends
coldplay & friends
harry styles & friends
dua lipa & friends
justin bieber & friends
beyoncé & friends
80er-Radio harmony
harmony +70er
harmony +90er
harmony +Karneval
harmony +Weihnachten
Neue Deutsche Welle
80er Kultnight
70er-80er Kultnight
80er-90er Kultnight Radio
harmony Feelings
harmony Schlager Radio
80er Divas
80er Superstars
80er Superbands
80er Wave Pop
80er Synthie Pop