Software

„Risiko“ Künstliche Intelligenz – Wird zügelloses KI-Training die Welt zerstören?

Die Angst ist aktuell groß. Überflügelt die Künstliche Intelligenz (KI) in diesen Tagen, Wochen, Monaten oder Jahren die Menschheit? Drängen uns KI-Systeme wie ChatGPT und Midjourney dem Abgrund Stück für Stück entgegen? Falschmeldungen, Plagiate, Fälschungen, Fehlentscheidungen – liest man die Liste von KI-Verfehlungen, die möglich scheinen, ist eine Frage nur berechtigt: Können wir die Entwicklung und Nutzung von Künstlicher Intelligenz überhaupt regulieren und wenn ja, in welcher Form? Glaubt man namhaften Tech-Expert:innen, Forscher:innen und Wissenschaftler:innen würde der Welt aktuell ein sechsmonatiges KI-Moratorium gut tun. Doch ist das die Lösung des Problems? Unser April-Scherz (Link zu LinkedIn-Post) vor wenigen Tagen zeigte jedenfalls einen Weg auf, den wir als Verband nicht beschreiten wollen und werden. Wir sind vielmehr davon überzeugt, dass Künstliche Intelligenz eine Chance ist, Dinge für die Welt besser zu machen. Und nicht ein Weg, Gutes und Menschliches zu ersetzen. Doch auf diesem Weg bringt eines nichts: die Stopptaste zu drücken.

Diesen Beitrag teilen

Kontakt

Silicon Saxony

Marketing, Kommunikation und Öffentlichkeitsarbeit

Manfred-von-Ardenne-Ring 20 F

Telefon: +49 351 8925 886

Fax: +49 351 8925 889

redaktion@silicon-saxony.de

Ansprechpartner:

Die Angst ist aktuell groß. Überflügelt die Künstliche Intelligenz (KI) in diesen Tagen, Wochen, Monaten oder Jahren die Menschheit? Drängen uns KI-Systeme wie ChatGPT und Midjourney dem Abgrund Stück für Stück entgegen? Falschmeldungen, Plagiate, Fälschungen, Fehlentscheidungen – liest man die Liste von KI-Verfehlungen, die möglich scheinen, ist eine Frage nur berechtigt: Können wir die Entwicklung und Nutzung von Künstlicher Intelligenz überhaupt regulieren und wenn ja, in welcher Form? Glaubt man namhaften Tech-Expert:innen, Forscher:innen und Wissenschaftler:innen würde der Welt aktuell ein sechsmonatiges KI-Moratorium gut tun. Doch ist das die Lösung des Problems? Unser April-Scherz (Link zu LinkedIn-Post) vor wenigen Tagen zeigte jedenfalls einen Weg auf, den wir als Verband nicht beschreiten wollen und werden. Wir sind vielmehr davon überzeugt, dass Künstliche Intelligenz eine Chance ist, Dinge für die Welt besser zu machen. Und nicht ein Weg, Gutes und Menschliches zu ersetzen. Doch auf diesem Weg bringt eines nichts: die Stopptaste zu drücken.

"Angst frisst Hirn", lautet ein sprachlich unschönes, aber in der Tat recht wahres Sprichwort. Ob kleinste Spinnen, enge Räume oder große Höhen – die unterschiedlichsten Ängste lähmen Menschen, wenn sie auf sie treffen. Das scheint selbst dann der Fall, wenn Menschen nie schlechte Erfahrungen mit einer Sache, einer Situation oder einem Lebewesen machten. Erfahrungsberichte, Erzählungen, Bücher, Fernsehsendungen oder Filme – ob real oder nicht – genügen, schon tritt der "Panikmodus" in Aktion. Als Orson Welles z.B. am 30. Oktober 1938 – also kurz vor dem Halloween-Fest – ein Radio-Hörspiel bei CBS zum Besten gab, strömten Menschenmassen in die Luftschutzkeller oder beteten auf den Straßen mit Taschentüchern in den Nasen. Welles fiktive Geschichte von Marsianern, die die Erde mit Giftgas überfallen, löste die wohl berühmteste Massenpanik in den USA aus. Es sollte nicht die einzige erdachte Story sein, die Menschen ihre Köpfe verdrehte.

Roboter terminieren keine Jobs und Leben, nutzt man sie zum Guten.

So bewies auch der Film "Der Weiße Hai" (1975), dass gut erzählte Geschichten das Bild ganzer Generationen verzerren können. Aus faszinierenden Tieren wurden damals über Nacht blutrünstige Monster. Dabei ist ein Haiangriff so wahrscheinlich wie ein Sechser im Lotto – um genau zu sein: 1 zu 11,5 Millionen. Dass der Film Terminator (1984) bei Menschen lange Zeit keine Panik auslöste, lässt sich wohl allein auf den Stand der Technik schieben. Zwar gab es bereits seit 1956 erste Industrieroboter und begann im gleichen Jahr mit dem Begriff "Künstliche Intelligenz" die ernstzunehmende Entwicklung in diesem Bereich, eine tatsächliche Bedrohung für Leib und Leben schien aber selbst bis ins neue Millennium noch eher theoretischer Natur. Erst mit dem massenhaften Einsatz von Robotern in der Industrie rückte das latente Unwohlsein vieler Menschen in den frühen 2000ern wieder ins Bewusstsein. "Werden wir bald alle von Robotern ersetzt", lautete plötzlich die Frage. Inzwischen ist klar: Roboter ersetzen uns nicht, sie helfen uns. Sie lindern den Fachkräftemangel. Sie übernehmen körperlich anspruchsvolle oder sogar gefährliche Arbeiten. Sie sind mehr Chance als ernstzunehmendes Risiko, nutzt man sie zum Guten.

Droht eine übermächtige KI wie Skynet aus dem Film "Terminator" real zu werden?  

Diese Betrachtung scheint sich im Bereich der Künstlichen Intelligenz inzwischen ähnlich zu vollziehen. Waren Chatbots – übrigens 1966 erstmals entwickelt – noch vor Jahren einer der neuen und gefeierten technologischen Trends, schüren die jüngsten Entwicklungen des Bereiches plötzlich wieder alte Ängste. Italiens Datenschutzbehörde hat mit ChatGPT nun bereits das erste KI-basierte System verboten. Unter dem Titel "Gigantische KI-Experimente stoppen" (LINK), steht seit Ende März zudem ein offener Brief samt Petition, initiiert und unterzeichnet von zahlreicher Technologie-Prominenten wie Steve Wozniak, Yuval Noah Harari oder Elon Musk, Experten:innen, Führungskräften, Forscher:innen sowie Wissenschaftler:innen im Netz. Knapp 13.000 Unterschriften sammelten sich bis zum heutigen Morgen darunter. "KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen, wie umfangreiche Forschungsarbeiten zeigen und von führenden KI-Labors anerkannt werden", heißt es darin. Unweigerlich schießt vielen allein bei diesem Satz der Film Terminator ins Gedächtnis. Erwartet uns in den kommenden Jahren unsere Version der im Film erdachten Super-KI Skynet? Bastelt die Menschheit in unzähligen Code-Zeilen aktuell am eigenen Untergang?

Urheberrechte, Jobverluste, Falschinformationen – die KI-Probleme scheinen vielfältig.

"Vielleicht", lautet die ehrliche Antwort. Doch wenn, dann sicher nicht im wirtschaftlichen oder industriellen Kontext. Was staatliche Akteure oder die Rüstungsindustrie hinter verschlossenen Türen treiben, ist da schon schwerer abzuschätzen. Problematisch scheint in den Augen vieler Tech-Experten aber bereits das Treiben von Google, Microsoft, OpenAI und Co. bzw. deren Systemen. "Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollen wir alle Jobs automatisieren, auch die erfüllenden? Sollen wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann überlegen sind, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren? Solche Entscheidungen dürfen nicht an nicht gewählte Technikführer delegiert werden", heißt es in der Petition. Sollen wir auf Systeme setzen, die uns ohne rot zu werden, belügen können?

Technik ist nicht das Problem. Die Menschen, die sie entwickeln jedoch schon.

Überlisten, gefährden, überflüssig machen, lügen – das alles können nicht nur KI-Systeme. Auch das Plagiieren ist keine exklusive Fähigkeit dieser computergestützten Systeme. Lange vor Programmen wie ChatGPT und Midjourney fälschte der Mensch Kunstwerke, gab Wissen anderer als das eigene aus oder täuschte seine Mitstreiter über seine Fähigkeiten und Fertigkeiten. KI-basierte Systeme greifen heute auf einen riesigen Wissensschatz zu und verbergen dabei clever, woher Informationen stammen. Das wird nun zum Verhängnis einer Technologie, die nur Abbild ihrer Schöpfer:innen ist. Eine Maschine lügt jedoch nicht wissentlich. Sie bewertet aber vielleicht vorhandenes Wissen nicht korrekt, nutzt Falschinformationen, hilft sogar Lügen effizienter zu verbreiten. Sie fälscht nicht bösartig. Ihr werden jedoch Daten zur Verfügung gestellt, die eine Fälschung möglich machen. Sie wird auch nicht absichtlich plagiieren oder Quellen verschweigen, außer ihre Programmierer:innen haben ihr diese Aufgabe vermittelt. Ist das angestrebte sechsmonatige KI-Moratorium also wirklich der Ausweg aus dieser Misere? Lassen sich KI-basierte Systeme, deren Entwicklung und Nutzung so regulieren? Ist es nicht der Mensch, der problematisch scheint und nicht sein in Code gepresster "Frankenstein"? Die Illusion, alles kontrollieren und jeden KI-Akteur über mindestens ein halbes Jahr im Auge behalten zu können, ist für kluge Köpfe wie Elon Musk von erstaunlicher Naivität. Verstehen Sie dies nicht falsch. Soll dieser Planet lebenswert bleiben, muss sich die Menschheit hinterfragen. Vertrauen ist hierbei sicher gut. Kontrolle wäre besser. Doch wie die Geschichte zeigt, wird jede Entwicklung stets ihre beste und auch schlimmste Seite zeigen. Der Mensch macht hier den Unterschied, nicht die Maschine.

Künstliche Intelligenz kann Leben retten, sie aber auch zerstören. 
 

Und hier kommen wir zurück auf die Robotik. Der positive Einfluss der Robotik in der Wirtschaft und Industrie ist heute nicht mehr wegzudiskutieren. Statt einen Exodus an Jobs zu verursachen, wie vor einigen Jahren befürchtet, erleichtern oder übernehmen Roboter heute überall auf der Welt schwere, körperschädigende oder sogar lebensgefährliche Aufgaben für ihre "Erbauer". Ohne sie wäre eine Produktion in Deutschland und Europa nur schwer vorstellbar. Ohne sie würden zahlreiche Unternehmen längst nur noch in China und anderen Niedriglohnländern ihre Produkte und Lösungen kreieren. Doch Roboter sind nur so hilfreich und ungefährlich, wie ihre Entwickler:innen sie planen. Eine Drohne oder ein Kampfroboter im Kriegsgebiet oder tödliche Roboter in amerikanischen Großstädten – auch sie sind inzwischen Realität. Auch hier kann man den Robotern keinen Vorwurf machen. Auch hier wäre ein Überdenken und Neujustieren angebracht. Nur scheint das nicht so wichtig, ist ein Roboter doch nur eine "dumme" vom Menschen gelenkte Technologie, nichts Menschenebenbürtiges. Es wirkt schizophren und ist es wohl auch, wie Menschen beim Blick auf Unterschiedliches und doch Gleiches reagieren. "Angst frisst Hirn", da sind wir wieder.

Künstliche Intelligenz wird nur das verändern, was man sie verändern lässt.

Vielleicht hatten Sie am 1. April die Gelegenheit sich unsere natürlich nicht ernstgemeinte Meldung "Vorstand des Silicon Saxony entlässt Geschäftsführer Frank Bösenberg – KI-System übernimmt Netzwerkleitung" durchzulesen. Mit einem kräftigen Augenzwinkern phantasierten wir uns hier die Vorstellung eines KI-Einsatzes in unserem Verband zusammen. Und ja, die Möglichkeit, sogenannte "White Collar"-Jobs (übersetzt: Weiße-Hemden-Jobs) zu ersetzen – also in der Unternehmensführung, im Marketing, dem Vertrieb, der Buchhaltung oder allgemein im Dienstleistungsbereich – ist nicht von der Hand zu weisen. KI-Systeme werden dies über kurz oder lang zu leisten im Stande sein. Doch nicht alles, was möglich ist, muss auch ermöglicht werden. Hier ist der Mensch gefragt. Hier setzt er die Grenzen und die Prioritäten. Dinge in der besten Weise zu nutzen und dabei stets die schlimmsten Abgründe zu verhindern, ist eine Verantwortung, die nicht in den Händen der Technologie, sondern in den Händen ihrer Erschaffer:innen und Anwender:innen liegt. Nur eines wird auf diesem Weg nie funktionieren: Die Stopptaste zu drücken und zu hoffen, dass dadurch alles besser wird. Dafür rühren zu viele Köche weltweit im gleichen Brei.

Das könnte Sie ebenfalls interessieren

Kontakt

Silicon Saxony

Marketing, Kommunikation und Öffentlichkeitsarbeit

Manfred-von-Ardenne-Ring 20 F

Telefon: +49 351 8925 886

Fax: +49 351 8925 889

redaktion@silicon-saxony.de

Ansprechpartner: