Die Welt ist im Wandel! Neue Chancen durch den Einsatz künstlicher, sprich aus Daten lernender, Intelligenz entstehen gerade dort, wo seit längerem der Wurm drin ist. Etwa beim Fachkräftemangel, der verschleppten Digitalisierung oder dem strapazierten Gesundheitssystem, welches das Personal mit Daten von Patient:innen überfordert. Vielerorts kann KI helfen, Vorgänge zu beschleunigen und zu vereinfachen. Dennoch gibt es auch kritische Stimmen. Wenn sogar OpenAI-Mitgründer Elon Musk bei KI hin- und hergerissen ist und eine gesetzliche Regulierung dieses Bereichs fordert, und Geoffrey Hinton als ehemals führender KI-Entwickler bei Google „[…] ernste Risiken für die Gesellschaft und für die Menschheit“ befürchtet, dann fragt ihr euch sicher auch, welche Nachteile bedacht werden sollten. Campuls zeigt einige davon auf. Außerdem haben wir an der Uni Konstanz nachgefragt, welcher Umgang mit KI in Zukunft geplant ist.
Die andere Seite der Medaille
Viele Menschen fühlen sich von aufkommenden Entwicklungen zunehmend in die Ecke gedrängt oder fürchten, abgehängt zu werden. Als Hauptsorge hört man im Zusammenhang mit dem Einsatz von KI immer wieder die Angst vor dem Verlust des Arbeitsplatzes heraus. Mehrere Studien im Auftrag des Bundeswirtschaftsministeriums erwarten das zumindest für einen Teil der heute bestehenden Arbeitsverhältnisse. Diese seien umso gefährdeter, je standardisierter der Arbeitsprozess verläuft. Niedrig- und mittelqualifizierte Jobs mit hohem Routineanteil müssen also in Zukunft um ihren Erhalt bangen. Nichtsdestotrotz sieht es die Forschung als wahrscheinlich an, dass ähnlich viele Stellen neu geschaffen werden könnten wie verloren gehen. So geht eine Studie von Acemoglu/Restrepo aus dem Jahr 2018 davon aus, dass negative Effekte einer größeren Roboterdichte auf die Beschäftigung durch Schaffung neuer Arbeitsaufgaben ausgeglichen werden können. Hierfür ist es wichtig, die Arbeitnehmer:innen gezielt weiterzubilden, um sie auf die geänderten Anforderungen vorzubereiten.
Als gefährlich gilt KI auch bei Anwendung zu militärischen Zwecken. Ist sie beispielsweise bei der Krebsforschung potenziell in der Lage, Menschen zu retten, so kann sie auch lebensgefährlich sein. Es könnten Situationen entstehen, in denen nicht ein Mensch, sondern eine Maschine über Leben und Tod entscheidet. Solche Waffensysteme in Händen von Herrschenden zu regulieren und zu kontrollieren, ist eine wichtige Aufgabe der internationalen Gemeinschaft.
Weitere Bedenken gegen die größere Einbindung von KI sind fehlende Transparenz, wie sie ihre Entscheidungen trifft und wie sie mit vertrauensvollen Daten umgeht, sowie es nicht ausgeschlossen werden kann, dass sie durch fehlerhafte oder unvollständige Anlernprozesse Vorurteile bildet und verstärken kann. Das könnte dann im schlimmsten Fall zu falschen oder diskriminierenden Entscheidungen führen.
Medien müssen sich anpassen
Nicht nur Menschen, sondern auch KI macht mit zunehmender Freude „irgendwas mit Medien“. Zwei aktuelle Beispiele zeigen deutlich, auf welchem Gebiet in naher Zukunft größte Vorsicht beim Konsum von KI-generierten Informationen geboten sein wird. Zum einen wurde ein gefälschtes Interview mit dem seit seinem Skiunfall schwer verletzten Michael Schumacher in einer Boulevardzeitung veröffentlicht. Dabei machte die verantwortliche Redakteurin erst im Artikel selbst auf die Generierung des Interviews durch KI aufmerksam. Zum anderen kursierte ein künstlich erstelltes Bild von Donald Trump im Internet, der sich im Kampf mit der Polizei mit Händen und Füßen gegen eine Festnahme wehrt.
Hier zeigt sich klar, dass die Aufgabe für Journalist:innen, aber auch für Leser:innen medialer Inhalte kniffliger geworden ist. Es fehlt oftmals an Orientierung, was real ist und was erfunden. Diese sogenannten Deepfakes können nicht nur Personen oder Institutionen in gutem oder schlechtem Licht erscheinen lassen, sondern eine Gefahr für die Demokratie darstellen.
Lösungsansätze könnten laut Expert:innen Wasserzeichen sein, die von KI erstellte Inhalte für andere Computer sichtbar kennzeichnen. Für unsere Augen würde damit alles beim Alten bleiben, doch die Software könnte uns unterstützen, den Realitätsgehalt unserer Informationen zu bestimmen. Leider ist auch hier zu befürchten, dass das nicht ausreicht. Welche Betrüger:innen würden freiwillig ein Wasserzeichen nutzen? Ein anderer Ansatz könnte sein, ausschließlich von Menschen erstellte „echte“ Inhalte, beispielsweise durch ein Siegel zu kennzeichnen. Das Abzeichen „not written by AI“ existiert bereits, Autor:innen können damit ihre Inhalte markieren und auf die Echtheit hinweisen. Eine Chance, diese Produkte dann auch unveränderlich zu verschlüsseln, könnte die Blockchain bieten. Dort lassen sich Inhalte ablegen, die nicht fälschbar sind und dann auch klar dem Erstellenden zugerechnet werden können.
Wie beurteilt die Universität Konstanz die KI-Nutzung durch Studierende?
Bildungseinrichtungen, wie Schulen und Universitäten, wurden durch die Einführung von ChatGPT ohne Vorwarnung vor vollendete Tatsachen gestellt. Schnell geraten sie durch die rasante Entwicklung der KI ins Hintertreffen und müssen darauf reagieren. Das Bundesland Nordrhein-Westfalen hat beispielsweise bereits einen Handlungsleitfaden für Schulen zum Umgang mit KI erstellt. Hier werden die Lehrkräfte unter anderem auf Konsequenzen der Technologie für das Lernen der Schüler:innen hingewiesen. Dennoch will man sich der Sache auch nicht ganz verschließen, daher wird auf Fragen wie: „Kann KI den Lernprozess auch unterstützen?“ ebenfalls eingegangen.
Auch die Universität Konstanz versucht, ihre Position zu den neuesten Entwicklungen zu definieren. Campuls hat für euch nachgefragt, wie die aktuell sehr schwammige Grenze zwischen „erlaubt“ und „nicht erlaubt“ in Zukunft aussieht. Die Uni stellt in ihrer Antwort erstmal klar, „dass es verboten ist, eine Arbeit ganz oder in großen Teilen von einem KI-System schreiben zu lassen“. Illegale Nutzung ist also kein Kavaliersdelikt und wird als Täuschungsversuch gewertet.
Dennoch sieht die Universität auch Möglichkeiten, KI-Tools mehr in die Lehre miteinzubinden. Es sollen mithilfe einer Expert:innengruppe die euch bekannten Eigenständigkeitserklärungen zu Hausarbeiten und anderen Abgaben an die neuen Umstände angepasst werden. Die Lehrenden hätten dann die Möglichkeit, für festgelegte Arbeitsschritte die Nutzung von KI wie ChatGPT, explizit möglich zu machen oder aber zu verbieten. Dann könnten sie euch gegenüber klarstellen, wo ihr KI einsetzen dürft und wie ihr das angeben müsstet.
Solange es jedoch nicht so weit ist, ist es am besten den Kontakt zu euren Dozent:innen zu suchen und mit eurer Unsicherheit transparent zu sein, denn Lehrende sind laut Universität „[…] angehalten, Studierenden klar zu vermitteln, ob sie die Nutzung von ChatGPT als Täuschungsversuch ansehen, der der geforderten Eigenständigkeit entgegensteht.“
Kann ChatGPT auch Selbstkritik?
Wie ihr seht, ist ChatGPT auf Anfrage auch gerne selbstkritisch und bemüht sich darum, Risiken nicht zu verschweigen. Diese Demut steht dem Programm gut zu Gesicht. Die Chance zu wahren, die KI zum Wohle der Menschheit einzusetzen, bleibt aber unsere eigene dringende Mission. Wir müssen uns ja auch nicht alles abnehmen lassen.
Unsere Redakteurin Marie-Louis Kindsvater hat Mitte April ChatGPT gebeten, einen Artikel über sich selbst zu schreiben: