blauer Hintergrund, davor eine Frau im blau gefärbten Licht auf deren Gesicht Zahlen und Buchstaben projiziert sind.

No risk, no fun? – Welche Risiken sich hinter künstlicher Intelligenz verbergen

Den Gedanken an die Nutzung von ChatGPT, also künstlicher Intelligenz (KI), tragen nicht nur von drei oder mehr Hausarbeiten pro Semester geplagte Studierende mit sich herum. Auch weltweit führende Köpfe aus der Wissenschaft, Wirtschaft oder dem Militär sehen der Zukunft technologieoffen entgegen. Nicht jeder von ihnen hat ehrenwerte Absichten, daher die Frage: Wo ist der Haken bei der KI?

Die Welt ist im Wandel! Neue Chancen durch den Einsatz künstlicher, sprich aus Daten lernender, Intelligenz entstehen gerade dort, wo seit längerem der Wurm drin ist. Etwa beim Fachkräftemangel, der verschleppten Digitalisierung oder dem strapazierten Gesundheitssystem, welches das Personal mit Daten von Patient:innen überfordert. Vielerorts kann KI helfen, Vorgänge zu beschleunigen und zu vereinfachen. Dennoch gibt es auch kritische Stimmen. Wenn sogar OpenAI-Mitgründer Elon Musk bei KI hin- und hergerissen ist und eine gesetzliche Regulierung dieses Bereichs fordert, und Geoffrey Hinton als ehemals führender KI-Entwickler bei Google „[…] ernste Risiken für die Gesellschaft und für die Menschheit“ befürchtet, dann fragt ihr euch sicher auch, welche Nachteile bedacht werden sollten. Campuls zeigt einige davon auf. Außerdem haben wir an der Uni Konstanz nachgefragt, welcher Umgang mit KI in Zukunft geplant ist.

Die andere Seite der Medaille

Viele Menschen fühlen sich von aufkommenden Entwicklungen zunehmend in die Ecke gedrängt oder fürchten, abgehängt zu werden. Als Hauptsorge hört man im Zusammenhang mit dem Einsatz von KI immer wieder die Angst vor dem Verlust des Arbeitsplatzes heraus. Mehrere Studien im Auftrag des Bundeswirtschaftsministeriums erwarten das zumindest für einen Teil der heute bestehenden Arbeitsverhältnisse. Diese seien umso gefährdeter, je standardisierter der Arbeitsprozess verläuft. Niedrig- und mittelqualifizierte Jobs mit hohem Routineanteil müssen also in Zukunft um ihren Erhalt bangen. Nichtsdestotrotz sieht es die Forschung als wahrscheinlich an, dass ähnlich viele Stellen neu geschaffen werden könnten wie verloren gehen. So geht eine Studie von Acemoglu/Restrepo aus dem Jahr 2018 davon aus, dass negative Effekte einer größeren Roboterdichte auf die Beschäftigung durch Schaffung neuer Arbeitsaufgaben ausgeglichen werden können. Hierfür ist es wichtig, die Arbeitnehmer:innen gezielt weiterzubilden, um sie auf die geänderten Anforderungen vorzubereiten.

Als gefährlich gilt KI auch bei Anwendung zu militärischen Zwecken. Ist sie beispielsweise bei der Krebsforschung potenziell in der Lage, Menschen zu retten, so kann sie auch lebensgefährlich sein. Es könnten Situationen entstehen, in denen nicht ein Mensch, sondern eine Maschine über Leben und Tod entscheidet. Solche Waffensysteme in Händen von Herrschenden zu regulieren und zu kontrollieren, ist eine wichtige Aufgabe der internationalen Gemeinschaft.

Weitere Bedenken gegen die größere Einbindung von KI sind fehlende Transparenz, wie sie ihre Entscheidungen trifft und wie sie mit vertrauensvollen Daten umgeht, sowie es nicht ausgeschlossen werden kann, dass sie durch fehlerhafte oder unvollständige Anlernprozesse Vorurteile bildet und verstärken kann. Das könnte dann im schlimmsten Fall zu falschen oder diskriminierenden Entscheidungen führen.

Fehlende Transparenz und fehlerhafte oder unvollständige Anlernprozesse, die zu möglicher Diskriminierung führen sind einige Vorwürfe gegen Künstliche Intelligenz. Foto: pexels.com

Medien müssen sich anpassen

Nicht nur Menschen, sondern auch KI macht mit zunehmender Freude „irgendwas mit Medien“. Zwei aktuelle Beispiele zeigen deutlich, auf welchem Gebiet in naher Zukunft größte Vorsicht beim Konsum von KI-generierten Informationen geboten sein wird. Zum einen wurde ein gefälschtes Interview mit dem seit seinem Skiunfall schwer verletzten Michael Schumacher in einer Boulevardzeitung veröffentlicht. Dabei machte die verantwortliche Redakteurin erst im Artikel selbst auf die Generierung des Interviews durch KI aufmerksam. Zum anderen kursierte ein künstlich erstelltes Bild von Donald Trump im Internet, der sich im Kampf mit der Polizei mit Händen und Füßen gegen eine Festnahme wehrt.

Hier zeigt sich klar, dass die Aufgabe für Journalist:innen, aber auch für Leser:innen medialer Inhalte kniffliger geworden ist. Es fehlt oftmals an Orientierung, was real ist und was erfunden. Diese sogenannten Deepfakes können nicht nur Personen oder Institutionen in gutem oder schlechtem Licht erscheinen lassen, sondern eine Gefahr für die Demokratie darstellen.

Lösungsansätze könnten laut Expert:innen Wasserzeichen sein, die von KI erstellte Inhalte für andere Computer sichtbar kennzeichnen. Für unsere Augen würde damit alles beim Alten bleiben, doch die Software könnte uns unterstützen, den Realitätsgehalt unserer Informationen zu bestimmen. Leider ist auch hier zu befürchten, dass das nicht ausreicht. Welche Betrüger:innen würden freiwillig ein Wasserzeichen nutzen? Ein anderer Ansatz könnte sein, ausschließlich von Menschen erstellte „echte“ Inhalte, beispielsweise durch ein Siegel zu kennzeichnen. Das Abzeichen „not written by AI“ existiert bereits, Autor:innen können damit ihre Inhalte markieren und auf die Echtheit hinweisen. Eine Chance, diese Produkte dann auch unveränderlich zu verschlüsseln, könnte die Blockchain bieten. Dort lassen sich Inhalte ablegen, die nicht fälschbar sind und dann auch klar dem Erstellenden zugerechnet werden können.

So sieht ein bereits existierendes Wasserzeichen aus. Foto: Marian Marten

Wie beurteilt die Universität Konstanz die KI-Nutzung durch Studierende?

Bildungseinrichtungen, wie Schulen und Universitäten, wurden durch die Einführung von ChatGPT ohne Vorwarnung vor vollendete Tatsachen gestellt. Schnell geraten sie durch die rasante Entwicklung der KI ins Hintertreffen und müssen darauf reagieren. Das Bundesland Nordrhein-Westfalen hat beispielsweise bereits einen Handlungsleitfaden für Schulen zum Umgang mit KI erstellt. Hier werden die Lehrkräfte unter anderem auf Konsequenzen der Technologie für das Lernen der Schüler:innen hingewiesen. Dennoch will man sich der Sache auch nicht ganz verschließen, daher wird auf Fragen wie: „Kann KI den Lernprozess auch unterstützen?“ ebenfalls eingegangen.

Auch die Universität Konstanz versucht, ihre Position zu den neuesten Entwicklungen zu definieren. Campuls hat für euch nachgefragt, wie die aktuell sehr schwammige Grenze zwischen „erlaubt“ und „nicht erlaubt“ in Zukunft aussieht. Die Uni stellt in ihrer Antwort erstmal klar, „dass es verboten ist, eine Arbeit ganz oder in großen Teilen von einem KI-System schreiben zu lassen“. Illegale Nutzung ist also kein Kavaliersdelikt und wird als Täuschungsversuch gewertet.

Dennoch sieht die Universität auch Möglichkeiten, KI-Tools mehr in die Lehre miteinzubinden. Es sollen mithilfe einer Expert:innengruppe die euch bekannten Eigenständigkeitserklärungen zu Hausarbeiten und anderen Abgaben an die neuen Umstände angepasst werden. Die Lehrenden hätten dann die Möglichkeit, für festgelegte Arbeitsschritte die Nutzung von KI wie ChatGPT, explizit möglich zu machen oder aber zu verbieten. Dann könnten sie euch gegenüber klarstellen, wo ihr KI einsetzen dürft und wie ihr das angeben müsstet.

Solange es jedoch nicht so weit ist, ist es am besten den Kontakt zu euren Dozent:innen zu suchen und mit eurer Unsicherheit transparent zu sein, denn Lehrende sind laut Universität „[…] angehalten, Studierenden klar zu vermitteln, ob sie die Nutzung von ChatGPT als Täuschungsversuch ansehen, der der geforderten Eigenständigkeit entgegensteht.“

Kann ChatGPT auch Selbstkritik?

Der Versuch einer Kritik der künstliche Intelligenz an sich selbst. Foto: Marian Marten

Wie ihr seht, ist ChatGPT auf Anfrage auch gerne selbstkritisch und bemüht sich darum, Risiken nicht zu verschweigen. Diese Demut steht dem Programm gut zu Gesicht. Die Chance zu wahren, die KI zum Wohle der Menschheit einzusetzen, bleibt aber unsere eigene dringende Mission. Wir müssen uns ja auch nicht alles abnehmen lassen.

Unsere Redakteurin Marie-Louis Kindsvater hat Mitte April ChatGPT gebeten, einen Artikel über sich selbst zu schreiben:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Ähnliche Posts
Bachelor Ersti-Höfe
Lesen

Endlich wieder Erstihöfe! – Ein Gespräch mit Tutor:innen der Erstiwochen

Back on Campus! Das ist das neue Motto der Universität Konstanz. Nach drei Onlinesemestern finden diesen Winter zum ersten Mal wieder Kurse in Präsenz statt. Für alle Erstis, die neu in Konstanz sind, sind vor allem die Wochen vor dem offiziellen Vorlesungsbeginn interessant: die Erstiwochen. Bei Rallyes durch die Stadt, einem Pubcrawl, einem Flying Dinner oder den Erstihöfen können sich die neuen Studierenden näher kennenlernen. Unsere Chefredakteurin Livia hat mit den Master- und Bachelortutor:innen der Erstihöfe am Fachbereich Politik gesprochen.
Lesen

Frag doch einfach ChatGPT: Was hinter dem neuen Helferchen steckt und was das für uns bedeutet

Eigentlich wollte unsere Redakteurin Marie-Louis Kindsvater den Teasertext und die Einleitung von ChatGPT allein schreiben lassen, allerdings neigt das Sprachmodell offenbar ein wenig zur Überheblichkeit: „ChatGPT: Wo Heiterkeit auf Hyper-Intelligenz trifft! Schnallen Sie sich an für eine Achterbahnfahrt voller Lacher und Intelligenz, denn ChatGPT definiert die KI mit seiner komödiantischen Genialität und seinem Scharfsinn neu. Machen Sie sich bereit zum LOLen und Staunen!" Okay. Sie wusste nicht mal, dass es so etwas wie das Wort „LOLen“ gibt.