WIEVIEL KI DARF´S DENN SEIN?
Die Künstliche Intelligenz, kurz KI genannt, ist in unserem Alltag angekommen: Das Navigationsgerät im Auto, Saugroboter zuhause, die Objekterkennung des Smartphones. Dazu Übersetzungsprogramme oder Apps wie Google Transcribe und Ciscos Voice, die Gespräche direkt aufzeichnen und gleich in Text umwandeln können.
Vielfacher Nutzen
Der Künstlichen Intelligenz, besser gesagt den Programmierern und Entwicklern dahinter verdanken wir eine ganze Menge. Vor allem im Bereich der Medizin: Mittels Computer-Vision-Technologie kann KI sogar Krebserkrankungen erkennen und sie macht MRT-Scans schneller.
Industrieunternehmen profitieren schon länger von den Entwicklungen im Bereich Forschung. Selbstfahrende Autos, die in Deutschland bisher nur testweise eingesetzt werden, werden in einigen Jahrzehnten eine Selbstverständlichkeit auf unseren Straßen sein.
Neueste akustische KI spielt nicht nur Wunsch-Hits und beantwortet Fragen aus unterschiedlichsten Bereichen. Sie kann auch Termine beim Friseur und in Restaurants klarmachen und in der Apotheke Medikamente bestellen. Die Computerstimme ist als solche nicht mehr zu erkennen. Damit der Gesprächspartner weiß, dass KI am anderen Ende der Leitung ist, muss diese sich auch als solche zu erkennen geben. Was sie hoffentlich auch machen wird…!? Die Zahl der Menschen, die Sprachassistentinnen wie Alexa und Siri misstrauisch gegenüberstehen, ist bisher noch recht hoch, andere nutzen ihre Dienste ständig.
Professor Dr. Thomas Schlösser von der FH Südwestfalen in Meschede erforscht den „Systematischen Einfluss von Emotionen bei sozialen und nicht-sozialen Entscheidungen unter Risiko und Unsicherheit“: Können Sie dieses Zögern und Misstrauen verstehen, Herr Professor?
Solche sprachgesteuerten Anwendungen sind ein Beispiel für die fortschreitende Anthropomorphisierung (also die Vermenschlichung) der Schnittstellen K.I.-getriebener Systeme. Der Erfolg von ChatGPT hängt auch davon ab, dass die erzeugten Texte bzw. „Antworten“ so klingen, als könnten sie von einem Menschen formuliert worden sein. Menschen reagieren darauf – gewohnten Mustern folgend – mit einer Vermenschlichung der Maschine: wenn etwas klingt oder aussieht wie ein Mensch, wird es auch menschlicher wahrgenommen. Aufgrund dessen, dass text-generierenden K.I.-Anwendungen wie ChatGPT de facto auf Algorithmen basieren, die die Wahrscheinlichkeiten des Auftretens von Wörtern auf Grundlage von Trainingsdaten nutzen, um neuen Text zu erzeugen, ist die Ursache für die Zuschreibung ihrer Intelligenz hier sicherlich eher in der menschen-ähnlichen Kommunikationsschnittstelle zu suchen. Auch moderne Roboter, wie sie z. B. bereits im Pflegebereich in China oder Japan zur Anwendung kommen, werden so konstruiert, dass sie als möglichst menschlich wahrgenommen werden. Das bezieht sich dann nicht nur auf die Sprache, sondern auf das Aussehen und v. a. die erzeugte Mimik, die Emotionen vermitteln soll. Menschen können diese simulierten emotionalen Signale der Maschinen dann „lesen“ wie die eines anderen Menschen, dem sie begegnen. Insofern scheint die Vermenschlichung basierend auf der Emotionalisierung von Maschinen eine große Rolle für die Akzeptanz von K.I.-Anwendungen im Alltag zu spielen.
"Wenn etwas klingt oder aussieht wie ein Mensch, wird es auch menschlicher wahrgenommen" (Thomas Schlösser)
Von Kontrolle zur Überwachung?
In Deutschland (noch) nicht, aber in den USA wird das akustische Überwachungssystem ShotSpotter bereits großflächig eingesetzt. Wenn ein Schuss fällt, wird gleich die Polizei alarmiert. So weit so gut. Nebenbei zeichnet das System auch alles andere auf, auch Gespräche. Andere Programme sind auf Gesichtserkennung spezialisiert. Um Kriminelle aus dem Verkehr zu ziehen, sicherlich nützlich. Es gibt aber auch Bedenken, dass KI so zum Werkzeug eines Überwachungsstaates wird. Nebenbei bemerkt wird KI bereits bei der Kriegsführung eingesetzt…
Wir sind hier schließlich nicht in Amerika, könnte man im ersten Moment denken. Glauben Sie, dass diese Welle zu uns rüber schwappen wird?
Vielleicht hätte man sich vorher verstärkt um einige ethische Fragen kümmern müssen, bevor man das Geschaffene auf die Menschheit loslässt. Doch so einfach ist das natürlich nicht, denn bei KI, der künstliche Intelligenz, geht es nicht um eine einzige Disziplin, sondern Techniken aus unterschiedlichsten Disziplinen, die untereinander nicht vernetzt sind.
Was vor 20 Jahren noch kaum vorstellbar ist bereits eingetreten: Die meisten Menschen besitzen ein Handy oder Smartphone. Ohne Smartphone ist es nicht mehr möglich z. B. das 49-Euro-Ticket für die Bahn zu bekommen. Am Schalter wird es nicht mehr verkauft.
Lässt sich eigentlich noch steuern, wieviel KI wir in unserem Alltag haben möchten?
Aufgrund der rasanten Entwicklung von K.I.-Anwendungen im kommerziellen Bereich gehe ich davon aus, dass es zunehmend schwieriger wird, der Nutzung solcher Systeme zu entgehen. Im privaten Bereich mag das bisher noch relativ überschaubar sein: ob zuhause eine Alexa mithört, kann ich noch selbst entscheiden. Aber ich kann mir gut vorstellen, dass es schon bald so weit sein wird, dass z. B. die K.I.-gestützte Optimierungsfunktion einer Handykamera extra ausgeschaltet werden muss. Plus natürlich der Kontakt mit Ergebnissen (um nicht Entscheidungen zu sagen) solcher Systeme: die Preise für Produkte wie z. B. Tickets für Transportmittel werden heute schon sehr dynamisch gesteuert – jeder kennt die Frage, wann der optimale Zeitpunkt ist für die Buchung eines Fluges oder Bahnfahrt; solcherart Optimierung wird zukünftig sicherlich auch von K.I.-gestützten Systemen vorgenommen. Als Nutzer solcher Dienstleistungen bin ich also indirekt Nutzer der K.I. Das ist aber relativ harmlos, wenn man bedenkt, was theoretisch noch möglich ist: im Kundenservice wird man evtl. aufgrund des eigenen Verhaltes bestimmten Profilen zugeordnet, im Bewerbungsprozess nicht eingeladen aufgrund einer automatisierten Auswertung des Lebenslaufs, bei der Frage, ob ich einen Kredit erhalte oder nicht, oder sogar als Adressat von Verwaltungsentscheidungen die durch K.I.-generierte Vorschläge „unterstützt“ wurden, kommen wir in Kontakt mit Ergebnissen von K.I.-Anwendungen. Die zuvor skizzierten Vorgehensweisen existieren teilweise schon, erfahren aber durch die Optimierung durch K.I.-Systeme eine neue Dimension der Automatisierung und damit die potentiell unangemessene Übertragung von Verantwortung. Deswegen wird es zunehmend wichtiger, dass die Ergebnisse, die K.I. liefert nachvollziehbar gemacht werden, Stichwort „explainable A.I.“
"Es wird zunehmend wichtiger, dass die Ergebnisse, die K.I. liefert nachvollziehbar gemacht werden" (Thomas Schlösser)
Kreative KI
Mit Sprach-KI wie DeepL werden über 30 Sprachen optimal übersetzt, Google Fabricius kann Hieroglyphen entziffern und LawGeex überprüft in Sekundenschnelle Rechtsdokumente, für die Juristen Stunden benötigen würden. ChatGPT wird schon von Schülern und Studenten beim Erstellen von Aufsätzen eingesetzt. So einige, die sich einen Doktortitel erschlichen haben, würden die Raubkopien heutzutage durch GPT laufen und verändern lassen. Banken setzen KI für die Wertpapieranalyse ein und hochrangige Zeitungen und Agenturen wie die New York Times oder Reuters lassen schon kurze Sport- und Wirtschaftsnachrichten von KI verfassen.
KI kann auch sehr kreativ sein. Sie generiert Fotos, Videos und Musik. Mit dem KI-Tool Ganbreeder z. B. lassen sich fantastische Kunstwerke schaffen und das Programm Nvidias GauGAN malt Landschaften wie ein Profi. Geld lässt sich damit auch verdienen: Bereits 2018 versteigerte das Auktionshaus Christie’s erstmals KI-Kunst – für fast eine halbe Million US-Dollar.
Professor Schlösser, bezüglich der Urheberschaft bei künstlich erzeugten Werken ist ja noch einiges im Unklaren, erste Patentanmeldungen gehen ein: Wem gehört ein KI-Werk? Würden Sie den Nutzern solcher Software deshalb erst mal zur Vorsicht raten, bis das geklärt ist?
Das ist ein Bereich, in dem die Entwicklungen ebenfalls sehr dynamisch verlaufen, eben weil die Fragen so neu sind. Die Überlegung hinter den Klagen von Urhebern und Kunstschaffenden sind m. E. leicht nachvollziehbar: Systeme wir ChatGPT und andere eher visuell orientierte System haben ihre Fähigkeiten auf Grundlage von Trainingsdaten entwickelt, die in der Regel von anderen, in den allermeisten Fällen kreativ arbeitenden echten Menschen, erschaffen wurden. Wenn das K.I.-System nun darauf basierend etwas erzeugt, inwiefern kann es sich dann noch um eine „eigenes“ Werk des K.I.-Systems handeln? Wenn ich einem Kunstfälscher sage: Mal mir ein Bild wie Van Gogh, aber das Motiv soll mein Haus mit der Wiese davor sein und das Bild sieht nachher aus wie von Van Gogh gemalt, würden wir es vermutlich auch als (wenn auch kuriose) Fälschung einschätzen. Aber auch hier lautet die Frage schon: Wie hoch war der eigene kreative Anteil des Fälschers am entstandenen Werk? Das Ganze hat auch noch eine datenschutzrechtliche Dimension, wenn man bedenkt, dass die Systeme Informationen aus jeder Interaktion mit Nutzenden (z. B. das Feedback zu erzeugten Antworten oder Bildern) integrieren und für sich nutzbar machen. Nicht umsonst laufen nationale und EU-weite Bemühungen zur Regulierung von K.I.-Anwendungen, um deren Sicherheit und Konformität mit den Grundrechten zukünftig zu gewährleisten. Passend dazu sagte die Vorsitzende des Deutschen Ethikrates Alena Buyx "Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern".
Sensitive Roboter
Google hat eine KI-Nase entwickelt, die mittels künstlicher Rezeptoren ca. 5.000 Gerüche erkennen und verarbeiten kann. Auch so empfindliche Früchte wie Himbeeren können Roboter heute schon dank zahlreicher Sensoren pflücken. Sensible Roboterfinger sind wichtig für die Haushaltsroboter, die heute schon Wäsche sammeln und gärtnern können. Und für die Pflegerobotik der Zukunft. Da sind sie noch sind sie nicht so weit, stolpern eher noch durch die Realität. Aber ihre Zeit wird kommen. Angesichts des Pflegenotstands macht das Sinn.
Können Sie persönlich sich vorstellen, später selbst einmal von einem Roboter gepflegt zu werden?
Nein.
Empathische KI?
Vielfach wird gesagt, dass das, was KI kann, noch weit entfernt ist vom menschlichen Verständnis, vom logisch-symbolischen Denken. Und von Gefühlen. Das heißt allerdings nicht, dass der Beruf des Psychotherapeuten sicher vor KI ist. Erste Chatbots wie WoeBot und Wysa sollen heute schon bei Depressionen und bei der Kontrolle über Emotionen und Gedanken helfen. Roboter-Empathie, die uns Menschen helfen kann, Empathie überhaupt zu verstehen?
Echte Empathie erfordert, dass Maschinen subtile Signale in Körpersprache und Worten erkennen. Forscher der Columbia Universität New York haben daher einen Roboter gebaut, der das Verhalten eines anderen Roboters vorhersagen kann, neuronale Netze, die tatsächlich lernen können, über die "kausale, dynamische Struktur physikalischer Ereignisse nachzudenken."