Künstliche Intelligenz – die unsichtbare Helferin im Alltag
Es gibt praktisch niemanden, der nicht schon einmal mit künstlicher Intelligenz (KI) in Kontakt gekommen ist. Die Entwicklung in diesem Bereich ist enorm schnell. Im Lab42 in Davos forscht Rolf Pfister mit seinem Team an einer ganz neuen Art von KI – einer möglichst menschenähnlichen KI. Im Gespräch erklärt er, was eine KI für ihn können muss und wo die grössten Risiken liegen.
Interview: Seraina Zinsli / Bilder: zVg
Herr Pfister, was ist für Sie die «perfekte» KI?
Künstliche Intelligenz soll den Menschen in seiner Entfaltung unterstützen. Wenn ich mir beispielsweise möglichst viel Wissen aneignen will, dann soll KI mich dabei unterstützen. Und wenn ich einen Assistenten brauche, der Alltagsaufgaben für mich erledigt, dann soll KI das tun. Für mich setzt eine «perfekte» KI aber vor allem zwei Dinge voraus: Erstens müssen wir Menschen sie verstehen und gut mit ihr kommunizieren können. Das ist schwieriger, als es im ersten Moment zu sein scheint. Es ist vergleichbar mit der Kommunikation zwischen Menschen, die nicht dieselbe Sprache sprechen. Bei KI ist es sogar noch komplexer, da KI viel schneller als der Mensch ist und ganz andere Schlüsse ziehen kann. Der zweite wichtige Punkt ist das umfassende Wissen, das die «perfekte» KI haben sollte. Alles, was sie einmal gespeichert hat, sollte sie auch verarbeiten und wieder abrufen können. Auf dieses Wissen muss sie entsprechend zugreifen können. Die «perfekte» KI muss also die richtigen Schlüsse aus dem gespeicherten Wissen ziehen, damit sie alle Fragen, die ein Nutzer oder eine Nutzerin ihr stellt, beantworten kann.
Wie wird gemessen, wie «gut» eine KI ist?
Eine Möglichkeit besteht darin, die Ergebnisse zu betrachten. Man stellt der KI möglichst verschiedenartige und schwierige Fragen. Sind die Antworten immer richtig, ist das ein Indiz dafür, dass die KI qualitativ gut ist und dass man ihr vertrauen kann. Doch man darf ihr nicht zu schnell vertrauen: Im Umfeld, in dem die KI produziert wurde, funktioniert sie oft einwandfrei – ausserhalb jedoch nicht. Ein konkretes Beispiel sind selbstfahrende Autos, die mit KI funktionieren. Auf einer Autobahn, wo die KI alles kennt, funktioniert das Auto (und damit die KI) fast perfekt. Aber auf einer Bergstrasse, auf der eine Kutsche vorausfährt, gelangt das selbstfahrende Auto an seine Grenzen: Die KI erkennt die Kutsche vielleicht nicht, da sie noch nie mit einer in Kontakt gekommen ist. In solchen Fällen ist das System nicht mehr zu 100 Prozent verlässlich. Dass es auf der Autobahn funktioniert, heisst noch lange nicht, dass es überall funktioniert – das wäre ein falscher Rückschluss. Eine weitere Möglichkeit, das Können einer KI zu messen, ist eine Analyse des Prozesses, der das Wissen der KI generiert: Man schaut sich an, wie die KI funktioniert, und untersucht, wie die Algorithmen arbeiten.
Über das Lab42:
Das Lab42 ist das jüngste KI-Lab der Schweiz und hat seinen Hauptsitz in Davos. Es wurde am 1. Juli 2022 gegründet und hat sich zum Ziel gesetzt, eine KI der nächsten Generation zu entwickeln. Entstehen soll eine KI, die wie ein Mensch denken und lernen kann. Dafür sei es notwendig, aktuelle Ansätze radikal zu überdenken und die Grundprinzipien der Intelligenz auf menschlicher Ebene zu verstehen, heisst es auf der Website. lab42.global
In welchen Bereichen trägt KI heute am stärksten zu Verbesserungen bei?
Heute erkennen wir vor allem im geschäftlichen Bereich, beispielsweise in der Wissensarbeit, Verbesserungen. Solche Verbesserungen finden natürlich nur unter der Voraussetzung statt, dass die Menschen die KI zielführend nutzen. Chat GPT 4 oder Übersetzungstools wie DeepL ermöglichen es den Nutzerinnen und Nutzern, ihre Texte einzugeben und den Output 1:1 zu übernehmen. Auf den ersten Blick mag das zwar ein Erfolg sein, aber auf den zweiten zeigt sich, dass der Einsatz von KI keine signifikante Verbesserung gebracht hat. Doch wenn ein Text selbst verfasst ist und man sich von der KI Verbesserungsvorschläge unterbreiten lässt und diese dann filtert und einarbeitet, steigert das einerseits die Qualität der Arbeit, und andererseits entsteht ein Lernprozess: Die KI trägt dazu bei, sich selbst als «Individuum» zu verbessern. Nicht nur in der Wissensarbeit, sondern auch im Zuge der Industrialisierung spielt KI eine sehr wichtige Rolle: Im Produktionsbereich wird vermehrt auf Roboter umgestellt und KI ermöglicht es, diese Roboter besser zu steuern. Gleichzeitig erkennt KI auch Fehler und kann feststellen, wo diese Fehler auftreten, was die Qualität des Prozesses steigert.
Gibt es auch den umgekehrten Fall? Kann KI dazu führen, dass es in die andere Richtung geht und dass man Abstriche bei der Qualität hinnehmen muss?
Diese Gefahr besteht auf jeden Fall, vor allem, wenn Menschen sich auf KI verlassen, diese aber noch nicht verlässlich und ausgereift ist. Ein Paradebeispiel hierfür ist wiederum Chat GPT 4. Ich kann die KI auffordern: «Schreibe mir einen Text über…». Dann bekomme ich viele Informationen, die richtig sind. Trotzdem sind oft auch falsche darunter. Die Resultate sind meist so überzeugend, dass man sie nicht kritisch genug hinterfragt. Im schlimmsten Fall werden diese Informationen dann weitergegeben, was zur Verbreitung von Falschinformationen führt.
Das bringt mich auch schon zur nächsten Frage: Im Zusammenhang mit KI stellt sich immer wieder die Frage nach der Haftung. Wie sehen Sie das?
Das ist auf jeden Fall ein ganz wesentlicher Aspekt. Ich erhoffe mir, dass von der Gesetzgebung aus mehr passiert. Bleiben wir beim Beispiel Chat GPT. Die Entwickler haben das System mit vielen Daten trainiert, für die sie gar keine Nutzungsrechte besassen. Sie waren der Auffassung, dass KI die Daten so verarbeiten würde, dass die Originale am Schluss nicht mehr erkennbar sein würden. Ironischerweise kann man die Originale aber teilweise wieder herstellen. Ein weiteres Paradebeispiel sind wiederum selbstfahrende Autos. Hier gab es lange Diskussionen in Bezug auf die Frage: «Wer ist verantwortlich, wenn ein Unfall passiert? Ist es der Fahrer oder die KI-Programmiererin?» Beim Fahrer ist das Argument oft, er habe die KI nicht erstellt. Aber würde man die Programmiererin für den Unfall verantwortlich machen, dann gäbe es ein moralisches Problem. Nehmen wir zum Beispiel folgende Situation: Das KI-gesteuerte Auto muss einem älteren Herrn ausweichen. Würde es das tun, würde es jedoch ein kleines Kind verletzen. In so einem Fall wird von der KI erwartet, dass sie eine Entscheidung trifft. Käme ein Mensch in so eine Situation, würde niemand eine Entscheidung von ihm erwarten. Mit anderen Worten: Von KI werden teilweise Dinge erwartet, die nicht einmal Menschen «lösen» bzw. entscheiden können. Ich würde mir wünschen, dass sich in der Gesetzgebung etwas bewegt und dass man diese Probleme angeht.
Und doch: Es scheint, dass die Gesetzgebung hinterherhinkt. Warum kümmern sich die Gesetzgeber nicht entschlossener um solche Aspekte?
Ich glaube, dass die Gesetzgeber die KI-Modelle teilweise gar nicht verstehen. Zudem will natürlich niemand solche Innovationen aufhalten. Und hier liegt der Hund begraben. Firmen, die mit KI arbeiten oder an KI forschen, sind sehr international aufgestellt. Wenn eine bestimmte Gesetzgebung zu restriktiv ist, dann weichen die Firmen aus und verlegen ihren Firmensitz an einen Ort, an dem die Gesetzgebung nicht so einschränkend ist – ganz ähnlich wie bei den Finanzoasen.
Beitrag von
Seraina Zinsli, Redaktionsleiterin, Projektleiterin Hochschulkommunikation