Glossar zur Ausstellung SHIFT

In dieser Ausstellung werden Begriffe verwendet, die in der KI-Forschung eine wichtige Rolle spielen. Dieses Glossar bietet leicht verständliche Erklärungen zu den einzelnen Begriffen.

Algorithmen sind Handlungsanweisungen, vergleichbar mit einem Kochrezept, und bilden die Grundlage von → künstlicher Intelligenz (KI). Ein Algorithmus enthält eine schrittweise Anleitung zur Lösung eines spezifischen Problems.

Bias (Englisch für Befangenheit, Vorurteil) bezeichnet im Kontext der → künstlichen Intelligenz ein Phänomen der Verzerrung aufgrund von lücken-, fehlerhaften oder vorurteilsbehafteten Daten-Eingaben beim → maschinellen Lernen. So könnte z. B. in Fotoautomaten eine von Vorurteilen geprägte Datenbasis ein Gesicht mit dunklerer Hautfarbe nicht erkennen.

Biotechnologie und Bioinformatik sind Forschungsbereiche, die Methoden aus der Informatik oder aus den Ingenieurswissenschaften mit Erkenntnissen aus der Chemie, Biologie oder Medizin verbinden. Durch den Einsatz von Computern und → künstlicher Intelligenz wurden in den vergangenen Jahren vor allem weiterführende Ergebnisse in der Genforschung erzielt. Ausgehend von einer DNA-Probe aus Körperzellen können bei der computergestützten, genetischen DNA-Phänotypisierung auch Rückschlüsse auf die äußerliche Erscheinung und biogeografische Herkunft eines Menschen gezogen werden, obgleich sie nur bis zu einem sehr bedingten Maße verbindlich sind. Beispiele gibt es in der Medizin (→ Nanobots). Dort spielen Vorhersagen eine Rolle für die Arzneimittelentwicklung.

Ein Chatbot ist eine Anwendung von → künstlicher Intelligenz (KI), bei der die Benutzer*innen Fragen stellen, auf die das System antwortet. Dies kann per Text- oder Audioeingabe erfolgen. Besonders bekannt ist das Programm ChatGPT. Oft werden Chatbots aber auch auf Websites im Kundendienst verwendet um häufige Fragen und Probleme zu beantworten. Die Simulation einer Stimme durch KI kommt heute bereits in vielen Bereichen zum Einsatz – z. B. bei Sprachassistent*innen wie „Siri“ oder „Alexa“. Programme wie Lyrebird, die mit Sprechproben tausender Menschen trainiert wurden, können individuelle Stimmen glaubhaft nachahmen und eigenständig neue Sätze bilden, die die Person so nie gesagt hat (→ Deepfakes).

Deepfakes sind mediale Inhalte, die durch Techniken der → künstlichen Intelligenz abgeändert, verfälscht oder komplett neu generiert wurden und kaum von der Realität zu unterscheiden sind. Medienmanipulation stellt zwar grundsätzlich kein neues Phänomen dar, aber durch Methoden des → maschinellen Lernens können mitunter sehr überzeugende Fälschungen von Fotos, Videos oder Stimmen weitgehend automatisch erzeugt werden.

Dual-Use bezeichnet die ethische Herausforderung, dass im Prinzip jede Technologie für gute wie schlechte Zwecke genutzt werden kann. Ethiker*innen verweisen darauf, dass die negativen Effekte durch lernende Systeme besonders skalieren können, weil sie schnell sehr viele Menschen betreffen. Dadurch ergibt sich eine größere Verantwortung der Entwickler*innen dieser Systeme.

Unter dem Begriff digitaler Humanismus werden Chancen und Perspektiven im Zusammenspiel von Mensch und Technologie – jenseits apokalyptischer Szenarien –diskutiert: Der digitale Humanismus hält an der Besonderheit des Menschen und seinen Fähigkeiten fest und bedient sich digitaler Technologien, um diese zu erweitern, nicht um diese zu beschränken. Die über sechzigjährige Entwicklungsgeschichte der → künstlichen Intelligenz wirft viele Fragen auf: Wofür darf man KI einsetzten? Werden die Systeme irgendwann intelligenter sein als wir? Werden in Zukunft vermehrt auch „intelligente“ humanoide (d. h. menschenähnliche) Maschinen unsere Begleiter? Und kann eine Welt mit KI in Zukunft vielleicht sogar „menschlicher“ werden (→ Posthumanismus)?

1956 führte der Informatiker John McCarthy den Begriff → künstlicheIntelligenz (KI) auf einer Konferenz in New Hampshire, USA, ein. Die Teilnehmenden gingen der Frage nach, wie sich Strukturen und Aktivitäten des menschlichen Gehirns mathematisch nachbilden lassen. Oftmals wird KI daher auch als eine »nachgeahmte Intelligenz« bezeichnet. Sie gilt gemeinhin als eine Schlüsseltechnologie des 21. Jahrhunderts. Bekannte Anwendungsbeispiele sind heute Sprachassistent*innen, das autonome, selbst steuernde Fahren oder intelligente Roboterlösungen in der Produktfertigung. KI wird außerdem bereits in der Medizin oder Klimaforschung eingesetzt. In vielen Fällen wirkt KI jedoch mehr oderweniger unsichtbar im Hintergrund wie beispielsweise bei Empfehlungssystemen von Onlineshops, in der Gesichtserkennung oder bei der Steuerung von Drohnen.

Künstliche neuronale Netze sind komplexe mathematische Funktionen, die ursprünglich den Strukturen des menschlichen Gehirns nachempfunden sind. Diese Funktionen haben freie Parameter (= Stellschrauben), die optimiert (= angepasst) werden können, um ein bestimmtes Problem zu lösen (→ maschinelles Lernen). Obwohl künstliche neuronale Netze durch rechnerische Vorgänge sehr viel schneller eine große Zahl an Daten verarbeiten können als das menschliche Gehirn, ist dieses im Vergleich nach wie vor deutlich flexibler, lernfähiger und vor allem energieeffizienter.

Maschinelles Lernen (ML) ist ein Teilgebiet der → künstlichen Intelligenz. Die Algorithmen des maschinellen Lernens sollen in großen Datenmengen (Big Data) Zusammenhänge oder Gesetzmäßigkeiten erkennen. Es gibt unterschiedliche ML-Methoden. Beim überwachten Lernen nutzen Forschende Daten mit einer bekannten Antwort, anhand derer ein Algorithmus Muster erkennt und das Gelernte auf unbekannte Daten überträgt. Beim unüberwachten Lernen startet der Algorithmus nur mit Daten (zum Beispiel aus Musikstücken), in denen er eigenständig Muster sucht. Seit einigen Jahren erweist sich vor allem das sogenannte Deep Learning als zukunftsweisendes Modell auf dem Weg zu einer selbstständig agierenden KI. Dabei werden mit einem mehrschichtigen, tiefen, → künstlichen neuronalen Netz ausgestattete Maschinen so trainiert, dass sie flexibler komplizierte Aufgaben erledigen können. Die Maschinen sind so in einem gewissen Rahmen sogar in der Lage, Entscheidungen zu treffen, diese zu hinterfragen und gegebenenfalls anzupassen. Dabei ist der Prozess für Benutzer*innen, aber auch für Wissenschaftler*innen und Programmierer*innen im Allgemeinen nicht nachvollziehbar (Black-Box-Prozess).

Eine Anwendung in der → Biotechnologie sind sogenannte Nanobots – Mikroroboter, die sich z. B. autonom durch die menschliche Blutbahn bewegen und Krankheitsherde direkt vor Ort bekämpfen könnten. Außerdem gibt es bereits erste Versuche mit biologischen, sich vervielfältigenden Mikrorobotern aus Zellen von Froschembryos (Xenobots).

Non-Fungible Tokens (Abkürzung: NFTs) sind digitale Nachweise für das Eigentum von zumeist immateriellen Gütern. Im Gegensatz zu Kryptowährungen existiert ein NFT nur ein einziges Mal. Der Besitz wird mittels der Blockchain-Technologie eindeutig nachgewiesen. Eine Blockchain ist eine kontinuierlich erweiterbare Liste von digitalen Datensätzen in einzelnen Blöcken, die mittels Verschlüsselungsverfahren (Kryptografie) in einer Kette hintereinander gehängt werden. Beispiele für NFTs sind digitale Kunstwerke, Objekte in Computerspielen, digitale Eintrittskarten oder Domainnamen für Websites. Es können jedoch auch digitale Besitznachweise von real existierenden Gegenständen wie zum Beispiel Gemälden oder anderen Einzelstücken sein.

Posthumanismus oder Transhumanismus sind philosophische Denkrichtungen, in denen der Mensch seine vermeintliche Vormachtstellung in der Welt zugunsten von anderen Organismen oder Maschinen aufgibt. Demnach sind nicht nur neue Verbindungen aus Mensch und Maschine (Cyborgs), sondern auch neue Formen von Interaktion und Gemeinschaft zwischen KI-gesteuerten Maschinen, Menschen und anderen Daseinsformen denkbar (→ digitaler Humanismus und → Biotechnologie).

Die Robotik ist eine interdisziplinäre Wissenschaft, die Teilgebiete der Informatik, Elektrotechnik und des Maschinenbaus beinhaltet und sich mit dem Entwurf, der Steuerung, Herstellung und dem Betrieb von Robotern befasst. Der Begriff wurde 1921 von dem tschechischen Schriftsteller Karel Čapek geprägt, abgeleitet vom slawischen Wort „Rabota“ (dt.: Arbeit). Umgangssprachlich meint der Begriff Roboter meist Hardwareroboter, maschinelle Geräte. Reine Softwareroboter, auch „Bots“ genannt, bestehen nur aus einem programmierten Code (→ Chatbot). KI-fähige Roboter imitieren heute nicht mehr nur die Mimik, Gestik und das Aussehen von Menschen, sondern können auch sprechen und lernen. Der japanische Robotiker Masahiro Mori bezeichnete in den 1970er Jahren den widersprüchlichen emotionalen Effekt gegenüber künstlich erschaffenen Figuren als Uncanny Valley (unheimliches Tal): So wirken Maschinen einerseits umso sympathischer, je mehr sie an Lebewesen erinnern, andererseits lösen sie aber auch Unbehagen aus, wenn sie zu menschenähnlich werden.

1950 entwickelte der Mathematiker und Logiker Alan Turing den sogenannten Turing-Test, um festzustellen, ob ein Computer ein dem Menschen gleichwertiges Denkvermögen hat. Er selbst nannte diesen Test ursprünglich „Imitation Game“ (Nachahmungsspiel). Bei diesem Test befragt ein Mensch über Tastatur und Bildschirm einen anderen Menschen und eine Maschine. Wenn der oder die Fragende anschließend nicht benennen kann, welche*r von beiden die Maschine ist, hat die Maschine den Turing-Test bestanden und ihr wird menschengleiches Denkvermögen zugeschrieben. Eine praktische Anwendung ist Captcha (Completely automated public Turing test to tell computers and humans apart) – ein vollständig automatisierter Turing-Test, bei dem Menschen von sogenannten Bots unterschieden werden können.