KüNSTLICHE INTELLIGENZ

Anlässlich einer Produktpräsentation am 4. Oktober 2016 erläuterte Google-CEO Sundar Pichai seine Vision für die Technologiebranche: Künstliche Intelligenz – auch KI genannt – werde die Computerbranche revolutionieren. In den vergangenen zehn Jahren sei es darum gegangen, Smartphones zu Fernsteuerungen für das Leben zu machen. In den nächsten zehn Jahren werde AI in den Vordergrund rücken: „Mobile first to AI first“. In Zürich baut Google dafür das größte Forschungsteam außerhalb der USA auf. Das Ziel: Mittels „Artificial Intelligence“ für jeden Nutzer ein „individuelles Google“ zu bauen.

Der feine Unterschied

„Künstliche Intelligenz“ und „Artificial Intelligence“ sind nicht ein und dasselbe. Für Prof. Benno Stein, Leiter der Forschergruppe „Web-Technologie und Content-Management“ an der Bauhaus-Universität Weimar, bedeutet „Intelligenz“, sich in neuen Situationen aufgrund neuer Einsichten zurechtzufinden sowie Aufgaben mit Hilfe des Denkens zu lösen.

„Intelligence“ sei weiter gefasst: Sie beinhalte die Anpassung an neue Situationen, das Lernen, die Fähigkeit mit konkreten und abstrakten Situationen fertig zu werden sowie Aufklärung und Nachforschung.

Der Stand der Dinge

Auch in Deutschland wird das Thema KI diskutiert und intensiv erforscht. Das bereits 1988 gegründete „Deutsche Forschungszentrum für Künstliche Intelligenz“ (DFKI) bezeichnet sich selbst als das weltweit größte KI-Forschungszentrum. Anlässlich der CeBIT 2016 erklärte das DFKI:

„Die exponentielle Leistungssteigerung der Hardware, der Preisverfall bei Sensorik, die Überwindung des Medienbruchs durch Digitalisierung, die Erfolge bei der konkreten Anwendung von maschinellen Lernverfahren, die flächendeckende Vernetzung haben in der Kombination mittlerweile Systeme ermöglicht, die die ursprünglichen Gründungsziele der KI, die Simulation von menschlichen Wissensfähigkeiten, in erreichbare Nähe rücken: Spracherkennung, sprach- und bildverstehende Systeme, maschinelle Übersetzung, robotische Assistenten, die in toxischen Umgebungen, auf dem Meeresboden oder im Weltall operieren, gemischte Teams aus Menschen und Robotern, die gemeinsam produzieren, aber auch im Bereich der Pflege kooperieren – in all diesen Bereichen existieren prototypische Systeme, die intensiv weiter entwickelt werden müssen, deren Serienreife aber in den kommenden Jahren erreicht wird.“

Die Simulation menschlicher Wissensfähigkeiten

Zur Überprüfung von Dieseleinspritzpumpen auf mögliche Risse setzt ein großer Autozulieferer nicht mehr auf das menschliche Auge, sondern auf ein maschinelles Inspektionssystem, das eine Kamera beinhaltet. Ob ein Mensch fast unsichtbare Risse erkennt, ist auch von dessen Tagesform abhängig. Maschinen kennen keine Konzentrationsschwächen – und sie können dazulernen. Ein entsprechendes System kann Teile klassifizieren, wenn ein Mitarbeiter auf dem Bildschirm „gute“ und „schlechte“ Bereiche markiert. Die Informationen werden gespeichert und bei kommenden Prüfläufen genutzt. Mit weiteren Aufnahmen kann das System erweitert und an neue Bedingungen angepasst werden.

An diesem Beispiel werden die Vorteile und Grenzen von Lernsystemen deutlich: Sie müssen trainiert werden, sei es mit Bildern, Daten oder Tausenden von Fragen und Antworten. Nach der Trainingsphase können sie aber nur in dem Bereich eingesetzt werden, für den sie trainiert wurden. „Auch Lernsysteme sind hochgradig spezialisiert“ erklärt Eyke Hüllermeier, Professor für Informatik an der Uni Paderborn. Systeme können keine Bedeutungen erkennen, die zuvor nicht definiert oder programmiert wurden. So ist in einer Buchbesprechung die Aufforderung „Lesen Sie das Buch“ ein positives Urteil, in einer Filmkritik aber eine negative Bewertung, denn der Leser versteht, dass das Buch besser ist als dessen Verfilmung.

Die Vision einer künstlichen Vernunft

Um Grenzen wie diese zu überwinden, entwickeln IBM, HPE und SAP eine neue Generation von Software, Hochleistungsrechnern und Netzwerken. Was uns erwartet, erläutert Jürgen Müller, der kürzlich zum „Chief Innovation Officer“ von SAP ernannt wurde: „Die Rechner der Zukunft sind quasi aktive Systeme, die wie ein menschliches Hirn arbeiten. Sie können aufnehmen, verarbeiten, lernen und sich auf neue Situationen einstellen. Sie können sehen, hören, schreiben und lesen. Wir arbeiten an einer künstlichen Vernunft.“

Dass Projekte dieser Art bei vielen Menschen auch Ängste und Befürchtungen auslösen können, ist den meisten Technologiekonzernen bewusst. Um dem entgegen zu wirken, haben Alphabet/Google, Amazon, Facebook, IBM und Microsoft Ende September angekündigt, dass sie ihre Forschungen zur Weiterentwicklung der Artificial Intelligence bündeln wollen. Sie haben die „Partnership on Artificial Intelligence to Benefit People and Society“ gegründet, eine Partnerschaft, damit künstliche Intelligenz den Menschen und der Gesellschaft nützt.

Herzliche Grüße
Ihr Michael Arpe