"Ist künstliche Intelligenz die größte Bedrohung für die Menschheit?" und "KI schreibt ganze Texte – und zwar erschreckend gut". Zwei Meldungen der letzten Tage, die die ganze Bandbreite in der Diskussion um künstliche Intelligenz, kurz KI, aufzeigen. Will heißen von Bedrohungsszenarien bis zum alltäglichen Mehrwert mischen sich Tatsachen mit Halbwahrheiten, Spekulationen und Endzeitprognosen. Die Wahrheit dürfte indes irgendwo in der Mitte liegen. Das heißt: Weder Horrormeldungen noch pauschale Lobpreisungen auf KI sind zielführend. Vielmehr kommt es darauf an, worüber man im KI-Umfeld überhaupt spricht und was das eigentliche Ziel der jeweiligen Lösung ist.
Von Unterschieden und den Trainingsdaten
Genau das tat Jürgen Döllner, Professor am Hasso-Plattner-Institut (HPI) der Digital Engineering Fakultät der Universität Potsdam, auf dem RiskNET Summit 2019 im Schloss Hohenkammer bei München. Döllner referierte über "Big Data, Machine Learning and Artificial Intelligence: Reality, Opportunities and Misunderstandings”. Sein Einstieg war eindeutig: "Es gibt einen Paradigmenwechsel." Damit einher gehe seiner Meinung nach, dass Artificial Intelligence, kurz AI, die Industrie grundlegend verändere. Und er folgert: "In den nächsten Jahren wird sich alles umdrehen." Und damit meint er den Einsatz von AI in der Wirtschaft, aber auch mit Blick auf die Forschung sowie die gesellschaftlichen Herausforderungen.
Doch wo liegen die Unterschiede im KI-Bereich? Döllner zeigt zunächst anhand der Historie die Entwicklungen im KI-Umfeld auf, das heißt einer KI-Geschichte, die bis in die 1950er Jahre zurückreicht. Ab den 1980er-Jahren wurde Machine Learning eingesetzt und heute gehe es auch um Deep Learning. Drei Themenfelder, die nach Döllner auseinandergehalten werden müssen. So sei Deep Learning eine Sonderform des maschinellen Lernens. Der Ursprung gehe nach Aussagen des Wissenschaftlers auf die Bilderkennung zurück.
Döllner konzentrierte sich auf die KI-Teilbereiche Machine Learning und Deep Learning. Damit verbunden ist die zentrale Frage für die KI-Forschung: Wie kann man nicht-prozedural (nicht durch Anweisungsfestlegung) einen Input in einen Output verwandeln? Das ist das große Thema von Machine Learning und Deep Learning. Im Grunde geht es um die Vorhersage von Output, ohne vorher die Regeln festzulegen. Am Beispiel des Erkennens eines Hundes in einem Foto beschrieb er den Weg von eingangs bestehenden klassifizierten Trainingsdaten bis zu Feature-Vektoren. Diese werden final ausgewertet und aus denen sich eine Wahrscheinlichkeit für die Kategorie Hund ergibt. Wichtig ist bei dem kompletten Prozess, dass die Trainingsdaten stimmen müssen. Doch das sei nach Döllners Worten etwas die Krux beim maschinellen Lernen und innerhalb der künstlichen Intelligenz. Döllner: "Es kommt auf die richtigen Trainingsdaten an." Zudem sei es wichtig, die richtige Menge an Trainingsdaten zu verwenden. Sonst würde ein System mit Daten eventuell übertrainiert.
Jürgen Döllner [Hasso-Plattner-Institut] auf dem RiskNET Summit 2019: "Mit Big Data und Analytics können wir viele Unternehmensprozesse neu aufziehen"
Big Data, Machine Learning und Analytics: Das Dream-Team
Gleichzeitig haben große Datenmengen ihren Vorteil. Denn ohne Big Data wäre Machine Learning nicht möglich. Döllner: "Daten sind das neue Öl. Als Ressource, die man verarbeiten muss." Und ergänzt: "Machine Learning ist die Raffinerie". Anders gesprochen, Daten werden erst mithilfe von Machine Learning veredelt.
Zudem sind diese großen Datenmengen die Grundvoraussetzung für Analytics, wie beispielsweise Prescriptive Analytics und dem damit verbundenen Location Intelligence. "Mit Big Data und Analytics können wir viele Unternehmensprozesse neu aufziehen", so Döllner. Er spricht in diesem Zusammenhang vom Dream Team Big Data, Machine Learning und Analytics. Für ihn heißt das beispielsweise Risiken besser vorherzusagen oder Knappheit und Erwartungen frühzeitig vorherzusagen.
Gleichzeitig lassen sich ganze Handlungsvorschläge generieren und Muster erkennen. Diese enormen Datenmengen in Kombination mit Analyseverfahren brauchen eine dementsprechende Rechenleistung, sprich Hardware, um zu validen Daten und damit sinnvollen Aussagen zu gelangen. Nach Aussage des Experten ist spezialisierte Hardware wichtig, die schnell und parallel arbeitet, um die großen Datenmengen überhaupt zu bewältigen. In diesem Kontext spricht Döllner auch vom Energieverbrauch durch große Serverfarmen. Und nicht nur dort, wie Döllner mit Blick auf jede Google-Suche und dem damit zusammenhängenden Stromverbrauch unterstreicht.
Jürgen Döllner [Hasso-Plattner-Institut]: "Ganze Firmen können durch Software-Defekte untergehen!"
Software Engineering und der Schlüssel zum Erfolg
Als Erfolgsfaktor nennt Döllner den Bereich des "Software Engineering". "Software ist der Schlüssel zum Erfolg", erklärt Döllner. Die Abhängigkeit von Software verschone seiner Meinung nach keine Branche. Ein Risiko, das damit verbunden ist, sind sogenannte Software-Defekte. Döllner warnt: "Ganze Firmen können durch Software-Defekte untergehen." So nennt er unter das Beispiel eines Mobilfunkanbieters: "Wenn ein Mobilfunkanbieter nur einen Tag seine Server nicht mehr hochfahren kann, dann hat er einen enormen Reputationsschaden." Vom reinen finanziellen Schaden noch gar nicht gesprochen. Trotz dieser Schlüsselfunktion von Software gleiche das Engineering eher Kunsthandwerk. Denn Software ist ein klassisches Siloarbeiten in Organisationen. Es existieren sehr viele Datentöpfe. Und an dieser Nahtstelle kann AI wertvolle Dienste leisten. Mit AI lassen sich die Daten aus den Töpfen zusammenzuführen", schlussfolgert Döllner.
Dabei gehe es vor allem darum, menschliche Tätigkeiten im Software Engineering zu modellieren und um die Beantwortung der zentralen Fragen: Wer macht was? Und: Wie viele Menschen arbeiten an einem Projekt in einer gewissen Zeit? Damit einher geht auch der Blick auf das zentrale Element, nämlich Muster zu erkennen. Hier kann Machine Learning nach Döllners Ansicht das Monitoring vereinfachen und beschleunigen. Mehr noch können Entwicklungsressourcen besser eingesetzt und Teams optimal zusammengesetzt werden. Schlussendlich führe das nach Döllners Worten dazu, Fehler frühzeitig zu erkennen und Prozesse zu verbessern. In diesem Kontext resümiert Döllner: "Ich sehe Machine Learning als Schlüssel, weil es mehr kann als der Mensch."
[vimeo:375443352]