«Künstliche Intelligenz wird die gesamte Gesellschaft verändern»
Ein Gespräch über KI mit den BFH-Professoren Mascha Kurpicz-Briki und Erik Graf
«Künstliche Intelligenz wird die gesamte Gesellschaft verändern»
Ein Gespräch über KI mit den BFH-Professoren Mascha Kurpicz-Briki und Erik Graf
Die KI-Technologie steckt noch in den Kinderschuhen, birgt aber schon jetzt gewaltige Potenziale. Was mit Künstlicher Intelligenz alles möglich ist und welche Gefahren und Grenzen bestehen, sagen die beiden BFH-Professoren Mascha Kurpicz-Briki und Erik Graf im Gespräch.
Autor: Markus Back
Unterschied zwischen «artificial intelligence» und «intelligence amplification»
Was verstehen Sie unter «Künstlicher Intelligenz»?
Mascha Kurpicz-Briki: Was wir heute damit meinen, sind automatisierte Entscheide, maschinelles Lernen und Algorithmen, die etwas entscheiden. Wie intelligent diese jeweiligen Verfahren aber tatsächlich sind, darüber lässt sich streiten. Manchmal wird schon im Zusammenhang mit statistischen Verfahren von KI gesprochen, da dieser Begriff nicht sauber definiert ist und es kein allgemeines Verständnis darüber gibt.
Erik Graf: In den USA wird in den Fachdiskussionen nach «artificial intelligence» und «intelligence amplification» unterschieden, wobei Letztgenanntes die Fähigkeiten und Möglichkeiten beschreibt, mit denen sich die menschliche Effizienz computergestützt verbessern lässt. Wenn wir von Künstlicher Intelligenz sprechen, sollten wir uns darüber bewusst sein, dass wir auch in Jahrzehnten noch nicht dazu in der Lage sein werden, eine solche zu bauen.
Entnehme ich Ihrer Antwort, dass man mit den Begrifflichkeiten präziser verfahren sollte?
Erik Graf: Der Begriff «KI» suggeriert mehr Intelligenz als tatsächlich vorhanden ist, weil versucht wird, aus der menschlichen Perspektive zu erklären, was hier passiert. Es ist eigentlich so, dass das Vorgehen sehr simpel ist und die Algorithmen mit verschiedenen Samples gefüttert werden, die anschliessend in der Maschine Gewichte setzen, welche von dieser reflektiert werden. Allerdings ist es schwer abzuschätzen, wie diese Samples das Verhalten der Maschine beeinflussen und zu Fehlern führen, vor allem dann, wenn grosse Datenmengen eingebeben wurden.
Maschinen mit Fehlern füttern
Müsste man demnach die Maschine zunächst einmal mit Fehlern füttern, um diese Abgrenzung zu erleichtern?
Erik Graf: Das macht man. Das Problem hierbei ist, dass man nie alle Situationen abdecken kann und der Maschine eine ganze Dimension an Fähigkeiten fehlt, die für uns Menschen selbstverständlich ist. Es besteht nur eine Fassade der Intelligenz, die sich ganz gut mit der Filmkulisse einer Westernstadt vergleichen lässt. Wenn man durch diese läuft, denkt man sich, dass alles sehr schlau aussieht.
Es besteht nur eine Fassade der Intelligenz, die sich ganz gut mit der Filmkulisse einer Westernstadt vergleichen lässt. [...] Schaut man aber hinter die Fassade, ist da nur eine grosse Leere. Erik Graf
Schaut man aber hinter die Fassade, ist da nur eine grosse Leere. Da ist keine Abstraktionsfähigkeit oder die Fähigkeit, etwas abzuwägen und zu erkennen, in welchem Kontext gerade gearbeitet wird. Dabei ist es wichtig, dass jede zu treffende Entscheidung zuvor aus verschiedenen Perspektiven betrachtet wird. Das fehlt im Moment noch komplett. Nun heisst das nicht, dass es nicht schon Anwendungen für KI geben würde. Diese müssen aber zunächst identifiziert werden, indem man mit Fachexperten eng zusammenarbeitet, die einem ihre Arbeitsabläufe und Prozesse erklären. Erst dann lassen sich die Möglichkeiten von Machine Learning bestimmen.
Porträt Prof. Dr. Erik Graf
Dr. Erik Graf verfügt weitreichende Erfahrung in der industriellen Forschung und Entwicklung auf den Gebieten des Natural Language Processing und Information Retrievals im Umfeld von multinationalen Unternehmen und Start-ups.
Seine Leidenschaft liegt in der Entwicklung pragmatischer und effizienter Lösungen für reale Probleme auf Basis der Methoden aus dem Bereich der Künstlichen Intelligenz.
Er promovierte und forschte an der University of Glasgow und hat mit mehreren akademischen und industriellen Forschungsgruppen zusammengearbeitet, darunter dem HP Information Dynamics Lab, IBM Labs, der Glasgow IR Group und der Sheffield NLP Research Group. Als Chief Scientific Officer bei Cortical.io war er für die Entwicklung kommerzieller NLP-Lösungen auf dem US amerikanischen Markt tätig und zeichnete sich dort durch die Entwicklung der bis dato grössten AI-basierten Systeme im US-Bankensektor aus .
Seine derzeitige Tätigkeit als Professor für Data Engineering konzentriert sich auf die Anwendung von AI-Technologien im Kontext von angewandter Forschung, Lehre und Unternehmertum.
Anwendungen für Künstliche Intelligenz
Vermutlich gibt es keinen Standard, an dem Sie sich bei der Identifikation möglicher Anwendungen orientieren können. Nach was für Kriterien gehen Sie hierbei vor?
Erik Graf: Generell gibt es schon grobe Dimensionen, an denen man sich orientieren kann. Eine Komponente ist der Grad der Offenheit der Systeme, die man zu modellieren versucht. Je stärker diese allerdings an der realen Welt ausgerichtet sind, desto schwieriger beziehungsweise unwahrscheinlicher wird es, dass man hier Machine Learning erfolgreich einsetzen kann.
Bei einem Spiel wie Schach sind die möglichen Zustände begrenzt, selbst wenn es einige Milliarden Kombinationen sind. Das ist damit ein relativ begrenzter Spielraum, in dem sich die Maschinen beziehungsweise Algorithmen zurechtfinden müssen. Aber je weiter und offener die Systeme gestaltet werden, desto schlechter stehen die Chancen für den erfolgreichen Einsatz von KI, da sich die möglichen Situationen nicht mehr begrenzen lassen. Deutlich wird das am Beispiel eines Kartons, der vor ein autonom fahrendes Auto geweht wird. Handelt es sich um ein gefährliches Hindernis oder nur ein vorbeifahrendes Fahrzeug? Weil hier eine Reflektion fehlt, gerät die KI schnell an ihre Grenzen.
In welchen Bereichen arbeiten KI-Systeme denn bereits problemlos?
Mascha Kurpicz-Briki: Ein sehr gutes Beispiel ist die automatische Textgenerierung für einen Wetterbericht. Dieser ist neutral verfasst und vom Aufbau jeden Tag ähnlich. Es ändern sich einfach nur bestimmte Wörter, wie «Heute ist es neblig» oder «die Schneegrenze liegt in 2000 Metern Höhe». So etwas lässt sich problemlos automatisieren.
Erik Graf: Ein anderes Beispiel ist der Einsatz einer KI als intelligenter Assistent. Im juristischen Bereich markiert diese beispielsweise in einem 500-seitigen Vertrag die wichtigsten Klauseln für den Anwalt. So muss er nicht das komplette Dokument lesen, sondern trifft aufgrund der Vorselektion der Maschine seine Entscheidung.
Porträt Prof. Dr. Mascha Kurpicz-Briki
Dr. Mascha Kurpicz-Briki doktorierte an der Universität Neuenburg im Bereich energie-effizientes Cloud Computing und arbeitete danach einige Jahre in der Privatwirtschaft im Bereich Analytics und Cloud, wo sie diverse IT-Projekte leitete.
Sie ist nun Professorin für Data Engineering am Institute for Data Applications and Security IDAS an der Berner Fachhochschule, wo sie im Bereich Natural Language Processing und Data Engineering forscht.
In ihrer Forschung untersucht sie mit ihren Projektteams, wie menschliche Aspekte und Fairness automatisiert in Texten analysiert werden können. Sie setzt sich zudem damit auseinander, wie die Digitalisierung zum gesellschaftlichen Nutzen eingesetzt werden kann.
Dadurch verringern sich die Verfahrenskosten und die Verfahrenszeit, weil die KI für eine enorme Zeitersparnis sorgt…
Erik Graf: Das ist so! Für den Erfolg braucht es jedoch neue Interfaces, die eine Zusammenarbeit von Mensch und Maschine gestatten und die Ergebnisse der KI so darstellen, dass der Nutzer deren Entscheidungsfindung nachvollziehen kann. Zudem muss der Mensch die Auswahl der Maschine überprüfen und ihr notfalls Feedback geben können, damit sich diese weiterentwickeln kann.
Schwierige Einsatzgebiete für KI
In welchen Bereichen bereitet der Einsatz von KI Probleme?
Mascha Kurpicz-Briki: Das sind vor allem Dinge, bei denen menschliche Gefühle mit im Spiel sind. Für eine Maschine ist es sehr schwer, Satire oder Humor zu verstehen. Mit positiven oder negativen Bewertungen kommt sie klar, aber zu bestimmen, ob ein Text beispielsweise einen wütenden oder ängstlichen Unterton hat, ist sehr viel schwieriger zu analysieren.
Erik Graf: Hinzu kommen alle Systeme, die im Open-world-Kontext arbeiten. Alle Chatbots, die entwickelt wurden, um eine Unterhaltung zu führen, sind krachend gescheitert. Das beste Beispiel dafür ist das System von Facebook, das 2018 nach nicht einmal zwei Jahren Betrieb eingestellt wurde, weil es gerade einmal 30 Prozent der Nutzeranfragen beantworten konnte. Die übrigen 70 Prozent mussten menschliche Assistenten übernehmen.
Es gibt bis heute auch keine Software, die eine Sprachdatei in einen brauchbaren Text umwandelt.
Erik Graf: Und dabei ist Spracherkennung eine Dimension einfacher als diese Dialog-Systeme, weil hier der Inhalt gar nicht erkannt werden muss, sondern nur die Worte verstanden werden müssen. Aber auch da ist es wieder so, dass man ohne eine Begrenzung Mehrdeutigkeiten erhält und falsche Worte ausgegeben werden. Deswegen kommen dann diese furchtbaren Ergebnisse heraus und es ist nicht möglich, ein Gespräch wie unseres mit massivem Kontext wiederzugeben.
Weitere Artikel zu KI / Künstliche Intelligenz
«KÜNSTLICHE INTELLIGENZ MUSS IMMER DEM MENSCHEN DIENEN»
Was ist KI? Und welche moralischen Aspekte müssen Industriefirmen beachten?
WIE LERNEN MASCHINEN? WIE LERNEN MENSCHEN?
«Eine Künstliche Intelligenz ist nicht intelligent», Teil 1 / «Unser Gehirn tut, was es will», Teil 2
Weitere Artikel zu KI / Künstliche Intelligenz
«KÜNSTLICHE INTELLIGENZ MUSS IMMER DEM MENSCHEN DIENEN»
Was ist KI? Und welche moralischen Aspekte müssen Industriefirmen beachten?
WIE LERNEN MASCHINEN? WIE LERNEN MENSCHEN?
«Eine Künstliche Intelligenz ist nicht intelligent», Teil 1 / «Unser Gehirn tut, was es will», Teil 2
KI und die Fairness
Ein viel diskutierter Punkt im Zusammenhang mit KI ist Fairness. Wie weit ist es mit dieser her, beispielsweise bei der Sichtung und Beurteilung von Bewerbungen?
Mascha Kurpicz-Briki: Das ist eine ganz schwierige Aufgabe. Daher ist ein Thema unserer Forschung die Konformitätsprüfung von Trainingsdaten, also den Daten, mit denen eine Maschine angelernt wird. Weil es hier verschiedene Aspekte zu beachten gibt, ist das jedoch äusserst herausfordernd.
Diese Trainingsdaten wählt vermutlich ein Mensch aus. Wie sensibilisiert man diesen dazu, sich bei der Datenauswahl fair zu verhalten
Mascha Kurpicz-Briki: Es braucht grundlegende Standards für KI. Bei deren Festlegung ist aber zu beachten, dass diese auch global anwendbar sind, da Fairness in den unterschiedlichen Kulturen ganz unterschiedlich definiert wird. Da sich KI sehr schnell entwickelt und auch schon produktiv eingesetzt wird, hinkt man jedoch hinterher und versucht es irgendwie noch reinzubringen oder zumindest ein Bewusstsein dafür zu entwickeln.
Wir beobachten sehr oft, dass bei der Entwicklung an diesen Aspekt gar nicht gedacht wird, weil es einen selber ja nicht betrifft. Daher braucht es in den Entwicklungsteams Diversität. Je gemischter diese sind, sei es vom Geschlecht oder der Herkunft, umso mehr werden diese Fragen auch gestellt werden. Wenn die Teams dagegen einseitig sind, stellt sich die Frage nach Fairness überhaupt nicht, da die Entwickler weniger betroffen sind und sich solche Überlegungen erst gar nicht machen.
Es braucht grundlegende Standards für KI. Bei deren Festlegung ist aber zu beachten, dass diese auch global anwendbar sind, da Fairness in den unterschiedlichen Kulturen ganz unterschiedlich definiert wird. Mascha Kurpicz-Briki
Demnach sollte die Handlungsempfehlung lauten, Entwicklerteams möglichst divers zu gestalten?
Mascha Kurpicz-Briki: Förderlich ist das sicherlich, aber es ist auch etwas, was realistisch gesehen gerade kleinere Unternehmen kaum machen werden. Viel wichtiger ist es, überhaupt für dieses Thema ein Bewusstsein zu entwickeln und sich mit diesem auch ernsthaft auseinander zu setzen. EntwicklerINNEN müssen sich daher unbedingt die Frage stellen und überlegen, wo ihre Software sonst noch angewendet werden könnte? Kommt diese nur in der Schweiz zum Einsatz oder könnte es sein, dass diese in anderen Ländern oder Kulturen angewendet wird? Und was hätte das dann für Konsequenzen?
Wenn ich die KI zum Schrauben sortieren einsetze, habe ich natürlich sehr viel weniger Probleme als wenn sie mir dazu dient, Menschen zu beurteilen. Deshalb sollte man immer ganz genau hinsehen, wenn diese dazu benutzt wird, um Entscheidungen über Menschen, über Ressourcen oder über die Inklusion von Menschen in der Gesellschaft zu treffen. Das sind die Fälle, bei denen wir besonders genau hinsehen und überlegen, wie man das fair gestalten kann.
Mehr erfahren zum Thema Künstliche Intelligenz
Unsere Printausgabe #010 wird den Schwerpunkt Künstliche Intelligenz haben.
Enthalten ist darin ein grosser Trendbericht und mehreren spannende und exklusive Interviews, die auch Einsicht in die Praxis geben.
KI und «Digitale Ethik und Fairness» für Studierende
Inwiefern geben Sie diese Massstäbe Ihren Studierenden mit auf den Weg? Diese sind ja auch alle durch ihre Kindheit und ihr Umfeld geprägt und daher vielleicht gar nicht dazu in der Lage, etwas aus einer anderen Perspektive zu beurteilen?
Mascha Kurpicz-Briki: Ich behandle «Digitale Ethik und Fairness» im Rahmen des Bachelor Studiengangs Informatik und das fängt damit an, dass ich die zehn schlimmsten Beispiele der letzten Jahre vorstelle. Das sind dann Beispiele über Diskriminierung bei der Bewerbung oder der automatischen Bildbeschreibung. Google hat beispielsweise sehr lange Fotos von Menschen afro-amerikanischer Herkunft als Gorillas oder andere Tiere eingestuft. Dann gibt es das Beispiel mit dem Passbildautomaten, bei dem die Software alle Menschen asiatischer Herkunft dazu aufforderte, ihre Augen weiter zu öffnen.
Es gibt haarsträubende Beispiele aus produktiven Systemen und diese stelle ich den Studierenden vor. Anschliessend reflektieren und sprechen wir darüber, was ihre Verantwortung als Data Engineer ist. Dann kommt einerseits die Rückmeldung, dass dieses Bewusstsein gar nicht vorhanden ist, andererseits dass man sich dieser Verantwortung als Entwicklerin oder Entwickler gar nicht bewusst ist.
Erik Graf: Die Sensibilisierung für diese Themen liegt in unserer Verantwortung. Heute ist es oftmals noch so, dass man bei der Entwicklung zuerst einmal über die technischen Möglichkeiten nachdenkt und einfach darauf los baut. Die Reflektion über die sozialen oder ethischen Folgen erfolgt nicht oder erst viel zu spät. Das ist eine gesellschaftliche Gefahr, die wir als Dozenten im Blick haben und unseren Studenten auch weitergeben müssen.
Wie wird der Arbeitstag eines Studierenden aussehen, der bei Ihnen gelernt hat und in die Arbeitswelt hinausgeht?
Mascha Kurpicz-Briki: Da muss man zunächst nach seiner Rolle im Prozess unterscheiden. In unserem Data Engineering sind wir beispielsweise recht breit aufgestellt. Die Studierenden lernen sehr viele Kompetenzen, es fängt bei der Plattform an bis hin zum maschinellen Lernen und den Grundlagen der Auswertung bis zur Visualisierung der Daten. Hinzu kommen die ganzen Prozessfragen, ethische Fragen, rechtliche Fragen und so weiter.
Energieaufwand und Nachhaltigkeit
Inwieweit trimmen Sie Ihre Studierenden auf Nachhaltigkeit. Die Speicherung all dieser Daten ist ja mit einem enormen Energieaufwand verbunden?
Mascha Kurpicz-Briki: Das fällt in den Bereich der Green IT, wo man wiederum maschinelles Lernen anwenden kann, um beispielsweise den Stromverbrauch in Rechenzentren zu optimieren. Es gibt Ansätze, zum Beispiel für Cloud-Systeme, die es durch die Platzierung bestimmter Arbeitsabläufe auf bestimmen physischen Computern gestatten, den Strombedarf des Gesamtsystems zu optimieren.
Was müsste noch unbedingt zum Thema KI gesagt werden?
Mascha Kurpicz-Briki: Das Wichtigste ist dieses Zusammenfinden von Mensch und Maschine und das Eingliedern in den Prozess. Dies hat man in den Anfangsjahren dieser Technologie vernachlässigt, weil man immer von der Idee des Ersetzens des Menschen ausging. Von dieser Ansicht bewegt man sich inzwischen wieder zurück. Jetzt muss sich jedoch der Prozess einpendeln, der ein gutes Zusammenarbeiten zwischen Mensch und Maschine ermöglicht, aber auch die Verantwortlichkeiten regelt. Es besteht nämlich die Gefahr, dass der Mensch sagt, die Maschine hat entschieden und plötzlich ist niemand mehr Schuld?
Das Wichtigste ist dieses Zusammenfinden von Mensch und Maschine und das Eingliedern in den Prozess. Dies hat man in den Anfangsjahren dieser Technologie vernachlässigt, weil man immer von der Idee des Ersetzens des Menschen ausging. Mascha Kurpicz-Briki
Erik Graf: Wir müssen uns darüber im Klaren sein, dass wir erst am Anfang dieser Entwicklung und vielleicht noch vor dem Graben der Enttäuschung stehen. KI-Ansätze können auch als eine neue Art, einen Computer zu instruieren, begriffen werden. Heute erstellt man mittels Programmierung explizit regeln, aus denen sich das Verhalten der Maschine ableitet. Bei KI instruiert man hingegen die Maschine, in dem man ihr Beispiele, Bilder, Texte oder bestimmte Situationen zeigt. Es lässt sich aber erst rudimentär abschätzen, welche Folgen das haben wird.
Für mich war das ein Aha-Effekt: Die Juristen, die unsere Assistenz-Software nutzen, geben dieser eine Rückmeldung. Und dadurch ändert sich das Verhalten der Software, die sie benutzen. Das heisst, man geht weg vom Modell, ich installiere mir Windows und das war es dann für den Nutzer. Mit der KI bewegen wir uns in eine Richtung, bei der sich die Software kontinuierlich dem Menschen anpasst und so den Anwender in die Lage versetzt, das Verhalten seiner Software zu formen. Dieser Wandel wird nicht nur unsere Industrie, sondern die ganze Gesellschaft verändern.
Impressum
Autor: Markus Back
Bildquelle: BFH (Porträtbilder) / Pixabay, chenspec (KI/Chip-Symbolbilder)
Eine Produktion von Technik und Wissen
Informationen
BFH - Berner Fachhochschule
Institute for Data Applications and Security IDAS
bfh.ch
Weitere Artikel
Veröffentlicht am: