Hype oder High Potential?
Adlershofer Firmen entwickeln Strategien für eine sinnvolle KI-Verwendung und KI-Sicherheit
An Geld und Euphorie mangelt es den Unternehmen nicht, wenn es um den Einsatz künstlicher Intelligenz und Big Data geht. Um Strategien für deren sinnvolle Verwendung und Standards für deren sicheren Einsatz schon. Zwei Adlershofer Firmen kümmern sich genau darum.
Das Ende der Science Fiction deklarierte der vielfach preisgekrönte britische Designer Alex McDowell, Direktor des World Building Institute, während der diesjährigen „Berlinale“-Filmfestspiele. Deren Veranstaltungsreihe „EFM Horizon“ beschäftigte sich unter anderem mit den Möglichkeiten künstlicher Intelligenz (KI) in der Produktion von Filmen. Das World Building Institute baut Zukunftswelten und arbeitet dabei mit Spieleentwicklern, Architekten und Anthropologen, Neurowissenschaftlern, Musikern und Geschichtenerzählern über alle vorstellbaren Medien hinweg zusammen. McDowell weiß, wovon er redet. Vieles aus der von ihm 2002 entwickelten Filmwelt für „Minority Report“ ist heute aus dem täglichen Leben nicht mehr wegzudenken. „Alles, was wir uns vorstellen können, wird existieren“, ist McDowell überzeugt.
Eine Vorstellung, die die einen begeistert, andere zutiefst verängstigt. Künstliche Intelligenz – als ein Weg zu diesem Ziel – ist auch ein Begriff, den Christin Schäfer, Geschäftsführerin der acs plus UG aus Adlershof kritisch sieht. Wie viele andere auch. Buzzword-Bingo nennt sie das und plädiert für eine Entzauberung der neueren Datenverarbeitungstechnologien. Das beginne schon bei der Begriffswahl. „Machine Learning“, sei nichts anderes als das „Trainieren“ von Algorithmen, „selbstlernende Systeme“ schlicht Optimierungsverfahren und die geläufige Bezeichnung „Algorithmic Decision Making“ beschreibt „automatische digitale Entscheidungssysteme für statistische Prozesse“. Sperrig, aber verständlich.
„Daten sind Gold“, ist Schäfer überzeugt, doch die meisten Unternehmen sammeln ohne Strategie, ohne eine Idee, wie diese Daten sinnvoll verwendet werden können. Schäfer arbeitete nach einem Statistikstudium als Datenanalystin beim Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik FIRST, bevor sie als Risikoanalytikerin bei der Deutschen Bank zum Beispiel die Rating-Verfahren mit verantwortete. Im Februar 2016 machte sich Schäfer mit ihrem Start-up acs plus selbstständig. „Muster“, sagt sie, „seien tief genetisch in ihr verwurzelt.” Sie habe schon immer gern auf Zahlen geschaut.
Ursprünglich als Investitionsfirma für datengetriebene Firmen gedacht, erstellt Schäfers Unternehmen heute selbst Firmen- und Datenanalysen und hilft auch bei der Ideenfindung, wie bereits vorhandene Kundendaten verwertet werden können. Künstliche Intelligenz muss dabei nicht immer die optimale Lösung sein. „Sie ist eine von vielen Methoden.“ Ihr Geschäft erklärt Schäfer ganz simpel: „Es ist ein Werkzeugkasten.“ Ein Handwerker suche auch das passende Werkzeug für die gestellte Aufgabe. „Wir bekommen oder wählen Daten, suchen und verwenden die sinnvollste Verarbeitungsmethode – von einfacher Statistik bis zu komplizierten Algorithmen.“ Das Ergebnis sind wieder Daten, die für die zugrunde liegende Fragestellung Antworten liefern.
Den Menschen die Angst zu nehmen, scheint derzeit ein Hauptanliegen von Firmen, die sich mit künstlicher Intelligenz befassen. Das Thema ist nicht neu. Hochpotente Computer mit phänomenaler Rechenleistung lassen die Ängste um Arbeitsplatzverluste und eine von Maschinen beherrschte Gesellschaft wachsen. Eine der ersten Arbeiten, die sich mit maschineller Intelligenz auseinandersetzte, ist „Computing machinery and intelligence“ des englischen Mathematikers Alan Turing von 1950. Turing beschäftigte sich darin mit der Frage, ob Maschinen je in der Lage sein werden, zu denken. Der Begriff „künstliche Intelligenz“ (KI) selbst geht auf den Wissenschaftler John McCarthy zurück, der 1956 erklärte: „Jeder Aspekt des Lernens wie auch jedes andere Merkmal der Intelligenz, lässt sich grundsätzlich so genau beschreiben, dass man eine Maschine dazu bringen kann, sie nachzuahmen.“
Eine einheitliche Definition „künstlicher Intelligenz“ gibt es in der Literatur allerdings bis heute nicht. Genauso wenig wie einheitliche und verbindliche Standards zur Verwendung datengetriebener Methoden wie den KI-Technologien. Fehlende Qualitätskriterien für KI erschüttern das Vertrauen in die Sicherheit der Produkte, verunsichern bei Haftungsfragen. Das weiß auch Stephan Hinze, Geschäftsführer der Adlershofer Neurocat GmbH. Er ist diplomierter Wirtschaftsingenieur und seit mehr als 15 Jahren unternehmerisch auf vielen Feldern, aber immer IT-lastig unterwegs. „Künstliche Intelligenz ist für die meisten noch immer eine Black Box“, sagt Hinze und propagiert Verständlichkeit.
Ob selbstfahrende Autos oder Computer-Sprachbox, einige der Anwendungen, die datengetriebene Technologien verwenden, sind nach Unfällen spektakulär in die Schlagzeilen geraten. Die Ängste vor intelligenten, autonomen Systemen brachten Hinze, seine Mitgründer Florens Greßner und Forschungsleiter Felix Assion sowie Frank Kretschmer auf ihre Idee. „Hacken ist zwar ein leicht negativ besetzter Begriff, aber er umschreibt ganz gut, was wir machen“, erklärt Hinze. Nach seinen Worten handelt es sich um die Analyse, Beurteilung und Bewertung von KI für Kunden aus der Automobilindustrie, der Industrie 4.0, aus Behörden oder dem Healthcare-Bereich. „Wir versuchen mit selbst entwickelten Angriffsstrategien die KI zu überlisten, zu hacken.“ Da werden zum Beispiel Hindernisse für die Sensoren selbstfahrender Autos simuliert und mit optischen Tricks unkenntlich gemacht, um diese zu testen.
„Uns interessiert zuerst immer, warum eine KI-Anwendung eine Entscheidung trifft, und dann, wie sie diese trifft. Derartige Bewertungen erfolgten bisher über eine sogenannte Quelltextsicherung. Das ist bei der Komplexität der heutigen KI nicht mehr möglich, der Quelltext ist nicht mehr verständlich“, erklärt Hinze. Software sei zwingend notwendig. Genau diese Software schreibt Neurocat. 2020, so der Plan, soll es mit Deep Trust das erste normierte Gütesiegel für KI geben – eine DIN-Norm. Im Normungsausschuss, in dem auch Unternehmen wie Microsoft und IBM sitzen, haben die Adlershofer den Vorsitz.
Künstliche Intelligenz ist eine große Chance, ist Hinze überzeugt, eine Technologie mit Möglichkeiten. „Wir wollten da mitgestalten und nicht nur zuschauen. Deshalb haben wir Neurocat gegründet.“ Für dieses Mitgestalten sucht das Unternehmen jetzt neue Mitarbeiter. „Aber gute Fachkräfte zu finden ist nicht so einfach.“
Von Rico Bigelmann für Adlershof Journal