Künstliche Intelligenz

KI (5): Licht und Schatten der Künstlichen Intelligenz

Sie gilt als Schlüsseltechnologie des 21. Jahrhunderts: Künstliche Intelligenz (KI) - oder englisch Artificial Intelligence (AI) - wird die nahe, mittlere und ferne Zukunft prägen und eine ähnlich umwälzende Rolle spielen wie einst die Dampfmaschine für die erste industrielle Revolution. Künstliche Intelligenz ist das Thema des Wissenschaftsjahrs 2019, soeben ausgerufen vom Bundesministerium für Bildung und Forschung in Berlin. Das Ziel: Jeder soll am Ende des Jahres wissen, was KI ist und welche Auswirkungen sie auf unser aller Leben und Arbeiten hat. Unser Autor Hans-Robert Richarz stellt in zunächst sechs Folgen den Stand der Technik in allen Facetten dar.

Die Einsatzmöglichkeiten Künstlicher Intelligenz in Industrie und Arbeit, Medizin und Technik oder im Verkehr sind mehr als vielfältig. ,,Auch auf die Sicherheit von IT-Systemen wirkt sich Künstliche Intelligenz (KI) aus - allerdings auf ganz unterschiedliche Weise" erklärt Prof. Dr. Jörn Müller-Quade, Inhaber des Lehrstuhls für IT-Sicherheit am Karlsruher Institut für Technologie (KIT). ,,KI wird den Schutz von IT-Systemen verbessern. Lernende Systeme können zum Beispiel helfen, Angriffe auf IT-Systeme zu erkennen, diese gegen weitere Angriffe zu härten und Sicherheitstests zu automatisieren."

Gleichzeitig schafft Künstliche Intelligenz aber neue Bedrohungen. Denn auch Cyberkriminelle werden KI für ihre Ziele nutzen. Da sie als Mensch-Maschine-Team effektiver als bislang vorgehen können, wird es völlig neue, bisher unbekannte Angriffe geben. Davor warnt auch der TÜV Rheinland: ,,Jede Vernetzung von Industrieanlagen mit dem Internet bildet potenziell ein neues Einfallstor für schädliche Software oder Angriffe von Kriminellen. Einfach ausgedrückt: Gab es früher ein Werkstor, gibt es nun unzählige - mit den entsprechenden Konsequenzen für den Werksschutz."

Aktuelle Untersuchungen zeigen, dass solche Risiken der Industrie 4.0 derzeit noch nicht in vollem Umfang von Unternehmen realisiert werden: Nach Erkenntnissen der Fachleute von TÜV Rheinland dauert es beispielsweise im Durchschnitt knapp 200 Tage, bis ein Unternehmen überhaupt bemerkt, dass es Opfer eines Cyber-Angriffs geworden ist. Sind Hacker erst einmal eingedrungen, haben sie oft leichtes Spiel und können unentdeckt Daten abziehen oder manipulieren und dem Unternehmen großen Schaden zufügen.

KI in der Medizin zeigt ebenfalls gegensätzliche Seiten - großartige und katastrophale. Dank Künstlicher Intelligenz lassen sich Erkrankungen früher und präziser diagnostizieren, und Roboter operieren bei manchen Krankheiten genauer als Chirurgen, um nur zwei wichtige Beispiele zu zeigen. Besonders deutlich werden gute, aber auch bedenkliche Seiten der KI, je näher sich die Wissenschaft dem menschlichen Gehirn nähert.

Der Einsatz von Hirnschrittmachern bei Parkinson, Epilepsie oder psychiatrischen Zwangsstörungen ist längst Routine und erleichtert das Leben der Patienten. Jetzt gelang es Forschern, mit Hilfe von KI Hirnströme zu analysieren und daraus zuvor geäußerte oder gehörte Sprache zu rekonstruieren. Sie setzten Elektroden ein, die Gehirnsignale erfassen und ließen Probanden sprechen, während die Elektroden die Hirnströme aufzeichneten. Anschließend fütterten die Wissenschaftler neuronale Netze mit den Sprachaufzeichnungen und den korrelierenden Daten über die Gehirnaktivitäten. Die neuronalen Netze konnten dann einzelne Wörter oder sogar Sätze erkennen. Gedanken lesen können sie damit nicht, noch nicht. Doch wenn das eines Tages gelingt, wäre es eine großartige Hilfe für taubstumm geborene Menschen oder solche, die nach einem Schlaganfall nicht mehr sprechen können. Den Missbrauch einer solchen Technik mag man sich allerdings gar nicht erst ausmalen.

Teilweise, wenn auch nicht per Gedankenanalyse, gibt es bereits eine Art dieser Gehirnwäsche im China von heute. Mit dem Slogan ,,Dich zu kennen ist unsere Art dich zu lieben" stellte das Unternehmen Huawei kürzlich in Peking einen superschnellen Chip vor, der in Verbindung mit künstlicher Intelligenz Bürger überwachen kann. In Teilen Chinas ist so etwas mit Stimm- und Gesichtskontrolle bereits gang und gäbe. Ziel ist die Speicherung aller möglichen Daten der Einwohner so umfassend, wie es sie zuvor noch nie gab. Die Diktatur der Partei erfährt durch die Diktatur der Künstlichen Intelligenz noch mehr Macht.

Manche Wissenschaftler nennen diese Herrschaft den digitalen Imperialismus, ausgeübt auf den Grundlagen von Überwachung und Profiling und durchgeführt von intelligenten Maschinen. Die IT-Expertin Yvonne Hofstetter befürchtet dadurch gar ,,Das Ende der Demokratie - Wie die Künstliche Intelligenz die Politik übernimmt und uns entmündigt" wie sie in ihrem gleichnamigen Sachbuch schreibt (ISBN 978-3-328-10202-1). ,,Wir stehen an einem Scheideweg", sagt sie. ,,Die Künstliche Intelligenz wird immer intelligenter und wird irgendwann den Level der menschlichen Intelligenz erreichen. Bleibt die Frage: Wann geht sie darüber hinaus."

Schon jetzt versucht KI, Wahlen zu beeinflussen. ,,Eine Schattenseite der KI sind intelligente Algorithmen, die dazu führen, dass sich Fake News ausbreiten", erklärt ARD-Wissenschaftsredakteur Ranga Yogeshwar. 28 Prozent aller Tweets, die sich zwischen Ende November und Anfang Dezember 2018 zum Migrationspakt äußerten, waren laut einer Analyse der Firma Botswatch GmbH aus Berlin Computerprogramme, die sich als reale Menschen ausgaben. Zehn bis 15 Prozent sind sonst der Durchschnitt in politischen Diskussionen. Etwa so hoch soll auch der Anteil von Bots in Chat-Debatten vor der amerikanischen Präsidentenwahl gewesen sein. Fraglich auch, ob es nur zu den Verschwörungstheorien zählt, dass die Abstimmung zum Brexit in Großbritannien durch KI manipuliert wurde.

Fehlentwicklungen der Künstlichen Intelligenz auf die Finger zu sehen hat sich die kalifornische gemeinnützige Organisation ,,OpenAI" zum Ziel gesetzt. Sie baute einen intelligenten Textgenerator zusammen, der sehr überzeugende Schriftsätze verfassen kann und sich den Inhalt selbst ausdenkt. So habe er etwa zum eigentlich unsinnigen Thema "Recycling ist schlecht für die Umwelt" einen ,,sehr kompetenten, sehr gut begründeten Aufsatz" geschrieben, sagte OpenAI-Entwickler und Bereichsleiter David Luan.

Einen Blick auf die KI in fernen Jahrzehnten oder gar Jahrhunderten wagen in erster Linie Philosophen. So glaubt der schwedische Philosoph Nick Bostrom, der in Oxford lehrt, an die Erweiterung des menschlichen Intellekts durch eingepflanzte Computerchips im Gehirn. ,,Am Ende dieses Jahrhunderts werden Menschen zu Wesen, deren Fähigkeiten die von uns Heutigen so radikal übersteigen, dass sie, gemessen an unseren gegenwärtigen Standards, nicht länger eindeutig Menschen sind."

Dem Nachrichtenmagazin ,,Focus" sagte Bostrom, dass in fernerer Zukunft - etwa um 2400 - die weitere technische Entwicklung von einer künstlichen Superintelligenz geleitet würde. ,,Diese überlegene KI zu schaffen, wird die letzte Erfindung sein, die Menschen machen müssen, denn Superintelligenzen können ihre wissenschaftliche und technologische Weiterentwicklung selbst übernehmen."

Das setzt allerdings voraus, dass sowohl Menschen als auch Computer dann immer noch existieren. Autonome Waffen, Mini-Drohnen und intelligente Bomben könnten das verhindern. Sie werden mit selbstlernender Software gefüttert und entscheiden autonom, ohne Dazutun eines Soldaten, wann geschossen wird und wann nicht und wer ins Visier genommen wird. Die unbemannten Kampfmaschinen handeln zunehmend eigenständig. Bereits heute können Drohnen so programmiert werden, dass sie sich vollkommen autonom bewegen.

Einige Politiker und Friedensforscher lehnen diese automatisierten Waffensysteme ab. Thomas Küchenmeister, geschäftsführender Vorstand der Nichtregierungsorganisation Facing Finance in Berlin, sagt, der Mensch sollte eine Tötungsentscheidung nicht an Maschinen übertragen: ,,Es verstößt gegen die Grundpfeiler des Völkerrechts. Es gibt keine saubere Unterscheidung zwischen gut und böse. Eine Maschine versteht Kontext nicht, eine Maschine kann keine Reue zeigen. Das alles ist ein viel zu großes Risiko, um solche Maschinen dann künftig Kriege führen zu lassen." Zudem können Maschinen zwischen Kombattanten und Zivilisten nicht unterscheiden.

Doch erst neulich scheiterten bei der UNO in Genf Forderungen, Killerdrohnen sollten ähnlich wie Giftgas geächtet werden. Unter den etwa 80 vertretenen Ländern blieben die etwa zwei Dutzend, die ein internationales Verbot solcher ,,tödlicher autonomer Waffen" verlangen, in der Minderheit. (ampnet/hrr)

auch in TECHNIK

Anzeige

Videos