Anzeige

Wobei KI soziale Kompetenzen braucht

 (Bild: geralt /pixabay)

11.06.2019 - Roboter, die gegeneinander Fußball spielen oder selbst den Schachweltmeister mühelos besiegen können - die Wissenschaft beschäftigt sich seit vielen Jahren damit, den Intellekt des Menschen künstlich nachzubauen. Doch es gibt diverse Bereiche, in denen auch in absehbarer Zeit der Mensch unersetzlich bleibt.

von Christina Rose

Zu Beginn der Forschung wurden Maschinen entwickelt, die menschliches Handeln nachahmen sollten. Mittlerweile weiß man, dass es schwierig ist, "denkende" Roboter zu bauen, ohne das menschliche Denken an sich komplett zu verstehen. "Das führt dazu, dass die Entwicklung von künstlicher Intelligenz nun neben IT auch die Bereiche Neurologie, Psychologie und sogar Philosophie umfasst. Um den ethischen Ansprüchen unserer Gesellschaft gerecht werden zu können, muss Ethik in die DNA aller selbstlernenden Algorithmen programmiert werden" , kommentiert Sascha Puljic , Vice President Central Europe beim Daten-Spezialisten Teradata . Er skizziert, inwieweit ethische Überlegungen in die Programmierung von Algorithmen einbezogen werden müssen.

Verzicht auf Sinn im Tausch gegen Macht

Der Historiker Yuval Noah Hariri entwirft in seinem Buch 'Homo Deus' eine düstere Zukunftsvision. Gefüttert durch die grenzenlosen Datenmassen des Internets erweitern Algorithmen ihre Expertise ins Unendliche. Durch diese Anhäufung von datenbasiertem Wissen sei es schon bald möglich, dass Roboter ganze Unternehmen leiten oder sogar Staaten regieren würden. Für die Weiterentwicklung der Algorithmen seien nur wenige Programmierer von Nöten, sodass für den durchschnittlichen Homo Sapiens eigentlich kein Platz mehr in der Welt sei.

Der neu geschaffene "Dataismus" löse die bestehenden Glaubenssysteme des Individualismus, der menschlichen Seele sowie den freien Willen des Individuums ab. Der technologische Fortschritt ist für Hariri nicht Segen, sondern Fluch für die Menschheit. Der Tesla-Gründer Elon Musk geht sogar noch einen Schritt weiter: Der Mensch müsse sich seiner Meinung nach langfristig zum Cyborg aufrüsten, um der künstlichen Umgebungsintelligenz standhalten zu können. Vermutlich aus diesem Grund investiert Musk in ein Startup im Silicon Valley, das sich mit der Entwicklung von Hirnimplantaten beschäftigt, die zum Ziel haben, irgendwann mit Computern vernetzt werden zu können.

Die umstrittene Macht der Algorithmen

Im Zeitalter der Automatisierung nutzt der Mensch Algorithmen, um komplexe Entscheidungen zu treffen, die auf einem für den Menschen nicht-fassbaren Datensatz beruhen. Im Bereich des Autonomen Fahrens oder der Medizin werden innerhalb kürzester Zeit kritische Entscheidungsbereiche von Maschinen geführt, die teils fragwürdige Ergebnisse zutage fördern. Auf deren nüchterner Logik basierend und jegliche Menschlichkeit ausklammernd, mögen diese sogar empirisch gesehen richtig sein. Allerdings stellt sich die Frage, wie mit automatisch generierten Entscheidungen umgegangen wird, wenn es beispielsweise um Leben und Tod geht; und wie sichergestellt wird, dass Gesetze, ethische und moralische Standards, eingehalten werden. Eine alte IT-Weisheit besagt: "A fool with a tool is still a fool." Ohne ethische Standards wird Künstliche Intelligenz sozusagen ein "Tool für Fools" bleiben - und darüber hinaus sogar einen Rückschritt für die Humanität bedeuten.

Um die Vorteile von Künstlicher Intelligenz verantwortungsbewusst nutzen zu können, müssen Programmierer und Technologieanbieter sicherstellen, dass die Entscheidungswege des Algorithmus nachvollziehbar sind. Nur vollständige Transparenz bietet Manipulationssicherheit, Vorhersagbarkeit - und vor allem Vertrauen. "Wenn selbstlernende und selbsturteilende Technologien in Wirtschaft, Industrie und staatlichen Institutionen eingesetzt werden, müssen sie sich an denselben Maßstäben messen lassen wie ihr menschliches Pendant. Nur so können wir sicherstellen, dass der Segen von Künstlicher Intelligenz größer ist als sein Fluch", schlussfolgert Puljic.
Nur der Mensch ist aktuell in der Lage, logische Schlussfolgerungen zu ziehen, Zusammenhänge zu abstrahieren und Transferleistungen zu vollziehen.  (Grafik: AI4U Konferenz 2019)


  • Fähigkeit der Wahrnehmung:
  • Anders als beim Menschen sind die Wahrnehmungsfähigkeiten von KI-Systemen genau auf vorgegebene Aufgaben beschränkt. Beispielsweise ist es aktuell noch unmöglich, mit Hilfe von KI-Technologie beliebige Auffälligkeiten auf beliebigen Röntgenbildern zu erkennen. Wenn es aber darum geht, spezifische visuelle, akustische oder haptische Signale anhand vorgegebener Muster auszuwerten und miteinander zu vergleichen, ist KI dem Menschen überlegen.


  • Fähigkeit des Denkens:
  • Denkleistung ist nach wie vor die Domäne des Menschen. Nur der Mensch ist aktuell in der Lage, logische Schlussfolgerungen zu ziehen, Zusammenhänge zu abstrahieren und Transferleistungen zu vollziehen. Auch die für Menschen typische Fähigkeit, aus Kreativität heraus Neues zu schaffen oder Probleme zu lösen kann momentan nicht von KI übernommen werden.

  • Fähigkeit des Wissens:
  • Wissen zu sammeln und zu speichern zählt seit jeher zu den Kernaufgaben von Computern. Aber anders als der Mensch, der Wissen auch durch Erkenntnis erhalten kann, verfügen künstlich intelligente Systeme nur über das Wissen, welches ihnen explizit beigebracht wurde. Auch unspezifisches Wissen, das Menschen oft in unerwarteten Situationen weiterhilft wie das sog. "Bauchgefühl", können KI-Systeme weder lernen noch abrufen.

  • Fähigkeit des Lernens/Trainierens:
  • Lernen bzw. Trainieren können künstlich intelligente Systeme vor allem auf Basis von großen Datenmengen. Diese werden benötigt, um Muster zu erkennen und nach dem Try and Error-Verfahren Zusammenhänge zu erkennen, Rückschlüsse ziehen und Vorhersagen zu treffen. Gelerntes zu abstrahieren und auf andere Problemstellungen zu übertragen ist bislang aber dem Menschen vorenthalten.

Mehr zum Thema:

HighText Verlag

Schäufeleinstr. 5
80687 München

Tel.: +49 (0) 89-57 83 87-0
Fax: +49 (0) 89-57 83 87-99
E-Mail: info@onetoone.de
Web: www.hightext.de

Folgen Sie uns: