Skip To Content
ADVERTISEMENT

Botschaft der Präsidentin

Künstliche Intelligenz wurde scherzhaft definiert als „die Kunst, Computer dazu zu bringen, sich so zu verhalten wie in Filmen“. Nach dieser Definition könnte ChatGPT, das Tool zur Verarbeitung natürlicher Sprache von OpenAI, das am 30. November 2022 auf den Markt kam, die bisher größte Erfolgsgeschichte der KI sein. Obwohl es erst vor sechs Monaten auf den Markt kam, hat der Chatbot bereits eine Art Filmstar-Status erreicht. Es wurde von Journalisten interviewt, hat seine Fähigkeiten unter Beweis gestellt, die vom Schreiben von Softwarecode bis zum Verfassen von Gedichten reichen, und hat ein Niveau des einfachen Dialogs mit Menschen erreicht, das an den hilfreichen Allzweckcomputer aus Star Trek erinnert.

Es ist leicht zu erkennen, wie generative KI-Modelle wie ChatGPT und KI im weiteren Sinne den Fortschritt in Wissenschaft und Gesellschaft vorantreiben können. Deep Learning und andere KI-Techniken revolutionieren bereits die Art und Weise, wie Wissenschaft und Technik betrieben werden; von der Bilderkennung und -analyse bis hin zum Entwurf optischer Netzwerke. Wer sich schon einmal mit der schwierigen Aufgabe herumgeschlagen hat, seine Forschungsergebnisse aufzuschreiben, könnte die Hilfe eines Tools wie ChatGPT begrüßen. Eine solche Hilfe, so wurde festgestellt, könnte sogar die Voraussetzungen für die Veröffentlichung von Forschungsergebnissen durch Autoren, deren Muttersprache nicht Englisch ist, verbessern. Das wäre unbestreitbar ein positives Ergebnis für die Welt.

Doch wie bei jeder neuen Technologie haben die jüngsten Fortschritte in der KI auch Ängste und neue Dilemmas hervorgerufen. Selbst im engeren Bereich der wissenschaftlichen Kommunikation ringt unsere Gemeinschaft mit einigen praktischen und ethischen Implikationen von ChatGPT und seinen Verwandten. Dazu gehören Fragen wie die, wie der Beitrag eines KI-Systems zu den Ergebnissen, Texten und Bildern einer Arbeit offengelegt werden kann; ob ein KI-Tool als Autor aufgeführt werden kann; wie potenzieller Betrug und Missbrauch überwacht werden können, und ob eine solche Überwachung überhaupt möglich ist. Außerdem, so haben einige angemerkt, geben diese Technologien Anlass zu größerer Besorgnis über die grassierende Fehlinformation - verkörpert in solchen KI-gesteuerten Vehikeln wie „Deepfake“-Videos - die das Vertrauen untergraben und die Gesellschaft spalten könnte.

Ich glaube, dass wir diese Sorgen ernst nehmen müssen. Aber wir müssen auch erkennen, dass wir das schon einmal erlebt haben. Alle umwälzenden Technologien sind potenziell zweischneidig, und ihre Auswirkungen hängen davon ab, was die Menschen mit ihnen anfangen wollen. Das globale Internet wurde vor 40 Jahren geboren und hat seitdem die Art und Weise, wie wir kommunizieren, Informationen erhalten und den menschlichen Fortschritt vorantreiben, völlig verändert. Es steht außer Frage, dass es in einigen Fällen ein mächtiges Instrument zur Verbreitung von Fehlinformationen und zur politischen Unterdrückung war. Doch die meisten Veränderungen, die das Internet mit sich gebracht hat, waren zum Guten, und nur wenige würden in ein Zeitalter vor dem Internet zurückkehren wollen - selbst wenn dies möglich wäre.

Einige sind der Meinung, dass die KI-Technologien das Potenzial haben, das Internet in ähnlichem Umfang (oder noch stärker) zu verändern. Es wäre sinnlos, zu versuchen, diese Störung wegzuwünschen. Stattdessen müssen wir die besten Wege finden, um diese Technologien für die Wissenschaft und den menschlichen Fortschritt zu nutzen und gleichzeitig sicherzustellen, dass sie nicht destruktiv werden. Um dies zu erreichen, ist eine andere, sehr menschliche Art von Intelligenz erforderlich, die einen ständigen Dialog zwischen Wissenschaftlern, Regierungen, der Industrie und der Gesellschaft insgesamt erfordert. Das ist eine Herausforderung, der wir uns alle stellen müssen.

Michal Lipson,
Präsidentin von Optica

Add a Comment