von künstlicher Intelligenz.
Die drittgrößte Expertengruppe nach den etwa 40 Millionen Bundestrainern, 30 Millionen Wirtschafts-, Energie- und Politstrategen ist wohl inzwischen die der gründlich chemisch gereinigten KI-Weisen, die nicht müde werden, alle Welt - und noch viel schlimmer: mich - mit ihrem Elfenbeinturmsurrogatwissen zu quälen, das sie dem Telekolleg Tatort und anderen, noch schlichteren Beschulungsformaten, auch an den Universitäten von Facebook und Youtube aufmerksam entliehen zu haben scheinen. Die konspirative Technologiemystifizierung ist so lächerlich wie erschreckend.
"Technology related anxiety" ist der terminus technicus für Technophobie, ein bekanntes Phänomen und tritt in absoluten Zahlen mit zunehmender Komplexität der Technik in der heutigen Welt immer mehr auf. Ein Wunder, dass wir es inzwischen zum Rad gebracht haben und keine Hexen mehr verbrennen. Obwohl ...
Hier kommen ein paar leichte subjektive Gedanken im Sujet, die ich bereits im Juni verwortlicht habe und die ich heute glatt wieder so aufschreiben würde:
„Sollten wir besser das Denken den Pferden überlassen, weil die größere Köpfe haben?“
„Unsere Intelligenz ist das, was uns menschlich macht, und die KI ist eine Erweiterung dieser Qualität.“ – Yann LeCun, Französisch-Amerikanischer Machine Learning Spezialist, Chief AI Scientist bei Facebook.
Im Archiv der New York Times gibt es in der Ausgabe vom 8. März 2023 einen superspannenden Essay nachzulesen mit dem Titel „The False Promise of ChatGPT“, der sich im Spannungsfeld bewegt von Optimismus über die Fähigkeiten menschlicher Intelligenz zur kreativen Auseinandersetzung mit Herausforderungen und deren Deutung und dem Pessimismus um die eingeschränkten Möglichkeiten der derzeit populärsten Form von künstlicher Intelligenz, dem maschinellen Lernen mit seiner grundlegend fehlerhaften Auffassung von Sprache. Das war, ist und bleibt superaktuell.
Darüber nachgedacht und das Ganze aufgeschrieben haben der nicht unumstrittene linksintellektuelle Starvordenker und emeritierte MIT-Obersprachwissenschafteler Noam Chomsky mit seinem Fachkollegen Ian Roberts und dem KI-Theoretiker Jeffrey Watumulls.
Die Definition eines Essays per se bedeutet die Abhandlung zur Aufsicht auf wissenschaftliche, gesellschaftliche und kulturelle Sujets oder eine Mischung daraus als ein Sachtext, der allerdings ebenso rhetorisch überzeugend unterhalten möchte. Ein ziemlicher Spagat. Als subjektives Befassen, muss sich ein Essay nicht mit den formalen Kriterien wissenschaftlicher Methodik greifen lassen, sondern darf sich als Destillat aus den persönlichen Erfahrungen und der individuellen Urteilsbefähigung seiner Urheber entwickeln.
Genau das macht den Essay als solchen aus meiner bescheidenen Sicht zum idealen Tool in der Verhältnisfindung zum Objekt der Auseinandersetzung: die Form selbst als Statement. Das funktioniert in seiner Selbstverständlichung.
Die drei Herren sind überzeugt, wahre Intelligenz zeige sich darin, auch „unwahrscheinliche, aber erkenntnisreiche Dinge zu denken“ und diese kausal zu erklären, wozu vorerst nur der Mensch befähigt sei.
Sagen wir: „mancher Mensch“, aber grundsätzlich möchte ich dem Gedanken gerne folgen.
Watumulls fragt die Maschine direkt:
„Why can an AI not have a personal perspective?“
Und ChatGPT löst auf: „As an AI, I am a machine learning model that has been trained on large amounts of text data, and I don't have personal experiences or feelings. I am not conscious, self-aware, or capable of having personal perspectives. I can provide information and analysis based on the data I have been trained on, but I don't have the ability to form personal opinions or beliefs. While I can understand and interpret language, I do not have the subjective experience that humans have.
As an AI, I am a machine learning model that has been trained on large amounts of text data, and I don't have personal experiences or feelings. I am not conscious, self-aware, or capable of having personal perspectives. I can provide information and analysis based on the data I have been trained on, but I don't have the ability to form personal opinions or beliefs. While I can understand and interpret language, I do not have the subjective experience that humans have.“**
Und das ist vor den Fragen zu moralischer Entscheidungsfindung nur der Einstieg.
Der Sprachphilosoph Wilhelm von Humboldt war überzeugt davon, dass auch der Klügste nur „unendlichen Gebrauch mache von endlichen Mitteln“, was den Menschen nach den Autoren vorerst noch über die Maschine stelle, deren verkrüppelter Intelligenz sich viele erschreckenderweise so freiwillig wie obne jede Not unterwerfen wollen.
Lesen lohnt sich:
https://www.nytimes.com/.../noam-chomsky-chatgpt-ai.html
** Übersetzung Jeffrey Watumulls:
„Warum kann eine KI keine persönliche Perspektive haben?“
Und ChatGPT löst auf: „Als KI bin ich ein maschinelles Lernmodell, das auf großen Mengen von Textdaten trainiert wurde, und ich habe keine persönlichen Erfahrungen oder Gefühle. Ich habe kein Bewusstsein, kein Selbstbewusstsein und bin nicht in der Lage, eine persönliche Perspektive einzunehmen. Ich kann Informationen und Analysen auf der Grundlage der Daten liefern, auf die ich trainiert wurde, aber ich bin nicht in der Lage, persönliche Meinungen oder Überzeugungen zu bilden. Ich kann zwar Sprache verstehen und interpretieren, aber ich habe nicht die subjektive Erfahrung, die Menschen haben.
Als KI bin ich ein maschinelles Lernmodell, das auf große Mengen von Textdaten trainiert wurde, und ich habe keine persönlichen Erfahrungen oder Gefühle. Ich habe kein Bewusstsein, kein Selbstbewusstsein und bin nicht in der Lage, eine persönliche Perspektive einzunehmen. Ich kann Informationen und Analysen auf der Grundlage der Daten liefern, auf die ich trainiert wurde, aber ich bin nicht in der Lage, persönliche Meinungen oder Überzeugungen zu bilden. Ich kann zwar Sprache verstehen und interpretieren, aber ich habe nicht die subjektive Erfahrung, die Menschen haben.