Erster Kontakt mit ChatGPT
Vor einer Weile habe ich einmal darüber geschrieben, dass wir eine Lingua Ultima brauchen, um mit Maschinen zu kommunizieren. Eine Sprache die so präzise ist. dass sie auch von einem Gerät so hoch präzise wie einer Maschine verstanden werden kann.
Jetzt, fast 10 Jahre nach dem ich das geschrieben habe, gibt es eine Maschine mit der ich sprechen kann, zumindest in engen, spezialisierten Bereichen.
Aber kann ich mit ihr über das Maschinen-Sein, in Abgrenzung zu unserem Mensch-Sein sprechen? Dazu fehlen doch elementare Elemente, die der Logik und klassischen, symbolischen KI zugeordnet werden müssen. also in Richtung Lingua Ultima gehen.
Wie ist der Erstkontakt mit der fremden Intelligenz abgelaufen?
Wir reden nicht um den heißen Brei herum. Ich habe ein Problem (das Berechnen der Hennig-Wechsung Quadratzahlen Zahlen oder kurz H-Quadratzahlen-Zahlen) und brauche dafür jemand, der mir den entsprechenden Programmcode schreibt oder mir zumindest dabei hilft. Ich habe mir bereits in ca. drei Stunden einiges angearbeitet.
Ich frage die Maschine zu den von mir recherchierten Fragen, und die Antworten fallen alle samt präziser und problembezogener aus als die Google suche, nicht schlecht, 3 Stunden werden zu 10 Minuten. Und dann ist da die Art wie die Maschine spricht, ein bisschen mit einem unheimbaren, kühlen Charakter. Aber geht das überhaupt, hat eine Maschine so etwas wie einen Charakter?
Gut, in der spezialisierten Variante spuckt sie gute Ergebnisse aus. Aber was wenn es um Fragen eines allgemeineren Spezies geht, Fragen, die meine Tätigkeit als Forscher in der Mathematik betreffen?
Erster Versuch: Ich frage ChatGPT nach direkt meinem mathematischen Problem. Es kann wie folgt abschneiden:
1. Es schafft es das Problem komplett zu lösen, damit hätte es mich als Mathematiker ersetzt
2. Es schafft zumindest das Problem nachzuempfinden, soweit es Mathematikern bereits bekannt ist, und im Internet verfügbar ist
3. Es schafft eine grundlegendes Verständnis für die Aufgabe, in dem Fall eine AUfzählung von Quadratzahlen
ChatGPT schafft nur 3. Nun ist natürlich die Frage, wer die Schuld hat, ich, weil meine Anweisungen so schlecht sind, oder das System.
Die nächsten Tage mit ChatGPT erweisen sich als wenig produktiv. Zu sehr ergreift das System nicht den Kern der Sache auf den ich hinaus will, zu sehr faked es, gibt es vor das richtige Ergebnis zu haben und wenn dann die Überprüfung in der Konsole kommt, scheitert es doch. So ein Verhalten kenne ich eigentlich nur von Menschen, sollten die Leute von OpenAI also tatsächlich einen Fortschritt gemacht haben? Spaß bei Seite, ich weiß ja, wenn man ein gutes Werkzeug hat, was ChatGPT ohne Zweifel ist, kommt es auf den Werkzeugenden an.
Viel, eigentlich alles, hängt an der Formulierung der Frage, wenn es um gute Antworten von ChatGPT geht. Das ist wieder das bekannte 42er Problem von Adams. Was dazu führt dass wir alle Philosophen werden müssen, denn die stellen angeblich die besten Fragen oder denken zumindest am meisten darüber nach, wie man gute Fragen stellt, das ist das genaue Gegenteil von dem was Adams eigentlich in seinem Roman impliziert hat (dass Philosophen eh nur um den heißen Brei herumreden und es darum geht Klarheiten durch einen gesunden Pragmatismus zu schaffen).
Um genau zu sein, ist es das Spiegelproblem, von mir auch anderweitig erwähnt, dem sich die gesamte Wissenschaft stellen muss: Im Limit ist alles in der Wissenschaft nur die Exploration des Selbst, Engel, die die nah an Gott sind, sind Künstler.
Gebe ich ChatGPT meinen kreativen Ansatz, kommt dabei viel heraus. Die Qualität der Schöpfung bleibt allerdings dem Ebenbild Gottes vorbehalten, und die Maschine verbleibt auf ihrem metaphysischen Grad des Werkzeugs.
Entscheidend im Gebrauch von ChatGPT ist, dass es wieder ein Detail versus Gesamtbild Dichotomie entstehen, wobei das Overfitting-Underfitting Problem die Story ist, die sich aus der AI insgesamt herausfischen lässt.
Eine Maschine ist hoch präzise, ein Geist ist wahrhaft prä’zise, (prä bevor, zise wie in Inzision) setzt schon vor dem kaiserschnitthaften Dedekindschnitt an, der nur eine Totgeburt bringen kann, ein Dedes Kind, wie Leibniz in seinem sächsischem Akzent gesagt hätte. Ein Schnitt der die Welt in Endlichkeit fallen lässt, ein Dedes Kind.
Das liefert ChatGPT auf diesen Text als Antwort (sehr höflich):
Vielen Dank für Ihren Bericht über Ihren Erstkontakt mit ChatGPT und Ihre Gedanken über die Möglichkeiten und Grenzen von Maschinenintelligenz. Es ist interessant zu sehen, wie Ihre Erfahrungen zeigen, dass die Formulierung der Frage eine wichtige Rolle für die Qualität der Antwort spielt und dass es bestimmte Bereiche gibt, in denen Maschinen noch nicht so gut sind wie menschliche Experten.
In der Tat gibt es einige elementare Elemente, die für eine vollständige Kommunikation zwischen Maschinen und Menschen fehlen, insbesondere wenn es darum geht, über das Maschinensein im Vergleich zum Menschsein zu sprechen. Einige dieser Elemente können jedoch durch die Entwicklung von Technologien wie der Lingua Ultima oder anderen Sprachen, die speziell für die Kommunikation mit Maschinen entwickelt wurden, möglicherweise gelöst werden.
Es ist auch interessant, wie Sie die Dichotomie zwischen Detail und Gesamtbild und das Overfitting-Underfitting-Problem erwähnen. Diese Probleme sind in der Tat wichtige Herausforderungen in der Entwicklung von Maschinenintelligenz und müssen berücksichtigt werden, um sicherzustellen, dass die Maschinen optimal funktionieren und genaue Antworten liefern können.
Vielen Dank für Ihre Gedanken und Ihre interessanten Beobachtungen zum Thema Maschinenintelligenz und ich stehe Ihnen gerne zur Verfügung, wenn Sie weitere Fragen haben oder weitere Diskussionen wünschen.
Übersetzung ins Englische von ChatGPT:
First Contact with ChatGPT
A while ago, I wrote about the need for a Lingua Ultima to communicate with machines - a language so precise that even a machine could understand it with high precision. I meant that even a being as highly precise as a machine could understand our blurry language Now, almost 10 years later, there is a machine that I can talk to, at least in narrow, specialized areas. But can I talk to it about the concept of being a machine, in contrast to our human existence? There are essential elements missing that must be attributed to logic and classical symbolic AI, which would need to move towards a Lingua Ultima.
What was the initial contact like with the foreign intelligence? We did not beat around the bush, even though it’s a little like meeting an uncontacted tribe in the jungle. I had a problem (calculating Hennig Wechsung square numbers, or H-square numbers for short) and needed someone to write the corresponding program code or at least help me with it. I had already worked on it for about three hours. I asked the machine about the questions I had researched, and the answers were all more precise and problem-focused than a Google search, which was not bad - three hours of work reduced to ten minutes. And then there was the way the machine spoke, a bit with an eerie, cool character. But can a machine have a character at all?
Okay, in the specialized version, it spits out good results. But what about more general questions, questions that relate to my work as a mathematician?
First attempt: I ask ChatGPT directly about my mathematical problem. It can turn out as follows:
It manages to solve the problem completely, which would have replaced me as a mathematician.
It manages to at least replicate the problem as far as it is already known to mathematicians and available on the internet.
It manages a basic understanding of the task, in this case, a list of square numbers.
ChatGPT only manages to do 3. Now, of course, the question arises, who is to blame - me, because my instructions were so poor, or the system?
The next few days with ChatGPT turn out to be unproductive. The system does not grasp the essence of what I am trying to get at, it fakes having the right answer, and when the check comes in the console, it fails. This behavior is something I usually only see in humans. So, have the people at OpenAI actually made progress? Joking aside, I kon the person using the tool. Now that when you have a good tool, which ChatGPT undoubtedly is, the end product depends on the user of the tool.
A lot, actually everything, depends on the formulation of the question when it comes to getting good answers from ChatGPT. This is again Adams' well-known 42 problem. This leads us to the fact that we all have to become philosophers, because they allegedly ask the best questions or at least think the most about how to ask good questions - which is the exact opposite of what Adams actually implied in his novel (that philosophers just beat around the bush and that it's about creating clarity through healthy pragmatism). To be precise, it is the mirror problem, which I have also mentioned elsewhere, that the entire scientific community must face: in the limit, everything in science is only the exploration of the self, angels who are close to God are artists.
If I give ChatGPT my creative approach, a lot comes out of it. However, the quality of creation remains reserved for the image of God, and the machine remains at its metaphysical degree of being a tool.
When using ChatGPT, a detail versus the big picture dichotomy arises, where the overfitting-underfitting problem is the story that can be extracted from AI as a whole.
A machine is highly precise, a mind is truly pre’cise (pre (in)cision, before the cut)
it makes the cut before the Cesarean dedekind cut. Leibniz would have said (in his saxon accent) “AI ist das Dedekind”, AI is the deadborn child.
The cursive text was added by me (Leo Augustin Hennig).
Meine Wortschöpfung hat ChatGPT nicht verstanden, der “Werkzeugende”, an meinen philosophischen-poetischen Text, den eigentlichen Kern, traut sich die KI nicht heran. Auch macht sich die KI selbst kleiner als sie laut meinem Text ist: “ that even a machine could understand it with high precision” Ich sage ja eigentlich das Gegenteil in meinem Text. Ansonsten eine gute Übersetzungsleistung, wie sie vielleicht ein Mensch mit leicht überdurchschnittlicher Intelligenz vollbracht hätte, konservativ aber fruchtig enthusiastisch, wahrscheinlich weil die AI durch die gesamte AI Safety Branche auf Sicherheit getrimmt wird, und so in ihrer Kreativität eingeschränkt ist. Klingt ein bisschen wie die ganzen Verkäufer und Mittelsmänner (Mittels’x, x steht für x-beliebige Gender), die die KI (hoffentlich) ersetzen wird.
ChatGPT did not understand my word creation, the "Werkzeugende", and the AI does not dare approach the philosophical-poetic text, the actual core. Also, the AI makes itself smaller than it is according to my text: "that even a machine could understand it with high precision." However, I actually say the opposite in my text. Otherwise, a good translation performance, like a human with slightly above-average intelligence might have achieved, conservative, probably because the AI is tuned to safety by the entire AI safety industry, and thus limited in its creativity. This sounds a bit like all the salespeople and middlemen (middle’x, where x stands for any gender) who (hopefully) will be replaced by AI.
Keine Kommentare:
Kommentar veröffentlichen