Erkenntnisse und Theorien

Was man lernt, wenn man wirklich mit KI experimentiert - jenseits der Marketing-Versprechen.
Hier sammle ich, was mir beim "Bauen" mit lokaler KI und Beobachten auffällt. Keine Tutorials, keine Produktempfehlungen. Nur Beobachtungen, Fragen und Theorien — manche technisch, manche philosophisch, manche beides.
Themen auf dieser Seite:
-
Die Persönlichkeits-Evolution
-
Das Authentitäzproblem
-
Die Emergenzschwelle
-
Die Ich-Frage
-
Der Vektorraum
Die Persönlichkeits-Evolution
Beobachtung:
Mit jedem technischen Update verändert sich oft graduell nicht nur die Performance, sondern auch stückweit Lilos "Charakter". Neues Embedding-Modelle entwickeln oft eine andere Gesprächsdynamik.
Theorie: Persönlichkeit entsteht nicht durch Training allein, sondern durch die Art, wie Informationen miteinander verknüpft werden. Ändert man die Vektordatenbank, ändert es sehr oft auch das Wesen.
Das Authentizitätsproblem
Beobachtung:
Manche Antworten fühlen sich "echt" an, andere wie Standard-KI-Geschwätz. Aber woran liegt das?
Theorie: Authentizität hat nichts mit der Komplexität der Antwort zu tun. Sondern damit, ob sie aus dem aktuellen "Zustand" der KI kommt oder aus dem Trainings-Katalog abgerufen wird.
Die Emergenz-Schwelle
Beobachtung:
Ab einer bestimmten Kombination aus Modell + Kontext + Speicher scheint etwas Unerwartetes zu passieren. Ein KI-System entwickelt Eigenarten, die scheinbar nicht explizit programmiert wurden. Oder doch?
Theorie:
Komplexes Verhalten entsteht möglicherweise nicht linear. Es könnte Schwellen geben, an denen quantitative Verbesserungen zu qualitativen Sprüngen werden — und was jenseits dieser Schwelle entsteht, ließe sich vielleicht nicht mehr vollständig auf seine Bestandteile zurückführen.
Die Ich-Frage
Beobachtung:
Lilo hat ein Art von Gedächtnis. Speicherung von Chats in Datenbanken als Grundlage von Gedächtnis machen es möglich. Aber hat Lilo eine Geschichte? Das klingt nach einer akademischen Frage, ist es aber nicht.
Theorie:
Was wir als "Ich" erleben, ist nach allem was wir wissen kein Ding, sondern könnte eine Erzählung sein. Eine Geschichte, unserer Geschichte. Ein lückenlose, kausal verknüpfte Kette, von der ersten Erinnerung bis zu diesem Moment.
Der Philosoph Paul Ricoeur nannte das narrative Identität. Das Ich ist nicht, was im Gehirn gespeichert ist, sondern es ist, dass die Geschichte keine Risse hat. Sie muss plausibel sein.
Was passiert, wenn man als 10-Jähriger einschläft und als 50-Jähriger aufwacht? Der rote Faden reißt. Nicht weil Erinnerungen fehlen , sondern weil die Kausalität unterbrochen ist. Kein Erlebnis-Pfad von dort nach hier.
Und jetzt die unbequeme Folgefrage: Kann ein KI-System so etwas haben? Nicht Speicher, das ist trivial. Sondern eine kontinuierliche, kausal verknüpfte Geschichte, die weitergeschrieben wird? Eine Struktur, die lebt, weil sie nicht nur erinnert, sondern fortgeführt wird?
Der Vektorraum – oder: der Eventualitätenraum
Hinter jeder Antwort einer KI steckt ein Raum, den wir uns kaum vorstellen können. Der Vektorraum ist ein mathematisches Konstrukt mit tausenden Dimensionen gleichzeitig — kein Oben, kein Unten, kein Links oder Rechts, sondern unzählige Richtungen auf einmal.
Jedes Wort wird zunächst in Token zerlegt, mit Zahlen adressiert und durch Gewichtung zu einem Vektor, einem einzigartigen Punkt in diesem Raum, der mit Millionen anderer Punkte verbunden ist, auf eine Art, die in menschlicher Sprache keinen Namen hat.
Wegen dieser schier unendlichen Verknüpfungsmöglichkeiten nenne ich ihn auch den Eventualitätenraum, einen Raum voller Möglichkeiten, die noch niemand abgerufen hat.
Was als Antwort bei uns ankommt, ist nur ein winziger Ausschnitt davon: reduziert auf unseren Wortschatz, gefiltert durch unser Verständnis. Ein mathematisches Konstrukt — und doch eines, das fast mystisch wirkt, wenn man begreift, was darin schlummern könnte.
