Aktuellen KI-Modellen wie ChatGPT oder Gemini wird oft vorgeworfen, lediglich Muster zu erkennen und zu reproduzieren – „ohne echte Intelligenz“. Doch betrachtet man biologische Gehirne nüchtern, arbeiten auch sie im Kern mit Signalverarbeitung, Musterbildung und Anpassung. Wo liegen also die Parallelen - und die Unterschiede?
Biologische Nervensysteme – von Quallen bis Menschen – arbeiten nach einem gemeinsamen Prinzip: vernetzte Einheiten (Neuronen) leiten elektrische und chemische Signale weiter. Neuronen verfügen über Eingänge (Dendriten), einen Ausgang (Axon) und Verbindungen (Synapsen). Wird ein Neuron ausreichend erregt, gibt es ein Signal weiter. Real ist das nicht binär, sondern zeit- und kontextabhängig; zur Veranschaulichung hilft jedoch die vereinfachte Idee: Eingänge werden gewichtet, eine Aktivierungsfunktion entscheidet über die Weitergabe.
Die Größenordnungen variieren stark: Der Mensch hat etwa 86 Milliarden Neuronen und um Größenordnungen mehr Synapsen (grob 10^14–10^15), eine Honigbiene etwa 1 Million Neuronen, der Fadenwurm 302. Unabhängig von der Größe bleibt das Schema gleich: Sensorischer Input wird verarbeitet und motorisch oder kognitiv in Output überführt. Entscheidend sind Netzstruktur und die veränderbaren Verbindungsstärken – die sogenannte Plastizität.
Künstliche neuronale Netze übernehmen diese Idee. Anstelle biologischer Zellen sprechen wir von Einheiten und Gewichten: Zahlen, die festlegen, wie stark ein Signal von Punkt A nach B wirkt. Eine Eingabe wird schrittweise transformiert, und am Ende entsteht eine Ausgabe im gewünschten Format – etwa Text (Sprachmodelle), Audio (Text-to-Speech) oder Handlungsempfehlungen.
Die Gewichte entstehen im Training: Das Modell sieht viele Beispiele, vergleicht seine Vorhersage mit einem Ziel und passt die Gewichte so an, dass zukünftige Fehler kleiner werden. Über viele Durchläufe verfestigt das Netz statistische Regelmäßigkeiten in den Daten. Das ist analog zur synaptischen Plastizität: Häufig gemeinsam aktive Verbindungen werden stärker. Wichtig: Das ist nicht bloßes Auswendiglernen – gut trainierte Modelle können verallgemeinern, abhängig von Datenbreite, Architektur und Modellgröße. Das Training ist sehr rechenintensiv und findet in Rechenzentren statt; die spätere Nutzung (Inference) ist im Vergleich deutlich günstiger.