Sprachdenkproben

Postulation als Erinnerungshilfe


Das Phänomen der inneren Rede kann als ein Medium der Repräsentation unserer Denkprozesse, von unseren Gedanken beschrieben werden. Denkprozesse können auf subpersonaler Ebene mit vollständig naturalistischem Vokabular (neuronale Netze) erklärt werden. Auf der Subjektebene erlebt sich ein kognitives System auf Basis von linguistischen Repräsentationen als denkend und Zugang zu Gedanken habend. Ein Teil der Phänomenologie des Denkens besteht demnach in einem Erfahren einer Darstellung (für uns) von Gedanken und Prozessen des Denkens in Sprache.

Die Frage, ob natürliche Sprache, verwandt in innerer Rede, das Denken beeinflusst, kann selbstverständlich bejaht werden.

Funktionen der inneren Rede reichen von ökonomischer Abstraktionsleistung über die eigenen Denkprozesse, die Sprachproduktion unterstützende Simulation, über Antizipation von Kommunikationsverläufen, Handlungsplanung und Verhaltensmanipulation anderer Menschen bis zur verbalen Unterstützung einer modellierten Darstellung des Selbst …

Ein kognitives System erhält vielfältigen Input aus einer komplexen Umwelt. Seine Aufgabe besteht u.a. darin, aus diesem möglichen Input brauchbare Information zu generieren, d.i. im Chaos der Stimuli Muster und Regeln zu erkennen und abstrahieren.
Aquisition of LOTH
Eine Quelle brauchbaren Inputs liefert die natürliche Sprache.
Ein Teil des Denkens wird über den Spracherwerb strukturiert. Grammatik und Bedeutung liegen nicht angeboren in einer Sprache des Geistes (wie sollte unser Genom all diese Information speichern), sondern werden erlernt. Muster sprachlichen Inputs dienen als Material, aus dem Regeln und Bedeutungen extrahiert werden.

Wir werden geboren mit einem kleinen Set an kognitiven Fähigkeiten. Wir re-programmieren unseren Geist nicht, wir spielen auch keine Software auf einer statischen Hardware ab, sondern re-organisieren und augmentieren sie selbst.

Die Systematizität und Produktivität des Denkens ergibt sich aus einem Umgang mit der erlernten Sprache. Worte sind eine neue Objektklasse, input- und kontextfern verfügbare Abstraktionen von Katalogen von Eigenschaften. Ein Teil des abstrakten Denkens liegt in der Verwendung von diesen Abstraktionen.

Es gibt eine LOTH, aber sie ist Ergebnis des Erlernens unserer Muttersprache. Die Konstituentenstruktur und Grammatikalität des Geistes, ist Resultat, nicht Voraussetzung von Spracherwerb. LOTH kommt zum Einsatz, wenn wir auf Basis dieser erlernten Regeln und Bedeutungen weiteren Input erschließen.

Innere Rede ist eine Repräsentation der anerlernten LOTH.
Köppnick - 15. Feb, 18:40

Interessiert dich vielleicht

In „Gehirn & Geist“ 9/2005 sind zwei Artikel, die dich interessieren könnten, falls du sie nicht schon gelesen hast. In „Wer spricht?“ geht es um Unterschiede zwischen tierischer und menschlicher Sprache. Der zweite Artikel, „Wer Salat isst, spricht nicht Piraha“, ist ein Interview mit Daniel L. Everett, der u.a. über die Sprache der Piraha geforscht hat. Dieses Volk kennt keine Zahlwörter. Diskutiert wird erstens, welchen Einfluss das auf ihr Denken hat, und zweitens, ob sie vielleicht doch zählen könnten, aber es nicht wollen.

In „Bild der Wissenschaft“ 2/2006 ist ein Artikel mit dem Titel „Lies dich schlau“, der sich mit einem Vergleich unserer Sprachen mit dem Chinesischen beschäftigt. Chinesisch ist eine Silbensprache, es gibt keine Wortzwischenräume und keine Interpunktionszeichen. Es wird daher anders gelesen, man kann z.B. nicht mit den Augen beim Lesen zurückspringen. Außerdem gibt es keine Konjugation, keine Deklination, keinen Singular oder Plural, keine Vergangenheit und Zukunft. Man muss sich das alles aus dem Kontext erschließen und begreift manche Dinge erst später.

Es wird darüber spekuliert, ob das erstens Auswirkungen auf das „östliche“ Denken hat, in dem viele Dinge bis zuletzt in der Schwebe gehalten werden, und ob es zweitens die Wahrnehmung verändert. Zum Beispiel wird von einem Test berichtet, bei der die Versuchspersonen den Inhalt eines Aquariums beschreiben sollten. Den Deutschen fielen vor allem die Fische auf, die Chinesen konnten kleinste Details wiedergeben, inklusive Algen und Steinen. Ein ähnliches Experiment kenne ich auch mit einer Waldszene mit vergleichbarer Aussage.

braindamagedpatient - 15. Feb, 19:03

Sprache ist vor allem auch Syntax. Sie wird benötigt, damit wir Repräsentationen in unserem Kopf serialisieren können. Die Serialisierung ist eine Vorausetzung für die Übermittlung. Diese Beschränkung (des Mediums) gibt es für unser Denken aber nicht. Syntax ist also für das Denken weder notwendig noch hilfreich sondern hinderlich weil aufwendig. Außerdem: Gibt es den Grammatikfehler des Denkens? Wenn das Denken grammatisch wäre, sollte es ihn geben, so wie es jede andere mögliche Fehlleistung auch gibt. Mir fällt allerdings nicht ein, was der Grammatikfehler des Denkens sein sollte. Insofern ist es vielleicht unglücklich von einer Sprache des Denkens zu reden.

Du sagst, die LOTH sei das Ergebnis des Erlernens unserer Muttersprache. Da wird eines nicht ganz klar: Ist die LOTH ein Produkt des Spracherwerbs allein? Oder prägt die Sprache nur Aspekte der LOTH, die ohne sie ganz anders aussähe?

Ich komme immer mehr zu der Ansicht, dass Sprache und LOTH zwei ganz verschiedene Sachen sind, die aber so eng verzahnt sind und voneinander so starken Gebrauch machen, dass ihre Strukturen nicht ganz inkompatibel sein sollten, und die Entwicklung des einen das andere nicht unberührt lassen kann. So wie bei einem Paar, das sein ganzes Leben lang miteinander tanzt; wenn einer weg ist, ist sein Stil aber noch immer in dem des anderen zu erkennen.

Köppnick - 15. Feb, 20:17

Drei Links,

die alle innerhalb der letzten Tage entstanden sind und etwas mit den Reflexionen der Fluchtfliege zu tun haben. Direkt zum Zusammenhang zwischen Denken und Sprache: Mentalesisch und Sprache. Etwas chaotisch verlaufend, aber auch zum Thema: Denken und Sprache. Mathematisches "Denken" gibt es auch schon vorsprachlich: Die Mathematik des Unbewusstsein.

Zu deiner Grammatikfrage: Natürlich wird man zum Beispiel, wenn in Bildern gedacht wird, keine grammatischen Fehler finden. Aber sobald symbolische Inhalte repräsentiert werden, gibt es logische Fehler. Auch in Bildern kann man sich Strukturen denken, "die nicht stimmen", z.B. falsche Perspektive (Escher), etc. Das würde ich dann als logische Fehler bezeichnen, weil sie keine Entsprechungen in der Wirklichkeit haben.
Fluchtfliege - 15. Feb, 21:18

Differenzieren

Wenn wir hier über die Sprache des Geistes sprechen, dann ist dabei nur ein Teil des Denkens gemeint. Es gibt auch andere Repräsentationsmedien, es gibt auch anderen, nichtsprachlichen Input.

Außerdem will ich ja gerade nicht die These unterstützen, dass wir eine angeborene, grammatikalische Sprache des Geistes haben, sondern dass über die natürliche Sprache Regeln implizit erlernt werden. Die Sprache des Geistes wird durch die natürliche Sprache erlernt.

Wenn wir dann eine geistige Syntax (im Sinne einer Sprache) haben, dann ist sie Ergebnis der verarbeiteten sprachlichen Muster der Umwelt.

Es ist genau umgekehrt: Fodor glaubt, dass wir über eine angeborene LOTH verfügen müssen, um Sprache zu erlernen. Ich denke, dass wir Sprache erlernen, in dem wir uns ihr aussetzen und sprachliche Muster abstrahieren und dadurch unser geistiges Netzwerk strukturieren.
Selbstverständlich ist die Fähigkeit zum Spracherwerb angeboren (etwa das Erkennen von ca. 70 Phonemen..), aber es kann keine Rede mehr davon sein, dass Bedeutung und Grammatik in einem Kode liegen, den es durch Kontakt mit der Umwelt epistemisch zu erschließen gilt.


Das Erlernen der Muttersprache reorganisiert und verändert die Struktur des Gehirns. Diese neue Struktur ist ein Instrument und leistet weiterhin das, was LOTH zu leisten glaubt. Die Anwendung von erlernten Regeln und Bedeutungen beim Erwerb neuer Informationen (z.B. Zweitspracherwerb) und die Erzeugung zusammengesetzter, abstrakter Konzepte.

Es gibt keine LOTH im Sinne von Fodor, deshalb brauchen wir auch nicht wirklich zu diskutieren, ob LOTH anders aussähe, wenn sie nicht von der Sprache geprägt wäre.

Fodor ist einfach zeitlich verrückt. Er hat sich angeschaut, was wir sprachlich und kognitiv entwickelten Menschen so können und sich eine einfache, die Alltagspsychologie respektierende Theorie überlegt.
Dennett hat recht, wenn er ihm vorwirft, sich gar nicht mit den Details der Modelle auseinanderzusetzen, die er verwirft. Fodor, als Verfechter einer komputationalistischen Theorie des Geistes, müsste sich doch freuen über den "advent of connectionism". Statt dessen postuliert er eine schicke repräsentationalistische Theorie und schweigt sich zu Gunsten der angeblich besten Erklärung aus.

LOTH und die natürliche Sprache sind kein Tanzpaar. LOTH ist das Kind der natürlichen Sprache. Und wenn es ausgewachsen ist, fängt es an die Elternrolle zu übernehmen.

Naja, das mit dem Grammatikfehler ist ein komischer Schluß. Weil der Mensch Fehler in seiner sprachlichen Performanz macht, muß es nicht bedeuten, dass seine grammatikalische Kompetenz eingetrübt ist.
Köppnick - 15. Feb, 22:36

@Fluchtfliege

Worin siehst du den Unterschied zwischen der Fähigkeit zum Erwerb der Sprache und dem Beherrschen einer einfachen Sprache? Wenn du hier einen qualitativen Unterschied sehen möchtest, dann erzeugst du ein Henne-Ei-Problem, denn Sprache lässt sich nicht lernen, ohne bereits die enthaltenen grammatischen Strukturen zu dekodieren.

Deshalb lassen lassen sich meiner Meinung nach beide Teile nicht voneinander trennen. Und Analoges gilt auch für das Gehirn in seiner Gesamtheit. Wenn es keine Trennung zwischen "Hard"- und "Soft"ware gibt, dann macht auch der Versuch einer qualitativen Trennung zwischen dem, was angeboren ist, und dem, was erlernt wird, keinen wirklichen Sinn, es bleibt immer ein fließender Übergang. Auch auf neurophysiologischer Ebene findest du bestenfalls einen quantitativen Unterschied in der Anzahl der Verknüpfungen, aber keinen qualitativen.

Es sieht doch wirklich so aus, als ob es auf allen Gebieten ähnlich wäre: Wir finden gleitende Übergänge sowohl in der evolutionären Entwicklung der Arten hin zum Menschen, als auch in der individuellen Entwicklung vom Fötus zum vollbewussten Erwachsenen.

Wenn ich einen Schwerpunkt für die Untersuchungen setzen dürfte, dann würde der darin bestehen, die Evolution der Entwicklung der Rekursivität der menschlichen Sprache zu verstehen. Hier scheint es noch ein Missing Link zu geben. Denn dass Tiere selbst Sprachen benutzen und menschliche (nichtrekursive) Sprachkonstrukte verstehen können, scheint mir inzwischen unzweifelhaft und empirisch gut belegt.
Fluchtfliege - 15. Feb, 23:36

@Köpf-nich

Wichtig ist einfach nur, dass Input wahrgenommen werden kann und Muster im Input implizit erlernt werden können.

Das ist kein Henne-Ei Problem, zumindest nicht auf der Entwicklungsebene des Individuums. Ich betrachte hier nicht die Evolution der menschlichen Sprache überhaupt, sondern wie ein Mensch, der in eine sprachliche Umwelt geboren wird, dazu kommen kann.

Sprache lässt sich sehr wohl lernen, ohne grammatikalische Strukturen zu dekodieren. Künstliche semantische Netze, die keinerlei grammatikalische Regeln implementiert haben, werden mit linguistischem Input trainiert und erlernen gleichsam automatisch Bedeutungsklassen (Worte werden nach bestimmten gemeinsamen Eigenschaften in Kategorien geordnet) und Bildungsregeln (z.B. die Vergangenheitsform von Verben). Das den Worten Gemeinsame wird generalisiert und in hohen Maße fehlerlos auf neuen (unbekannten) Input angewandt.

Das Beherrschen und der Erwerb einer Sprache lassen sich natürlich trennen. Auch wenn beide in einer kausallogischen Beziehung stehen. Das Beherrschen einer Sprache ist das Ergebnis des Erwerbs.
Wenn ich nach Russland fahre, um die Landessprache zu erlernen, dann reise ich an, mit der Fähigkeit zu hören und zu lesen und zu lernen. Ich brauche keine Grammatik und kein Vokabelheft. Ich werde der russischen Sprache ausgesetzt und sauge automatisch Bedeutungen und Regeln auf.

Ich verstehe nicht, weshalb das mit der Trennung so schwierig ist. Wir werden mit einem Gehirn geboren, das nur einen schmalen Katalog von kognitiven Fähigkeiten aufweist. Weshalb kann diese Tatsache nicht separat vom Prozess der Erhöhung der kognitiven Fähigkeit (nicht komputational!) durch die Verarbeitung von vielfältigem Input gedacht werden?

Ich bin mir aber nicht sicher, ob ich Dein Problem richtig verstanden habe. Aber wenn ich es recht verstehe, dann fragst Du worin der Unterschied zwischen jemandem besteht, der Hände zum Bedienen von Tasten eines Klaviers und Ohren zum Hören von Tönen aus demselben hat und jemandem, der das Klavier zu spielen beherrscht?
Köppnick - 16. Feb, 07:52

Flucht! Fliege

Deine Beispiele zeigen „mein“ Henne-Ei-Problem doch recht deutlich: Das semantische Netz hat ein jemand (ein Mensch!) so gebaut und so verdrahtet, dass es sprachlichen Input verarbeiten kann, ein in der Ecke liegender Drahthaufen kann überhaupt nichts. Wenn du eine Sprache erlernst, dann kannst du das, weil du ein Mensch bist und diese Sprache von Menschen für Menschen erzeugt wird. Zum Klavierbeispiel: Schimpansen haben auch Ohren, Augen und Hände, und ihre genetische Ausstattung ist fast gleich, und unser beider semantische Netze sind sehr sehr ähnlich. Aber wenn du einer Million Schimpansen Sprache bzw. das Klavierspielen beibringst und einer Million Menschen, dann werden nahezu alle Menschen Sprechen lernen und sehr viele gut Klavier spielen. Schimpansen keins von beiden, selbst wenn du die Schimpansenkinder in einer menschlichen Umwelt aufziehst.

Ich halte die Frage, zu welcher Zeit „die Sprache“ in den Menschen hineinkommt, nicht für so wesentlich. Es ist doch so, dass in den Genen die Voraussetzungen in die nächste Generation durchgeschleust werden, die Sprache selber aber in der Gesellschaft tradiert wird. Und der Erwerb beginnt bereits im Fötus, im Zellhaufen. Eine qualitative Grenze lässt sich nicht ziehen, weil wir ja nicht erfahren können, was schon der Zellhaufen mit den empfundenen Vibrationen anstellt. Weil im Französischen und Deutschen die Wörter unterschiedlich betont werden, reagieren bereits französische und deutsche Säuglinge auf die fremde und die eigene Sprachen jeweils unterschiedlich.

Für wichtiger halte ich es herauszufinden, welches die kleinen Unterschiede zwischen den Schimpansen und uns sind, die den gewaltigen Unterschied im Resultat machen. Letztlich ist das meiner Meinung nach auch die entscheidende Frage für die KI-Forscher oder die computationale Theorie des Geistes. Bis jetzt bewegen sich nämlich alle auf der Ebene der notwendigen Voraussetzungen, aber die hinreichenden hat noch keiner gefunden.

Ich nenne das jetzt mal ketzerisch das „Gruber-Paradigma“: Weil man noch keine Unterschiede zwischen einem Computerprogramm und einem arbeitenden Gehirn gefunden hat, erklärt man ein (heute nicht existierendes) Computerprogramm für potentiell Bewusstsein tragend. Oder das Universum zum Computer, was derselbe unzulässige induktive Schluss mit einer viel zu kleinen und nicht repräsentativen Menge an uns bekannten Beispielen ist.
Fluchtfliege - 16. Feb, 13:06

Nicht Flucht.

Was für Schlüsse können wir denn ziehen, wenn wir von einer anderen Spezies als der unseren ausgehen? Dass wir bestimmte kognitive Fähigkeiten mit anderen Tieren teilen, muß gar nichts über unsere höheren kognitiven Eigenschaften aussagen.

Der Unterschied zwischen Schimpansen und uns mag vielleicht einfach darin liegen, dass wir erlernte Information nicht nur in uns haben, sondern auch für uns, in dem unser Gehirn offenbar dazu befähigt ist, Metarepräsentationen, Repräsentationen über Prozesse, die implizit ausgeführt werden (und zum Teil denen von anderen Tieren ähneln) darzustellen.

Es mag sein, dass wir manche Eigenschaften mit Tieren teilen. Aber eine gewiss nicht: die des abstrakten und bewussten Denkens.

LOTH gilt ja auch nicht für alle Arten des Denkens und innere Rede ist nicht Metarepräsentation aller möglichen Denkprozesse.

Wir wissen doch bereits, worin der Unterschied zu den Tieren liegt. Und eine konnektionistische komputationale Theorie des Geistes kann erklären, wie die höheren, humanen Strukturen des Denkapparats zu Stande kommen.

Sprache ist genau wie Bewusstsein ein ziemlich effizientes Zusatztool, das wir Menschen im Laufe der Evolution entwickelt haben.

Sich zu fragen, weshalb wir dieses Tool haben und Aplysia nicht, ist m.E. zu fragen, weshalb der Vogel Flügel hat und wir nicht.

Zum Unterschied Computerprogramm und Gehirn: ich denke, es gibt Unterschiede. (Fehleranfälligkeit, Parallelität, kein CPU im Kopf, kein Programm, das auf Hardware läuft u.a.) Deshalb scheint es wichtig, die Fodor'sche Analogie, nach der auf der angeborenen Hirnhardware, die verschiedenen natürlichen Sprachen abgespielt werden, aufzugeben.
Das Tolle ist, dass die komputationalen Modelle Aspekte der menschlichen Kognition simulieren können und dadurch zu ihrem Verständnis beitragen.
Die Computeranalogie hilft, den intuitiven Homunculus zu vertreiben.
Interessant finde ich eher, dass ein wesentlicher Unterschied zwischen Computern und uns ist, dass wir ein extended mind sind, genuin soziale Wesen, dazu geboren, sich mit anderen Wesen auszutauschen, von ihnen zu lernen, uns in Beziehung zu ihnen zu setzen u.s.f. Aber so weit ich es mitbekommen habe, gibt es ja Multiagentensysteme, in denen genau diese Umstände respektiert und untersucht werden. Grubers Mäuse z.B.

Zu sagen, dass ein System Bewusstsein hat, ist eine Zuschreibung. Du weißt z.B. gar nicht, was sich hinter meiner Visage verbirgt und gehst einfach davon aus, dass ich es habe.

Ich glaube, wenn künstliche Systeme irgendwann in der Lage sind, nicht nur den Turing- oder Metzingertest zu bestehen, sondern uns wirklich dazu veranlassen, ihnen bewusste Intentionalität zuzusprechen, dann haben wir wohl keine Wahl.

Es scheint umgekehrt intuitive Schlüsse zu geben. Wenn wir uns vorstellen, ein Computer habe Bewusstsein, dann wollen wir das vielleicht deshalb nicht denken, weil ein Computer per definitionem ein programmiertes Instrument ist. Wenn wir aber den Kontrolli wegdenken...?

Lesetipp: Daniel Dennett Spielarten des Geistes.
Köppnick - 16. Feb, 18:56

Ich begreife den Grund für den Ggs. noch immer nicht

Deine Aussagen zu Computern haben mir bewusst gemacht, dass ich mich in „Grubers Dilemma“ missverständlich ausgedrückt habe. Mit „keine Unterschiede gefunden“ meinte ich, dass Grubers Gleichsetzung von Computer / Gehirn / Universum auf der Ebene der abstrakten Turing-Maschinen zwar richtig ist, aber dass das nichts über die theoretische Nützlichkeit und praktische Realisierbarkeit des Konzepts aussagt.

Zu deinen Unterschieden zwischen Gehirn und Computer: Die ersten Punkte wie Fehleranfälligkeit, Parallelität und CPU im Kopf würde ich nicht verwenden, denn das sind keine echten Unterschiede. Verwendet man als Vergleichs“computer“ ein Netzwerk (z.B. das Internet), dann sind diese Differenzen sofort weg. Der einzige noch halbwegs aktuelle Unterschied von Bedeutung ist meiner Meinung nach die nicht vorhandene Trennung zwischen Hard- und Software im Gehirn, eine „Umprogrammierung“ ist immer auch eine Strukturänderung. So etwas gibt es technisch erst in primitiven Ansätzen. Und ein Vorgang, der im laufenden Betrieb die Anzahl der aktiven Zellen und ihrer Verknüpfungen erhöht, ist mir überhaupt nicht bekannt. Alles spielt sich in den Grenzen ab, die beim Einschalten des Stromes bereits gegolten haben. Aber auch da bestehen keine prinzipiellen Barrieren.
Zu sagen, dass ein System Bewusstsein hat, ist eine Zuschreibung. Du weißt z.B. gar nicht, was sich hinter meiner Visage verbirgt und gehst einfach davon aus, dass ich es habe.

Ich glaube, wenn künstliche Systeme irgendwann in der Lage sind, nicht nur den Turing- oder Metzingertest zu bestehen, sondern uns wirklich dazu veranlassen, ihnen bewusste Intentionalität zuzusprechen, dann haben wir wohl keine Wahl.
Beim ersten muss ich davon ausgehen, dass alle anderen auch über Bewusstsein verfügen (auch wenn ich das natürlich nicht sicher wissen kann), wenn ich mir nicht unangenehme Widersprüche aufhalsen will. Der zweite Absatz liest sich irgendwie zirkulär, selbst wenn man ihn auf den ersten bezieht.

Was mich etwas verwundert, ist deine Einschätzung bzgl. Der Tiere: Wir wissen doch bereits, worin der Unterschied zu den Tieren liegt. Das glaube ich, ehrlich gesagt, nicht. Wir beobachten minimale Differenzen im Aufbau und gewaltige in den damit erzielten Leistungen. Wenn wir herausfinden wollen, wie wir funktionieren, dann müssen wir die winzigen, aber entscheidenden Unterschiede zu den anderen Tieren finden, durch alleinige Bespiegelung unserer selbst kriegen wir das nie heraus, weil wir uns selbst untereinander zu ähnlich sind.

Abschließend nochmals zu deiner Eingangsfrage, wann Sprache in den Menschen kommt: Warum ist der Zeitpunkt so wichtig und warum muss man hier ein Entweder / Oder setzen? Das leuchtet mir überhaupt nicht ein, und es passt auch nicht zu den sonstigen kognitiven Fähigkeiten und deren Entwicklung. Gerade eben habe ich gelesen, dass Babys unmittelbar nach der Geburt bereits zwischen „richtigen“ und „falschen“ Gesichtern unterscheiden können. In dem konkreten Fall war es der Schattenwurf. Wenn ein Gesicht von oben beleuchtet wird, dann ist es hell, die Augen und die Mundpartie dunkel. Von unten beleuchtet, kehren sich die Kontrastverhältnisse um. Dann bekommen die Gesichter deutlich weniger Aufmerksamkeit von den Babys. Das ist bereits unmittelbar nach der Geburt so, das muss nicht gelernt werden.

Warum sollte es mit Sprache nicht genauso sein? Wenn man keine Trennung zwischen „Sprache lernen“ und „Spracherwerbsfähigkeit besitzen“ zieht, dann lösen sich alle denkbaren Widersprüche auf. Die ersten Urlaute bringt das Baby bereits mit (auch Tiere können sich äußern), das wird im Laufe seiner Entwicklung zu einer vollständigen Sprache ausdifferenziert. Im Gehirn gibt es genauso wenig eine scharfe Trennung zwischen „vor der Geburt“ und „danach“. Der Fötus bewegt sich, er fühlt, er hört, vermutlich sieht er sogar. Man muss nämlich nicht die Augen aufmachen zum Sehen: Wenn man genügend helles Licht in den Mund hineinstrahlt, dann gelangt Licht zur Netzhaut. Durch die Augenlider geht es natürlich erst recht.

Meiner Meinung nach führen die beiden Wissenschaftler Fodor und Dennett da eine Spiegelfechterei.
Fluchtfliege - 16. Feb, 22:30

Hm

Weshalb können wir die Computeranalogie nicht etwas herunterschrauben. Die Diskussion, ob das Universum ein Computer ist, ob wir alle Computer sind, hat hiermit erstmal gar nichts zu tun.

Es geht hier nur darum, sich mit Hilfe von neuronalen Netzen Funktions- und Entstehungsweisen der menschlichen Kognition zu erklären. Die Netze sollen als Modelle dienen, komplexe Sachverhalte auf ihre wesentlichen Elemente zu reduzieren, damit wir sie kapieren können.

Wenn ich mich über konnektionistische Modelle freue, weil sie mir veranschaulichen, weshalb Grammatik und Bedeutung nicht angeboren sind, sondern erworben werden, dann heißt das nicht, dass ich das Universum mit einem Computer gleichsetze.

Die Unterschiede zwischen Gehirn und Compu habe ich nur angeführt, damit wir uns nicht vorstellen, der Geist funktioniere wie das Laptop auf unserem Schreibtisch.

Es ist keine Spiegelfechterei. Es gibt einen gewaltigen Unterschied zwischen der Annahme, wir kommen mit Grammatik und Bedeutung en total auf die Welt, unser Denken ist vorstrukturiert und wird durch Sprache nicht tangiert und der Überlegung, dass wir zwar prinzipiell fähig sind, Sprache zu lernen, weil wir eben Muster erkennen können, in linguistischem Input genauso so wie in vorüberziehenden Wolken oder Musik aus dem Radio, aber Bedeutung und Grammatik erst über die Muttersprache erlernen.

Es gibt keine scharfe Trennung zwischen davor und danach? Natürlich nimmt ein Säugling wahr, aber hat er auch Repräsentationen darüber, dass er es tut, hat er ein Riesenhirn voller Bedeutung und Konzepte, das nur auf den Input wartet, diese zu aktivieren und erkennbar werden zu lassen? Nein, er hat ein kleines Gehirn, das plastisch und also lernfähig ist. Er hat Grundfunktionen, z.B. die Mama sehr rasch zu erkennen. Aber darüber hinaus wartet er darauf, viele, viele Informationen zu bekommen, aus denen heraus er Stück für Stück mentale Karten in seine weiche Tabula kritzelt. Das ist auch gut so, denn erstens würde Mama das kognitiv entwickelte Baby nicht aus dem Leibe bekommen und zweitens funktioniert Lernen eben am besten von den einfachen zu den komplexen Bausteinen.

Ich glaube, dass die "Mama-Taxis" und die Fähigkeit, eigenständig Worte zu gebrauchen, zwei qualitativ recht unterschiedliche Instrumente sind.

Was meinst Du, wenn Du sagst, dass das Baby Sprache aus den Urlauten "ausdifferenziert"?

Weshalb muß ein Heranziehen von komputationalen Modellen, die Herrschaft der KI implizieren? Weshalb ist es so problematisch, wenn künstliche Netze, echte Netze modellieren und Funktionen zeigen, die wir auch vollbringen?

Weshalb schauen wir uns Schimpansen an, nerven sie mit dussligen Experimenten, in denen wir sie dazu trainieren (nicht lehren), Dinge zu tun, die sie normalerweise nicht tun würden?
Köppnick - 17. Feb, 19:23

Habe recherchiert

Ich glaube nicht, dass wir in unseren Auffassungen so sehr weit auseinander sind. Ich habe mal ein bisschen recherchiert, und, einschließlich der Dinge, die ich vor einiger Zeit bereits gelesen habe, das Folgende gefunden:

1. Es wurde bei der Untersuchung von Menschen mit einer bestimmten Sprachstörung festgestellt, dass sie an einem Defekt des Gens FoxP2 leiden. Inzwischen wurde herausgefunden, dass dieses Gen auch bei Zebrafinken mit dem Gesang und bei Mäusen mit Ultraschalllauten, die sie zur Kommunikation nutzen, im Zusammenhang steht. Es scheint ein Schalter-Gen zu sein, dass die Exploration anderer Gene steuert. Von Zebrafinken ist bekannt, dass diese neue Strophen lernen können, im fortpflanzungsfähigen Alter aber wieder auf ein ererbtes Gesangsrepertoire zurückfallen, auch wenn sie nie einen anderen erwachsenen Zebrafinken gehört haben. Die Strophen werden aber variiert und in unterschiedlicher Reihenfolge abgespielt (Ist das eine Grammatik?).

In den letzten 130 Millionen Jahren veränderte sich (Trennung von Maus und Menschenaffen) eine Aminosäure auf diesem Gen, in den letzten 6 Millionen Jahren (Schimpanse und Mensch) nochmals zwei. Die Hypothese lautet, dass die Verbreitung dieser Änderung in unserer Spezies etwa 200.000 Jahre zurückliegt (wegen der Unterschiede zum Neandertaler). Etwa in diese Zeit fällt die erste Bevölkerungsexplosion des Homo sapiens, was für eine neu aufgetretene, entscheidende evolutionäre Verbesserung sprechen könnte.

2. Es gibt Berichte über Gruppen taubstummer Kinder, die sich selbst Taubstummensprachen erfunden haben, die eigene Grammatiken besitzen, und die Grammatiken ähnlich waren. Interessant an diesem Bericht war, dass es sich einmal um chinesische und einmal um amerikanische Kinder gehandelt hat. Die Grammatiken der beiden (gesprochenen) Muttersprachen weisen größere Unterschiede als die Taubstummensprachen auf. Es ist auch bekannt, dass es beim Schreibenlernen einer Sprache unseres Kulturkreises eine enge Kopplung mit dem Hören, beim Chinesischen hingegen mit dem Malen gibt. D.h. die Behandlung der Legasthenie in beiden Kulturen muss unterschiedlich ansetzen. Für die selbst erfundenen Taubstummensprachen gilt das jedoch offensichtlich nicht, hier hat logischerweise das Sehen (der Körpersprache des anderen) den größten Einfluss.

Diese Fakten sprechen meiner Meinung nach für eine starke genetische Komponente von Grammatik und Sprachvermögen, weil Sprache unabhängig von den benutzten Sinneskanälen entwickelt wird, kulturelle Tradierung (bei den Taubstummen) eine untergeordnete Rolle spielen kann, und weil bereits „Sprach-„Gene gefunden wurden. Auch die Bedeutungserkennung von einigen Sinnesreizen ist angeboren, siehe die Gesichtserkennung und den Nachahmungstrieb von Säuglingen (Stichwort Lächeln), das hast du ja auch angeführt. Warum sollte das bei Sprache, die auf demselben Substrat wächst, anders sein?

Zur Frage des Angeborenseins, welcher Zeitpunkt definiert das, Geburt oder Befruchtung? Die neunmonatige Schwangerschaft ist ja ein fauler Kompromiss der Natur. Von der Hirnentwicklung fehlt noch ein ganzes Jahr, so unfertig kommt kaum ein Lebewesen auf die Welt. Aber ein solches Riesenbaby bekäme man nicht mehr durch das Becken durch. Davor und danach findet eine kontinuierliche Entwicklung statt. Zum Beispiel war lange Zeit unbekannt, wie die „Verdrahtung“ der Augen zustande kommt, wie die Neuronen des Gehirns ihre Komplemente auf der Netzhaut finden. Inzwischen weiß man ungefähr wie: Vom Gehirn aus gesteuert, werden eine Art Testbilder auf die Netzhaut projiziert und vom Gehirn wieder abgelesen. D.h. die Augen nehmen ihre Arbeit bereits im Fötus auf, darum können wir von Geburt an sehen. Ähnlich ist das mit allen anderen Sinnen auch. Es findet die ganze Zeit eine kontinuierliche Entwicklung statt, bei der die Geburt nur ein einziges, natürlich zweifellos wichtiges Ereignis ist. Aber Lernen findet bereits vorher statt. Die einzige echte Zäsur ist die Befruchtung der Eizelle, weil hier ein neues Genom gemixt wird, danach geht es kontinuierlich weiter.

Auf der einen Seite ist es falsch zu behaupten, bereits die DNS hätte eine Grammatik oder könnte sprechen, auf der anderen Seite ist es falsch zu behaupten, das Lernen der Sprache begänne erst mit der Geburt. Keine der beiden Positionen kann experimentell bewiesen werden. Man müsste eine befruchtete Eizelle nehmen und in vollkommener Isolation von sämtlichen Umweltreizen ausreifen lassen. Dieses Experiment ist nicht durchführbar, biologisch nicht, ethisch erst recht nicht, deshalb ist die Frage so nicht beantwortbar.

Auch durch vergleichende Beobachtungen kommen wir zu keinem Ergebnis, denn Menschen leben trotz unterschiedlichster Lebensbedingungen doch „ähnlich“, d.h. zum Beispiel –20°C...+40°C, andere Menschen in der Umgebung, Werkzeuge, Pflanzen, Tiere, etc. Letztlich können wir nur konstatieren: Wir unterscheiden uns in einigen Details genetisch von anderen Tieren, und wir haben uns unsere eigene (kulturelle) Umwelt geschaffen, die nur wir aufgrund unserer genetischen Ausstattung nutzen können. Man kann das nicht trennen.

Für mich liegt die Wahrheit deshalb irgendwo mittendrin: Tiere kommunizieren sehr vielfältig - wir sind auch Tiere. Ein paar entscheidende genetische Schalter sind bei uns aber anders gestellt. Ein Teil der Sprache ist bereits hart verdrahtet, der größere Teil wird im Leben dazugelernt. Ist das nicht ein vernünftiger Kompromiss?

Ganz anderes Thema: Ich habe eine Frage zum Thema „Erkennen im Spiegel - Selbstkonzept - Empathie". Da bist du doch DIE Expertin, gelle?
braindamagedpatient - 18. Feb, 15:46

Zum Unterschied zwischen Computer & Gehirn: Vergessen wir nicht, dass beim Rechnen mit Turingmaschinen und dergleichen die Notwendigkeit zur Diskretisierung aller Dimensionen besteht. Natürlich kann man versuchen jede Eigenschaft eines Analogcomputers beliebig genau zu approximieren, aber es ist durchaus möglich, dass ein Analogcomputer wie das Gehirn gewisse Eigenschaften besitzt, die man in einer diskreten Welt nicht bekommt. (Netter Artikel zum verwandten Numerikproblem: http://research.sun.com/minds/2004-0527/)

Die kognitiven Fähigkeiten von Tieren zu betrachen ist nicht deshalb interessant, weil die Unterschiede zum Menschen größer und deshalb besser zu sehen sind, sondern wohl viel eher weil man Fähigkeiten, die wir Menschen besitzen, bei ihnen in einfacherer Form findet, die leichter zu analysieren ist. (Naja, und weiterhin besteht dabei viel weniger die Gefahr die Ergebnisse von Introspektionen verwursten zu wollen. Wenigstens ein kontraprodudktiver psychologischer Bias fällt da also weg. http://en.wikipedia.org/wiki/List_of_cognitive_biases)

In der kognitiven Neuropsychologie gab es in neuerer Zeit einen Paradigmenwechsel bzgl. der Methodik: Man versucht da nun Modelle für den Aufbau unserer Kognition gerade durch den Vergleich von sich möglichst geringfügig unterscheidenden Personen zu belegen. Die Idee ist, dass man ein Modell für die normale/gesunde Kognition hat, das aus Netzen fodorartiger Module besteht. Zwischen diesem Modulenetz und den Hirnstrukturen wird ein Isomorphismus angenommen. Aus diesem Modell lassen sich dann auch Vorhersagen für verschiedene Arten von Beschädigungen ableiten. Um zu prüfen, ob das Vorhergesagte eintrifft, hätte man jetzt idealerweise gern zwei Hirne, die sich nur eben in dieser punktuellen Beschädigung unterscheiden. Die sind aber natürlich recht schwer zu finden. Schöne Fälle -- für den Wissenschaftler -- sind Patienten, bei denen eine kontrollierte Beschädigung geplant wird -- z.B. im Rahmen einer therapeutischen Maßnahme. (Ich habe mich mal mit einem Herrn unterhalten, der bei vollem Bewusstsein am offenen Gehirn operiert wurde. Während an Stellen rumgeschnipselt wurde, von denen man vermutet, dass sie an der Sprachproduktion beteiligt sind, musste er Sprachtests absolvieren.)

Bzgl. der Angeborenheit der Sprache: Die Sprache ist offensichtlich nicht angeboren, denn sonst könnte man sich ja mit Babies unterhalten und wir sprächen alle die selbe Sprache. Die Spracherwerbsfähigkeit ist hingegen offensichtlich angeboren, denn sonst könnten wir ja nicht sprechen. Die eigentliche Frage ist hier: Wie ist die Spracherwerbsfähigkeit beschaffen? Beinhaltet sie gewisses Vorwissen über phonetische Grundbausteine der Sprache (es scheint so), über grammatische Strukturen (behauptet Chomsky) und/oder über den Wortschatz (unwahrscheinlich)? Oder andersrum gefragt: Wieviel der
universellen Eigenschaften aller Sprachen kann man mit Emergenz erklären? Und was ist das Minimum an mehr oder weniger explizitem / sprachspezifischen Wissen, das man voraussetzen muss? Muss man überhaupt etwas vorausetzten, oder folgt die Art und Weise wie wir Sprache erlernen und wie sie beschaffen ist aus der Motorik unseres Lauterzeugungsapparats, aus dem Aufbau unseres auditiven Systems und unseren allgemeinen (nicht exklusiv für Sprache reservierten) kognitiven Systemen? Diese Herangehensweise scheint mir im Sinne des Ökonomieprinzips irgendwie hygienischer. Außerdem: Wir schließen aus der Tatsache, dass Menschen Klavierspielen lernen und Affen nicht, doch auch nicht dass es ein Klavierspiel-Gen beim Menschen gibt!

Um das mit der Emergenz der Intuition ein bisschen zugänglicher zu machen: Pferde haben auf der ganzen Welt ein bestimmtes Repertoir an Gangarten. Diese werden nicht pferdekulturell tradiert. Sind sie deswegen genetisch kodiert? Nein, die verschiedenen Gangarten sind einfach die Folge der Anatomie der Pferde; es sind einfach gerade die Gangarten, die bei der gegebenen Anatomie die Ökonomischsten sind. So kommt es auch, dass die Rassen mit kurzen Beinen gewisse Gangarten nicht zeigen. Ist das nicht praktisch? Kein Galopp-Gen, keine Redundanz im Code!



Was FoxP2 angeht: Es bestreitet wahrscheinlich keiner, dass die Art unserer Beschaffenheit irgendwie mit unseren Genen zusammenhängt. Die Frage ist nur wie der Zusammenhang aussieht: Gibt es ein Genitiv-Gen? Oder ist der Zusammenhang zwischen Genen und dem Genitiv furchtbar komplex und der Genitiv eben nicht nur aus den Genen selbst sondern nur durch das Zusammenspiel von Kultur, Umwelt, Anatonmie, etc. zu erklären? Genau dann wäre er eine emergente Eigenschaft, und genau dann wäre es gewagt zu sagen, dass er angeboren sei.

Ähnliches kann man sich bzgl. der ziemlich primitiven Syntax von Pidgin-Sprachen fragen. Übrigens: wie kann es sein, dass die gesprochene Muttersprache von taubstummen Kindern die Struktur ihrer Zeichensprache beeinflusst? Wenn sie eine Muttersprache kennen, ist es dann verwunderlich, dass sie syntaktische Prinzipien daraus für ihre Zeichensprache adaptieren?

http://de.wikipedia.org/wiki/Pidgin-Sprachen

Manfred Spitzer gibt in einem seiner Bücher den Hinweis, dass es möglich sein könnte, dass die menschliche Sprachfähigkeit nicht eine Folge von anders geswitchten Sprachgenen ist, sondern dass die Fähigkeit zum Spracherwerb damit zusammenhängen könnte, dass das menschliche Gehirn bei der Geburt noch viel unreifer als andere Primatenhirne ist, und deshalb zu ungleichen Leistungen in der Lage ist. Dass das Menschenhirn noch so unreif ist, ist eine Folge vom aufrechten Gang, der schmale Hüften bevorzugt. Durch schmale Hüften müssen kleine Köpfe, in denen deshalb kleine unreife Hirne stecken müssen. Hab' leider gerade nicht die Referenz dahin.
Köppnick - 20. Feb, 10:53

@braindamagedpatient

Zum Verhältnis zwischen Analog- und Digitalcomputern: Eigentlich ist es genau umgekehrt: Im Innersten ist die Welt digital, oder sagen wir besser diskret oder gequantelt. In dem uns sinnlich zugänglichen Teil der Welt kommt sie uns nur analog vor, weil wir beispielsweise den Übergang von 10^23 auf 10^23+1 niemals bemerken können. Die Schrittweite zwischen den zwei wohlunterschiedenen Stufen macht sich 23 Stellen nach dem Komma bemerkbar. Das erklärt dann auch das Problem der Dimensionen: Selbst wenn wir das Problem der Wechselwirkung von allen mit allem ignorieren, ist die theoretische Dimensionalität der Welt so groß, dass jedes beliebige Runterbrechen der Dimensionen in jedem beliebigen System immer zu einer anderen Aufteilung führt und die Umrechnung zwischen beiden "Weltanschauungen" praktisch unmöglich macht.

Dein Pferdebeispiel ist sehr schön, es gibt ein Buch zu einem ähnlichen Thema: Cruse, Dean, Ritter: "Die Entdeckung der Intelligenz, oder können Ameisen denken?" Eine der zentralen Aussagen besteht darin, dass die Evolution viele Fähigkeiten in die Lebewesen eingebaut hat, über die diese dann nicht mehr nachdenken müssen, die aber die intelligentesten Lösungen der Ingenieure locker toppen können. Die 6 Beinchen eines Insekts laufen quasi von selbst, weil das in sich rückgekoppelte System absolut stabil ist.

Mit dem Begriff der Emergenz wäre ich aber sehr vorsichtig. Dieser Begriff bezeichnet ja die Unmöglichkeit, die Eigenschaften eines Gesamtsystems aus dem der Einzelteile vorherzusagen. Im Falle der "Pferdekonstruktion" trifft das aber definitiv nicht zu! Spezifiziere die gewünschten Gangarten und weitere Randbedingungen, und ein Biomechaniker berechnet dir eine Konstruktion, die im Aufbau pferdeähnlich sein sollte. Oder umgekehrt: Gib eine Pferdekonstruktion vor, und der Biomechaniker berechnet die möglichen Gangarten.

Wenn man etwas als "emergent" bezeichnet, dann hat man (ob berechtigt oder nicht) vor der Komplexität des Systems kapituliert und verzichtet darauf, es aus seinen Bestandteilen heraus zu verstehen. Man muss dann glauben, dass es so und nicht anders funktionieren kann.

Am Beispiel des Zusammenhangs zwischen neuronalen Vorgängen und Bewusstsein: Wenn Bewusstsein ein emergenter Prozess ist, dann kann man entweder glauben, ein höheres Wesen hat uns das vorbeigebracht, oder man kann glauben, es würde auf natürliche Art und Weise immer entstehen, wenn ein vergleichbares Substrat aufgebaut wird. Es bleibt eine Glaubenstatsache, solange man eine direkte Ableitung vom niedrigeren Beschreibungsniveau nicht hinbekommt.

Vermutlich wird diese Art der Diskussion auch nicht verstummen, wenn die KI-Programmierer ein System hinbekommen, das anerkanntermaßen über Bewusstsein verfügt. Man wird nämlich nicht jeden Einzelrechenschritt dieses "Wesens" nachvollziehen können, man sieht nur die mehreren hundert Programmmodule auf der einen Seite und die offenkundige Intelligenz auf der anderen. Was dazwischen passiert, entzieht sich einer detailllierten Analyse.
braindamagedpatient - 20. Feb, 22:05

@Köppnick

Wenn das mit der diskreten Welt stimmte, müsste dann nicht Folgendes der Fall sein: Seien Punkte mögliche Aufenthaltsorte von Teilchen. Es gibt nun zwei Punkte (p1 und p2) im Raum, die nicht identisch sind (d(p1,p2) > 0) und zwischen denen sich keine weiteren Punkte befinden (Defintion von diskret). Wie kommt nun ein Teilchen von p1 nach p2? Ok, das ist Spinnerei, ich bin kein Physiker und hab' von so Sachen keine Ahnung. Aber dass der Raum diskret sein soll, hab ich noch nie gehört. Wenn Du dazu eine Referenz hättest -- das würde mich interessieren.

Das mit dem Emergenzbegriff: Es gibt ihn tatsächlich in Varianten: 1.) Unmöglichkeit der Erklärung der emergenten Eigenschaften eines Systems aus den Bestandteilen; diese findet man meist in der Philosophie. 2.) Relative Schwierigkeit der Erklärung des Zusammenhangs. Diesen Emergenzbegriff findet man häufiger in den Ingenieurs-, Gesellschafts- und Neurowissenschaften -- an den hatte ich gedacht.
Köppnick - 21. Feb, 08:43

@braindamagedpatient

Deine unendlich kleinen Punkte, die einen wohldefinierten Abstand voneinander haben, sind gedachte Objekte der Mathematik. In der physikalischen Welt muss gemessen werden. Man könnte zum Beispiel irgendwo ein Teilchen vermuten, dann schickt man ein Photon hin, um anhand der Wechselwirkung die Eigenschaften des Teilchens zu bestimmen. An diesem Punkt kommt die Heisenbergsche Unschärferelation ins Spiel, die Messung ist nur mit einer endlichen Genauigkeit möglich. Das dabei ins Spiel kommende Plancksche Wirkungsquantum hat die Einheit der „Wirkung“, enthält also die Einheiten der Masse (kg), des Ort (m) und der Zeit (s). Die meisten physikalischen Größen (oder sogar alle?) enthalten diese Einheiten, zum Beispiel Energie, Impuls, Geschwindigkeit. Wenn ich eine physikalische Größe messe (z.B. den Ort), dann benutzt die Messung Teilchen, die eine Masse (Energie) besitzen (Photonen), und misst z.B. die Zeit. Das gilt für beliebige Messungen beliebiger Größen. Sie sind alle miteinander verbandelt, sie sich als Einzelgrößen zu denken, ist eine mathematische Abstraktion (oder noch genauer eine Unzulänglichkeit menschlichen Denkens).

Zurück zur Aufgabe, Messung des Abstandes zwischen zwei Orten (= zwei Teilchen): Wir können ihren Ort nicht beliebig genau messen, weil wir zugleich ihre Geschwindigkeit und ihre Masse benötigen, denn sie bewegen sich ja in Raum und Zeit. Für alle diese Größen lassen sich nur Wahrscheinlichkeitsverteilungen angeben, sie sind in den entsprechenden Dimensionen „verschmiert“. Wenn die beiden Teilchen sehr nahe beieinander sind und wir einen Quant von einem zum anderen schicken, um über eine Zeitmessung ihren Abstand zu berechnen, dann passiert es mit einer gewissen Wahrscheinlichkeit, dass das Quant eher ankommt (gemessen wird), als wir es abgeschickt haben. Das ist nichts Mysteriöses, sondern einfach eine Tatsache, dass uns keine dieser Größen exakt bekannt ist bzw. gemessen werden kann.

Der Witz besteht nun darin, dass dieses Verhalten nicht von unserer Beobachtung abhängt, weil wir ja nichts anderes getan haben, als eine der Wechselwirkung anzustoßen, wie sie das ganze Universum ausmachen. Es verhält sich alles auch ohne unsere Anwesenheit so.

In Bezug auf den gequantelten Charakter bedeutet das, dass das Modell „zwei Punkte im Raum“ keine physikalische Realität besitzt, man muss sich immer Masse und Zeit hinzudenken und für alle Größen eine Verschmierung der Aufenthaltswahrscheinlichkeiten beachten. Der Begriff „diskret“ ist allerdings etwas doof gewählt, weil er eine feste Bedeutung in der Mathematik hat, "gequantelt" ist besser.
braindamagedpatient - 21. Feb, 15:38

@köppnick

Hm, die Physik, die Du beschreibst kenn' ich eigentlich schon seit meiner Was-ist-was-Zeit (Moderne Physik war mein Lieblingsband, nicht der über Dinosaurier!). Ich geb' zu, dass mein Versuch die Kontinuität des Raums zu belegen vielleicht ein wenig zu billig war. Ich sehe aber nicht, wie aus dem von Dir Gesagtem folgt, dass das Universum digital ist.

Darf ich nochmal kurz zusammenfassen: Meine These: Es gibt Analogcomputer nicht nur als mathematische Konstrukte und ihre Mächtigkeit ist größer als die der Digitalcopmuter. Dein Einwand: Das Universum ist gequantelt und somit -- das hast Du nicht explizit gemacht, aber es hört sich so an -- mit diskreten Strukturen darstellbar, also auch mit einem Digitalcomputer. Hintergrund: Die Frage, ob man einen tatsächlich existierenden Analogcomputer mit einem Digitalcomputer nur beliebig genau approximieren kann oder, ob man sie genau abbilden kann. Ersteres ist meine Vermutung, letzteres Deine. Right?

Lustig ist nun, dass du mir mit dem Hinweis auf die Unschärferelation genau ein Argument für meine Approximationsthese lieferst, und sogar eines, das ohne die Klärung der ganzen Diskretheitsfrage funktioniert. Die Unschärfe verunmöglicht doch gerade das ganze Konzept der genauen Abbildung, oder etwa nicht?

Aber bevor ich hier weiter rumstümpere lieber eine Referenz zu jemandem, der sich seriöser mit der Sache befasst: Hava Siegelmann (Amherst, UMASS) kommt bei etwas heraus, das meiner These irgendwie mindestens ähnlich ist. (siehe z.B: http://www.eetimes.com/story/OEG19981103S0017). Siegelmann wendet das sogar auf Neuronale Netze an, womit wir (fast) wieder beim Ausgangspunkt der Diskussion wären.
Köppnick - 21. Feb, 19:38

@braindamagedpatient

Ich bin kein Physiker, das Folgende sind deshalb auch nur Dinge, die ich mir entweder angelesen oder daraus selbst überlegt habe (die Fehler sind deshalb immer meine):

Der Analogcomputer liefert verschiedene Spannungen durch unterschiedliche Anzahl von Elektronen, die Anzahl der Elektronen ist immer eine ganze Zahl --> jeder Analogcomputer ist ein Digitalcomputer. Der einen Analogcomputer simulierende Digitalcomputer muss nur einfach die Ladungsträger zählen, die einen analogen Zustand bilden. (Im übrigen funktioniert der Digitalcomputer nicht wesentlich anders: Auch bei einem Digitalcomputer werden 1 und 0 durch eine immens große Anzahl an Ladungsträgern repräsentiert.)

Die Entropie ist das Maß für die Informationsmenge, die eine bestimmte Masse in einem bestimmten Volumen enthält. D.h. diese Informationsmenge wird benötigt, um den Zustand zu beschreiben. Die Entropie ist immer endlich. Um zwischen zwei Zustände einen weiteren zu quetschen, und das im unendlichen Regress, wie für eine analoge Darstellung notwendig, benötigt man eine unendlich große Informationsmenge, was dem widerspricht.

Digital bedeutet nicht, dass irgendwo eine scharfe Grenze kommt, vor der es 0 war und danach 1. Vielmehr heißt es, dass es kleinste Grenzen gibt, unterhalb derer zwei Zustände nicht mehr zu unterscheiden sind, und die man deshalb als gleich betrachten muss. Das ist keine Frage der Zahlendarstellung, zum Beispiel hat Pi in Dezimaldarstellung unendlich viele Stellen, ist aber sehr einfach (und endlich) als das Verhältnis zwischen dem Durchmesser und dem Umfang eines Kreises, oder aber einfach durch das Symbol Pi beschreibbar.

Im Zusammenhang mit der Frage „Was passiert mit der Information, wenn etwas in ein schwarzes Loch fällt?“, habe ich mal das Folgende gelesen: Die vom schwarzen Loch verschluckte Information ist proportional zur Oberfläche des Ereignishorizonts. Und zwar entspricht ein Bit dem halben oder dem doppelten (wie herum habe ich vergessen) Flächeninhalt eines Dreiecks, dessen Kanten die Plancklänge ist (furchtbar klein). Denkt man sich jetzt ein SL von der Masse unseres Universums minus ein Proton und lässt dieses Proton auch noch hineinstürzen, dann vergrößert sich die Oberfläche um 10 hoch 22 Bit. Klingt wenig, bedeutet aber 2 hoch 10 hoch 22 verschiedene Zustände. Diese Zahl hat etwa 10 hoch 19 Stellen. Damit werden alle möglichen Wechselwirkungen eines einzigen Teilchens mit dem gesamten Universum in der gesamten Vergangenheit, Gegenwart und Zukunft beschrieben. Das ist unvorstellbar viel, aber es ist nur eine endliche Anzahl.

Der Grund für die Endlichkeit ist auch in diesem Gedankenmodell wieder simpel: Um dem Teilchen einen anderen Zustand zu geben, muss es mit anderen Teilchen wechselwirken, was deren Zustände ebenfalls ändert usw. bis in den entferntesten Winkel des Universums (15 Milliarden Jahre später). Alles hängt mit allem zusammen, nichts ist ohne Abhängigkeiten.

Leider ist mein Englisch nicht gut genug, um jede Feinheit des von dir zitierten Artikels zu verstehen. Aber mir scheint, die Dame hat das Prinzip der Turing-Maschine nicht begriffen. Grundlage jeder Informationsverarbeitung ist das Bit. Da sowohl Digital- als auch Analogrechner Realisierungen von Turing-Maschinen sind, kann man dieselben Algorithmen von einem Rechner auf den anderen übertragen, ohne jeden Informationsverlust.

Ich habe in meinem Studium (der theoretischen Elektrotechnik) die letzten Zuckungen der Analogrechner noch miterlebt. Man hat partielle Differentialgleichungen damit gelöst. Sie sind nicht aus der Mode gekommen, weil sie schlecht waren oder falsch gerechnet haben, sondern weil das Programmieren das Umstöpseln von Kabeln, den Einbau neuer Spulen und Kondensatoren erforderte. Durch diese physische Komponente waren komplizierteren Algorithmen (räumliche) Grenzen gesetzt.

@Fluchtfliege: Gnade, Fluchtfliege, Gnade, dafür dass wir deinen Sprachartikel mit so viel "Quantentheologie" verhunzen!

rEzent

Das vorletzte Buch
Und dann saß ich plötzlich meinen wahren Eltern gegenüber....
Fluchtfliege - 5. Jan, 03:05
Gestern, sepiafarben.
Man sollte auch dann schreiben, wenn es einem so geht,...
Fluchtfliege - 3. Mai, 00:13
Freiheit
Ein schöner Text unter der Rubrik : " Die Unfähigkeit...
Reh Volution - 9. Apr, 13:13
Immer diese Entscheidungen....
Immer diese Entscheidungen. Sind schon mal wie eine...
nafreilich - 24. Feb, 19:04
@braindamagedpatient
Ich bin kein Physiker, das Folgende sind deshalb auch...
Köppnick - 21. Feb, 19:38
@köppnick
Hm, die Physik, die Du beschreibst kenn' ich eigentlich...
braindamagedpatient - 21. Feb, 15:59
@braindamagedpatient
Deine unendlich kleinen Punkte, die einen wohldefinierten...
Köppnick - 21. Feb, 08:43
@Köppnick
Wenn das mit der diskreten Welt stimmte, müsste dann...
braindamagedpatient - 20. Feb, 22:05

à lirE

dahiN


Besuch vom Philosophen
Tag&Nacht
Profil
Abmelden
Weblog abonnieren