Cookies helfen uns bei der Bereitstellung von NLPedia. Durch die Nutzung von NLPedia erklärst du dich damit einverstanden, dass wir Cookies speichern.

Änderungen

Transformationsgrammatik

1.896 Byte hinzugefügt, 00:12, 31. Aug. 2014
<small><nowiki> [generative Transformationsgrammatik] </nowiki></small> __NOTOC__
Das Modell der '''Transformationsgrammatik ''' wurde von [[Noam Chomsky|Avram Noam Chomsky]] entwickelt. Noam Chomsky ist Professor für Linguistik am Massachusetts Institute of Technology (MIT).
Das Modell der generativen Transformationsgrammatik geht davon aus, dass jedem Satz Er fragte: Wie kann ein Sprecher einer beliebigen Sprache mit einer endlichen Anzahl von Regeln eine [[Tiefenstruktur]] (die vollständige Vorstellung dessenunendliche Anzahl von Sätzen produzieren und wie kann ein Hörer Sätze verstehen, was zum Ausdruck gebracht werden soll) zugrunde liegt. Sie enthält alle Informationen, die für die semantische Interpretation des Satzes wichtig sind. er zuvor nie gehört hat?
Um verständlich sprechen zu könnenEr ging davon aus, kürzen dass wir diese Tiefenstruktur ab und erzeugen mittels Löschungen, Tilgungen und Verzerrungen eine vereinfachte Version mit unserer GedankenSprache ''nach bestimmten Regeln'' Erfahrungen codieren. Diesen Prozess nennt Chomsky Diese Regeln zu beschreiben ist Aufgabe der Transformationsgrammatik. Werden diese Regeln bei der Transformationverletzt, das erzeugte Ergebnis erscheint uns ein Satz fehlgeformt - im Gegensatz zum ''wohlgeformten'' Satz, der nach der Transformation syntaktisch und semantisch korrekt ist . Eine weitere Bedeutung der Wohlgeformtheit hat 3 Komponenten: syntaktisch korrekt, semantisch korrekt und die [[Oberflächenstruktur]]gibt ausreichend die Tiefenstuktur wieder.
Beispiel:Der Prozess beginnt mit einem Erzeugungsteil, der [[Tiefenstruktur]]en erzeugt, die im Transformationsteil nach einzelsprachlich unterschiedlichen Transformationen (z. B. englisch, deutsch) in die [[Oberflächenstruktur]]en überführt werden. Beim Hörer erfährt das Gesprochene dann zunächst eine phonologische und eine semantische Interpretation. Die Basis dieser Grammatik ist syntaktisch. Eine solche Transformationsgrammatik liefert also für jeden Satz, den sie generiert, eine Tiefen- und eine Oberflächenstruktur sowie die Bedeutung und die lautliche Realisation. Der Hörer eines Satzes muss nun nach den selben Regeln wieder decodieren, diesen Prozess nennt man ''Derivation'' (Oberflächenstruktur -> Tiefenstruktur). Den evtl. anschließenden Prozess der Verbindung der Tiefenstruktur mit der eigenen Erfahrung bezeichnet man als [[transderivationale Suche]].
„Der fünfjährige Junge Levi stürzte beim Klettern auf dem Spielplatz vom Gerüst und verletzte sich Das Modell der generativen Transformationsgrammatik geht davon aus, dass jedem Satz (Oberflächenstruktur) eine Tiefenstruktur (die rechte Hand an vollständige sprachliche Formulierung der LeiterErfahrung dessen, was zum Ausdruck gebracht werden soll) zugrunde liegt. Sie enthält alle Informationen, die für die semantische Interpretation des Satzes wichtig sind. Damit ist die Tiefenstruktur als gesprochener Satz sehr lang. Um im Gespräch übersichtliche Sätze bilden zu können, kürzen wir diese Tiefenstruktur ab und erzeugen mittels Löschungen, Verallgemeinerungen und Verzerrungen eine vereinfachte Version unserer Gedanken. Diesen Prozess nennt Chomsky Transformation, das erzeugte Ergebnis ist, wie gesagt die Oberflächenstruktur.
UndHat eine Oberflächenstruktur mehrere mögliche Tiefenstrukturen spricht man von [[Ambiguität]] (Mehrdeutigkeit).
„Der Junge verletzte sich.“
Das Modell der Transformationsgrammatik wurde von Noam Chomsky mehrfach überarbeitet. Es bildete unter anderem auch die Basis für das [[Metamodell]] im [[NLP]].
 
Elemente der Transformationsgrammatik:
: Permutationstransformation
: Tilgungstranformation
 
 
----
siehe auch: [http://de.wikipedia.org/wiki/Generative_Transformationsgrammatik Wikipedia]
[[Kategorie:Begriff]]
13
Bearbeitungen