Transformationsgrammatik: Unterschied zwischen den Versionen

Aus NLPedia
Wechseln zu: Navigation, Suche
K
K
Zeile 5: Zeile 5:
 
Er fragte: Wie kann ein Sprecher einer beliebigen Sprache mit einer endlichen Anzahl von Regeln eine unendliche Anzahl von Sätzen produzieren und ein Hörer Sätze verstehen, die er zuvor nie gehört hat?  
 
Er fragte: Wie kann ein Sprecher einer beliebigen Sprache mit einer endlichen Anzahl von Regeln eine unendliche Anzahl von Sätzen produzieren und ein Hörer Sätze verstehen, die er zuvor nie gehört hat?  
  
Er ging davon aus, dass wir mit unserer Sprache ''nach bestimmten Regeln'' Erfahrungen codieren. Diese Regeln zu beschreiben ist Aufgabe der Transformationsgrammatik. Werden diese Regeln bei der Transformation verletzt, erscheint uns ein Satz fehlgeformt - im Gegensatz zum wohlgeformten Satz.
+
Er ging davon aus, dass wir mit unserer Sprache ''nach bestimmten Regeln'' Erfahrungen codieren. Diese Regeln zu beschreiben ist Aufgabe der Transformationsgrammatik. Werden diese Regeln bei der Transformation verletzt, erscheint uns ein Satz fehlgeformt - im Gegensatz zum ''wohlgeformten'' Satz, der nach der Transformation syntaktisch und semantisch korrekt ist.
  
Der Prozess beginnt mit einem Erzeugungsteil, der [[Tiefenstruktur]]en erzeugt, die im Transformationsteil nach einzelsprachlich unterschiedlichen Transformationen (z. B. englisch, deutsch) in die [[Oberflächenstruktur]]en überführt werden und dabei eine semantische und eine phonologische Interpretation erfahren. Die Basis dieser Grammatik ist syntaktisch. Eine solche Transformationsgrammatik liefert also für jeden Satz, den sie generiert, eine Tiefen- und eine Oberflächenstruktur sowie die Bedeutung und die lautliche Realisation. Der Hörer eines Satzes muss nun nach den selben Regeln wieder decodieren.
+
Der Prozess beginnt mit einem Erzeugungsteil, der [[Tiefenstruktur]]en erzeugt, die im Transformationsteil nach einzelsprachlich unterschiedlichen Transformationen (z. B. englisch, deutsch) in die [[Oberflächenstruktur]]en überführt werden und dabei eine semantische und eine phonologische Interpretation erfahren. Die Basis dieser Grammatik ist syntaktisch. Eine solche Transformationsgrammatik liefert also für jeden Satz, den sie generiert, eine Tiefen- und eine Oberflächenstruktur sowie die Bedeutung und die lautliche Realisation. Der Hörer eines Satzes muss nun nach den selben Regeln wieder decodieren, diesen Prozess nennt man ''Derivation'' (Oberflächenstruktur -> Tiefenstruktur). Den evtl. anschließenden Prozess der Verbindung der Tiefenstruktur mit der eigenen Erfahrung bezeichnet man als [[transderivationale Suche]].
 +
 
 +
Das Modell der generativen Transformationsgrammatik geht davon aus, dass jedem Satz (Oberflächenstruktur) eine Tiefenstruktur (die vollständige sprachliche Formulierung der Erfahrung dessen, was zum Ausdruck gebracht werden soll) zugrunde liegt. Sie enthält alle Informationen, die für die semantische Interpretation des Satzes wichtig sind. Die Tiefenstruktur wäre ist als gesprochener Satz sehr lang. Um im Gespräch übersichtliche Sätze bilden zu können, kürzen wir diese Tiefenstruktur ab und erzeugen mittels  Löschungen, Verallgemeinerungen und Verzerrungen eine vereinfachte Version unserer Gedanken. Diesen Prozess nennt Chomsky Transformation, das erzeugte Ergebnis ist, wie gesagt die Oberflächenstruktur.
 +
 
 +
Hat eine Oberflächenstruktur mehrere mögliche Tiefenstrukturen spricht man von [[Ambiguität]] (Mehrdeutigkeit).
  
Das Modell der generativen Transformationsgrammatik geht davon aus, dass jedem Satz (Oberflächenstrucktur) eine Tiefenstruktur (die vollständige sprachliche Formulierung der Erfahrung dessen, was zum Ausdruck gebracht werden soll) zugrunde liegt. Sie enthält alle Informationen, die für die semantische Interpretation des Satzes wichtig sind. Die Tiefenstrucktur wäre ist als gesprochener Satz sehr lang. Um im Gespräch übersichtliche Sätze bilden zu können, kürzen wir diese Tiefenstruktur ab und erzeugen mittels  Löschungen, Verallgemeinerungen und Verzerrungen eine vereinfachte Version unserer Gedanken. Diesen Prozess nennt Chomsky Transformation, das erzeugte Ergebnis ist, wie gesagt die Oberflächenstruktur.
 
  
 
Das Modell der Transformationsgrammatik wurde von Noam Chomsky mehrfach überarbeitet. Es bildete unter anderem auch die Basis für das [[Metamodell]] im [[NLP]].
 
Das Modell der Transformationsgrammatik wurde von Noam Chomsky mehrfach überarbeitet. Es bildete unter anderem auch die Basis für das [[Metamodell]] im [[NLP]].

Version vom 19. Januar 2009, 23:06 Uhr

[generative Transformationsgrammatik]

Das Modell der Transformationsgrammatik wurde von Avram Noam Chomsky entwickelt. Noam Chomsky ist Professor für Linguistik am Massachusetts Institute of Technology (MIT).

Er fragte: Wie kann ein Sprecher einer beliebigen Sprache mit einer endlichen Anzahl von Regeln eine unendliche Anzahl von Sätzen produzieren und ein Hörer Sätze verstehen, die er zuvor nie gehört hat?

Er ging davon aus, dass wir mit unserer Sprache nach bestimmten Regeln Erfahrungen codieren. Diese Regeln zu beschreiben ist Aufgabe der Transformationsgrammatik. Werden diese Regeln bei der Transformation verletzt, erscheint uns ein Satz fehlgeformt - im Gegensatz zum wohlgeformten Satz, der nach der Transformation syntaktisch und semantisch korrekt ist.

Der Prozess beginnt mit einem Erzeugungsteil, der Tiefenstrukturen erzeugt, die im Transformationsteil nach einzelsprachlich unterschiedlichen Transformationen (z. B. englisch, deutsch) in die Oberflächenstrukturen überführt werden und dabei eine semantische und eine phonologische Interpretation erfahren. Die Basis dieser Grammatik ist syntaktisch. Eine solche Transformationsgrammatik liefert also für jeden Satz, den sie generiert, eine Tiefen- und eine Oberflächenstruktur sowie die Bedeutung und die lautliche Realisation. Der Hörer eines Satzes muss nun nach den selben Regeln wieder decodieren, diesen Prozess nennt man Derivation (Oberflächenstruktur -> Tiefenstruktur). Den evtl. anschließenden Prozess der Verbindung der Tiefenstruktur mit der eigenen Erfahrung bezeichnet man als transderivationale Suche.

Das Modell der generativen Transformationsgrammatik geht davon aus, dass jedem Satz (Oberflächenstruktur) eine Tiefenstruktur (die vollständige sprachliche Formulierung der Erfahrung dessen, was zum Ausdruck gebracht werden soll) zugrunde liegt. Sie enthält alle Informationen, die für die semantische Interpretation des Satzes wichtig sind. Die Tiefenstruktur wäre ist als gesprochener Satz sehr lang. Um im Gespräch übersichtliche Sätze bilden zu können, kürzen wir diese Tiefenstruktur ab und erzeugen mittels Löschungen, Verallgemeinerungen und Verzerrungen eine vereinfachte Version unserer Gedanken. Diesen Prozess nennt Chomsky Transformation, das erzeugte Ergebnis ist, wie gesagt die Oberflächenstruktur.

Hat eine Oberflächenstruktur mehrere mögliche Tiefenstrukturen spricht man von Ambiguität (Mehrdeutigkeit).


Das Modell der Transformationsgrammatik wurde von Noam Chomsky mehrfach überarbeitet. Es bildete unter anderem auch die Basis für das Metamodell im NLP.

Elemente der Transformationsgrammatik:

Permutationstransformation
Tilgungstranformation



siehe auch: Wikipedia