Transformationsgrammatik: Unterschied zwischen den Versionen

Aus NLPedia
Wechseln zu: Navigation, Suche
K
K
 
(3 dazwischenliegende Versionen von einem anderen Benutzer werden nicht angezeigt)
Zeile 3: Zeile 3:
 
Das Modell der '''Transformationsgrammatik''' wurde von [[Noam Chomsky|Avram Noam Chomsky]] entwickelt. Noam Chomsky ist Professor für Linguistik am Massachusetts Institute of Technology (MIT).  
 
Das Modell der '''Transformationsgrammatik''' wurde von [[Noam Chomsky|Avram Noam Chomsky]] entwickelt. Noam Chomsky ist Professor für Linguistik am Massachusetts Institute of Technology (MIT).  
  
Er fragte: Wie kann ein Sprecher einer beliebigen Sprache mit einer endlichen Anzahl von Regeln eine unendliche Anzahl von Sätzen produzieren und ein Hörer Sätze verstehen, die er zuvor nie gehört hat?  
+
Er fragte: Wie kann ein Sprecher einer beliebigen Sprache mit einer endlichen Anzahl von Regeln eine unendliche Anzahl von Sätzen produzieren und wie kann ein Hörer Sätze verstehen, die er zuvor nie gehört hat?  
  
Er ging davon aus, dass wir mit unserer Sprache ''nach bestimmten Regeln'' Erfahrungen codieren. Diese Regeln zu beschreiben ist Aufgabe der Transformationsgrammatik. Werden diese Regeln bei der Transformation verletzt, erscheint uns ein Satz fehlgeformt - im Gegensatz zum wohlgeformten Satz.
+
Er ging davon aus, dass wir mit unserer Sprache ''nach bestimmten Regeln'' Erfahrungen codieren. Diese Regeln zu beschreiben ist Aufgabe der Transformationsgrammatik. Werden diese Regeln bei der Transformation verletzt, erscheint uns ein Satz fehlgeformt - im Gegensatz zum ''wohlgeformten'' Satz, der nach der Transformation syntaktisch und semantisch korrekt ist. Eine weitere Bedeutung der Wohlgeformtheit hat 3 Komponenten: syntaktisch korrekt, semantisch korrekt und die Oberflächenstruktur gibt ausreichend die Tiefenstuktur wieder.
  
Der Prozess beginnt mit einem Erzeugungsteil, der [[Tiefenstruktur]]en erzeugt, die im Transformationsteil nach einzelsprachlich unterschiedlichen Transformationen (z. B. englisch, deutsch) in die [[Oberflächenstruktur]]en überführt werden und dabei eine semantische und eine phonologische Interpretation erfahren. Die Basis dieser Grammatik ist syntaktisch. Eine solche Transformationsgrammatik liefert also für jeden Satz, den sie generiert, eine Tiefen- und eine Oberflächenstruktur sowie die Bedeutung und die lautliche Realisation. Der Hörer eines Satzes muss nun nach den selben Regeln wieder decodieren.
+
Der Prozess beginnt mit einem Erzeugungsteil, der [[Tiefenstruktur]]en erzeugt, die im Transformationsteil nach einzelsprachlich unterschiedlichen Transformationen (z. B. englisch, deutsch) in die [[Oberflächenstruktur]]en überführt werden. Beim Hörer erfährt das Gesprochene dann zunächst eine phonologische und eine semantische Interpretation. Die Basis dieser Grammatik ist syntaktisch. Eine solche Transformationsgrammatik liefert also für jeden Satz, den sie generiert, eine Tiefen- und eine Oberflächenstruktur sowie die Bedeutung und die lautliche Realisation. Der Hörer eines Satzes muss nun nach den selben Regeln wieder decodieren, diesen Prozess nennt man ''Derivation'' (Oberflächenstruktur -> Tiefenstruktur). Den evtl. anschließenden Prozess der Verbindung der Tiefenstruktur mit der eigenen Erfahrung bezeichnet man als [[transderivationale Suche]].
 +
 
 +
Das Modell der generativen Transformationsgrammatik geht davon aus, dass jedem Satz (Oberflächenstruktur) eine Tiefenstruktur (die vollständige sprachliche Formulierung der Erfahrung dessen, was zum Ausdruck gebracht werden soll) zugrunde liegt. Sie enthält alle Informationen, die für die semantische Interpretation des Satzes wichtig sind. Damit ist die Tiefenstruktur als gesprochener Satz sehr lang. Um im Gespräch übersichtliche Sätze bilden zu können, kürzen wir diese Tiefenstruktur ab und erzeugen mittels Löschungen, Verallgemeinerungen und Verzerrungen eine vereinfachte Version unserer Gedanken. Diesen Prozess nennt Chomsky Transformation, das erzeugte Ergebnis ist, wie gesagt die Oberflächenstruktur.
 +
 
 +
Hat eine Oberflächenstruktur mehrere mögliche Tiefenstrukturen spricht man von [[Ambiguität]] (Mehrdeutigkeit).
  
Das Modell der generativen Transformationsgrammatik geht davon aus, dass jedem Satz (Oberflächenstrucktur) eine Tiefenstruktur (die vollständige sprachliche Formulierung der Erfahrung dessen, was zum Ausdruck gebracht werden soll) zugrunde liegt. Sie enthält alle Informationen, die für die semantische Interpretation des Satzes wichtig sind. Die Tiefenstrucktur wäre ist als gesprochener Satz sehr lang. Um im Gespräch übersichtliche Sätze bilden zu können, kürzen wir diese Tiefenstruktur ab und erzeugen mittels  Löschungen, Verallgemeinerungen und Verzerrungen eine vereinfachte Version unserer Gedanken. Diesen Prozess nennt Chomsky Transformation, das erzeugte Ergebnis ist, wie gesagt die Oberflächenstruktur.
 
  
 
Das Modell der Transformationsgrammatik wurde von Noam Chomsky mehrfach überarbeitet. Es bildete unter anderem auch die Basis für das [[Metamodell]] im [[NLP]].
 
Das Modell der Transformationsgrammatik wurde von Noam Chomsky mehrfach überarbeitet. Es bildete unter anderem auch die Basis für das [[Metamodell]] im [[NLP]].

Aktuelle Version vom 31. August 2014, 01:12 Uhr

[generative Transformationsgrammatik]

Das Modell der Transformationsgrammatik wurde von Avram Noam Chomsky entwickelt. Noam Chomsky ist Professor für Linguistik am Massachusetts Institute of Technology (MIT).

Er fragte: Wie kann ein Sprecher einer beliebigen Sprache mit einer endlichen Anzahl von Regeln eine unendliche Anzahl von Sätzen produzieren und wie kann ein Hörer Sätze verstehen, die er zuvor nie gehört hat?

Er ging davon aus, dass wir mit unserer Sprache nach bestimmten Regeln Erfahrungen codieren. Diese Regeln zu beschreiben ist Aufgabe der Transformationsgrammatik. Werden diese Regeln bei der Transformation verletzt, erscheint uns ein Satz fehlgeformt - im Gegensatz zum wohlgeformten Satz, der nach der Transformation syntaktisch und semantisch korrekt ist. Eine weitere Bedeutung der Wohlgeformtheit hat 3 Komponenten: syntaktisch korrekt, semantisch korrekt und die Oberflächenstruktur gibt ausreichend die Tiefenstuktur wieder.

Der Prozess beginnt mit einem Erzeugungsteil, der Tiefenstrukturen erzeugt, die im Transformationsteil nach einzelsprachlich unterschiedlichen Transformationen (z. B. englisch, deutsch) in die Oberflächenstrukturen überführt werden. Beim Hörer erfährt das Gesprochene dann zunächst eine phonologische und eine semantische Interpretation. Die Basis dieser Grammatik ist syntaktisch. Eine solche Transformationsgrammatik liefert also für jeden Satz, den sie generiert, eine Tiefen- und eine Oberflächenstruktur sowie die Bedeutung und die lautliche Realisation. Der Hörer eines Satzes muss nun nach den selben Regeln wieder decodieren, diesen Prozess nennt man Derivation (Oberflächenstruktur -> Tiefenstruktur). Den evtl. anschließenden Prozess der Verbindung der Tiefenstruktur mit der eigenen Erfahrung bezeichnet man als transderivationale Suche.

Das Modell der generativen Transformationsgrammatik geht davon aus, dass jedem Satz (Oberflächenstruktur) eine Tiefenstruktur (die vollständige sprachliche Formulierung der Erfahrung dessen, was zum Ausdruck gebracht werden soll) zugrunde liegt. Sie enthält alle Informationen, die für die semantische Interpretation des Satzes wichtig sind. Damit ist die Tiefenstruktur als gesprochener Satz sehr lang. Um im Gespräch übersichtliche Sätze bilden zu können, kürzen wir diese Tiefenstruktur ab und erzeugen mittels Löschungen, Verallgemeinerungen und Verzerrungen eine vereinfachte Version unserer Gedanken. Diesen Prozess nennt Chomsky Transformation, das erzeugte Ergebnis ist, wie gesagt die Oberflächenstruktur.

Hat eine Oberflächenstruktur mehrere mögliche Tiefenstrukturen spricht man von Ambiguität (Mehrdeutigkeit).


Das Modell der Transformationsgrammatik wurde von Noam Chomsky mehrfach überarbeitet. Es bildete unter anderem auch die Basis für das Metamodell im NLP.

Elemente der Transformationsgrammatik:

Permutationstransformation
Tilgungstranformation



siehe auch: Wikipedia