Cookies helfen uns bei der Bereitstellung von NLPedia. Durch die Nutzung von NLPedia erklärst du dich damit einverstanden, dass wir Cookies speichern.

Änderungen

Entropie

Ein Byte entfernt, 13:35, 18. Nov. 2015
Der Gedanke der Entropie spielt auch eine wichtige Rolle in der modernen Disziplin der Informationstheorie. Shannon (1948) verwendete den Begriff "Entropie" um die Tendenz von Kommunikationen zu bezeichnen, durch Lärm und Störgeräusche verwirrt zu werden.
Wenn beispielsweise gedruckte Dokumente wiederholt kopiert werden, löst sich die Information auf dem Dokument kontinuierlich auf bis sie irgendwann unlesbar ist. Das Kinderspiel stille Post ist ein anderes Beispiel. In dem Spiel erlebt die geflüsterte Botschaft, die über eine Reihe von Leuten weitergegeben wird, eine ähnliche Entstellung. So eine Degeneration geschieht auch in der Telekommunikation und Musikaufnahmen. Entropie hängt auch mit psychologischen Prozessen zusammen. Zum Beispiel ist es meist schwieriger für Leute akkurat zu erinnern, was in gewissen Situationen passiert ist, je mehr Zeit vergangen ist.
Diese Neigung der Entropie läuft parallel zu Bandler und Grindlers Behauptung (1975) dass die Transformation von Gedanken aus tiefliegenden Strukturen (fundamentale Konzepte und Erfahrungen) zu oberflächlichen Strukturen (verbale Beschreibungen und andere Repräsentationen) notwendigerweise Subjekt des Prozesses von Zerstörung, Verzerrung und Verallgemeinerung ist.
Aus der Perspektive des NLP kann der natürlichen Tendenz zu Entropie in menschlichen Systemen auf eine Reihe von Arten entgegengewirkt werden: Redundanz, Coding, Feedback, Attraktoren und Metabotschaften.
"Redundanz" beinhaltet die Wiederholung oder vielfache Kodierung der selben Information auf verschiedenen Repräsentations-Kanälen. Sich Informationen, die man verbal beschreibt, bildlich vorzustellen oder sie durchzuspielen, ist ein Beispiel für Redundanz.
6
Bearbeitungen