Änderungen

Wechseln zu: Navigation, Suche

Entropie

142 Byte entfernt, 18:19, 5. Dez. 2015
Entropie (Übersetzung aus www.nlpuniversitypress.com: Entropy)
 
 
"Entropie" ist der wissenschaftliche Ausdruck für "das Ausmaß von Zufälligkeit oder Unordnung in Prozessen und Systemen".
Entropie ist im Prinzip das Gegenteil von "Information". Es wird charakterisiert durch die Tendenz zu einer Zufälligkeit von Ereignissen innerhalb eines Systems: Eine Situation in welcher es keine bedeutsamen Unterschiede oder Muster gibt.
Aus der Perspektive des NLP sind Verhaltensweisen, die chaotisch und sinnlos zu sein scheinen, auf Ebene von Intention und Glaube überhaupt nicht zufällig. So ist zusätzlich zu den Prozessen der Redundanz, Coding, Feedback, Attraktoren und Metabotschaften, das NLP-Modell der Neurologischen Ebenen ein wichtiges Werkzeug, um zu helfen Verzerrung und Entropie in menschlischen Interaktionen zu reduzieren. Reframing, Level Alignment und Metaposition sind alles NLP-Prozesse, die die Vorstellung von verschiedenen Ebenen des Wandels verwenden, um Leuten zu helfen, Muster einer höheren Ebene zu entdecken und erkennen.
 
(Siehe auch Chaos, Complexity, Self-Organization, Attractors and Systems.)
 
=== Quellen:http://nlpuniversitypress.com/html/E21.html ===