Dieser Abschnitt befaßt sich mit der Verwendung des Kausalitätsbegriffes innerhalb unseres Begriffsnetzes und unserer Datenmodelle.

Kausalitätskonzept

Bearbeiten

In sozialen Systemen richtet sich der Einzelne nach Normen, Institutionen und Interessen. Die Ursachen stecken in der Situationslogik, die einmalig auftreten. Daher kann man nicht einfach mit der mathematischen Wahrscheinlichkeitstheorie in sozialen Systemen arbeiten.

Eine lesenswerte Übersicht zu den auftretenden Paradoxa findet man hier [1]

Eine logische Dikussion von Kausalketten kann man hier [2] nachlesen, die von mehreren kausalen Faktoren gebildet werden. Allerdings tauchen auch hier wieder Schwierigkeiten auf zu unterscheiden, welche Faktoren relevant sind für eine Wirkung. Und was die kleinste Meenge von Ursache-Faktoren ist, um eine Wirkung hervorzubringen, ist ebenfalls nicht erklärt.

Rubin-Modell

Bearbeiten

Ursacheensemble

Bearbeiten

Ein Ursacheensemble enthält alle als relevant angenommenden Ursache-Faktoren. Das Ursachesenemble ist eine Fuzzy-Menge oder als Netzwerk organisiert.

Wirkungsensemble

Bearbeiten

Ein Wirkungsensemble bezeichnet die verschiedenen Richtungen der Auswirkung einer Ursache und ist eine Fuzzy-Menge oder ein Baysches Netzwerk.

Skriptensemble

Bearbeiten

Ein Skriptensemble bezeichnet die Gesamtheit aller elementaren Skripts an der die Akteure, die Artefakte und Orte teilnehmen als Fuzzy-Menge charakterisiert. Das Skriptensemble bildet den Möglichkeitshintergrunde jedes Ereignisses.

Kausalität als Gedächtnis läßt sich mit Hilfe der Skripte beschreiben, denn ein Ereignis ist kausal im Rahmen der narrativen Notwendigkeiten eines Skriptes. Skripte bilden deswegen das kollektive Gedächtnis. Das Gedächtnis konstruiert aus isolierten Ereignissen in der Raumzeit eine kausale Kette.

Wahrscheinlichkeit, Entropie

Bearbeiten

In diesem Artikel ist beschrieben wie man die Paradoxa bei der logischen Analyse der Kausalität loswird, wenn man Zeitmetriken einführt. Allerdings bezieht sich das auf binary events sogenannten bents.

Wahrscheinlichkeit

Bearbeiten

 

Informationsgehalt

Bearbeiten
  • Mit steigender Wahrscheinlichkeit für das Auftreten einer Nachricht sinkt deren Informationsgehalt.
  • Da die Wahrscheinlichkeit einen Wertebereich von 0 bis 1 aufweist, ergibt sich immer ein positiver Wert für den Informationsgehalt einer Nachricht.
  • Für Nachrichten mit gegen Null gehender Wahrscheinlichkeit steigt der Informationsgehalt stark an und geht für P(n) -> 0 gegen unendlich.
  • Nachrichten mit geringfügig differierender Wahrscheinlichkeit weisen auch nur einen geringen Unterschied in ihrem Informationsgehalt auf.
  • Bei voneinander unabhängigen Nachrichten addiert sich der Informationsgehalt.
  • Sofern als Logarithmen-Basis die 2 gewählt wird, ergibt sich aus dem Informationsgehalt die günstigste Kodelänge für die Darstellung des Zeichens in Bit.
  • Wenn die Wahrscheinlichkeit für das Auftreten eines Zeichens den Wert 0,5 annimmt, ist der Informationsgehalt gleich 1. Ein idealer Kode würde für dieses Zeichen eine Kodelänge von einem Bit verwenden.

 

Entropie

Bearbeiten

 

Verbundsentropie

Bearbeiten

Bedingte Entropie

Bearbeiten

Historische Variablen

Bearbeiten

Potentielle Variable

Bearbeiten

Hintergrund Variablen

Bearbeiten

Verborgene Variablen

Bearbeiten