Kategorie

A B C D E
F G H I J
K L M N O
P Q R S T
U V W X Y
Z 0      

dynamisches system

da db dc dd de df dg dh di dj dk dl dm
dn do dp dq dr ds dt du dv dw dx dy dz

Dynamisches System

Ein dynamisches System beschreibt die zeitliche Veränderung von Größen, z.B. die möglichen Bewegungsabläufe eines Pendels oder die zeitliche Veränderung von Populationszahlen zweier konkurrierender Spezies (z.B. Räuber und Beute).

Man unterscheidet zwischen diskreten und kontinuierlichen dynamischen Systemen. Bei einem diskreten System sind die betrachteten Größen Funktionen einer ganzzahligen Variablen (meist n genannt), bei kontinuierlichen Systemen sind sie Funktionen einer reellen Variablen (meist t genannt).

Wichtigstes Beispiel für kontinuierliche dynamische Systeme sind die Lösungen eines Systems gewöhnlicher Differentialgleichungen. Diskrete dynamische Systeme erhält man z.B. wenn man die Lösungen einer Differentialgleichung nur in festen Zeitabständen auswertet. Ein weiteres wichtiges Beispiel sind Rekursionen der Form , wobei der Anfangswert vorgegeben ist.

Formal ist ein kontinuierliches dynamisches System eine Abbildung wobei eine offene Teilmenge des oder einer differenzierbaren Mannigfaltigkeit ist, mit den Eigenschaften

für alle x und

für alle s,t und x.

Diese Definition gilt analog auch für diskrete dynamische Systeme, wenn man durch und die Variable t durch n ersetzt.

(a) bedeutet, dass "sich die Lösung nach 0 Zeiteinheiten im Ausgangszustand befindet". (b) bedeutet, dass man zunächst in s Zeiteinheiten von a nach gelangt und anschließend in t Zeiteinheiten von nach .

In der Theorie dynamischer Systeme interessiert man sich besonders, bei gegebenem x, für das Verhalten von Lösungen für (bzw. für )

Die wichtigsten Grenzmengen sind Fixpunkte und periodische Orbits. Gerade in nichtlinearen Systemen trifft man aber auch komplexe nichtperiodische Grenzmengen an. Diese werden in der Chaostheorie ausführlich untersucht.

Impressum

Datenschutzerklärung