#1 algorithmische Information
Verfasst: Do 14. Feb 2019, 12:52
Im Spektrum der Wissenschaft erschien kürzlich ein ganz interessanter, aber nicht leicht zu verstehender, Artikel über das Thema algorithmische Information und was es mit Evolution zu tun hat.
https://www.spektrum.de/news/laesst-sic ... n=ZON_KOOP
Der Begriff der algorithmischen Information beruht auf einer schon länger bekannten mathematischen Modellierung von Kolmogorow und beinhaltet auch den Begriff der Kolmogorow Komplexität.
Nach meinem Verständnis (ich hoffe, ich habe den Artikel so weit verstanden) betrachtet die Theorie zwei Ebenen, die Ebene der Ergebnisse, der Daten und die Ebene der Programme, mit denen man die Daten erzeugen kann. Dabei kann es sein, dass die Länge eines solchen Programmes erheblich kürzer ist als die Länge des entsprechenden Outputs.
Als Beispiel wird die Erzeugung der ersten 15.000 Zahlen von Pi genannt. Erzeugt man diese Zahlen rein zufällig, dann ist die Wahrscheinlichkeit, dass diese bestimmte Sequenz herauskommt, wahnsinnig klein.
Allerdings ist ein Programm, das die Zahlen von Pi erzeugen kann, erheblich kürzer (in C programmiert besteht es aus 150 Zeichen). Würde man also versuchen, dieses Programm durch Zufall zu erzeugen, dann wäre die Wahrscheinlichkeit dafür um Größenordnungen größer. Und mit diesem Programm könnte man dann problemlos die ersten 15.000 Zahlen von Pi erzeugen.
Genau das kann man auch bei Evolution beobachten, auf jeden Fall bei evolutionären Algorithmen, aber auch in der Natur.
Statt den Zufall auf das Endprodukt zu richten, also die Sequenz von Aminosäuren, richtet man den Zufall auf die Programme, die solche Sequenzen erzeugen, also die Gene. Man hat Anzeichen gefunden, dass die Evolution der Programme eine viel größere Rolle spielt, als die Evolution der Ergebnisse.
Aber noch ist der Zusammenhang nicht völlig klar. Sicher ist nur, dass man einige faszinierende, neue Ideen gefunden hat, Evolution zu beschreiben.
Mit der Kolmogorow Theorie hat man ein Werkzeug, das diese Art der Untersuchungen auf neue Fundamente stellen kann.
https://www.spektrum.de/news/laesst-sic ... n=ZON_KOOP
Der Begriff der algorithmischen Information beruht auf einer schon länger bekannten mathematischen Modellierung von Kolmogorow und beinhaltet auch den Begriff der Kolmogorow Komplexität.
Nach meinem Verständnis (ich hoffe, ich habe den Artikel so weit verstanden) betrachtet die Theorie zwei Ebenen, die Ebene der Ergebnisse, der Daten und die Ebene der Programme, mit denen man die Daten erzeugen kann. Dabei kann es sein, dass die Länge eines solchen Programmes erheblich kürzer ist als die Länge des entsprechenden Outputs.
Als Beispiel wird die Erzeugung der ersten 15.000 Zahlen von Pi genannt. Erzeugt man diese Zahlen rein zufällig, dann ist die Wahrscheinlichkeit, dass diese bestimmte Sequenz herauskommt, wahnsinnig klein.
Allerdings ist ein Programm, das die Zahlen von Pi erzeugen kann, erheblich kürzer (in C programmiert besteht es aus 150 Zeichen). Würde man also versuchen, dieses Programm durch Zufall zu erzeugen, dann wäre die Wahrscheinlichkeit dafür um Größenordnungen größer. Und mit diesem Programm könnte man dann problemlos die ersten 15.000 Zahlen von Pi erzeugen.
Genau das kann man auch bei Evolution beobachten, auf jeden Fall bei evolutionären Algorithmen, aber auch in der Natur.
Statt den Zufall auf das Endprodukt zu richten, also die Sequenz von Aminosäuren, richtet man den Zufall auf die Programme, die solche Sequenzen erzeugen, also die Gene. Man hat Anzeichen gefunden, dass die Evolution der Programme eine viel größere Rolle spielt, als die Evolution der Ergebnisse.
Aber noch ist der Zusammenhang nicht völlig klar. Sicher ist nur, dass man einige faszinierende, neue Ideen gefunden hat, Evolution zu beschreiben.
Mit der Kolmogorow Theorie hat man ein Werkzeug, das diese Art der Untersuchungen auf neue Fundamente stellen kann.