Information und der Lauf der Welt

Information und Wissen

Welche Informationen stecken im Computer?

Entropie

Unordnung

Chaos

Biologie–Information–Entropie

Wärmetod und Urknall

Selbstorganisation

Unumkehrbarkeit des Pfeils der Zeit

Wie geht es weiter?

Stand: 5.2007

 

Prof. Dr. Dieter Hannemann

„Information ist alles“ dieser Ausspruch wird allgemein so verstanden, dass es wichtig ist gut informiert zu sein. Zugespitzt sagt man auch: „Wissen ist Macht“. Täglich werden wir mit Informationen überschüttet, gewünschte und unerwünschte. Man spricht von der Informations- oder Wissensgesellschaft! Davon abweichend wir hier der Begriff «Information» aus Sicht eines Naturwissenschaftlers und Informatikers viel fundamentaler betrachtet.

  Information und Wissen
 

Wissen entsteht aus Informationen, aus Daten, aus Erfahrungen, sagt man. Oder ganz menschzentriert: Information setzt voraus, dass ein Mensch sie als solche erkennt. Ein chinesisches Buch enthält somit – für mich, der ich dieser Sprache nicht mächtig bin – keine Information. Diese Ansicht aus älteren Lehrbüchern ist heute überholt! Denn jeder nimmt an, dass auch ein chinesisches Buch Informationen enthält, man muss sie nur entschlüsseln können.

  Welche Informationen stecken im Computer?
 

Der Erbauer benutzt sog. «hochintegrierte Schaltkreise», um einen Computer aufzubauen, der die gewünschten Aufgaben übernehmen soll. Diese sog. Chips haben eine sehr komplexe Struktur, es ist viel Information erforderlich, um sie zu erzeugen und es steckt viel spezielle Information in ihnen. Sie stellen das krasse Gegenteil zu einem Körper dar, dessen Komponenten gleichmäßig fein verteilt sind. Physikalisch betrachtet bedeutet dies, dass diese Chips niedrige Entropie haben und der z.B. amorphe Körper eine hohe Entropie. Auf die Frage, was Information mit Entropie zu tun hat, gehe ich später ein.

 

Die Informationen in den Chips nennt man auch strukturelle Information, weil die Information in der Struktur des Körpers verborgen ist. Doch wie kann man diese strukturelle Information überhaupt nutzbar machen, wie kann z.B. der Mensch daraus Wissen generieren? Dazu braucht man funktionale Information, mit deren Hilfe man die strukturelle Information interpretieren oder decodieren kann. Zum Beispiel: In der Struktur einer CD ist viel Information gespeichert – Musik, Bücher, Programme, Bilder, etc. Erst die funktionale (algorithmische) Information eines Computerprogramms – selbst gespeichert als strukturelle Information in Speicherchips – kann uns alle diese Informationen auf der CD zugänglich machen.

 
  Entropie
 

Was ist nun eigentlich Information – naturwissenschaftlich betrachtet?

Grundsätzlich enthält jedes physikalische System Information, solange es nicht im Zustand maximaler Unordnung ist. Diese potentielle, gebundene Information kann man durch einen Begriff oder eine physikalische Größe beschreiben, die man Entropie nennt. Ich habe diesen Begriff bereits vorher erwähnt. Er stammt aus der Thermodynamik und wird dort im zweiten Hauptsatz der Wärmelehre beschrieben: Die Entropie ist hier ein Maß für die Umkehrbarkeit von sog. Kreisprozessen. Beispielsweise kommt der Kolben einer Luftpumpe wieder zurück, wenn man auf ihn drückt und dabei die Luftpumpe unten zuhält. Wenn man jedoch einen Klotz auf dem waagerechten Tisch verrückt, so kommt dieser nicht von selbst wieder zurück (siehe voran gegangene Abbildung).

  Unordnung  
 

Wichtiger in unserem Kontext ist jedoch die Erkenntnis, dass Entropie etwas mit «Unordnung» zu tun hat: Ein Tropfen Tinte in ein Glas Wasser gegeben verteilt sich gleichmäßig im Wasser. Die Ordnung – Tinte und Wasser sind getrennt – stellt sich nicht von alleine wieder ein. Unordnung bedeutet somit, dass alle Teile gleichmäßig durchmischt sind und keine Struktur mehr vorhanden ist: In der Natur läuft alles auf einen Zustand maximaler Unordnung – sprich Gleichverteilung – zu. Alle Information geht dann verloren (so etwa, als hätte man eine CD verbrannt)!

In einem Gas z.B. schwirren die Moleküle chaotisch durcheinander und wir haben keine Information über den Zustand eines jeden einzelnen Moleküls um daraus die makroskopischen Werte von Druck und Temperatur des Gases berechnen zu können. Diese fehlende Information entspricht physikalisch und mathematisch der Entropie. So bekommt die Information auch eine direkte Bedeutung in der Physik: Je höher die Entropie, um so geringer der Informationsgehalt!

 
  Chaos
 

Unordnung wird häufig auch mit dem Begriff Chaos gleichgesetzt, mit der Auflösung jeder Ordnung. In der antiken Vorstellung bedeutete Chaos der mit ungeformten und unbegrenztem Urstoff angefüllte Raum. In diesem Sinn kann das Chaos auch keine Information enthalten.

Davon zu unterscheiden ist das sog. deterministische Chaos, welches in der Chaostheorie der vergangenen Jahre zu einer erheblichen Blüte gelangt ist. Man denke an die Chaotischen Pendel als Dekorationsgegenstand oder an die verblüffenden Bilder aus dem Bereich der sog. Mandelbrotmenge:

  Biologie–Information–Entropie
 

Organismen sind die kompliziertesten Systeme, die wir kennen. Sie enthalten eine unvorstellbar große Menge an Informationen. Die in der DNA gespeicherte Erbinformation programmiert nicht nur den regelmäßigen Ablauf und die große Ordnung der Lebensprozesse, sie garantiert auch den Fluss des Lebens von Generation zu Generation. Hierdurch folgen lebende Systeme nicht dem allgemeinen Trend in der Natur: hin zur völligen Unordnung, zur maximalen Entropie. Ihrem hohen Organisationsgrad entspricht vielmehr eine niedrige Entropie. Und wie ich schon gerade erwähnt habe, müssen die Lebewesen ständig Energie aufnehmen, um ihre niedrige Entropie – auf Kosten anderer – aufrechtzuerhalten. Oder anders ausgedrückt, damit keine Information verloren geht, sind wir auf Energiezufuhr durch Nahrung angewiesen.

  Wärmetod und Urknall
 

Die ständige Zunahme der Entropie in der Welt wird auch als Wärmetod des Weltalls bezeichnet, d.h. irgendwann hat die Entropie ihr Maximum erreicht und im Weltall ist alles gleichverteilt. Es gibt keine Energie mehr, die man nutzen könnte, um die lokale Entropie zu senken. Alle Sonnen sind erloschen und alle Information ist verlorengegangen.

Doch wie war der Anfang? Die Entropie war klein und das Weltall steckte voller Information? Wo war sie verborgen, worin steckte sie? Das Weltall entstand nach heutiger Kenntnis durch den Urknall. Hierbei begann und entstand Raum und Zeit, das sog. Raum-Zeit-Kontinuum, wie es die Relativitätstheorie bezeichnet.

Dieser Anfang war zunächst chaotisch, der Raum war – wie in der antiken Vorstellung vom Chaos – angefüllt mit einem homogen Urstoff und hieraus entwickelten sich die Sterne und Galaxien, sowie auch die Planeten und Monde. Und dann das Leben. Und schließlich die Menschen mit ihrem Bewusstsein, das ständig Informationen sammelt, verbindet und bewertet.

Doch woher kam ursprünglich die Information, die in der unbelebten und der belebten Natur steckt?

  Selbstorganisation  
 

Der gläubige Mensch kann hier das Wirken Gottes sehen, direkt oder indirekt. Der Naturwissenschaftler hat das Phänomen der Selbstorganisation entdeckt: Das „kreative Chaos“ schafft aus sich heraus immer komplexere Strukturen. In den unterschiedlichsten Disziplinen der Naturwissenschaft kann man diese Phänomene beobachten. Wichtige Merkmale sind dabei sog. Rückkopplungsschleifen, so wie sie auch bei chaotischen Systemen zu beobachten sind, bzw. beim deterministischen Chaos zu deren Voraussetzung gehören.

Ein wichtiges Ziel der heutigen Forschung ist es daher nicht nur, die Selbstorganisation zu verstehen und auf Computern simulieren zu können, sondern auch, sie gezielt steuern und beeinflussen zu können. Gezielt gesteuerte Prozesse der Selbstorganisation findet man heute überall in der Welt der Nanotechnologie. Strukturen auf kleinstem Raum sollen sich so ordnen, dass aus ihnen Bauelemente für Computerchips, Halbleiter und die Technologien der Zukunft werden.

 
  Unumkehrbarkeit des Pfeils der Zeit  
 

Wir sprechen ständig von Prozessen, von Abläufen: Ein Prozess braucht Zeit, ohne Zeit kein Prozess. Doch was ist Zeit? Leider können wir diese Frage hier nicht weitergehend behandeln. Doch auf eines kann man hinweisen: Zeit und Entropie und damit auch die Information hängen irgendwie zusammen. Man sagt, die Entropie bestimmt den Zeitpfeil: So wie die Entropie insgesamt nur zunehmen kann, so schreitet die Zeit auch ständig nur in eine Richtung. Und das, obwohl viele physikalische Gesetze zeitinvariant sind, d.h. in beiden Zeitrichtungen ablaufen können. Die Entropie jedoch nicht! Wenn man einen Schrank verschiebt so wird noch niemand beobachtet haben, dass dieser von selbst – ohne äußere Einwirkung – an seinen ursprünglichen Platz zurückkehrt. Dies wäre nur möglich, wenn die Zeit auch rückwärts laufen könnte!

 
  Wie geht es weiter?  
 

Wenn man seine Wissenschaft einigermaßen zuende gedacht hat, kommt man automatisch zu der Frage: „und wie geht es weiter?“. Dies kann die Stunde der Philosophie sein, d.h. Fakten und Wissen verbinden sich mit Spekulationen und Visionen. Viele Physiker haben sich schon seit langem Gedanken dazu gemacht und so hat Carl Friedrich v. Weizsäcker z.B. den Begriff eines Ur1) geprägt, eines grundlegenden „Informationsbits“ aus dem eine unvorstellbar große Informationsmenge bestehen soll, die den Aufbau der gesamten Welt erklärt. In der heutigen Zeit setzt man dieses Ur mit einem Qubit gleich, der Informationseinheit mit der die zukünftigen Quantencomputer rechnen werden. Überhaupt scheint die Quantenphysik noch viele Möglichkeiten zu bieten, den Begriff der Information – man spricht hier auch von Quanteninformation – auf unsere gesamte Welt anzuwenden und dadurch evtl. sogar klären zu können, wie das Bewusstsein im Menschen entsteht oder wie es mit unserem freien Willen bestellt ist.

Was bewegt mich an dieser Stelle als Naturwissenschaftler und Informatiker. Zwei Themen habe ich für mich ausgemacht: Was ist Zeit – im Kontext der Gedanken zur Information und zur Entropie – und wie entsteht Bewusstsein. Wird es dem Menschen gelingen ein Artefakt2) mit Bewusstsein herzustellen? Um dadurch zu begreifen, was ihn ausmacht, ob von ihm etwas übrig bleibt – am Ende aller Tage?