So schwer ist die Argumentation gar nicht nachzuvollziehen:
Shannon hat entdeckt, dass Information in gewisser Weise eng mit Zufälligkeit verbunden ist. Bei der Übertragung von Signalen nutzt eine völlig zufällige Nachricht den Kanal maximal aus, weil jedes folgende Symbol unvorhersehbar im Verhältnis zu seinen Vorgängern ist (das ist die Definition von Zufall). Strukturiertere Nachrichten sind weniger zufällig, sie enthalten bis zu einem gewissen Grad Wiederholungen.
Die Idee jedes Kompressionsverfahrens ist nun, für uns sinnvolle Nachrichten mit vormals zufälligen Folgen zu vertauschen. Auf diese Weise benutzen die sinnvollen Nachrichten nun weniger Kapazität des Kanals, die (unnützen) ehemaligen Zufallsfolgen werden nun durch längere, geordnetere Folgen repräsentiert.
Der Effekt ist, dass die gesamte Nachrichtenübermittlung dann vom statistischen Standpunkt fast wie eine Zufallsfolge, eben bloßes thermisches Rauschen, wirkt. Je effizienter der Kompressionsalgorithmus ist, desto zufälliger sieht die Nachricht aus.
Die Lücke in der Argumentation der Astronomen ist, dass jede Art von Nachrichtenübermittlung trotzdem ein Mindestmaß an Redundanz (das sind statistische Wiederholungen) benötigt, nämlich um ebenfalls zufällige Verfälschungen, Übermittlungsfehler, usw. auszugleichen. Einfachstes Beispiel: Um Fehler auszugleichen, übemittle ich jeden Buchstaben eines Wortes dreimal. Sollte nun ein Buchstabe verfälscht werden, dann kann ich das Wort trotzdem rekonstruieren:
WORT -> WWWOOORRRTTT -> WWWOXORRSTTT -> WORT
Jegliche Art technischer Kommunikation enthält also, sofern sie über Funk geschieht, ein geringes Maß an Ordnung. Die Herausforderung ist, diese zu finden, auch wenn man den tatsächlichen Codec nicht kennt. Möglich ist das, letztlich gibt es ganze Wissenschaftszweige (Kryptographie), die nichts anderes tun.
Bearbeitet von Naut, 23 Februar 2017 - 07:51.