Warum Außerirdische Nachrichten nicht im Ascii Zeichensatz übermitteln.

Es gibt Sachen, die sollte man als Mensch einfach lassen, z.b. Außerirdische involvieren. Klappt nicht immer, ich habe das bislang auch immer gelassen und dabei werde ich bleiben, aber da das worum es geht in Fachgebiet fällt, sehe ich mich leider gezwungen etwas dazu zu sagen.

Worum gehts also?

Sagen wir mal, jemand hatte Angst seinen Job zu verlieren. Er glaubte ein Ufo gesehen und angefaßt zu haben. Vermutlich war das auch so, wenn man realistisch U.F.O. übersetzt, nämlich unbekanntes ( fliegendes ) Objekt , wobei es gar nicht flog, sonst hätte er es ja nicht anfassen können. ( 1. Widerspruch in sich )  D.h. erstmal ist ein U.O. Dabei belassen wir das auch.

Dieser jemand glaubte nun, er hätte beim Anfassen eine Nachricht in binär Form gesehen/erhalten.

Das sieht dann so aus : 1010100101110010110101010010100101001010100101101001000111010101101010..

40! Jahre später vertraut er die Folge von Einsen und Nullen einem Computerexperten an, und siehe da, eine Nachricht in ASCII ( American Standard Code for Information Interchange ) taucht auf, die ganz ganz grob meint, wir treffen uns an Geokoordinate X,Y um die Menscheit weiterzuentwickeln, was zufällig die Position einer mysteriösen untergegangenen Insel im Nordatlantik ist. Nein, ausnahmsweise nicht Atlantis. Die fragliche Insel HI BRASIL gabs nie, hat sich vermutlich ein prahlender Entdecker für seinen Reisesponsor ausgedacht. Von solchen Phantominseln gibts viele, und in den letzten hundert Jahren wurden mehr als 200 davon aus den Karten getilgt. ( 2. Widerspruch, diesmal zur Realität )

Diese Nebensachen lassen wir jetzt mal außer acht. Wichtig ist, daß der Binärcode in ASCII übersetzbar war. D.b. das Alphabet der Außerirdischen hat auch nur 26 Buchstaben. Kaum vorstellbar oder ? Es heißt aber auch, der Sender wollte, daß der Empfänger es versteht.

Wenn ich hochentwickelter Absender einer Nachricht an eine niedrigere Kultur bin, mache ich doch keinen solchen Umstand, sondern übermittle es gleich in lesbarer Form, oder ?

Warum wäre das logisch ?

Der Absender muß die Zielsprache kennen und beherrschen, damit er einen Text überhaupt zustande bringt und diesen dann auch noch in Binärform kodieren kann. D.b. er könnte die Zielsprache gleich benutzen.
Das es sich dabei um die verbreiteste Sprache handelt ist im übrigen logisch, denn damit erhöht man als Absender die Wahrscheinlichkeit einen Treffer zu landen, wenn man sich ein Emfängeropfer an dem Ort aussucht, wo man grade unerkannt landen konnte. ASCII muß er übrigens auch kennen und können, sonst klappt das mit dem lesen später so schlecht und er muß wissen, daß Mandarin nicht in 8 Bit abbildbar ist, weil es zuviele Zeichen hat.

Der Empfänger muß weniger Einzelinformationen aufnehmen, d.h. der Kompressionsgrad der Nachricht ist höher, wenn man Symbole nimmt. A-Z  sind 26 Zeichen, in ASCII Binärform wären das aber 26 * 8 , also 208 Stellen . Dazu kommen dann nochmal einige Zeichen/ Ziffern für Satzzeichen, Zahlen und Leerzeichen. Man kommt locker über 250 Stellen nur um das Alphabet abzubilden. Wenn ich stattdessen 40 Zeichen ( 26 A-Z, 10 0-9 + 4 Satzzeichen ) benutze, ist das eine erhebliche Reduktion und noch viel besser, es ist die natürlich Informationsform der Zielperson. Mit sehr hoher Wahrscheinlichkeit kann meine Zielperson das verstehen, was Sie bei einer binären Übermittlung vermutlich nicht könnte. Und wie biologische Einheiten nun mal so sind, sie vergessen sowas ganz schnell.

Die Sache sieht anders aus, wenn man eine Information über eine weite Strecke transportieren will. Hier ist es viel wichtiger Übermittlungsfehler so klein wie möglich zu halten. Hier würde eine Nachricht vermutlich tatsächlich mit so wenig verschiedenen und und universellen Symbolen auskommen, wie möglich, weil man ja nie sicher sein kann, wer das nicht alles empfängt. Hier bietet sich Binärcode an. D.h. aber natürlich nicht automatisch, daß es ASCII Zeichen sind 🙂

Die sendene Zivilisation muß sich z.b. nicht auf 8 Bit pro Byte beschränken, vielleicht haben die 768 Bit pro Byte, oder nur 42 oder 5 Bits pro Byte. Es ist jedenfalls sicher, daß es nicht ASCII sein wird. Weil das erst erfunden wurde, als die Nachricht schon lange auf dem Weg war.

Jetzt werden einige sagen: „768 Bit ist viel zu viel, die werden, wenn überhaupt weniger nehmen als wir.“ . Je weniger Bits pro Byte im Spiel sind, desto weniger Zeichen sind zu identifizieren, was die Sache einfacher macht. Das das nur bis zu einem bestimmten Grad klappt, kann jeder Mensch mit Internetanschluß in den öffentlichen DNA Datenbank „nachlesen“.

Die DNA besteht aus 4 Zeichen. In Binär wären das 2 Bit pro Byte, um bei dem Begriff zu bleiben. Wenn man jetzt das Wort „HAUS“ in 4 Zeichen beschreiben wollte, bekommt man ein Problem. Die Worte, was ja Aneinanderreihungen von Zeichen sind, werden immer länger, je weniger Bits pro Byte man benutzt.

Beispiel :

MenschenspracheAliensprache
AA
BB
CC
DD
EAA
FAB
GAC
HAD
IBA
JBB
KBC
LBD
MCA
NCB
OCC
PCD
QDA
RDB
SDC
TDD
UAAA
VAAB
WAAC
XAAD
YABA
ZABB

„HAUS“ entspricht damit „ADAAAADC“. Rückübersetzung könnte aber auch sein „ADAAADC“ oder „HAAADC“.

D.b. aus praktischer Sicht schonmal, das man seine „Zeichenmatrix“ so wählen muß, daß Verwechselungen nicht vorkommen. Da wären Trennzeichen in Form von Leerzeichen sinnvoll. In der digitalen Übertragunsgwelt nennt man sowas ein Stopbit. Da weiß der Empfänger, hier ist ein Wort ( Zeichenfolge ) zu Ende. Praktisch, oder ?

Nicht wirklich, weil je mehr Zeichen ( A,B,C,D und das Stopzeichen ) man überträgt, desto länger dauert die Übertragung und desto mehr Fehler können passieren. Techniker würden jetzt gleich an Ende jedes Satzes Checksummen schreiben, aus denen man Fehler im Satzbau erkennen kann. Damit gibt es nur ein Problem, wie erzähle ich dem Empfänger, nach welcher Logik diese Checksumme berechnet wird?

Ich als Sender der Nachricht benutze vielleicht eine Mathematik auf Basis 13 Ziffern, statt wie wir auf Basis 10 Ziffern. Da wird es mit den Formeln schwer werden. Die müßte man wieder mit einem einfachen Alphabet ( 4 Zeichen ) übertragen und darstellen. Nicht, daß dies ausgeschlossen ist, aber wenn Sie sich mal allein vor Augen halten, wieviele Sprachen wir Menschen auf einem einzigen Planeten sprechen, glauben Sie wirklich wir würden überhaupt erkennen was da aus dem All kommt ?

Ich glaube, daß der Empfänger das für einen chinesischen Spionagesatelliten mit einem Kryptocode in Mandarin, Zulu, Jiddisch oder Navajo oder was völlig abgespactem, was erst in 10 Jahren auf den Markt kommt halten wird.

Sicher ist eins, es wird nicht Ascii sein.

Design vor Funktion – Am Beispiel Skype 3.0

Heute morgen kam endlich ein Skype Update auf meinem Android Tablet an, nach gefühlten 35 Bugreports.

Leider war das Update nicht gegen den gemeldeten Bug, sondern die Umstellung von Skype 2 auf Skype 3. Skype 3 nun ist unter der Führung von Microsoft entstanden und das sieht man auch sofort, denn damit nimmt das Unheil seinen Lauf.

Wie man in den einschlägigen IT Nachrichtenportalen von Heise und Golem nachlesen kann, wurde das Windows 8 Designkonzept ( Stichwort Metro-Oberfläche ) diese Woche von einem Designguru namens Jakob Nielsen, seines Zeichens Experte für Gestaltung und Benutzbarkeit von Bedienoberflächen, als schlecht bezeichnet :

Zitat Jakob Nielsen: „Windows 8 sei ’schwach auf Tablets, fürchterlich für PCs‘ „

Wie recht er damit hatte, weiß er vermutlich noch gar nicht, aber kommen wir mal zum aktuellen Fall Skype 3. Nun besitze ich kein Windows RT Tablet, sondern ein Android basiertes Modell und kann somit davon ausgehen, daß Programme sich an die Android eigenen Designvorgaben, so es die gibt, halten. Microsoft war nun der Meinung, daß Skype auf allen Systemen gleich aussehen sollte. Das wäre soweit ok, wenn dabei nicht das rausgekommen wäre:

Screenshot Skype 3.0 auf Android 3.2Screenshot Skype 3.0 auf Android 3.2

Wie man auf den ersten Blick erkennen kann, verschwendet die Oberfläche Platz , sehr viel Platz. Windows war schon immer dafür bekannt, große, vorzugsweise graue Leerflächen zu propagieren, aber auf einem kleinen Display ist das einfach nur schlechtes Design. Die Benutzbarkeit ( neudeutsch Usability ) bringt bei der ersten Betrachtung den Puls auf 180, bei der zweiten saß ich schon am PC und tippte diesen Text.

Bleiben wir sachlich, was ist verbesserungswürdig:

Da hätten wir einmal diese lächerliche Buchstabenteilung der Kontakte, die keine Funktion hat, außer Platz zu verschwenden. Selbst ein DAU weiß, daß nach A der Buchstabe B folgt, besonders wenn man eine alphabetische Sortierung benutzt. Das muß man nicht noch herrausstellen. Gäbe es eine Leiste mit A-Z, die auf Klick zum angeklicken Buchstaben springt, wäre das hilfreich, so sind die Buchstabentrenner einfach nur ein Designbug . Ein typisches Zeichen für die Doktrin „Design vor Funktion“. Das ist vielleicht wichtig auf Präsentationen, aber völlig unwichtig beim Arbeiten mit etwas, weswegen man das in guten Produkten auch auf „kompakt“ umstellen kann.

Die Icons lassen sich nicht abschalten, damit verschwenden sie Platz.

Auf der linken Seite sind die Bedienelemente, die sich aber nicht als solche erkenntlich machen. Auch hier gilt: Graue Leerflächen verschwenden Platz. Platz der eigentlich für mehr Kontakte gebraucht wird.

Zu allem Überfluß kann man die Anzeige nur in den „Ich-will-noch-mehr-Platz-verschwenden“ Modus umschalten. Ein „Komptakt“-Modus fehlt völlig.

Fazit: Es würden locker 3x soviele Kontakte ins Sichtfeld passen, wenn man sie lassen würde.

Genial wäre zudem ein Widget, daß sich im Homescreen bedienen läßt und vor allem, das wie der Taschenrechner überall eingeblendet werden kann, ein echtes Fenster halt. Aber auf Innovationen wartet man vergeblich.

Jetzt zu den gefixten Bugs :

Problem 1 : Die Kamera ist um 90 Grad gedreht. Beim Update wurde es nicht gefixt.

Problem 2 : regelmäßige Abstürze. Ob das gefixt ist, wird sich morgen zeigen.

Problem 3 : Man kann niemanden per Telefon anrufen, wenn man die Nummer eingibt. ( Der Anrufbutton hat keine Funktion )

Problem 1 konnte ich heute doch noch durch eine komplette Neuinstallation von Skype fixen. Ob das hält, wird man sehen. Problem 2 wird die Zeit zeigen, bislang besteht Hoffnung. Problem 3 scheint tatsächlich behoben worden zu sein.

Im Gegenzug haben „wir“ beim Testen dann gleich noch einen Bug gefunden. Wenn „man“ einen Anruf bekommt und gleichzeitig per PC und Tablet eingeloggt ist, diesen Anruf am PC annimmt, läutet das Tablet weiter. Tja.

Ich glaube ich habe noch ein altes Skype APK File da.

Update (25.11.2012) :

Das mit den Abstürzen von Skype ist nicht besser geworden, wobei es ein leichtes ist, die Nullpointer Exception in Java abzufangen.

Anmerkung : Java ist die Programmiersprache in der Skype für Android geschrieben scheint.