Nautilus 3.20 vorgestellt

Die Arbeiten an Nautilus für Gnome 3.20 sind soweit abgeschlossen. Leider ist einer der größten Bugs aus meiner Sicht nicht gelöst worden: Das Big-Icon-Problem

Am Gnome selbst war am auffälligsten, daß ein „Internet“ genannter Webkit Browser vorinstalliert war. Allerdings konnte das Programm faktisch nichts sinniges machen. Der Versuch Firefox runter zu laden, endete in einem Hardreset weil nichts mehr ging. Es ist ja auch noch Betaware, die darf das 😉

Ansonsten bietet das Gnome-Live-Image nichts bewegend neues. Nautilus selbst hat dann doch noch einige Fehler, z.b. daß der Gnomedesktophintergrund weiß wird, wenn man Desktop Icons wie Papierkorn / Home und Netzwerk-Icons einblenden läßt. Laut Entwickler, wäre er Bug aber schon behoben. Leider kann man das nicht prüfen, da die Version vom 2.2.2016 ist und keine neuere verfügbar war.

Falls Ihr Euch fragt, was ihr mit einem „qcow2“ File machen sollt:

  1. Das Image entpacken mit gzip -d  oder über Nautilus. Da kommt dann ein 2 GB großes File raus.
  2. Systemtools -> Boxen starten. Neue VM anlegen und Datei auswählen.
  3. Starten

Wofür das qcow steht: QEMU Copy On Write

Erneuter Ruf nach mehr Überwachung

Der Tag fängt echt gut an, wenn man so einem Schwachsinn lesen darf. Da fordert ein IT-Bundesbeauftragter ( nie gehört vorher ), daß den Webhostingprovidern doch erlaubt werden solle, Datenflüße bis zu 6 Monate aufzuheben. „Die Daten würden ja gebraucht, um Angriffe zu analysieren und abzuwehren.“ so der Tenor.

Ich kann aus unserer Firma sagen : „Blödsinn!“ 99% der geglückten Angriffe auf Webanwendungen werden durch nicht aktuell gehaltene Software verursacht. Dabei sind das in 90% der Fälle PHP Anwendungen, die vom Webseitenbesitzer aus diversen Gründen nicht aktualisiert werden. Der Rest sind Angriffe durch gekaperte Zugangsdaten für Mailkonten/gekaperte PCs in Firmen. Lustigerweise ist dort die Ursache #1 auch nicht aktuelle Software. (#2 ist: Ich klicke auf alles was mir per Email gesendet wird)

Diese Angriffe kann man nicht abwehren, indem man auf 6 Monate alte Daten zurückgreift.

Vor zwei Wochen hat der NSA Oberhacker auch deutlich gesagt, daß die NSA nicht auf ZeroDay Lücken setzt, also Exploits für Schwachstellen in Programmen, sondern ganz traditionell systemimmanente Schwachstellen benutzt, also Personen und Konstruktionsfehler in Firewalls und Netzwerken. Natürlich glaubt ihm das keiner, ich auch nicht, aber die Begründung ist einleuchtend. Zerodays werden i.d.R. sehr schnell geschlossen, weswegen auf lange Sicht, die andere Strategie erfolgreicher sein wird, weil man sich damit längerfristig in fremden Netzwerken bewegen kann. Wenn es Anzeichen gibt, daß ein Zeroday ausgenutzt wurde, gerät die IT Abteilung normalerweise in den Panikmodus und durchsucht das gesamte Netzwerk, überdenkt Schutzlücken und scheucht alle auf. Das ist genau das Gegenteil, was ein Geheimdienst haben möchte.

Ergo, wer sein Netzwerk schützen will, muß seine Prozeduren, Implementierungen und Organisation auf den Prüfstand stellen.

Quelle: Neuer Vorstoß zur Vorratsdatenspeicherung gegen Hacker und Cyberangriffe geplant