Browsed by
Category: PC

Blu- ray Disc und die Zukunft

Blu- ray Disc und die Zukunft

Eine kürzliche Diskussion und mein Standpunkt das ich mir momentan keinen Blu- ray Player kaufen möchte verursachte ungläubige Blicke. Aus dem Grund möchte ich mal versuchen darzulegen wie sich die Situation der Blu- ray für mich augenblicklich darstellt.

Nachdem die Markteinführung eines Nachfolgeformates für die DVD ein echter Krampf war und es lange Verunsicherung bei den Verbrauchern bezüglich des richtigen Formates gab konnte sich hier bekanntlich die Blu- ray Disc (BD) durchsetzen. Doch kann sie sich auch wirklich durchsetzen? Ich bezweifle das mittlerweile ein wenig. Ich bin weißgott kein Technikmuffel und fand solche neuen Techniken immer hochinteressant, aber diese Scheibe reizt mich irgendwie wenig. Im wesentlichen liegt das an drei Gründen.

Der Erste ist ganz simpel das ich keine Lust habe mir meine Lieblingsfilme nochmal auf BD zu kaufen. Jetzt kann man natürlich einwenden das die Player ja noch einen DVD Laser mit eingebaut haben und daher abwärtskompatibel sind, aber was bringt mir das dann? Wenn ich so ein Gerät habe möchte ich doch auch meinen Lieblingscontent in der besseren Qualität sehen können. Die Frage ist aber wohin das führt. Die VHS war lange lange Jahre konkurenzlos und als die DVD kam waren die Vorteile so riesig (Bildqualität, Kapitelsprünge, Extra Features, Untertitel zuschaltbar, Tonspurenwechsel, Dolby Surround, viel schmaleres Format) das die Umstellung kein großes Nachdenken erforderte. Doch war die Halbwertszeit nicht annähernd so hoch wie die der VHS und jetzt kündigen sich bereits Nachfolgetechniken für die BD an (genau genommen bin ich jetzt schon gekniffen wenn ich gern 3D haben möchte und früh in einen BD Player investiert habe ist dieser dafür nicht zu gebrauchen und es muss schon wieder ein Neuer sein). Soll ich da wirklich noch rein investieren? Wie lange wird es die BD geben? Was für mich bereits Grund Nummer zwei darstellt an der BD zu zweifeln.

Aus dem Genannten ergibt sich eigentlich schon Grund Nummer drei. Die Vorteile der BD überwiegen nicht mehr so stark wie die der DVD. Genau genommen beschränken sie sich auf das Full HD Bild (1080p), die neuen Tonformate (Dolby und DTS mit noch mehr Kanälen) und mehr Speicherplatz. Das Full HD Bild mag ganz nett sein, aber ich unterstelle mal das viele Normalverbraucher den Unterschied gar nicht verstehen und mit Ihrer DVD, die auf dem entsprechenden TV mit HDMI- Anschluss eh hochskaliert wird, absolut zufrieden sind. Genau genommen sieht man doch an den ganzen Videos im Internet das Qualität scheinbar gar nicht die große Rolle spielt. Da werden platzsparende Codecs verwendet die ein Bild deutlich unterhalb der DVD erzeugen (in jedem Fall unterhalb der BD) und alle sind zufrieden. Die neuen Tonformate erscheinen mir auch wenig Massenkompatibel, da sie erstmal eine entsprechend moderene Home Cinema Soundanlage voraussetzen und die wird bei den Meisten doch nicht so häufig ausgetauscht und selbst wenn sie es wird, so fürften für viele doch die 5 Lautsprecher Plus ein Subwoofer der 5.1 Standards die Grenze der Wohnzimmerkompatibilität darstellen. Ein echtes Argument könnte der Speicherplatz sein doch wird der, bei Gleichem Content wie der DVD, fast vollständig von besserem Bild und Ton wieder aufgefressen. Das oft gepriesene “Killerfeature” der Internetanbindung findet bislang kaum Beachtung und auch hier unterstelle ich das es kaum Massentauglich sein wird.

Das Format krankt zudem an dem extrem restriktiven Kopierschutz der auch schon die Musikindustrie hat scheitern lassen da die Konsumenten es verständlicherweise nicht einsehen wieso sie mit dem von Ihnen gekauften Medium nicht machen können was sie wollen.

Ich sehe hier momentan in der Zukunft eigentlich ganz klar das Internet an den optischen Medien vorbei rollen. Bei den heutigen Bandbreiten (und die werden in Zukunft eher noch besser als schlechter) stellt es kaum mehr ein Problem dar hochauflösendes Video direkt über das Netz zu übertragen ohne sich Tage vorher eine BD oder DVD bestellen zu müssen. Die Auswahl wird hierbei viel größer sein da entsprechende Videoportale sehr viel mehr Content vorhalten können als der örtliche Media Markt Scheiben im Angebot hat.Wichtig wäre hier aber das der angebotene Content auch entsprechende Preise hat. Für eine Folge einer wöchentlichen Serie z.B. empfinde ich 2,- als zu teuer. Man muss am Ende in jedem Fall günstiger weg kommen als mit der gekaufeten DVD/BD. Bevor sich jemand also zu viele Gedanken um das nächste viel zu teure Medium macht (BD Rohlinge sind viel zu teuer) sollte man lieber den Breitbandausbau vorantreiben und auch die weißen Flecken endlich erschließen um diese Möglichkeiten allen zugänglich zu machen. Wünschenswert wäre es dann wenn die Contentindustrie sich auf einen offenen Standard einigen würde um das bauen möglichst günstiger Settop Boxen -oder Media Center PCs- auf beliebiger Betriebssystembasis zu ermöglichen und dem Siegeszug des IPTV und der Online Videotheken stünde nichts mehr im Weg.

Externes Display komfortabel ansteuern

Externes Display komfortabel ansteuern

Lange Zeit war eins meiner größten Probleme mit Linux/ Ubuntu das die Ausgabe des Bildes an einen Flachbild TV oder Beamer zwar prinzipiell funktionierte, aber extrem nervig zu konfigurieren war. Die proprietären Treiber halfen da manchmal aber so wirklich gut klappte das eigentlich selten und so habe ich doch immer etwas neidisch auf die Möglichkeiten geblickt die mir Windows an dieser Stelle bot. Per Zufalle konnte ich dem vor einiger Zeit Abhilfe schaffen als ich auf ARandR gestoßen bin. Bei ARandR handelt es sich um eine -zwar nicht schöne, aber funktionale- grafische Oberfläche für das Tool RandR was genau für diese Aufgaben da ist.

Installiert wird es unter Ubuntu ganz einfach aus den Quellen mit

sudo aptitude install ARandR

Anscließend ist es unter “System > Einstellungen > ARandR” aufrufbar. Steuern lässt sich damit welches Display überhaupt aktiv ist, welche Auflösung es hat und ob es gedreht werden soll. Für Präsentationen oder Video-/ Fotoabende sollte das alle Mal genügen.


Taskverwaltungsalternative für die Shell

Taskverwaltungsalternative für die Shell

Auch unter Linux Betriebssystemen kommt es gelegentlich mal vor das ein Prozess oder eine Anwendung so ungünstig abstürzt das es das ganze System nahezu unbenutzbar macht. In diesem ist es natürlich sinnvoll den entsprechenden Prozess zu identifizieren und zu beenden. Wenn das System aber schon entsprechend dicht vor dem Kollaps steht wird es unter Umständen schwierig noch eine zusätzlich grafische Anwendung in Form eines Taskmanagers zu starten. Falls evtl. sogar der Desktop oder der XServer mal selber hängen sollte wird dies sogar unmöglich.

Unter Linuxsystemen ist der große Vorteil das in diesen Fällen meist die Shell noch Arbeitsfähig ist. Für diese Fälle gibt es unter Linux Standardmäßig das Konsolentool Top. Dieses ist allerdings ohne Einarbeitung nur schwerlich bedienbar und aus meiner Sicht absolut unintuitiv. Abhilfe schafft da die etwas aufgebohrte Version htop. Bei htop ist, im Gegensatz zu Top, intutitives vertikales und horizontales Scrollen durch die Prozesse möglich, es gibt eine schönere grafische Aufbearbeitung der Auslastung des Prozessors und des Arbeitsspeichers und die hauptsächliche Bedienung läuft konsistent über die F- Tasten ab. Ein killen einzelner Prozesse ist so auch für den absoluten Konsolenneuling sehr sehr einfach. Standardmäßig wird htop meist leider nicht Vorinstalliert ist aber in den meisten Standardrepositorys enthalten. Unter Ubuntu wird es mit

sudo aptitude install htop oder

sudo apt-get install htop

installiert. Um es zu benutzen kann entweder (falls das noch möglich ist) ein Terminal geöffnet werden oder man wechselt mit strg + alt + F1/F2/F3/F4/F5/F6 auf eine Konsole und meldet sich dort an. Mittels des Befehls htop kann das Tool nun aufgerufen werden. Der Rest sollte sich selbst erklären.

Warum Open Source gut ist

Warum Open Source gut ist

Da ich die Diskussion in letzter Zeit öfter geführt habe möchte ich mal meine Gedanken zu Open Source Entwicklungstools im Vergleich mit Proprietären hier veröffentlichen. Vieles davon ist uneingeschränkt auch für jede andere Software gültig, aber ich beziehe mich vorrangig auf Entwicklertools.

Oft wird Open Source Software immer mit "Frickeltools", niederer Qualität, Unvollständigkeit, Unbeständigkeit usw. assoziiert. Diese Wahrnehmung mag durchaus gelegentlich auch nicht unbedingt falsch sein, aber meistens ist es auch genau andersrum. Open Source hat im Vergleich zu kommerzieller Software sogar einige unschätzbare Vorteile die viele nicht bedenken oder sogar erst gar nicht sehen.

Obwohl ich meine Diplomarbeit mit dem Visual Studio und .Net in C# entwickelt habe, und ganz nebenbei das VS auch für eine der Besten IDEs überhaupt halte, so bin ich doch überzeugt das die Open Source Gegenstücke in einigen Bereichen sehr viel besser da stehen. Oft kann man bemerken das Leute vor allem von den "Shiny" GUIs geblendet sind und man muss zugeben das auch beim VS darauf geachtet wurde das sich ämtliche Komponenten sehr gut integrieren, es ist auch ohne Plugins bereits sehr vollständig und selbst der GUI Editor für WPF ist im Grunde selbsterklärend. Die Lernkurve bei Alternativen ala Eclipse, Netbeans, MonoDevelop oder wie sie alle heißen ist beinahe immer höher und vor allem bei Eclipse heißt es oft erstmal Plugins installieren, Sprachpakete laden usw.. Der erste große Vorteil erschließt sich schon aus dem eben geschriebenen. Bei Open Source habe ich die absolut freie Toolwahl. Jeder Entwickler kann das Tool einsetzen was ihm am meisten zusagt und die wenigsten Probleme bereitet. Man macht sich außerdem nicht abhängig von einer einzigen Firma deren Tools man zumindest dann benutzen muss wenn man den größtmöglichen Komfort und die schnellst Mögliche Umsetzung aktueller Spracherweiterungen nutzen möchte. Dazu kosten diese Tools dann meist viel Geld, Upgrademöglichkeiten werden oft nicht angeboten und so muss ich alle paar Jahre meine Tools wieder neu kaufen um alle Features nutzen zu können. Bei den Updates und Upgrades liegt sowieso einer der größten Vorteile von Open Source Tools. Hier bekomme ich i.d.R. neue moderne Features, Bugfixes und Optimierungen sehr viel schneller und regelmäßiger als bei Proprietären Produkten. Generell kamen viele Neuerungen und Innovationen in den letzten Jahren durchaus aus der Open Source Szene und wurden später erst in Proprietäre Produkte aufgenommen. Neue Versionen kann ich mir einfach herunterladen und testen, da sie eh frei verfügbar sind. Ein neues Visual Studio gibt es maximal in der abgespeckten Express Edition und viele ergänzende Dinge wie Expression Blend bekomme ich vor dem kostenintensiven Kauf maximal in Videos zu Gesicht.

Ein weiteres Problem ist die Codequalität der Tools selbst. Auch wenn hier einige sofort denken möchten das Open Source Tools aus schlechtem Code bestehen müssen so ist das absolut falsch. Ein Open Source Tool kann von jedem der es möchte angesehen und sein Code kontrolliert werden. Schreibt ein Open Source Entwickler nun schlechten Code wird sofort eine hitzige Diskussion entbrennen bis der Code allgemeinen Maßstäben genügt. Bei Proprietären Tools sieht das ganz anders aus. Hier kann hinterher sowieso niemand in den Code schauen, dafür zählt aber die Releasedeadline gnadenlos herunter. Priorität dürfte in den meisten Proprietären Projekten haben das die Arbeit schnellstmöglich fertig ist. Es gibt bereits einige Beispiele wo ehemals geschlossener Code geöffnet wurde und vorher "aufgeräumt" werden musste da die Öffnung des Codes so wohl zu peinlich war.

Vor einem großen Problem stehen viele Anwender auch wenn eine neue Version eines Programmes veröffentlicht wird und sie einen kritischen Fehler aufweist, nicht mehr mit bestehender Zusatzsoftware zusammenarbeitet oder lieb gewonnene Funktionen einfach weggelassen wurden. Im Falle von Proprietären Produkten wie dem Visual Studio bleibt mir nichts übrig als zu warten das Microsoft dieses Problem behebt. Bei einem Tool wie Eclipse könnte ich entweder ein Plugin austauschen (falls der Fehler davon verursacht wurde) oder mir einfach eine andere IDE suchen die derzeit besser funktioniert, aber auch hier würde sicher zum tragen kommen das der Kontakt zu den Entwicklern und das einchecken von Bugs sowie das Fixen derselben jedem möglich ist und so wird der Fehler hier tendenziell viel schneller behoben sein, da es potenziell auch viel mehr Entwickler gibt.

Zu guter letzt ist es sicher auch ein ernst zu nehmender Grund das es so gut wie noch nie bei Open Source erzwungene Technologiewechsel gab. Wenn ich heute moderen Windows Programme mit .Net entwickeln möchte komme ich an C# und .Net 4.0 sowie der WPF kaum vorbei. Vor einigen Jahren hatten wir auch schon C#, aber noch .Net 2.0 und Forms, einige Zeit davor war C++ mit Win32 und MFC aktuell. Dies sind keine fließenden Übergänge gewesen sondern erforderten beim Entwickler immer das Kaufen neuer Tools und brachten teils extreme Lernkurven mit sich. Eine Alternative gab es kaum, da viele neue Features oft auch nur für die neue Technologie vorhanden sind. Im Open Source Bereich liefen solche Dinge ungleich anders ab. Technologiewechsel wie z.B. bei Jave von AWT auf Swing waren immer optional und selbst heute kann ich noch AWT Anwendungen bauen die zwar nicht so schön aussehen, aber viele der modernen Features nutzen können. Auch Versionssprünge der Programmiersprache selbst laufen sehr viel sanfter ab und erfordern selten eine Neuinstallierung der ganzen Entwicklungsumgebung. Neue Features werden öfter und dafür in kleineren Schüben eingepflegt. Somit ist die Lernkurve sehr viel schmaler. Allerdings sind beinahe immer auch die alten Technologien noch voll weiterhin nutzbar.

Zum Schluß möchte ich noch einmal sagen das auch ich natürlich sehe das aufpolierte Tools wie das Visual Studio und Expression Blend es erlauben in kürzester Einarbeitungszeit extrem schicke GUIs zu stricken und einem möglichst viel Arbeit abnehmen. Hier sind Open Source Tools noch ein ganzes Stück hinten dran, aber man gibt damit auch einen großen Teil seiner Freiheit auf. Nach einer Gewissen Einarbeitungszeit stehen die Ergebnisse die man mit freien Tools erzielt denen die man mit z.B. VS erreicht in nichts nach aber man erhält sich seine Unabhängigkeit.

de-Mail und die (positiven) Auswirkungen

de-Mail und die (positiven) Auswirkungen

Ich möchte eigentlich gar nicht groß auf den Themen herumhacken die gerade überall durchs Web geistern. Von den Problemen bezüglich der Verschlüsselung auf dem Post Server (im Falle des ePost Briefes) oder den Risiken das mein "Datensave" von Behörden etc. einfach abgerufen werden kann, dem Quatsch das öffentliche Fristen nach drei Tagen Mailzustellung beginnen sollen (egal ob ich sie abgerufen habe oder nicht) und den Adresshandelsvorwürfen an die Post ist das Netz momentan ja voll. Dazu kamen dann die Aufreger das der Dienst bei der Post viel zu teuer wird und eigentlich eh überflüssig ist da es Verschlüsselung mit Zertifizierung ja schon lange gibt.

Der Gedanke den ich dabei spontan hatte war aber eigentlich ein anderer. Ist damit nun diese 3 Strikes Geschichte endgültig vom Tisch? Wird Internet und PC zu einer unpfändbaren Mindestanforerung? Wenn ich alle meine Behördenpost auf einen de-Mail Dienst umstellen würde und man würde mir den PC pfänden wäre ich ja nicht mehr in der Lage meine Behördenpost oder ähnliches abzuholen und das es da einen Automatismus gibt der die Umstellung zurück auf Papier in so einem Fall vornehmen würde halte ich für mehr als unwahrscheinlich. Im Prinzip bliebe also nur die Möglichkeit ein Grundrecht auf einen PC und Internetzugang zu implementieren und somit hätte selbst de-Mail eine positive Seite.

Leider steht zu befürchten das soweit nicht gedacht wird und ich mir vermutlich unter Beobachtung in einem Arbeitsamt an einem öffentlichen PC täglich meine Mails abrufen kann/muss (ausser Samstag bis Montag weil die ePost da ja nicht zugestellt wird 😉 ) wenn es bei den Ersten mal schiefgelaufen ist.

Wer sich nochmal näher mit der Thematik befassen will dem sei die aktuelle Sendung des Chaosradio empfohlen, die es hier als Download gibt http://chaosradio.ccc.de/cr159.html