ndz
Bekanntes Gesicht
Der große (U)HDTV [Helpthread] + [FAQ] - alles über UHD, 4K, Smart TV, 3D & mehr!
Stand: 26.01.2015
Stand: 26.01.2015
Vorwort
Da der originale HDTV Helpthread bereits 7 Jahre auf dem Buckel hat, schadet es mit Sicherheit nicht, diesen wieder etwas aufzufrischen und an die aktuelle Marktlage anzupassen. Da der ursprüngliche Autor seit über 3 Jahren nicht mehr hier im Forum aktiv ist, übernehme ich das an dieser Stelle mal ganz frech in eigener Verantwortung.
Außerdem dachte ich mir, dass es mal wieder an der Zeit ist nach meinem Info-Thread zum Thema "Indizierte / beschlagnahmte Spiele importieren" wieder einen Dienst für die Community zu leisten Ein Dank geht vor allem an T-Bow für den Anreiz dazu, der mit der [PS4] Spiele-Release-Liste erst jüngst einen tollen Thread ins Leben gerufen hat
Außerdem dachte ich mir, dass es mal wieder an der Zeit ist nach meinem Info-Thread zum Thema "Indizierte / beschlagnahmte Spiele importieren" wieder einen Dienst für die Community zu leisten Ein Dank geht vor allem an T-Bow für den Anreiz dazu, der mit der [PS4] Spiele-Release-Liste erst jüngst einen tollen Thread ins Leben gerufen hat
Über diesen Thread
Der Thread soll vor allem als Entscheidungshilfe beim Kauf eines neuen TV helfen. Deshalb werden einige harte Fakten erklärt, aber auch persönliche Empfehlungen und Erfahrungswerte weitergegeben. Aufgrund der zahllosen Techniken und Abkürzungen, die bei den diversen Herstellern oftmals sehr unterschiedlich sind (aber im Prinzip das gleiche bedeuten) sind umgangssprachliche Erklärungen zu den wichtigsten Standards meiner Meinung nach der bessere Weg, als aus diesem Thread ein 200-seitiges Glossar zu schaffen. Das befriedigt zwar vll. den Technik-Nerd, bringt aber dem Otto-Normal-Verbraucher als Ratgeber bzw. Helpthread imho weniger. Dennoch versuche ich natürlich einen guten Mittelweg im offen gehaltenen FAQ-Stil zu schaffen.
Wenn möglich, versuche ich diesen Thread regelmäßig upzudaten & anzupassen. Gerne ist aber natürlich auch jede Hilfe in Form von Verbesserungsvorschlägen, Korrekturen oder künftigen Updates erwünscht! Diese können einfach als Antwort auf diesen Thread geäußert werden, so dass ich sie in künftigen Thread-Updates beachten kann. Ich weiß, dass z.B. die Spoiler-Lösung nicht die optimalste ist, allerdings ist mir keine andere Möglichkeit eingefallen, um die Übersicht in dem doch recht groß geratenen Thread zu bewahren. Über andere Vorschläge würde ich mich freuen.
Natürlich kann und soll der Thread auch für spezifische Fragen sowie als Diskussionsplattform rund um das Thema HDTV genutzt werden!
Die Grundlagen
HD ready, 720p, FullHD, 1080p, UHD, 4K, …?
Eine Übersicht der unterschiedlichen Auflösungen und deren Bezeichnungen:
Generell werden als „High Definition TeleVision (HDTV)“ alle neuen Flachbildschirme im TV-Bereich bezeichnet. Um diesen „Titel“ offiziell tragen zu dürfen, muss ein TV-Gerät mindestens die HD ready-Spezifikation erfüllen. Diese setzt v.a. eine Bildschirmauflösung von min. 1280x720 Pixeln, die in progressiven Vollbildern angezeigt werden kann, voraus. Das „p“ bei der Bezeichnung „720p“ steht also für „progressive“ und nicht für „Pixel“. Das bedeutet schlichtweg, dass der TV dazu in der Lage ist, hochauflösendes (HD) Fernsehen wiederzugeben. Alle weiteren Anforderungen finden sich im oben verlinkten Wikipedia-Eintrag.
Ein HD ready TV-Gerät kann auch eine Auflösung von 1920x1080 Pixeln darstellen, dann allerdings nur im „interlaced“ Modus, weshalb dieser Anzeigemodus auch als „1080i“ abgekürzt wird. Da hier nur Halbbilder abwechselnd dargestellt werden, ist das sichtbare Bild in der Praxis deutlich schlechter als die ruhiger wirkende Darstellung von niedriger aufgelösten Vollbildern (720p). Das alte Interlaced-Verfahren stammt vor allem aus der Zeit der Röhrenfernseher und wird bei neueren HDTV-Geräten im Consumer-Bereich nicht mehr verwendet.
Das im Jahre 2005 geschaffene Label HD ready ist heute bereits praktisch tot, weshalb ich mir weitere Erklärungen zu diesem Format spare. TV-Geräte mit dieser Bezeichnung finden sich meist nur noch bei den Restposten oder billigen China-Anbietern, die ihre Restwaren verschleudern. Abgelöst wurde HD ready bereits vor längerer Zeit vom derzeitigen FullHD-Standard.
Unterstützt ein TV-Gerät „FullHD“, bedeutet dies, dass die „volle“ HD-Auflösung von 1920x1080 Pixeln in progressiven Vollbildern von einem TV-Gerät dargestellt werden kann - daher auch der Name „1080p“. Der verwaschene Begriff „voll“ diente vor allem am Anfang dazu, eine Abgrenzung zu den billigeren HD ready Geräten zu schaffen. In der Werbung liest man z.B. auch von „echtem HD“ oder „True HD“, was allerdings reine Marketing-Begriffe sind.
Heutzutage ist FullHD der Standard der aktuellen Flachbildfernseher und sollte bei einem Kauf die Mindestvoraussetzung sein. Damit lassen sich z.B. aktuelle Blu-rays in voller Auflösung genießen, da diese Filme exakt auf das Format von 1920x1080 Pixeln ausgelegt sind.
Ultra HD (UHD) oder 4K
Als „Ultra HD (UHD)“ oder „4K“, vereinzelt auch „Quad FullHD (QFHD)“ oder „2160p“ TV werden die neueren (und vor allem größeren) HDTV-Geräte bezeichnet, welche die vierfache FullHD-Auflösung sowie eine bessere Farbdarstellung bieten (letzteres wird oft nicht beachtet). Bei TV-Geräten im Consumer-Bereich ist damit eine Auflösung von 3840x2160 gemeint, was aufgrund der Verdopplung der horizontalen als auch vertikalen Pixel exakt einer vierfachen FullHD-Auflösung entspricht.
Als „4K“ (auch „Cinema 4K“ genannt) wird allerdings auch eine Auflösung von 4096x2304 Pixeln bezeichnet. Das liegt vor allem an der Verwendung der gleichen Begriffe in den unterschiedlichen Bereichen der TV- und Filmbranche, deren Standards sich zwar ähneln, aber teils sehr voneinander abweichen.
Eine weitere Ursache dieser Unklarheiten ist vor allem auch die inflationäre Verwendung von unsauber definierten Begriffen der Hersteller, um ihre Geräte der breiten Masse zu präsentieren. Im Gegensatz zu FullHD ist die exakte Auflösung des Begriffs „4K“ in der Praxis also oft nicht eindeutig.
Wie heißt das Ding denn jetzt?!
An dieser Stelle ein Wikipedia-Zitat:
Wikipedia schrieb:Die Consumer Electronics Association (CEA) hat am 18. Oktober 2012 beschlossen: Ultra HD ersetzt die bislang propagierte Bezeichnung 4K. Der Definition nach müssen Ultra-HD-Fernseher eine Mindestauflösung von 8 Millionen Pixel haben (viermal so viele Pixel wie bei aktuellen Full-HD-Fernsehern). Die gebräuchliche Auflösung liegt hier bei 3840x2160 Bildpunkten. Außerdem müssen Ultra-HD-Fernseher über Anschlüsse verfügen, mit denen Ultra-HD-Inhalte ausgegeben werden können.
„Ultra HD“ ist also die korrekte Bezeichnung, auch wenn sich die noch knappere Abkürzung „UHD“ bzw. „UHDTV“ wohl bald in der Praxis durchsetzen dürfte - auch wenn damit derzeit eigentlich andere fachliche Begriffe definiert werden…
Immerhin wurde auf der IFA 2014 nun auch das neue „Ultra HD“-Logo vorgestellt, welches die korrekte Bezeichnung für Ultra HD Geräte veranschaulichen soll:
Ob sich der Kauf eines Ultra HD Fernsehers bereits lohnt, thematisiere ich später in diesem Thread.
LCD, LED, Plasma, OLED, …?
HDTV ist nicht gleich HDTV. Besonders bei der Display-Technologie gibt es einige Unterschiede. Die wichtigsten Technologien kurz erklärt:
LCD bzw. LED
Geräte mit klassischen LCDs (Liquid Crystal Display) sind die günstigsten erhältlichen Varianten. TV-Geräte mit dieser Bezeichnung sind aber heutzutage rar gesät und wurden mittlerweile durch die fortschrittlicheren LED-Geräte ersetzt. Die LC-Displaytechnik ist dabei eigentlich gleich geblieben, lediglich die Hintergrundbeleuchtung (damit der TV überhaupt ein sichtbares Bild erzeugen kann) ist unterschiedlich. Während bei klassischen LCD-TV-Geräten bis etwa 2008 noch Leuchtröhren (Kaltkathodenröhren) eingesetzt wurden, arbeiten LED-Geräte mit vielen kleinen LEDs (Light Emitting Diode = Leuchtdioden). Das bringt in der Praxis vor allem drei Vorteile: Die TVs können schmaler gebaut werden (da LEDs deutlich kleiner sind), die Ausleuchtung des Bildes ist deutlich homogener (gleichmäßiger) und der Stromverbrauch ist geringer.
Ein Nachteil gegenüber anderen Display-Technologien (wie z.B. Plasma) war lange Zeit, dass besonders große Bildschirmdiagonalen nicht bzw. nur mit hohem finanziellen Aufwand möglich waren. Da sich mittlerweile aber auch hier einiges geändert hat, gibt es heutzutage auch LED-TVs mit riesigen Abmessungen (z.B. 65 Zoll = 157,48cm).
Der allergrößte Teil an TV-Geräten (egal welcher Qualitätsklasse) basiert derzeit auf LED-Technik. Besonders hochwertige (und mittlerweile recht selten anzutreffende) Modelle nutzen allerdings auch eine reine LED-Lösung, mit der das gesamte Display durch LEDs beleuchtet wird („back-lit“ bzw. „Full-Backlight-LED“), anstatt nur wie üblich an den Display-Rändern („edge-lit“ bzw. „Edge LED“).
Plasma
Plasma-Fernseher galten lange Zeit als die bessere Alternative hinsichtlich der Bildqualität, mittlerweile stellen diese TVs allerdings nur noch einen sehr kleinen Teil des Marktes dar. Viele Hersteller haben sich in den letzten Jahren komplett von der Produktion von Plasma-Geräten abgewandt. Das zeigt auch die aktuelle Entwicklung: Unter den aktuellen Ultra HD Fernsehern findet sich kein einziger Plasma. Die größten Vorteile der Plasma-Geräte sind heute durch stark verbesserte LED-TVs nahezu hinfällig geworden: Die hohe Blickwinkelstabilität ohne Farb- und Kontrastbeeinträchtigungen, die extrem kurze Reaktionszeit sowie der höhere Kontrast galten lange Zeit als Hauptvorteil von Plasmabildschirmen. Mittlerweile können aber auch LED-Geräte den Plasmas in diesen Disziplinen die Stirn bieten.
Bei einem geplanten Kauf sollte man sich den prinzipbedingten Schwächen bewusst sein: Plasma-Geräte bieten trotz hohem Kontrast eine niedrigere Helligkeit (was besonders bei hellem Tageslicht beachtet werden sollte) und sind anfällig für sog. „Einbrennen“ des Bildes. Letzteres dürfte allerdings weniger ein Problem in der Praxis sein, da dies eigtl. nur passiert, wenn man ein statisches Bild über Stunden anzeigt und sich keine Veränderung auf dem Display bemerkbar macht. Der meiner Meinung nach größte Nachteil eines Plasma-Fernsehers ist allerdings der deutlich höhere Stromverbrauch gegenüber LED-Geräten (selbst bei neueren Plasmas im Schnitt nur Energieeffizienzklasse (EEK) „B“ gegenüber „A+“ oder besser bei LED-TVs).
Dennoch finden sich auch heute noch gute Geräte - allerdings sind diese durch Detailverbesserungen, um mit der LED-Konkurrenz mithalten zu können, kaum zu wirklich günstigen Preisen zu haben.
OLED
OLED (Organic Light Emitting Diode) Displays sind derzeit die neueste Weiterentwicklung in der Display-Technologie. Diese Bezeichnung kennt man besonders von Top-Smartphones, wo sich diese Technik aufgrund der verhältnismäßig winzigen Displays relativ erschwinglich einsetzen lässt. Organische LEDs besitzen kurz gesagt die Vorteile von LED- und Plasma-Technik, ohne dabei die bekannten Nachteile mit sich zu bringen. Außerdem sind sie äußerst biegsam, was besonders bei den neuen, trendigen „Curved TVs“ nützlich ist.
Und wo ist der Haken? Zum einen sind diese TV-Geräte noch sehr teuer (unter ca. 3000€ habe ich aktuell keinen TV gefunden) und besitzen einen Nachteil, der besonders bei diesen Preisen sehr unvorteilhaft ist: OLEDs haben eine deutlich beschränktere Lebensdauer.
Bei einer maximalen Helligkeit und weißem Licht ist bereits nach 5000 Stunden (208 Tage) Schluss, bei minimaler Helligkeit nach 12.000 Stunden (500 Tage). Das bedeutet natürlich nicht, dass das Display nach der Zeit sofort defekt ist, allerdings fallen nach dieser Zeit in etwa die ersten LEDs aus, wenn Sie über den Zeitraum immer maximal belastet wurden (weißes Licht und max. Helligkeit). Im Vergleich dazu halten normale LEDs, die in TVs verbaut werden, weit über 100.000 Stunden (4167 Tage) aus. Außerdem findet die Alterung der OLEDs nicht gleichmäßig statt. Des Weiteren sind sie prinzipbedingt anfällig gegen UV-Strahlung und weitere natürliche Einflüsse (z.B. Sauerstoff, was aber in der Praxis keine Rolle spielt, sofern das Display nicht beschädigt ist).
Trotz toller Display-Performance sind derzeit also noch die Preise sowie die Lebensdauer nicht zu unterschätzende Kritikpunkte.
Geräte mit klassischen LCDs (Liquid Crystal Display) sind die günstigsten erhältlichen Varianten. TV-Geräte mit dieser Bezeichnung sind aber heutzutage rar gesät und wurden mittlerweile durch die fortschrittlicheren LED-Geräte ersetzt. Die LC-Displaytechnik ist dabei eigentlich gleich geblieben, lediglich die Hintergrundbeleuchtung (damit der TV überhaupt ein sichtbares Bild erzeugen kann) ist unterschiedlich. Während bei klassischen LCD-TV-Geräten bis etwa 2008 noch Leuchtröhren (Kaltkathodenröhren) eingesetzt wurden, arbeiten LED-Geräte mit vielen kleinen LEDs (Light Emitting Diode = Leuchtdioden). Das bringt in der Praxis vor allem drei Vorteile: Die TVs können schmaler gebaut werden (da LEDs deutlich kleiner sind), die Ausleuchtung des Bildes ist deutlich homogener (gleichmäßiger) und der Stromverbrauch ist geringer.
Ein Nachteil gegenüber anderen Display-Technologien (wie z.B. Plasma) war lange Zeit, dass besonders große Bildschirmdiagonalen nicht bzw. nur mit hohem finanziellen Aufwand möglich waren. Da sich mittlerweile aber auch hier einiges geändert hat, gibt es heutzutage auch LED-TVs mit riesigen Abmessungen (z.B. 65 Zoll = 157,48cm).
Der allergrößte Teil an TV-Geräten (egal welcher Qualitätsklasse) basiert derzeit auf LED-Technik. Besonders hochwertige (und mittlerweile recht selten anzutreffende) Modelle nutzen allerdings auch eine reine LED-Lösung, mit der das gesamte Display durch LEDs beleuchtet wird („back-lit“ bzw. „Full-Backlight-LED“), anstatt nur wie üblich an den Display-Rändern („edge-lit“ bzw. „Edge LED“).
Plasma
Plasma-Fernseher galten lange Zeit als die bessere Alternative hinsichtlich der Bildqualität, mittlerweile stellen diese TVs allerdings nur noch einen sehr kleinen Teil des Marktes dar. Viele Hersteller haben sich in den letzten Jahren komplett von der Produktion von Plasma-Geräten abgewandt. Das zeigt auch die aktuelle Entwicklung: Unter den aktuellen Ultra HD Fernsehern findet sich kein einziger Plasma. Die größten Vorteile der Plasma-Geräte sind heute durch stark verbesserte LED-TVs nahezu hinfällig geworden: Die hohe Blickwinkelstabilität ohne Farb- und Kontrastbeeinträchtigungen, die extrem kurze Reaktionszeit sowie der höhere Kontrast galten lange Zeit als Hauptvorteil von Plasmabildschirmen. Mittlerweile können aber auch LED-Geräte den Plasmas in diesen Disziplinen die Stirn bieten.
Bei einem geplanten Kauf sollte man sich den prinzipbedingten Schwächen bewusst sein: Plasma-Geräte bieten trotz hohem Kontrast eine niedrigere Helligkeit (was besonders bei hellem Tageslicht beachtet werden sollte) und sind anfällig für sog. „Einbrennen“ des Bildes. Letzteres dürfte allerdings weniger ein Problem in der Praxis sein, da dies eigtl. nur passiert, wenn man ein statisches Bild über Stunden anzeigt und sich keine Veränderung auf dem Display bemerkbar macht. Der meiner Meinung nach größte Nachteil eines Plasma-Fernsehers ist allerdings der deutlich höhere Stromverbrauch gegenüber LED-Geräten (selbst bei neueren Plasmas im Schnitt nur Energieeffizienzklasse (EEK) „B“ gegenüber „A+“ oder besser bei LED-TVs).
Dennoch finden sich auch heute noch gute Geräte - allerdings sind diese durch Detailverbesserungen, um mit der LED-Konkurrenz mithalten zu können, kaum zu wirklich günstigen Preisen zu haben.
OLED
OLED (Organic Light Emitting Diode) Displays sind derzeit die neueste Weiterentwicklung in der Display-Technologie. Diese Bezeichnung kennt man besonders von Top-Smartphones, wo sich diese Technik aufgrund der verhältnismäßig winzigen Displays relativ erschwinglich einsetzen lässt. Organische LEDs besitzen kurz gesagt die Vorteile von LED- und Plasma-Technik, ohne dabei die bekannten Nachteile mit sich zu bringen. Außerdem sind sie äußerst biegsam, was besonders bei den neuen, trendigen „Curved TVs“ nützlich ist.
Und wo ist der Haken? Zum einen sind diese TV-Geräte noch sehr teuer (unter ca. 3000€ habe ich aktuell keinen TV gefunden) und besitzen einen Nachteil, der besonders bei diesen Preisen sehr unvorteilhaft ist: OLEDs haben eine deutlich beschränktere Lebensdauer.
Bei einer maximalen Helligkeit und weißem Licht ist bereits nach 5000 Stunden (208 Tage) Schluss, bei minimaler Helligkeit nach 12.000 Stunden (500 Tage). Das bedeutet natürlich nicht, dass das Display nach der Zeit sofort defekt ist, allerdings fallen nach dieser Zeit in etwa die ersten LEDs aus, wenn Sie über den Zeitraum immer maximal belastet wurden (weißes Licht und max. Helligkeit). Im Vergleich dazu halten normale LEDs, die in TVs verbaut werden, weit über 100.000 Stunden (4167 Tage) aus. Außerdem findet die Alterung der OLEDs nicht gleichmäßig statt. Des Weiteren sind sie prinzipbedingt anfällig gegen UV-Strahlung und weitere natürliche Einflüsse (z.B. Sauerstoff, was aber in der Praxis keine Rolle spielt, sofern das Display nicht beschädigt ist).
Trotz toller Display-Performance sind derzeit also noch die Preise sowie die Lebensdauer nicht zu unterschätzende Kritikpunkte.
Der Kauf-Ratgeber
Auf was muss ich beim Kauf eines neuen HDTV achten?
Beim Kauf eines neuen TV spielen viele Faktoren eine Rolle. Neben generellen Überlegungen, die als erstes durchdacht werden sollten, sind auch ein paar wichtige technische Details entscheidend.
Die Basics
Preis
Als erstes sollte man sich natürlich überlegen, wie viel Geld man für einen neuen TV ausgeben möchte. Das Feld ist heutzutage allerdings eng zusammengerückt, so dass man sich als Durchschnittsbürger eigentlich nur die einfache Frage stellen sollte, ob ein TV klar unter 1000€ kosten soll oder ob’s auch „was ´gscheides“ für bis zu ca. 2000€ oder mehr sein darf. In dieser Preisregion findet man derzeit wirklich alles, was das Herz begehrt. Finanzielle Ausreisser gibt es besonders nach oben natürlich immer, allerdings kann man sich schon heute für deutlich unter 2000€ einen hochwertigen Ultra HD Fernseher ins Wohnzimmer stellen (lassen ).
Größe
TV-Größen werden hauptsächlich über die sichtbare Bildschirmdiagonale in Zoll (engl. „Inch“) angegeben. Ein Zoll entspricht dabei exakt 2,54cm. Das bedeutet, dass ein TV mit 40 Zoll (abgekürzt: 40“) eine Diagonale von 101,6cm besitzt.
Aufgrund der unterschiedlichen Bauformen (Stichwort Rahmengröße) der TV-Geräte, sagt dies leider noch nichts über die tatsächliche Größe (Höhe x Breite x Tiefe) aus. Wenn es also darauf ankommt, dass der neue Fernseher in den alten TV-Schrank passen soll, hilft nur ein genauerer Blick in die Produktbeschreibung. Als grober Anhaltspunkt reicht die immer angegebene Diagonale allerdings aus.
Wie groß sollte ein TV sein?
Wer ausreichend Platz zur Verfügung hat, sollte natürlich tendenziell die größeren Modelle bevorzugen. Natürlich kommt das auch auf den Anwendungszweck sowie den Sitzabstand an. Wer nur TV und Filme schaut, kommt mit Sicherheit mit einem verhältnismäßig kleineren Fernseher aus - außer es ist natürlich explizit Kinofeeling gewünscht. Wer an dem TV allerdings auch vernünftig zocken möchte, sollte auf jeden Fall nach einem größeren Modell Ausschau halten. Schließlich ist es gerade bei Titeln mit einem kleinen, aber vollen HUD (Rollenspiele z.B.) von Vorteil, wenn man auch möglichst viele Details erkennen kann. Dasselbe gilt etwa auch für Online-Shooter. Trotz gleicher Auflösung sieht man auf einem größeren Bildschirm einfach mehr, sofern man nicht nur einen Meter davon entfernt ist. Auch wer seinen PC bzw. sein Notebook an den TV anschließen und von der Couch aus arbeiten möchte, sollte ein besonders großes Modell in Betracht ziehen.
Wie groß die neue Flimmerkiste wirklich sein soll, hängt auch vom eigenen Empfinden ab. Hier ist ein Gang zum Elektro-Fachmarkt mit Sicherheit keine schlechte Idee, um zumindest ein grobes Gefühl für die Größe zu bekommen.
Aber Achtung: Aufgrund der riesigen Räume und zahlreichen TV-Geräte erscheinen die Größen im Verhältnis oft kleiner, als sie in den heimischen vier Wänden wirklich sind. Ein 40“ Fernseher sieht im Laden oft lächerlich klein aus, obwohl er am eigentlichen Aufstellungsort mehr als ausreichend wäre. Hier sollte man sich nicht täuschen lassen.
Empfehlung?
Als grobe Orientierung: Die „alte“ Standardgröße von HD ready Geräten ist mit 32“ längst überholt. Standardgröße deshalb, weil diese Bildschirmdiagonale von der Gesamtgröße des TVs in etwa dem Durschnitts-Röhrenmonitor aus der Vor-HDTV-Ära entsprach.
Die meisten aktuellen Fernseher besitzen eine Diagonale von 40“. Damit lässt es sich auch bei einem kurzen Sitzabstand (ca. 1,5m) noch angenehm Fernsehen. Von den Außenmaßen sind diese Geräte zwar nicht die kleinsten, sollten aber bei den meisten Räumen problemlos unterbringen zu sein. Problemorte wie Raum-Ecken oder die schon erwähnten TV-Schränke erfordern natürlich u.U. kleinere Modelle. Hier sollte man sich allerdings bei einer Neuanschaffung eher überlegen, die alten Positionen zugunsten eines besseren TV-Erlebnisses aufzugeben.
Ist man vom Aufstellungsort flexibel und auch mind. 2m vom TV-Gerät entfernt, kann man gerne auch auf größere Boliden zurückgreifen, die etwa mit 47“ oder gar 50“ bzw. 55“ auftrumpfen können. Anders als vll. erwartet sind diese Geräte heutzutage sogar problemlos bezahlbar. Gut ausgestattete 55“-Geräte gibt es von namhaften Herstellern sogar unter 1000€.
Groß ist nur durch Größer zu ersetzen? Kein Problem. Auch 65“ Geräte sind von vielen Herstellern bereits zu erschwinglicheren Preisen zu haben - auch wenn man gerade im Vergleich zu einem 50“ oder 55“ TV dann nochmal deutlich mehr hinblättern muss. Der preisliche Unterschied ist z.B. zwischen einem 40“ und 50“ weitaus geringer.
Tipp: Gerade wenn man derzeit nur in einer Mietwohnung lebt oder ggf. sogar schon ein Umzug in absehbarer Zeit geplant ist, sollte man sich den Kauf von übergroßen Geräten ggf. zwei Mal überlegen bzw. aufschieben. Schließlich ist der Transport von einem HDTV in Tischtennisplatten-Größe im Opel Corsa praktisch unmöglich…
Als erstes sollte man sich natürlich überlegen, wie viel Geld man für einen neuen TV ausgeben möchte. Das Feld ist heutzutage allerdings eng zusammengerückt, so dass man sich als Durchschnittsbürger eigentlich nur die einfache Frage stellen sollte, ob ein TV klar unter 1000€ kosten soll oder ob’s auch „was ´gscheides“ für bis zu ca. 2000€ oder mehr sein darf. In dieser Preisregion findet man derzeit wirklich alles, was das Herz begehrt. Finanzielle Ausreisser gibt es besonders nach oben natürlich immer, allerdings kann man sich schon heute für deutlich unter 2000€ einen hochwertigen Ultra HD Fernseher ins Wohnzimmer stellen (lassen ).
Größe
TV-Größen werden hauptsächlich über die sichtbare Bildschirmdiagonale in Zoll (engl. „Inch“) angegeben. Ein Zoll entspricht dabei exakt 2,54cm. Das bedeutet, dass ein TV mit 40 Zoll (abgekürzt: 40“) eine Diagonale von 101,6cm besitzt.
Aufgrund der unterschiedlichen Bauformen (Stichwort Rahmengröße) der TV-Geräte, sagt dies leider noch nichts über die tatsächliche Größe (Höhe x Breite x Tiefe) aus. Wenn es also darauf ankommt, dass der neue Fernseher in den alten TV-Schrank passen soll, hilft nur ein genauerer Blick in die Produktbeschreibung. Als grober Anhaltspunkt reicht die immer angegebene Diagonale allerdings aus.
Wie groß sollte ein TV sein?
Wer ausreichend Platz zur Verfügung hat, sollte natürlich tendenziell die größeren Modelle bevorzugen. Natürlich kommt das auch auf den Anwendungszweck sowie den Sitzabstand an. Wer nur TV und Filme schaut, kommt mit Sicherheit mit einem verhältnismäßig kleineren Fernseher aus - außer es ist natürlich explizit Kinofeeling gewünscht. Wer an dem TV allerdings auch vernünftig zocken möchte, sollte auf jeden Fall nach einem größeren Modell Ausschau halten. Schließlich ist es gerade bei Titeln mit einem kleinen, aber vollen HUD (Rollenspiele z.B.) von Vorteil, wenn man auch möglichst viele Details erkennen kann. Dasselbe gilt etwa auch für Online-Shooter. Trotz gleicher Auflösung sieht man auf einem größeren Bildschirm einfach mehr, sofern man nicht nur einen Meter davon entfernt ist. Auch wer seinen PC bzw. sein Notebook an den TV anschließen und von der Couch aus arbeiten möchte, sollte ein besonders großes Modell in Betracht ziehen.
Wie groß die neue Flimmerkiste wirklich sein soll, hängt auch vom eigenen Empfinden ab. Hier ist ein Gang zum Elektro-Fachmarkt mit Sicherheit keine schlechte Idee, um zumindest ein grobes Gefühl für die Größe zu bekommen.
Aber Achtung: Aufgrund der riesigen Räume und zahlreichen TV-Geräte erscheinen die Größen im Verhältnis oft kleiner, als sie in den heimischen vier Wänden wirklich sind. Ein 40“ Fernseher sieht im Laden oft lächerlich klein aus, obwohl er am eigentlichen Aufstellungsort mehr als ausreichend wäre. Hier sollte man sich nicht täuschen lassen.
Empfehlung?
Als grobe Orientierung: Die „alte“ Standardgröße von HD ready Geräten ist mit 32“ längst überholt. Standardgröße deshalb, weil diese Bildschirmdiagonale von der Gesamtgröße des TVs in etwa dem Durschnitts-Röhrenmonitor aus der Vor-HDTV-Ära entsprach.
Die meisten aktuellen Fernseher besitzen eine Diagonale von 40“. Damit lässt es sich auch bei einem kurzen Sitzabstand (ca. 1,5m) noch angenehm Fernsehen. Von den Außenmaßen sind diese Geräte zwar nicht die kleinsten, sollten aber bei den meisten Räumen problemlos unterbringen zu sein. Problemorte wie Raum-Ecken oder die schon erwähnten TV-Schränke erfordern natürlich u.U. kleinere Modelle. Hier sollte man sich allerdings bei einer Neuanschaffung eher überlegen, die alten Positionen zugunsten eines besseren TV-Erlebnisses aufzugeben.
Ist man vom Aufstellungsort flexibel und auch mind. 2m vom TV-Gerät entfernt, kann man gerne auch auf größere Boliden zurückgreifen, die etwa mit 47“ oder gar 50“ bzw. 55“ auftrumpfen können. Anders als vll. erwartet sind diese Geräte heutzutage sogar problemlos bezahlbar. Gut ausgestattete 55“-Geräte gibt es von namhaften Herstellern sogar unter 1000€.
Groß ist nur durch Größer zu ersetzen? Kein Problem. Auch 65“ Geräte sind von vielen Herstellern bereits zu erschwinglicheren Preisen zu haben - auch wenn man gerade im Vergleich zu einem 50“ oder 55“ TV dann nochmal deutlich mehr hinblättern muss. Der preisliche Unterschied ist z.B. zwischen einem 40“ und 50“ weitaus geringer.
Tipp: Gerade wenn man derzeit nur in einer Mietwohnung lebt oder ggf. sogar schon ein Umzug in absehbarer Zeit geplant ist, sollte man sich den Kauf von übergroßen Geräten ggf. zwei Mal überlegen bzw. aufschieben. Schließlich ist der Transport von einem HDTV in Tischtennisplatten-Größe im Opel Corsa praktisch unmöglich…
Die Ausstattung
Aktuelle Fernseher bieten Extras ohne Ende. Da den Überblick zu behalten, ist selbst für technik-affine Genossen nicht gerade einfach. Deshalb möchte ich einen kleinen Überblick darüber geben, welche Merkmale bei einem Kauf besonders wichtig sind und besonders beachtet werden sollten. Des Weiteren erkläre ich im Anschluss einige Abkürzungen und häufig anzutreffende Features.
Bildwiederholfrequenz (Hertz-Zahl)
100Hz, 200Hz, 400Hz, 600Hz, 800Hz oder gar 1000Hz und mehr. Viele Hersteller werben mit teils astronomischen Zahlen, die oft nur noch wenig mit der Realität zu tun haben. Nur wie viel Hertz sind denn nun nötig, um ein ruhiges Bild zu bekommen?
Erhöhte Bildwiederholfrequenzen ermöglichen eine sog. „Motion Interpolation“. Dabei werden vom TV zwischen zwei Einzelbildern interpolierte Zwischenbilder eingerechnet, um die Darstellung von bewegten Objekten flüssiger erscheinen zu lassen. Wie das Ganze funktioniert, erklärt der verlinkte Wikipedia-Eintrag.
Ein Blick auf die aktuelle Marktlage zeigt, dass es kaum mehr einen aktuellen HDTV unter 100Hz zu kaufen gibt. Das sollte auch die Mindestvoraussetzung sein, mit der man mehr als gut leben kann. Mehr ist zwar i.d.R. besser, das muss aber nicht sein (Stichwort „Soap-Opera-Effekt“). Außerdem spiegelt sich eine erhöhte Bildwiederholfrequenz oftmals automatisch auch im Preis wieder. Höherwertige TV-Geräte wollen auch mit extrem hohen Hertz-Zahlen dem Käufer suggerieren, dass es sich dabei um etwas Besseres handelt. Das ist aber oftmals ein reiner Marketing-Gag, der nur durch rechnerische Tricks erreicht wird – der gleiche Unfug wurde vor wenigen Jahren mit den Kontrastwerten veranstaltet.
Eine Angabe von 200Hz oder mehr sind derzeit in etwa der gute Mittelklasse-Standard. Alles was darüber geht, schaut zwar vll. „irgendwie besser / anders“ aus, sollte aber keinesfalls ein Kriterium sein, um dafür mehr Geld auszugeben. Wie viel Hertz ein spezielles Gerät hat, hängt auch von der verwendeten Display-Technologie ab (siehe oben). Deshalb gehe ich an dieser Stelle nicht ins Detail.
In der Praxis ist also lediglich auf min. 100Hz zu achten. Wenn ein TV mehr kann, ist das natürlich gut – die verwendete „Motion Interpolation“ lässt sich im Zweifel dann meist abschalten. 100Hz sollten in der Regel allerdings völlig ausreichen.
Integrierte TV-Tuner (DVB-T/C/S2)
Was früher noch als „Receiver“ bekannt war, nennt sich heute bei den meisten TV-Geräten „Tuner“. Häufig verwendet wird in der Werbung der Begriff „Triple Tuner“. Das bedeutet, dass das Gerät sowohl für den digitalen Empfang terrestrischer Signale einer Antenne (DVB-T), eines Kabelanschlusses (DVB-C) als auch für den TV-Empfang via Satellit (DVB-S bzw. DVB-S2) geeignet ist. Ein separater Receiver ist mit einem solchen TV nicht mehr notwendig, d.h. alle Programme können auch mit der TV-Fernbedienung umgeschaltet werden.
Während DVB-T/C im Prinzip jeder TV beherrscht (historischer Standard), sollte man besonders auf die Kennzeichnung DVB-S bzw. DVB-S2 achten, sofern man zuhause eine Satelliten-Schüssel installiert hat und darüber seinen TV-Empfang bezieht. Ohne DVB-S-Tuner benötigt man ansonsten noch einen zusätzlichen Receiver.
Was ist der Unterschied zwischen DVB-S und DVB-S2?
Neuere TV-Geräte besitzen meist einen DVB-S2-Tuner. DVB-S2 ist die direkte Weiterentwicklung von DVB-S und ermöglich deutlich höhere Datenübertragungsraten. Manche HD-Angebote (z.B. WDR) lassen sich zwar auch via DVB-S empfangen, aber auch diese Sender werden über kurz oder lang auf DVB-S2 umstellen - dann ist mit einem DVB-S-Tuner nur noch Standard-Auflösung drin. Alle Sendeanstalten sollten aber auf Ihren Webseiten genaue Daten zur HD-Übertragung bereitstellen, wie das z.B. bei der ARD der Fall ist. Hier sieht man auch deutlich, dass derzeit offenbar nur noch WDR über DVB-S empfangbar ist und die restlichen Sender der ARD einen DVB-S2-Tuner voraussetzen, um in den HD-Genuss zu kommen.
Beim Kauf also unbedingt darauf achten, dass der integrierte Tuner auch DVB-S2 beherrscht!
CI+
Wo HD ist, ist CI+ nicht weit. CI+ steht für „Common Interface Plus“ und ist die Weiterentwicklung des „CI-Slot“ - was praktisch lediglich einen Kartenschacht für CI-Module darstellt. Diese Module sind erforderlich, um verschlüsselte HD-Signale zu entschlüsseln. So z.B. die Inhalte des HD+ Angebotes, welches in Deutschland den Empfang von über 20 Privatsendern in HD ermöglicht.
Die Kritik an diesem System erspare ich mir an dieser Stelle, da ich ansonsten SEHR lange darüber schreiben würde
Wer also seinen TV nutzen möchte, um auch Privatsender in HD (ohne zusätzlichen Receiver) zu gucken, sollte darauf achten, dass das Gerät CI+ unterstützt. Den älteren CI-Standard (ohne „+“) findet man eigentlich in kaum einem aktuellen Gerät mehr.
USB-Recording, PVR bzw. PVR ready
PVR steht für „Personal Video Recorder“ und ermöglicht das Anschließen einer Festplatte oder eines USB-Sticks und damit das Aufzeichnen von TV-Sendungen oder Filmen. Manche TV-Geräte bieten diese Funktion allerdings nur mit Einschränkungen an. Oftmals ist dadurch auch eine TimeShift-Funktion möglich, mit der ein zeitversetztes Fernsehen erlaubt wird.
HbbTV
Die Abkürzung HbbTV steht für „Hybrid broadcast broadband TV“ und ist quasi der Nachfolger des klassischen Videotextes. Naja, nicht ganz - aber darunter kann man sich am meisten vorstellen.
Was genau HbbTV kann, ist am schnellsten mit diesem Wikipedia-Schnipsel erklärt:
HbbTV ist in der Praxis nett und wird schon von vielen Geräten unterstützt. Es wird wohl nicht lange dauern, bis sich dieser Standard durchsetzen wird. Derzeit sollte diese Funktion allerdings noch kein Argument sein, mehr für einen TV auszugeben - zukunftssicherer ist man natürlich schon jetzt mit HbbTV, was allerdings oft automatisch mit dem Kauf eines „Smart-TV“ einhergeht.
dlna, Miracast, MHL, …
Weitere Funktionen wie dlna, Miracast, MHL oder andere ähnliche Alternativen beschreibe ich an dieser Stelle nicht ausführlicher, da sie teilweise schon sehr speziell sind und in der Regel vom Durchschnittsverbraucher kaum genutzt werden dürften. Die verlinkten Wikipedia-Einträge sollten dazu aussagekräftig genug sein.
Kurz gesagt: Alle genannten Techniken sind dazu da, ein oder mehrere netzwerkfähige Geräte (PC, Notebook, aber v.a. Mobilgeräte) mit dem TV zu vernetzen. Sie dienen dazu, sich sein eigenes „Smart Home“ zu erstellen. Wer an diesen Techniken interessiert ist, weiß deshalb schon, auf was er beim Kauf eines TV achten muss Hier gibt es auch nicht viele Unterschiede. Entweder ein TV unterstützt den besagten Standard oder eben nicht.
Was ist mit dem Kontrastverhältnis und der Reaktionszeit?
Bildwiederholfrequenz (Hertz-Zahl)
100Hz, 200Hz, 400Hz, 600Hz, 800Hz oder gar 1000Hz und mehr. Viele Hersteller werben mit teils astronomischen Zahlen, die oft nur noch wenig mit der Realität zu tun haben. Nur wie viel Hertz sind denn nun nötig, um ein ruhiges Bild zu bekommen?
Erhöhte Bildwiederholfrequenzen ermöglichen eine sog. „Motion Interpolation“. Dabei werden vom TV zwischen zwei Einzelbildern interpolierte Zwischenbilder eingerechnet, um die Darstellung von bewegten Objekten flüssiger erscheinen zu lassen. Wie das Ganze funktioniert, erklärt der verlinkte Wikipedia-Eintrag.
Ein Blick auf die aktuelle Marktlage zeigt, dass es kaum mehr einen aktuellen HDTV unter 100Hz zu kaufen gibt. Das sollte auch die Mindestvoraussetzung sein, mit der man mehr als gut leben kann. Mehr ist zwar i.d.R. besser, das muss aber nicht sein (Stichwort „Soap-Opera-Effekt“). Außerdem spiegelt sich eine erhöhte Bildwiederholfrequenz oftmals automatisch auch im Preis wieder. Höherwertige TV-Geräte wollen auch mit extrem hohen Hertz-Zahlen dem Käufer suggerieren, dass es sich dabei um etwas Besseres handelt. Das ist aber oftmals ein reiner Marketing-Gag, der nur durch rechnerische Tricks erreicht wird – der gleiche Unfug wurde vor wenigen Jahren mit den Kontrastwerten veranstaltet.
Eine Angabe von 200Hz oder mehr sind derzeit in etwa der gute Mittelklasse-Standard. Alles was darüber geht, schaut zwar vll. „irgendwie besser / anders“ aus, sollte aber keinesfalls ein Kriterium sein, um dafür mehr Geld auszugeben. Wie viel Hertz ein spezielles Gerät hat, hängt auch von der verwendeten Display-Technologie ab (siehe oben). Deshalb gehe ich an dieser Stelle nicht ins Detail.
In der Praxis ist also lediglich auf min. 100Hz zu achten. Wenn ein TV mehr kann, ist das natürlich gut – die verwendete „Motion Interpolation“ lässt sich im Zweifel dann meist abschalten. 100Hz sollten in der Regel allerdings völlig ausreichen.
Integrierte TV-Tuner (DVB-T/C/S2)
Was früher noch als „Receiver“ bekannt war, nennt sich heute bei den meisten TV-Geräten „Tuner“. Häufig verwendet wird in der Werbung der Begriff „Triple Tuner“. Das bedeutet, dass das Gerät sowohl für den digitalen Empfang terrestrischer Signale einer Antenne (DVB-T), eines Kabelanschlusses (DVB-C) als auch für den TV-Empfang via Satellit (DVB-S bzw. DVB-S2) geeignet ist. Ein separater Receiver ist mit einem solchen TV nicht mehr notwendig, d.h. alle Programme können auch mit der TV-Fernbedienung umgeschaltet werden.
Während DVB-T/C im Prinzip jeder TV beherrscht (historischer Standard), sollte man besonders auf die Kennzeichnung DVB-S bzw. DVB-S2 achten, sofern man zuhause eine Satelliten-Schüssel installiert hat und darüber seinen TV-Empfang bezieht. Ohne DVB-S-Tuner benötigt man ansonsten noch einen zusätzlichen Receiver.
Was ist der Unterschied zwischen DVB-S und DVB-S2?
Neuere TV-Geräte besitzen meist einen DVB-S2-Tuner. DVB-S2 ist die direkte Weiterentwicklung von DVB-S und ermöglich deutlich höhere Datenübertragungsraten. Manche HD-Angebote (z.B. WDR) lassen sich zwar auch via DVB-S empfangen, aber auch diese Sender werden über kurz oder lang auf DVB-S2 umstellen - dann ist mit einem DVB-S-Tuner nur noch Standard-Auflösung drin. Alle Sendeanstalten sollten aber auf Ihren Webseiten genaue Daten zur HD-Übertragung bereitstellen, wie das z.B. bei der ARD der Fall ist. Hier sieht man auch deutlich, dass derzeit offenbar nur noch WDR über DVB-S empfangbar ist und die restlichen Sender der ARD einen DVB-S2-Tuner voraussetzen, um in den HD-Genuss zu kommen.
Beim Kauf also unbedingt darauf achten, dass der integrierte Tuner auch DVB-S2 beherrscht!
CI+
Wo HD ist, ist CI+ nicht weit. CI+ steht für „Common Interface Plus“ und ist die Weiterentwicklung des „CI-Slot“ - was praktisch lediglich einen Kartenschacht für CI-Module darstellt. Diese Module sind erforderlich, um verschlüsselte HD-Signale zu entschlüsseln. So z.B. die Inhalte des HD+ Angebotes, welches in Deutschland den Empfang von über 20 Privatsendern in HD ermöglicht.
Die Kritik an diesem System erspare ich mir an dieser Stelle, da ich ansonsten SEHR lange darüber schreiben würde
Wer also seinen TV nutzen möchte, um auch Privatsender in HD (ohne zusätzlichen Receiver) zu gucken, sollte darauf achten, dass das Gerät CI+ unterstützt. Den älteren CI-Standard (ohne „+“) findet man eigentlich in kaum einem aktuellen Gerät mehr.
USB-Recording, PVR bzw. PVR ready
PVR steht für „Personal Video Recorder“ und ermöglicht das Anschließen einer Festplatte oder eines USB-Sticks und damit das Aufzeichnen von TV-Sendungen oder Filmen. Manche TV-Geräte bieten diese Funktion allerdings nur mit Einschränkungen an. Oftmals ist dadurch auch eine TimeShift-Funktion möglich, mit der ein zeitversetztes Fernsehen erlaubt wird.
HbbTV
Die Abkürzung HbbTV steht für „Hybrid broadcast broadband TV“ und ist quasi der Nachfolger des klassischen Videotextes. Naja, nicht ganz - aber darunter kann man sich am meisten vorstellen.
Was genau HbbTV kann, ist am schnellsten mit diesem Wikipedia-Schnipsel erklärt:
Wikipedia schrieb:Ähnlich dem Videotext werden zusätzliche Informationen des Programmanbieters angezeigt, wobei diese sowohl über das Fernsehsignal […] als auch über eine Internetverbindung bezogen werden. Damit werden umfassendere Möglichkeiten zur Informationsdarstellung und Navigation bereitgestellt.
HbbTV ist in der Praxis nett und wird schon von vielen Geräten unterstützt. Es wird wohl nicht lange dauern, bis sich dieser Standard durchsetzen wird. Derzeit sollte diese Funktion allerdings noch kein Argument sein, mehr für einen TV auszugeben - zukunftssicherer ist man natürlich schon jetzt mit HbbTV, was allerdings oft automatisch mit dem Kauf eines „Smart-TV“ einhergeht.
dlna, Miracast, MHL, …
Weitere Funktionen wie dlna, Miracast, MHL oder andere ähnliche Alternativen beschreibe ich an dieser Stelle nicht ausführlicher, da sie teilweise schon sehr speziell sind und in der Regel vom Durchschnittsverbraucher kaum genutzt werden dürften. Die verlinkten Wikipedia-Einträge sollten dazu aussagekräftig genug sein.
Kurz gesagt: Alle genannten Techniken sind dazu da, ein oder mehrere netzwerkfähige Geräte (PC, Notebook, aber v.a. Mobilgeräte) mit dem TV zu vernetzen. Sie dienen dazu, sich sein eigenes „Smart Home“ zu erstellen. Wer an diesen Techniken interessiert ist, weiß deshalb schon, auf was er beim Kauf eines TV achten muss Hier gibt es auch nicht viele Unterschiede. Entweder ein TV unterstützt den besagten Standard oder eben nicht.
Was ist mit dem Kontrastverhältnis und der Reaktionszeit?
Vor wenigen Jahren überboten sich die gängigen Hersteller von HDTVs regelmäßig mit immer höheren Kontrastwerten und schnelleren Reaktionszeiten von ihren verbauten Displays. Davon liest man heute schlichtweg GAR NICHTS mehr. Warum? Die Display-Technologie hat sich mittlerweile stark weiterentwickelt. Grundlegende Qualitätsmerkmale wie eben der Kontrast oder die Reaktionszeit sind mittlerweile bei jedem verbauten Display der bekannten Hersteller mehr als ausreichend. Nachdem sich der Kontrast hardwareseitig nicht mehr großartig verbessern lies, fing man den Wettstreit mit dem sog. „dynamischen Kontrast“ an. Diese durch Veränderung der Helligkeit erreichten Kontrastewerte rechnete man einfach in das klassische Schema 1:xxxx um und prahlte fortan mit astronomischen Zahlen. Nachdem das Ganze aber irgendwann durch immer lächerlichere Marketing-Aktionen so hochgepusht wurde, dass die genannten Zahlen sowieso nur noch Schall und Rauch waren, hat man sich durch die damaligen Neuerungen (wie SmartTV und 3D) ganz vom Kontrast-Kampf abgewandt. Wer heute nach einem neuen TV sucht, wird kaum mehr eine Angabe zum Kontrast finden. Ähnlich verhält es sich mit den Reaktionszeiten der Displays - nachdem mittlerweile jedes Standard-Display gute Reaktionszeiten vorweisen kann, ist das keine Eigenschaft mehr, mit der man werben kann. Da die Hersteller oftmals sogar baugleiche Displays verwenden, sowieso nicht. Daher gibt es auch bei so gut wie fast keinem TV mehr eine Angabe zum Ansprechverhalten des Panels.
Die Aufpreisliste
Smart-TV
Vor wenigen Jahren noch Luxus, kommt kaum ein neuer HDTV heutzutage noch ohne eine sog. „Smart-TV“ Funktion aus. Ein Smart-TV bietet die Möglichkeit, das Gerät mit dem Internet zu verbinden (via Kabel, WLAN oder beidem), um so mithilfe spezieller Apps bspw. YouTube-Videos ansehen zu können oder den Zugriff auf die Mediatheken vieler Sender zu ermöglichen.
Welche Features genau ein Smart-TV hat, wird oft vom Hersteller ausführlich auf der Produktseite beschrieben. Besonders auf der Hardware-Ebene interessant ist bspw. die Möglichkeit einer Sprach- oder Gesten-Steuerung, die die umständliche Bedienung mit einer klassischen Fernbedienung erspart.
Oben man diese Funktionen bei einem Fernseher braucht oder nicht, muss jeder für sich selbst entscheiden. Wer darauf verzichten kann, kann momentan das ein oder andere Schnäppchen abgreifen, da es im selben Preissegment oftmals bessere TV-Geräte OHNE Smart-TV-Funktion im Handel gibt.
3D
Viele Fernseher unterstützen derzeit eine 3D-Funktion. Damit lassen sich wie im Kino Filme und Spiele in der dritten Generation genießen. Allerdings ist diese Funktion schon wieder auf dem absteigenden Ast. Das Problem liegt vor allem darin, dass für den 3D-Genuss ein passendes Quellmaterial erforderlich ist. Es gibt zwar zahlreiche 3D-Blu-rays, allerdings werden diese wie im Kino meist zu höheren Preisen verkauft als die 2D-Versionen. Zu Zeiten der PS3 haben Sony und andere Hersteller einige Games veröffentlicht, die auch in 3D spielbar waren. Aktuell gibt es auf der PS4 keinen einzigen Titel, der eine 3D-Funktionalität unterstützt. Einige TV-Geräte können zwar 2D-Inhalte in 3D konvertieren und damit ein recht brauchbares, dreidimensionales Bild erzeugen - mit einem „echten“ 3D-Bild (und Quellmaterial, was darauf ausgelegt ist) ist das allerdings natürlich nicht vergleichbar.
Ob sich 3D nochmals aufrappeln kann oder (wieder mal ) vom Markt verschwindet, ist schwer zu sagen. Derzeit sieht es aber eher nach letzterem aus.
Wer sich dennoch dafür interessiert, kann sich beim Kauf eines TVs v.a. zwischen zwei verschiedenen 3D-Varianten entscheiden. Die „Active Shutter“-Technologie (aktiv) oder die „Polarisationstechnologie“ (passiv). Andere 3D-Verfahren werden bei aktuellen TV-Geräten nicht eingesetzt. Bei der Active-Shutter-Technologie arbeiten die batteriebetriebenen Brillen mit dem fortschrittlichen Shutter-3D-System, erfordern allerdings teurere Brillen, die dazu auch aufgeladen werden müssen. Die Polarisations-Technik kennt man vor allem aus den meisten Kinos, die Brillen arbeiten hier nicht aktiv, sondern mit Polfiltern und benötigen daher keine Batterien und sind damit auch leichter.
Beim Kauf sollte auf jeden Fall darauf geachtet werden, ob und wie viele 3D-Brillen enthalten sind.
Vor wenigen Jahren noch Luxus, kommt kaum ein neuer HDTV heutzutage noch ohne eine sog. „Smart-TV“ Funktion aus. Ein Smart-TV bietet die Möglichkeit, das Gerät mit dem Internet zu verbinden (via Kabel, WLAN oder beidem), um so mithilfe spezieller Apps bspw. YouTube-Videos ansehen zu können oder den Zugriff auf die Mediatheken vieler Sender zu ermöglichen.
Welche Features genau ein Smart-TV hat, wird oft vom Hersteller ausführlich auf der Produktseite beschrieben. Besonders auf der Hardware-Ebene interessant ist bspw. die Möglichkeit einer Sprach- oder Gesten-Steuerung, die die umständliche Bedienung mit einer klassischen Fernbedienung erspart.
Oben man diese Funktionen bei einem Fernseher braucht oder nicht, muss jeder für sich selbst entscheiden. Wer darauf verzichten kann, kann momentan das ein oder andere Schnäppchen abgreifen, da es im selben Preissegment oftmals bessere TV-Geräte OHNE Smart-TV-Funktion im Handel gibt.
3D
Viele Fernseher unterstützen derzeit eine 3D-Funktion. Damit lassen sich wie im Kino Filme und Spiele in der dritten Generation genießen. Allerdings ist diese Funktion schon wieder auf dem absteigenden Ast. Das Problem liegt vor allem darin, dass für den 3D-Genuss ein passendes Quellmaterial erforderlich ist. Es gibt zwar zahlreiche 3D-Blu-rays, allerdings werden diese wie im Kino meist zu höheren Preisen verkauft als die 2D-Versionen. Zu Zeiten der PS3 haben Sony und andere Hersteller einige Games veröffentlicht, die auch in 3D spielbar waren. Aktuell gibt es auf der PS4 keinen einzigen Titel, der eine 3D-Funktionalität unterstützt. Einige TV-Geräte können zwar 2D-Inhalte in 3D konvertieren und damit ein recht brauchbares, dreidimensionales Bild erzeugen - mit einem „echten“ 3D-Bild (und Quellmaterial, was darauf ausgelegt ist) ist das allerdings natürlich nicht vergleichbar.
Ob sich 3D nochmals aufrappeln kann oder (wieder mal ) vom Markt verschwindet, ist schwer zu sagen. Derzeit sieht es aber eher nach letzterem aus.
Wer sich dennoch dafür interessiert, kann sich beim Kauf eines TVs v.a. zwischen zwei verschiedenen 3D-Varianten entscheiden. Die „Active Shutter“-Technologie (aktiv) oder die „Polarisationstechnologie“ (passiv). Andere 3D-Verfahren werden bei aktuellen TV-Geräten nicht eingesetzt. Bei der Active-Shutter-Technologie arbeiten die batteriebetriebenen Brillen mit dem fortschrittlichen Shutter-3D-System, erfordern allerdings teurere Brillen, die dazu auch aufgeladen werden müssen. Die Polarisations-Technik kennt man vor allem aus den meisten Kinos, die Brillen arbeiten hier nicht aktiv, sondern mit Polfiltern und benötigen daher keine Batterien und sind damit auch leichter.
Beim Kauf sollte auf jeden Fall darauf geachtet werden, ob und wie viele 3D-Brillen enthalten sind.
4K Ultra HD
Brauche ich einen Ultra HD Fernseher oder nicht?
Was 4K TVs besser können als die Standard-FullHD-Alternativen, habe ich bereits bei den Grundlagen beschrieben. Die Frage ist nun: Braucht man so ein Teil (jetzt schon)? Pauschal lässt sich das natürlich nicht beantworten. Man sollte den aktuellen Stand der Dinge kennen und daraus seine eigenen Schlüsse ziehen.
Mangelnder Content
Das Problem ist derzeit (ähnlich der 3D-Thematik) noch der Content. Ultra HD macht nur Sinn, wenn es auch Quellmaterial in dieser Qualität gibt und sich dieses auch verlustfrei an den TV übertragen lässt (wichtiger Punkt!). Es gibt mit (dem erst diese Woche in Deutschland gestarteten) Netflix derzeit praktisch nur einen kommerziellen Streaming-Anbieter, der echte 4K-Inhalte bereitstellt. Immerhin hat die Konkurrenz bei Maxdome für das nächste Jahr ebenfalls 4K-Streams angekündigt. Ein Problem hierbei ist allerdings auch die dafür nötige Bandbreite: Für einen 4K-Stream sind min. 16 Mbit/s erforderlich. Das dürfte nicht nur in ländlichen Gegenden, sondern auch in städtischen Randgebieten ein Problem werden. Daneben wird es ein physikalisches Medium für 4K-Inhalte mit dem neuen Blu-ray-Standard frühestens Ende 2015 geben.
Googles Videoportal-Platzhirsch YouTube hat immerhin schon einige 4K-Videos im Sortiment - allerdings sollte hier bedacht werden, dass diese in erster Linie die geforderte Auflösung erfüllen, aufgrund der Komprimierung und niedrigeren Bitrate aber momentan nicht die avisierten Ziele von künftigen 4K-Übertragungen erreichen. Dazu kommt, dass es viele Consumer-Camcorder gibt, die 4K-Videos aufnehmen. Mit der Qualität einer 4K-Film-Produktion sind diese Clips allerdings kaum vergleichbar. Es kristallisiert sich also auch hier ein ähnliches Problem wie bei Digitalkameras heraus: Mehr Pixel bzw. höhere Auflösungen bedeuten nicht zwingend eine bessere Bildqualität – auch wenn dies in der Werbung oft so angepriesen wird.
Ultra HD als digitale Fotoleinwand?
Wer eine gute Digitalkamera besitzt, möchte seine Bilder evtl. hochauflösend auf dem TV ansehen - damit wäre zumindest hochwertiges Quellmaterial verfügbar. Dafür eignen sich UHDTVs perfekt - zumindest in der Theorie. Die Praxis ist leider wieder mal etwas komplizierter. Ja, es gibt schon UHD Fernseher, die diese Disziplin ganz gut beherrschen. Allerdings liest man auch - gerade bei billigeren Modellen - in den Reviews bzw. Produktrezensionen, dass diese Aufgabe nicht immer so ausgeführt wird, wie es sein sollte. So gibt es z.B. auf Amazon einen mit unter 500€ unfassbar günstigen UHDTV von „Hisense“, der sich offenbar grobe Fehler bei der Verarbeitung von Bildern über einen USB-Stick bzw. eine USB-Festplatte leistet. Statt die (meist deutlich höher aufgelösten Bilder) in nativer Ultra-HD-Auflösung darzustellen, rechnet er bei der Übertragung an der USB-Schnittstelle erst in FullHD um und skaliert diese 4 mal niedrigere Auflösung erst im Anschluss wieder auf 4K hoch. Das mag zwar immer noch nett aussehen, entspricht aber im Prinzip nur einem gestreckten FullHD-Bild.
Das ist nur ein Beispiel von vielen kleinen Stolperfallen, die besonders überraschend günstige UHD-Geräte betreffen.
Curved TV – das Rundein statt das Eckige?
Eine weitere Neuerung im Ultra-HD-TV-Segment sind die sog. „Curved TVs“. Besonders Samsung bietet hier schon einige Modelle zu bezahlbaren Preisen an. Diese gebogene Display-Form soll besonders bei übergroßen Fernsehern ein besonders natürliches Betrachten des TVs ermöglichen – das klappt in der Praxis aber nur bei einem bestimmten Abstand und Winkel zum Gerät. Besonders wenn der TV-Sessel nicht statisch im Raum steht oder gar eine ganze Familie über eine große Wohnlandschaft verteilt zusehen möchte, ist dieser Effekt im Hinblick auf die Blickwinkelstabilität sogar eher nachteilig. Auch bei einem lediglich zu großen Abstand zum TV-Gerät ist das gebogene Display praktisch nutzlos und wirkt eher unnatürlich.
Wer sich v.a. für den Eigenbedarf einen neuen UHDTV anschaffen möchte, kann diese neue Bauform angenehm empfinden. Allerdings sieht diese Entwicklung langfristig eher nach einem kurzweiligen Trend als einem Must-Have für Heimkino-Fans aus.
Zukunftssicherheit! Zukunftssicherheit?
Wer jetzt einen Ultra HD-TV kauft, macht offenbar eine zukunftssichere Investition. Ultra-hochauflösende Inhalte werden definitiv kommen, von daher gibt es ja eigentlich keinen Grund, bei einer Neuanschaffung darauf zu verzichten - oder?
Jaein. Das Problem ist, dass die Spezifikationen für 4K-Inhalte noch nicht 100%ig definiert sind. D.h. es kann sich besonders bei den Anschlussarten und Decodierungsverfahren über die Jahre durchaus noch etwas ändern. Deshalb sind günstige UHDTVs derzeit mit Vorsicht zu genießen - man sollte sich auf jeden Fall über die Zukunftssicherheit des Modells informieren. Besonders teure Geräte (wie das folgende Modell von Samsung, welches ich mir letztes Jahr in Dubai angesehen habe) sind deshalb schon hardwareseitig vorbereitet. Alle Anschlüsse sind nicht direkt ins Gehäuse integriert, sondern mit einer Art „Steckdosenleiste“ mit dem TV verbunden (siehe Bild unten). Ändert sich über die Jahre ein Anschluss-Typ, muss so nur noch diese Anschlussleiste ersetzt werden und der hochwertige TV bleibt auf dem aktuellsten Stand der Dinge.
Der Haken dabei ist nur, dass solche Luxus-Geräte erstens recht selten und zweitens schnell mal das 10- bis 20-fache von gewöhnlichen UHD Fernsehern kosten…
Der 85“ Riese von Samsung kostete 2013 in Europa noch schlappe 35.000€.
Empfehlung
Wer sich den Vor- und Nachteilen eines UHDTVs bewusst ist und sich ernsthaft mit dem Kauf beschäftigt, sollte vor allem darauf achten, dass das gewünschte Gerät ausreichend HDMI 2.0 Anschlüsse besitzt. Das ist der aktuelle HDMI-Standard, über den künftig die ultra-hochauflösenden Inhalte von anderen Medien(-Playern) übertragen werden sollen. Bei vollwertigen HDMI 2.0 Anschlüssen ist auch die neue Kopierschutz-Norm HDCP 2.2 vorgeschrieben, so dass man auch hier auf der sicheren Seite ist. Die für Ende 2015 geplante Einführung der 4K-Blu-rays erfordert z.B. diesen Anschluss.
Ansonsten sollte man auf die Standards und Mindestvoraussetzungen achten, die auch bei FullHD Geräten wichtig sind. In dieser Hinsicht unterscheiden sich die UHDTVs kaum von den Vorgängern.
Meine persönliche Meinung: Ich würde mir momentan auch schwer tun, wenn ich mich jetzt entscheiden müsste. Die Ultra HD Glotzen von namhaften Herstellern wie Samsung und LG sind mit teils deutlich unter 2000€ sehr verlockend. Einstiegsgeräte dieser Hersteller gibt es sogar schon für die Hälfte. Selbst die meist teureren Sony-Geräte sind mit deutlich unter 3000€ verhältnismäßig günstig.
Allerdings gibt es zwei Gründe, weshalb ich mich aktuell noch gegen einen UHDTV entscheiden würde. Zum einen die bereits angesprochene fragwürdige Zukunftssicherheit und die Tatsache, dass die Geräte über die Jahre auch nicht mehr teurer werden. Die aktuellen Schnäppchen wird es schließlich in Form anderer und neuerer Modelle auch in 2-3 Jahren noch geben. Durch die schnelllebige Entwicklung und Etablierung des neuen Standards werden die Angebote im Gegenteil eher noch besser werden. Der zweite Grund ist, dass es jetzt durch den 4K-Trend auch sehr hochwertige FullHD-Modelle zu verhältnismäßig günstigen Preisen gibt. Ein HDTV, der vor 2 Jahren noch 3000€ gekostet hat, ist jetzt für nicht mal mehr die Hälfte zu haben.
Nach dem aktuellen Stand der Dinge nach zu urteilen, ist das imho derzeit noch die bessere Investition.
Das Problem ist derzeit (ähnlich der 3D-Thematik) noch der Content. Ultra HD macht nur Sinn, wenn es auch Quellmaterial in dieser Qualität gibt und sich dieses auch verlustfrei an den TV übertragen lässt (wichtiger Punkt!). Es gibt mit (dem erst diese Woche in Deutschland gestarteten) Netflix derzeit praktisch nur einen kommerziellen Streaming-Anbieter, der echte 4K-Inhalte bereitstellt. Immerhin hat die Konkurrenz bei Maxdome für das nächste Jahr ebenfalls 4K-Streams angekündigt. Ein Problem hierbei ist allerdings auch die dafür nötige Bandbreite: Für einen 4K-Stream sind min. 16 Mbit/s erforderlich. Das dürfte nicht nur in ländlichen Gegenden, sondern auch in städtischen Randgebieten ein Problem werden. Daneben wird es ein physikalisches Medium für 4K-Inhalte mit dem neuen Blu-ray-Standard frühestens Ende 2015 geben.
Googles Videoportal-Platzhirsch YouTube hat immerhin schon einige 4K-Videos im Sortiment - allerdings sollte hier bedacht werden, dass diese in erster Linie die geforderte Auflösung erfüllen, aufgrund der Komprimierung und niedrigeren Bitrate aber momentan nicht die avisierten Ziele von künftigen 4K-Übertragungen erreichen. Dazu kommt, dass es viele Consumer-Camcorder gibt, die 4K-Videos aufnehmen. Mit der Qualität einer 4K-Film-Produktion sind diese Clips allerdings kaum vergleichbar. Es kristallisiert sich also auch hier ein ähnliches Problem wie bei Digitalkameras heraus: Mehr Pixel bzw. höhere Auflösungen bedeuten nicht zwingend eine bessere Bildqualität – auch wenn dies in der Werbung oft so angepriesen wird.
Ultra HD als digitale Fotoleinwand?
Wer eine gute Digitalkamera besitzt, möchte seine Bilder evtl. hochauflösend auf dem TV ansehen - damit wäre zumindest hochwertiges Quellmaterial verfügbar. Dafür eignen sich UHDTVs perfekt - zumindest in der Theorie. Die Praxis ist leider wieder mal etwas komplizierter. Ja, es gibt schon UHD Fernseher, die diese Disziplin ganz gut beherrschen. Allerdings liest man auch - gerade bei billigeren Modellen - in den Reviews bzw. Produktrezensionen, dass diese Aufgabe nicht immer so ausgeführt wird, wie es sein sollte. So gibt es z.B. auf Amazon einen mit unter 500€ unfassbar günstigen UHDTV von „Hisense“, der sich offenbar grobe Fehler bei der Verarbeitung von Bildern über einen USB-Stick bzw. eine USB-Festplatte leistet. Statt die (meist deutlich höher aufgelösten Bilder) in nativer Ultra-HD-Auflösung darzustellen, rechnet er bei der Übertragung an der USB-Schnittstelle erst in FullHD um und skaliert diese 4 mal niedrigere Auflösung erst im Anschluss wieder auf 4K hoch. Das mag zwar immer noch nett aussehen, entspricht aber im Prinzip nur einem gestreckten FullHD-Bild.
Das ist nur ein Beispiel von vielen kleinen Stolperfallen, die besonders überraschend günstige UHD-Geräte betreffen.
Curved TV – das Runde
Eine weitere Neuerung im Ultra-HD-TV-Segment sind die sog. „Curved TVs“. Besonders Samsung bietet hier schon einige Modelle zu bezahlbaren Preisen an. Diese gebogene Display-Form soll besonders bei übergroßen Fernsehern ein besonders natürliches Betrachten des TVs ermöglichen – das klappt in der Praxis aber nur bei einem bestimmten Abstand und Winkel zum Gerät. Besonders wenn der TV-Sessel nicht statisch im Raum steht oder gar eine ganze Familie über eine große Wohnlandschaft verteilt zusehen möchte, ist dieser Effekt im Hinblick auf die Blickwinkelstabilität sogar eher nachteilig. Auch bei einem lediglich zu großen Abstand zum TV-Gerät ist das gebogene Display praktisch nutzlos und wirkt eher unnatürlich.
Wer sich v.a. für den Eigenbedarf einen neuen UHDTV anschaffen möchte, kann diese neue Bauform angenehm empfinden. Allerdings sieht diese Entwicklung langfristig eher nach einem kurzweiligen Trend als einem Must-Have für Heimkino-Fans aus.
Zukunftssicherheit! Zukunftssicherheit?
Wer jetzt einen Ultra HD-TV kauft, macht offenbar eine zukunftssichere Investition. Ultra-hochauflösende Inhalte werden definitiv kommen, von daher gibt es ja eigentlich keinen Grund, bei einer Neuanschaffung darauf zu verzichten - oder?
Jaein. Das Problem ist, dass die Spezifikationen für 4K-Inhalte noch nicht 100%ig definiert sind. D.h. es kann sich besonders bei den Anschlussarten und Decodierungsverfahren über die Jahre durchaus noch etwas ändern. Deshalb sind günstige UHDTVs derzeit mit Vorsicht zu genießen - man sollte sich auf jeden Fall über die Zukunftssicherheit des Modells informieren. Besonders teure Geräte (wie das folgende Modell von Samsung, welches ich mir letztes Jahr in Dubai angesehen habe) sind deshalb schon hardwareseitig vorbereitet. Alle Anschlüsse sind nicht direkt ins Gehäuse integriert, sondern mit einer Art „Steckdosenleiste“ mit dem TV verbunden (siehe Bild unten). Ändert sich über die Jahre ein Anschluss-Typ, muss so nur noch diese Anschlussleiste ersetzt werden und der hochwertige TV bleibt auf dem aktuellsten Stand der Dinge.
Der Haken dabei ist nur, dass solche Luxus-Geräte erstens recht selten und zweitens schnell mal das 10- bis 20-fache von gewöhnlichen UHD Fernsehern kosten…
Der 85“ Riese von Samsung kostete 2013 in Europa noch schlappe 35.000€.
Empfehlung
Wer sich den Vor- und Nachteilen eines UHDTVs bewusst ist und sich ernsthaft mit dem Kauf beschäftigt, sollte vor allem darauf achten, dass das gewünschte Gerät ausreichend HDMI 2.0 Anschlüsse besitzt. Das ist der aktuelle HDMI-Standard, über den künftig die ultra-hochauflösenden Inhalte von anderen Medien(-Playern) übertragen werden sollen. Bei vollwertigen HDMI 2.0 Anschlüssen ist auch die neue Kopierschutz-Norm HDCP 2.2 vorgeschrieben, so dass man auch hier auf der sicheren Seite ist. Die für Ende 2015 geplante Einführung der 4K-Blu-rays erfordert z.B. diesen Anschluss.
Ansonsten sollte man auf die Standards und Mindestvoraussetzungen achten, die auch bei FullHD Geräten wichtig sind. In dieser Hinsicht unterscheiden sich die UHDTVs kaum von den Vorgängern.
Meine persönliche Meinung: Ich würde mir momentan auch schwer tun, wenn ich mich jetzt entscheiden müsste. Die Ultra HD Glotzen von namhaften Herstellern wie Samsung und LG sind mit teils deutlich unter 2000€ sehr verlockend. Einstiegsgeräte dieser Hersteller gibt es sogar schon für die Hälfte. Selbst die meist teureren Sony-Geräte sind mit deutlich unter 3000€ verhältnismäßig günstig.
Allerdings gibt es zwei Gründe, weshalb ich mich aktuell noch gegen einen UHDTV entscheiden würde. Zum einen die bereits angesprochene fragwürdige Zukunftssicherheit und die Tatsache, dass die Geräte über die Jahre auch nicht mehr teurer werden. Die aktuellen Schnäppchen wird es schließlich in Form anderer und neuerer Modelle auch in 2-3 Jahren noch geben. Durch die schnelllebige Entwicklung und Etablierung des neuen Standards werden die Angebote im Gegenteil eher noch besser werden. Der zweite Grund ist, dass es jetzt durch den 4K-Trend auch sehr hochwertige FullHD-Modelle zu verhältnismäßig günstigen Preisen gibt. Ein HDTV, der vor 2 Jahren noch 3000€ gekostet hat, ist jetzt für nicht mal mehr die Hälfte zu haben.
Nach dem aktuellen Stand der Dinge nach zu urteilen, ist das imho derzeit noch die bessere Investition.
Fazit
ndz schrieb:Die TV-Technik ist mittlerweile sehr gut entwickelt. Beim Kauf eines Geräts von namhaften Herstellern kann man heute als Durchschnittsverbraucher kaum mehr einen Fehlkauf begehen. Sobald man natürlich speziellere Vorstellungen vom künftigen Traum-TV hat, sollte man sich natürlich etwas mehr mit der Thematik beschäftigen. Besonders die im Thread erwähnten grundlegenden Austattungsmerkmale (3D? Smart-TV? Triple Tuner? Ultra HD? …) sollten bei einem Kauf beachtet werden.
Ansonsten gilt wie immer: Am besten das Gerät mal im Einzelhandel begutachten und genau ansehen. Beim Online-Kauf sollte man vor allem auf die negativen Rezensionen (falls vorhanden) achten und genau durchlesen, was vom Rezensenten bemängelt wird. Oftmals ist das nur - sorry für die Ausdrucksweise - Bullshit und es werden nur Peanuts angekreidet, weil sich der Käufer im Voraus nicht ausreichend informiert hat. Sind an einem Gerät deutliche Mängel vorhanden, lässt sich das aufgrund vieler gleichlautenden negativen Bewertungen in der Regel schnell erkennen.
Sobald man das Gerät in den heimischen vier Wänden installiert hat, mit den persönlichen Anforderungen an den TV klar kommt und das Bild zu guter letzt die eigenen Augen überzeugen kann, hat man auf jeden Fall nichts falsch gemacht
In diesem Sinne: Viel Spaß!
Zuletzt bearbeitet: