Der große (U)HDTV-Helpthread - alles über UHD, 4K, Smart TV, 3D & mehr!

ndz

Bekanntes Gesicht
Der große (U)HDTV [Helpthread] + [FAQ] - alles über UHD, 4K, Smart TV, 3D & mehr!


Stand: 26.01.2015



rlx98z36.jpg

Vorwort

Spoiler:
Da der originale HDTV Helpthread bereits 7 Jahre auf dem Buckel hat, schadet es mit Sicherheit nicht, diesen wieder etwas aufzufrischen und an die aktuelle Marktlage anzupassen. Da der ursprüngliche Autor seit über 3 Jahren nicht mehr hier im Forum aktiv ist, übernehme ich das an dieser Stelle mal ganz frech in eigener Verantwortung.

Außerdem dachte ich mir, dass es mal wieder an der Zeit ist nach meinem Info-Thread zum Thema "Indizierte / beschlagnahmte Spiele importieren" wieder einen Dienst für die Community zu leisten =) Ein Dank geht vor allem an T-Bow für den Anreiz dazu, der mit der [PS4] Spiele-Release-Liste erst jüngst einen tollen Thread ins Leben gerufen hat :top:



Über diesen Thread

Der Thread soll vor allem als Entscheidungshilfe beim Kauf eines neuen TV helfen. Deshalb werden einige harte Fakten erklärt, aber auch persönliche Empfehlungen und Erfahrungswerte weitergegeben. Aufgrund der zahllosen Techniken und Abkürzungen, die bei den diversen Herstellern oftmals sehr unterschiedlich sind (aber im Prinzip das gleiche bedeuten) sind umgangssprachliche Erklärungen zu den wichtigsten Standards meiner Meinung nach der bessere Weg, als aus diesem Thread ein 200-seitiges Glossar zu schaffen. Das befriedigt zwar vll. den Technik-Nerd, bringt aber dem Otto-Normal-Verbraucher als Ratgeber bzw. Helpthread imho weniger. Dennoch versuche ich natürlich einen guten Mittelweg im offen gehaltenen FAQ-Stil zu schaffen.

Wenn möglich, versuche ich diesen Thread regelmäßig upzudaten & anzupassen. Gerne ist aber natürlich auch jede Hilfe in Form von Verbesserungsvorschlägen, Korrekturen oder künftigen Updates erwünscht! Diese können einfach als Antwort auf diesen Thread geäußert werden, so dass ich sie in künftigen Thread-Updates beachten kann. Ich weiß, dass z.B. die Spoiler-Lösung nicht die optimalste ist, allerdings ist mir keine andere Möglichkeit eingefallen, um die Übersicht in dem doch recht groß geratenen Thread zu bewahren. Über andere Vorschläge würde ich mich freuen.


Natürlich kann und soll der Thread auch für spezifische Fragen sowie als Diskussionsplattform rund um das Thema HDTV genutzt werden!





Die Grundlagen


HD ready, 720p, FullHD, 1080p, UHD, 4K, …?

Eine Übersicht der unterschiedlichen Auflösungen und deren Bezeichnungen:

Spoiler:
7wybceup.jpg
HD ready oder 720p

Generell werden als „High Definition TeleVision (HDTV)“ alle neuen Flachbildschirme im TV-Bereich bezeichnet. Um diesen „Titel“ offiziell tragen zu dürfen, muss ein TV-Gerät mindestens die HD ready-Spezifikation erfüllen. Diese setzt v.a. eine Bildschirmauflösung von min. 1280x720 Pixeln, die in progressiven Vollbildern angezeigt werden kann, voraus. Das „p“ bei der Bezeichnung „720p“ steht also für „progressive“ und nicht für „Pixel“. Das bedeutet schlichtweg, dass der TV dazu in der Lage ist, hochauflösendes (HD) Fernsehen wiederzugeben. Alle weiteren Anforderungen finden sich im oben verlinkten Wikipedia-Eintrag.

Ein HD ready TV-Gerät kann auch eine Auflösung von 1920x1080 Pixeln darstellen, dann allerdings nur im „interlaced“ Modus, weshalb dieser Anzeigemodus auch als „1080i“ abgekürzt wird. Da hier nur Halbbilder abwechselnd dargestellt werden, ist das sichtbare Bild in der Praxis deutlich schlechter als die ruhiger wirkende Darstellung von niedriger aufgelösten Vollbildern (720p). Das alte Interlaced-Verfahren stammt vor allem aus der Zeit der Röhrenfernseher und wird bei neueren HDTV-Geräten im Consumer-Bereich nicht mehr verwendet.

Das im Jahre 2005 geschaffene Label HD ready ist heute bereits praktisch tot, weshalb ich mir weitere Erklärungen zu diesem Format spare. TV-Geräte mit dieser Bezeichnung finden sich meist nur noch bei den Restposten oder billigen China-Anbietern, die ihre Restwaren verschleudern. Abgelöst wurde HD ready bereits vor längerer Zeit vom derzeitigen FullHD-Standard.


dnzqbo2z.jpg
FullHD oder 1080p

Unterstützt ein TV-Gerät „FullHD“, bedeutet dies, dass die „volle“ HD-Auflösung von 1920x1080 Pixeln in progressiven Vollbildern von einem TV-Gerät dargestellt werden kann - daher auch der Name „1080p“. Der verwaschene Begriff „voll“ diente vor allem am Anfang dazu, eine Abgrenzung zu den billigeren HD ready Geräten zu schaffen. In der Werbung liest man z.B. auch von „echtem HD“ oder „True HD“, was allerdings reine Marketing-Begriffe sind.

Heutzutage ist FullHD der Standard der aktuellen Flachbildfernseher und sollte bei einem Kauf die Mindestvoraussetzung sein. Damit lassen sich z.B. aktuelle Blu-rays in voller Auflösung genießen, da diese Filme exakt auf das Format von 1920x1080 Pixeln ausgelegt sind.


Ultra HD (UHD) oder 4K

Als „Ultra HD (UHD)“ oder „4K“, vereinzelt auch „Quad FullHD (QFHD)“ oder „2160p“ TV werden die neueren (und vor allem größeren) HDTV-Geräte bezeichnet, welche die vierfache FullHD-Auflösung sowie eine bessere Farbdarstellung bieten (letzteres wird oft nicht beachtet). Bei TV-Geräten im Consumer-Bereich ist damit eine Auflösung von 3840x2160 gemeint, was aufgrund der Verdopplung der horizontalen als auch vertikalen Pixel exakt einer vierfachen FullHD-Auflösung entspricht.

Als „4K“ (auch „Cinema 4K“ genannt) wird allerdings auch eine Auflösung von 4096x2304 Pixeln bezeichnet. Das liegt vor allem an der Verwendung der gleichen Begriffe in den unterschiedlichen Bereichen der TV- und Filmbranche, deren Standards sich zwar ähneln, aber teils sehr voneinander abweichen.

Eine weitere Ursache dieser Unklarheiten ist vor allem auch die inflationäre Verwendung von unsauber definierten Begriffen der Hersteller, um ihre Geräte der breiten Masse zu präsentieren. Im Gegensatz zu FullHD ist die exakte Auflösung des Begriffs „4K“ in der Praxis also oft nicht eindeutig.

Wie heißt das Ding denn jetzt?!

An dieser Stelle ein Wikipedia-Zitat:

Wikipedia schrieb:
Die Consumer Electronics Association (CEA) hat am 18. Oktober 2012 beschlossen: Ultra HD ersetzt die bislang propagierte Bezeichnung 4K. Der Definition nach müssen Ultra-HD-Fernseher eine Mindestauflösung von 8 Millionen Pixel haben (viermal so viele Pixel wie bei aktuellen Full-HD-Fernsehern). Die gebräuchliche Auflösung liegt hier bei 3840x2160 Bildpunkten. Außerdem müssen Ultra-HD-Fernseher über Anschlüsse verfügen, mit denen Ultra-HD-Inhalte ausgegeben werden können.

„Ultra HD“ ist also die korrekte Bezeichnung, auch wenn sich die noch knappere Abkürzung „UHD“ bzw. „UHDTV“ wohl bald in der Praxis durchsetzen dürfte - auch wenn damit derzeit eigentlich andere fachliche Begriffe definiert werden… ;)

Immerhin wurde auf der IFA 2014 nun auch das neue „Ultra HD“-Logo vorgestellt, welches die korrekte Bezeichnung für Ultra HD Geräte veranschaulichen soll:

dwzpdi6v.jpg

Ob sich der Kauf eines Ultra HD Fernsehers bereits lohnt, thematisiere ich später in diesem Thread.



LCD, LED, Plasma, OLED, …?

HDTV ist nicht gleich HDTV. Besonders bei der Display-Technologie gibt es einige Unterschiede. Die wichtigsten Technologien kurz erklärt:

Spoiler:
LCD bzw. LED

Geräte mit klassischen LCDs (Liquid Crystal Display) sind die günstigsten erhältlichen Varianten. TV-Geräte mit dieser Bezeichnung sind aber heutzutage rar gesät und wurden mittlerweile durch die fortschrittlicheren LED-Geräte ersetzt. Die LC-Displaytechnik ist dabei eigentlich gleich geblieben, lediglich die Hintergrundbeleuchtung (damit der TV überhaupt ein sichtbares Bild erzeugen kann) ist unterschiedlich. Während bei klassischen LCD-TV-Geräten bis etwa 2008 noch Leuchtröhren (Kaltkathodenröhren) eingesetzt wurden, arbeiten LED-Geräte mit vielen kleinen LEDs (Light Emitting Diode = Leuchtdioden). Das bringt in der Praxis vor allem drei Vorteile: Die TVs können schmaler gebaut werden (da LEDs deutlich kleiner sind), die Ausleuchtung des Bildes ist deutlich homogener (gleichmäßiger) und der Stromverbrauch ist geringer.

Ein Nachteil gegenüber anderen Display-Technologien (wie z.B. Plasma) war lange Zeit, dass besonders große Bildschirmdiagonalen nicht bzw. nur mit hohem finanziellen Aufwand möglich waren. Da sich mittlerweile aber auch hier einiges geändert hat, gibt es heutzutage auch LED-TVs mit riesigen Abmessungen (z.B. 65 Zoll = 157,48cm).

Der allergrößte Teil an TV-Geräten (egal welcher Qualitätsklasse) basiert derzeit auf LED-Technik. Besonders hochwertige (und mittlerweile recht selten anzutreffende) Modelle nutzen allerdings auch eine reine LED-Lösung, mit der das gesamte Display durch LEDs beleuchtet wird („back-lit“ bzw. „Full-Backlight-LED“), anstatt nur wie üblich an den Display-Rändern („edge-lit“ bzw. „Edge LED“).


Plasma

Plasma-Fernseher galten lange Zeit als die bessere Alternative hinsichtlich der Bildqualität, mittlerweile stellen diese TVs allerdings nur noch einen sehr kleinen Teil des Marktes dar. Viele Hersteller haben sich in den letzten Jahren komplett von der Produktion von Plasma-Geräten abgewandt. Das zeigt auch die aktuelle Entwicklung: Unter den aktuellen Ultra HD Fernsehern findet sich kein einziger Plasma. Die größten Vorteile der Plasma-Geräte sind heute durch stark verbesserte LED-TVs nahezu hinfällig geworden: Die hohe Blickwinkelstabilität ohne Farb- und Kontrastbeeinträchtigungen, die extrem kurze Reaktionszeit sowie der höhere Kontrast galten lange Zeit als Hauptvorteil von Plasmabildschirmen. Mittlerweile können aber auch LED-Geräte den Plasmas in diesen Disziplinen die Stirn bieten.

Bei einem geplanten Kauf sollte man sich den prinzipbedingten Schwächen bewusst sein: Plasma-Geräte bieten trotz hohem Kontrast eine niedrigere Helligkeit (was besonders bei hellem Tageslicht beachtet werden sollte) und sind anfällig für sog. „Einbrennen“ des Bildes. Letzteres dürfte allerdings weniger ein Problem in der Praxis sein, da dies eigtl. nur passiert, wenn man ein statisches Bild über Stunden anzeigt und sich keine Veränderung auf dem Display bemerkbar macht. Der meiner Meinung nach größte Nachteil eines Plasma-Fernsehers ist allerdings der deutlich höhere Stromverbrauch gegenüber LED-Geräten (selbst bei neueren Plasmas im Schnitt nur Energieeffizienzklasse (EEK) „B“ gegenüber „A+“ oder besser bei LED-TVs).

Dennoch finden sich auch heute noch gute Geräte - allerdings sind diese durch Detailverbesserungen, um mit der LED-Konkurrenz mithalten zu können, kaum zu wirklich günstigen Preisen zu haben.


OLED

OLED (Organic Light Emitting Diode) Displays sind derzeit die neueste Weiterentwicklung in der Display-Technologie. Diese Bezeichnung kennt man besonders von Top-Smartphones, wo sich diese Technik aufgrund der verhältnismäßig winzigen Displays relativ erschwinglich einsetzen lässt. Organische LEDs besitzen kurz gesagt die Vorteile von LED- und Plasma-Technik, ohne dabei die bekannten Nachteile mit sich zu bringen. Außerdem sind sie äußerst biegsam, was besonders bei den neuen, trendigen „Curved TVs“ nützlich ist.

Und wo ist der Haken? Zum einen sind diese TV-Geräte noch sehr teuer (unter ca. 3000€ habe ich aktuell keinen TV gefunden) und besitzen einen Nachteil, der besonders bei diesen Preisen sehr unvorteilhaft ist: OLEDs haben eine deutlich beschränktere Lebensdauer.

Bei einer maximalen Helligkeit und weißem Licht ist bereits nach 5000 Stunden (208 Tage) Schluss, bei minimaler Helligkeit nach 12.000 Stunden (500 Tage). Das bedeutet natürlich nicht, dass das Display nach der Zeit sofort defekt ist, allerdings fallen nach dieser Zeit in etwa die ersten LEDs aus, wenn Sie über den Zeitraum immer maximal belastet wurden (weißes Licht und max. Helligkeit). Im Vergleich dazu halten normale LEDs, die in TVs verbaut werden, weit über 100.000 Stunden (4167 Tage) aus. Außerdem findet die Alterung der OLEDs nicht gleichmäßig statt. Des Weiteren sind sie prinzipbedingt anfällig gegen UV-Strahlung und weitere natürliche Einflüsse (z.B. Sauerstoff, was aber in der Praxis keine Rolle spielt, sofern das Display nicht beschädigt ist).

Trotz toller Display-Performance sind derzeit also noch die Preise sowie die Lebensdauer nicht zu unterschätzende Kritikpunkte.



Der Kauf-Ratgeber


Auf was muss ich beim Kauf eines neuen HDTV achten?

Beim Kauf eines neuen TV spielen viele Faktoren eine Rolle. Neben generellen Überlegungen, die als erstes durchdacht werden sollten, sind auch ein paar wichtige technische Details entscheidend.


Die Basics

Spoiler:
Preis

Als erstes sollte man sich natürlich überlegen, wie viel Geld man für einen neuen TV ausgeben möchte. Das Feld ist heutzutage allerdings eng zusammengerückt, so dass man sich als Durchschnittsbürger eigentlich nur die einfache Frage stellen sollte, ob ein TV klar unter 1000€ kosten soll oder ob’s auch „was ´gscheides“ für bis zu ca. 2000€ oder mehr sein darf. In dieser Preisregion findet man derzeit wirklich alles, was das Herz begehrt. Finanzielle Ausreisser gibt es besonders nach oben natürlich immer, allerdings kann man sich schon heute für deutlich unter 2000€ einen hochwertigen Ultra HD Fernseher ins Wohnzimmer stellen (lassen :P).

Größe

TV-Größen werden hauptsächlich über die sichtbare Bildschirmdiagonale in Zoll (engl. „Inch“) angegeben. Ein Zoll entspricht dabei exakt 2,54cm. Das bedeutet, dass ein TV mit 40 Zoll (abgekürzt: 40“) eine Diagonale von 101,6cm besitzt.

Aufgrund der unterschiedlichen Bauformen (Stichwort Rahmengröße) der TV-Geräte, sagt dies leider noch nichts über die tatsächliche Größe (Höhe x Breite x Tiefe) aus. Wenn es also darauf ankommt, dass der neue Fernseher in den alten TV-Schrank passen soll, hilft nur ein genauerer Blick in die Produktbeschreibung. Als grober Anhaltspunkt reicht die immer angegebene Diagonale allerdings aus.

Wie groß sollte ein TV sein?

Wer ausreichend Platz zur Verfügung hat, sollte natürlich tendenziell die größeren Modelle bevorzugen. Natürlich kommt das auch auf den Anwendungszweck sowie den Sitzabstand an. Wer nur TV und Filme schaut, kommt mit Sicherheit mit einem verhältnismäßig kleineren Fernseher aus - außer es ist natürlich explizit Kinofeeling gewünscht. Wer an dem TV allerdings auch vernünftig zocken möchte, sollte auf jeden Fall nach einem größeren Modell Ausschau halten. Schließlich ist es gerade bei Titeln mit einem kleinen, aber vollen HUD (Rollenspiele z.B.) von Vorteil, wenn man auch möglichst viele Details erkennen kann. Dasselbe gilt etwa auch für Online-Shooter. Trotz gleicher Auflösung sieht man auf einem größeren Bildschirm einfach mehr, sofern man nicht nur einen Meter davon entfernt ist. Auch wer seinen PC bzw. sein Notebook an den TV anschließen und von der Couch aus arbeiten möchte, sollte ein besonders großes Modell in Betracht ziehen.

Wie groß die neue Flimmerkiste wirklich sein soll, hängt auch vom eigenen Empfinden ab. Hier ist ein Gang zum Elektro-Fachmarkt mit Sicherheit keine schlechte Idee, um zumindest ein grobes Gefühl für die Größe zu bekommen.

Aber Achtung: Aufgrund der riesigen Räume und zahlreichen TV-Geräte erscheinen die Größen im Verhältnis oft kleiner, als sie in den heimischen vier Wänden wirklich sind. Ein 40“ Fernseher sieht im Laden oft lächerlich klein aus, obwohl er am eigentlichen Aufstellungsort mehr als ausreichend wäre. Hier sollte man sich nicht täuschen lassen.

Empfehlung?

Als grobe Orientierung: Die „alte“ Standardgröße von HD ready Geräten ist mit 32“ längst überholt. Standardgröße deshalb, weil diese Bildschirmdiagonale von der Gesamtgröße des TVs in etwa dem Durschnitts-Röhrenmonitor aus der Vor-HDTV-Ära entsprach.

Die meisten aktuellen Fernseher besitzen eine Diagonale von 40“. Damit lässt es sich auch bei einem kurzen Sitzabstand (ca. 1,5m) noch angenehm Fernsehen. Von den Außenmaßen sind diese Geräte zwar nicht die kleinsten, sollten aber bei den meisten Räumen problemlos unterbringen zu sein. Problemorte wie Raum-Ecken oder die schon erwähnten TV-Schränke erfordern natürlich u.U. kleinere Modelle. Hier sollte man sich allerdings bei einer Neuanschaffung eher überlegen, die alten Positionen zugunsten eines besseren TV-Erlebnisses aufzugeben.

Ist man vom Aufstellungsort flexibel und auch mind. 2m vom TV-Gerät entfernt, kann man gerne auch auf größere Boliden zurückgreifen, die etwa mit 47“ oder gar 50“ bzw. 55“ auftrumpfen können. Anders als vll. erwartet sind diese Geräte heutzutage sogar problemlos bezahlbar. Gut ausgestattete 55“-Geräte gibt es von namhaften Herstellern sogar unter 1000€.

Groß ist nur durch Größer zu ersetzen? Kein Problem. Auch 65“ Geräte sind von vielen Herstellern bereits zu erschwinglicheren Preisen zu haben - auch wenn man gerade im Vergleich zu einem 50“ oder 55“ TV dann nochmal deutlich mehr hinblättern muss. Der preisliche Unterschied ist z.B. zwischen einem 40“ und 50“ weitaus geringer.

Tipp: Gerade wenn man derzeit nur in einer Mietwohnung lebt oder ggf. sogar schon ein Umzug in absehbarer Zeit geplant ist, sollte man sich den Kauf von übergroßen Geräten ggf. zwei Mal überlegen bzw. aufschieben. Schließlich ist der Transport von einem HDTV in Tischtennisplatten-Größe im Opel Corsa praktisch unmöglich… %)



Die Ausstattung

Spoiler:
Aktuelle Fernseher bieten Extras ohne Ende. Da den Überblick zu behalten, ist selbst für technik-affine Genossen nicht gerade einfach. Deshalb möchte ich einen kleinen Überblick darüber geben, welche Merkmale bei einem Kauf besonders wichtig sind und besonders beachtet werden sollten. Des Weiteren erkläre ich im Anschluss einige Abkürzungen und häufig anzutreffende Features.


Bildwiederholfrequenz (Hertz-Zahl)

100Hz, 200Hz, 400Hz, 600Hz, 800Hz oder gar 1000Hz und mehr. Viele Hersteller werben mit teils astronomischen Zahlen, die oft nur noch wenig mit der Realität zu tun haben. Nur wie viel Hertz sind denn nun nötig, um ein ruhiges Bild zu bekommen?

Erhöhte Bildwiederholfrequenzen ermöglichen eine sog. „Motion Interpolation“. Dabei werden vom TV zwischen zwei Einzelbildern interpolierte Zwischenbilder eingerechnet, um die Darstellung von bewegten Objekten flüssiger erscheinen zu lassen. Wie das Ganze funktioniert, erklärt der verlinkte Wikipedia-Eintrag.

Ein Blick auf die aktuelle Marktlage zeigt, dass es kaum mehr einen aktuellen HDTV unter 100Hz zu kaufen gibt. Das sollte auch die Mindestvoraussetzung sein, mit der man mehr als gut leben kann. Mehr ist zwar i.d.R. besser, das muss aber nicht sein (Stichwort „Soap-Opera-Effekt“). Außerdem spiegelt sich eine erhöhte Bildwiederholfrequenz oftmals automatisch auch im Preis wieder. Höherwertige TV-Geräte wollen auch mit extrem hohen Hertz-Zahlen dem Käufer suggerieren, dass es sich dabei um etwas Besseres handelt. Das ist aber oftmals ein reiner Marketing-Gag, der nur durch rechnerische Tricks erreicht wird – der gleiche Unfug wurde vor wenigen Jahren mit den Kontrastwerten veranstaltet.

Eine Angabe von 200Hz oder mehr sind derzeit in etwa der gute Mittelklasse-Standard. Alles was darüber geht, schaut zwar vll. „irgendwie besser / anders“ aus, sollte aber keinesfalls ein Kriterium sein, um dafür mehr Geld auszugeben. Wie viel Hertz ein spezielles Gerät hat, hängt auch von der verwendeten Display-Technologie ab (siehe oben). Deshalb gehe ich an dieser Stelle nicht ins Detail.

In der Praxis ist also lediglich auf min. 100Hz zu achten. Wenn ein TV mehr kann, ist das natürlich gut – die verwendete „Motion Interpolation“ lässt sich im Zweifel dann meist abschalten. 100Hz sollten in der Regel allerdings völlig ausreichen.


Integrierte TV-Tuner (DVB-T/C/S2)

Was früher noch als „Receiver“ bekannt war, nennt sich heute bei den meisten TV-Geräten „Tuner“. Häufig verwendet wird in der Werbung der Begriff „Triple Tuner“. Das bedeutet, dass das Gerät sowohl für den digitalen Empfang terrestrischer Signale einer Antenne (DVB-T), eines Kabelanschlusses (DVB-C) als auch für den TV-Empfang via Satellit (DVB-S bzw. DVB-S2) geeignet ist. Ein separater Receiver ist mit einem solchen TV nicht mehr notwendig, d.h. alle Programme können auch mit der TV-Fernbedienung umgeschaltet werden.

Während DVB-T/C im Prinzip jeder TV beherrscht (historischer Standard), sollte man besonders auf die Kennzeichnung DVB-S bzw. DVB-S2 achten, sofern man zuhause eine Satelliten-Schüssel installiert hat und darüber seinen TV-Empfang bezieht. Ohne DVB-S-Tuner benötigt man ansonsten noch einen zusätzlichen Receiver.

Was ist der Unterschied zwischen DVB-S und DVB-S2?

Neuere TV-Geräte besitzen meist einen DVB-S2-Tuner. DVB-S2 ist die direkte Weiterentwicklung von DVB-S und ermöglich deutlich höhere Datenübertragungsraten. Manche HD-Angebote (z.B. WDR) lassen sich zwar auch via DVB-S empfangen, aber auch diese Sender werden über kurz oder lang auf DVB-S2 umstellen - dann ist mit einem DVB-S-Tuner nur noch Standard-Auflösung drin. Alle Sendeanstalten sollten aber auf Ihren Webseiten genaue Daten zur HD-Übertragung bereitstellen, wie das z.B. bei der ARD der Fall ist. Hier sieht man auch deutlich, dass derzeit offenbar nur noch WDR über DVB-S empfangbar ist und die restlichen Sender der ARD einen DVB-S2-Tuner voraussetzen, um in den HD-Genuss zu kommen.

Beim Kauf also unbedingt darauf achten, dass der integrierte Tuner auch DVB-S2 beherrscht!


CI+

Wo HD ist, ist CI+ nicht weit. CI+ steht für „Common Interface Plus“ und ist die Weiterentwicklung des „CI-Slot“ - was praktisch lediglich einen Kartenschacht für CI-Module darstellt. Diese Module sind erforderlich, um verschlüsselte HD-Signale zu entschlüsseln. So z.B. die Inhalte des HD+ Angebotes, welches in Deutschland den Empfang von über 20 Privatsendern in HD ermöglicht.

Die Kritik an diesem System erspare ich mir an dieser Stelle, da ich ansonsten SEHR lange darüber schreiben würde %)

Wer also seinen TV nutzen möchte, um auch Privatsender in HD (ohne zusätzlichen Receiver) zu gucken, sollte darauf achten, dass das Gerät CI+ unterstützt. Den älteren CI-Standard (ohne „+“) findet man eigentlich in kaum einem aktuellen Gerät mehr.


USB-Recording, PVR bzw. PVR ready

PVR steht für „Personal Video Recorder“ und ermöglicht das Anschließen einer Festplatte oder eines USB-Sticks und damit das Aufzeichnen von TV-Sendungen oder Filmen. Manche TV-Geräte bieten diese Funktion allerdings nur mit Einschränkungen an. Oftmals ist dadurch auch eine TimeShift-Funktion möglich, mit der ein zeitversetztes Fernsehen erlaubt wird.


HbbTV

Die Abkürzung HbbTV steht für „Hybrid broadcast broadband TV“ und ist quasi der Nachfolger des klassischen Videotextes. Naja, nicht ganz - aber darunter kann man sich am meisten vorstellen.

Was genau HbbTV kann, ist am schnellsten mit diesem Wikipedia-Schnipsel erklärt:

Wikipedia schrieb:
Ähnlich dem Videotext werden zusätzliche Informationen des Programmanbieters angezeigt, wobei diese sowohl über das Fernsehsignal […] als auch über eine Internetverbindung bezogen werden. Damit werden umfassendere Möglichkeiten zur Informationsdarstellung und Navigation bereitgestellt.

HbbTV ist in der Praxis nett und wird schon von vielen Geräten unterstützt. Es wird wohl nicht lange dauern, bis sich dieser Standard durchsetzen wird. Derzeit sollte diese Funktion allerdings noch kein Argument sein, mehr für einen TV auszugeben - zukunftssicherer ist man natürlich schon jetzt mit HbbTV, was allerdings oft automatisch mit dem Kauf eines „Smart-TV“ einhergeht.


dlna, Miracast, MHL, …

Weitere Funktionen wie dlna, Miracast, MHL oder andere ähnliche Alternativen beschreibe ich an dieser Stelle nicht ausführlicher, da sie teilweise schon sehr speziell sind und in der Regel vom Durchschnittsverbraucher kaum genutzt werden dürften. Die verlinkten Wikipedia-Einträge sollten dazu aussagekräftig genug sein.

Kurz gesagt: Alle genannten Techniken sind dazu da, ein oder mehrere netzwerkfähige Geräte (PC, Notebook, aber v.a. Mobilgeräte) mit dem TV zu vernetzen. Sie dienen dazu, sich sein eigenes „Smart Home“ zu erstellen. Wer an diesen Techniken interessiert ist, weiß deshalb schon, auf was er beim Kauf eines TV achten muss ;) Hier gibt es auch nicht viele Unterschiede. Entweder ein TV unterstützt den besagten Standard oder eben nicht.


Was ist mit dem Kontrastverhältnis und der Reaktionszeit?

Spoiler:
Vor wenigen Jahren überboten sich die gängigen Hersteller von HDTVs regelmäßig mit immer höheren Kontrastwerten und schnelleren Reaktionszeiten von ihren verbauten Displays. Davon liest man heute schlichtweg GAR NICHTS mehr. Warum? Die Display-Technologie hat sich mittlerweile stark weiterentwickelt. Grundlegende Qualitätsmerkmale wie eben der Kontrast oder die Reaktionszeit sind mittlerweile bei jedem verbauten Display der bekannten Hersteller mehr als ausreichend. Nachdem sich der Kontrast hardwareseitig nicht mehr großartig verbessern lies, fing man den Wettstreit mit dem sog. „dynamischen Kontrast“ an. Diese durch Veränderung der Helligkeit erreichten Kontrastewerte rechnete man einfach in das klassische Schema 1:xxxx um und prahlte fortan mit astronomischen Zahlen. Nachdem das Ganze aber irgendwann durch immer lächerlichere Marketing-Aktionen so hochgepusht wurde, dass die genannten Zahlen sowieso nur noch Schall und Rauch waren, hat man sich durch die damaligen Neuerungen (wie SmartTV und 3D) ganz vom Kontrast-Kampf abgewandt. Wer heute nach einem neuen TV sucht, wird kaum mehr eine Angabe zum Kontrast finden. Ähnlich verhält es sich mit den Reaktionszeiten der Displays - nachdem mittlerweile jedes Standard-Display gute Reaktionszeiten vorweisen kann, ist das keine Eigenschaft mehr, mit der man werben kann. Da die Hersteller oftmals sogar baugleiche Displays verwenden, sowieso nicht. Daher gibt es auch bei so gut wie fast keinem TV mehr eine Angabe zum Ansprechverhalten des Panels.




Die Aufpreisliste


Spoiler:
Smart-TV

Vor wenigen Jahren noch Luxus, kommt kaum ein neuer HDTV heutzutage noch ohne eine sog. „Smart-TV“ Funktion aus. Ein Smart-TV bietet die Möglichkeit, das Gerät mit dem Internet zu verbinden (via Kabel, WLAN oder beidem), um so mithilfe spezieller Apps bspw. YouTube-Videos ansehen zu können oder den Zugriff auf die Mediatheken vieler Sender zu ermöglichen.

Welche Features genau ein Smart-TV hat, wird oft vom Hersteller ausführlich auf der Produktseite beschrieben. Besonders auf der Hardware-Ebene interessant ist bspw. die Möglichkeit einer Sprach- oder Gesten-Steuerung, die die umständliche Bedienung mit einer klassischen Fernbedienung erspart.

Oben man diese Funktionen bei einem Fernseher braucht oder nicht, muss jeder für sich selbst entscheiden. Wer darauf verzichten kann, kann momentan das ein oder andere Schnäppchen abgreifen, da es im selben Preissegment oftmals bessere TV-Geräte OHNE Smart-TV-Funktion im Handel gibt.

3D

Viele Fernseher unterstützen derzeit eine 3D-Funktion. Damit lassen sich wie im Kino Filme und Spiele in der dritten Generation genießen. Allerdings ist diese Funktion schon wieder auf dem absteigenden Ast. Das Problem liegt vor allem darin, dass für den 3D-Genuss ein passendes Quellmaterial erforderlich ist. Es gibt zwar zahlreiche 3D-Blu-rays, allerdings werden diese wie im Kino meist zu höheren Preisen verkauft als die 2D-Versionen. Zu Zeiten der PS3 haben Sony und andere Hersteller einige Games veröffentlicht, die auch in 3D spielbar waren. Aktuell gibt es auf der PS4 keinen einzigen Titel, der eine 3D-Funktionalität unterstützt. Einige TV-Geräte können zwar 2D-Inhalte in 3D konvertieren und damit ein recht brauchbares, dreidimensionales Bild erzeugen - mit einem „echten“ 3D-Bild (und Quellmaterial, was darauf ausgelegt ist) ist das allerdings natürlich nicht vergleichbar.

Ob sich 3D nochmals aufrappeln kann oder (wieder mal :P) vom Markt verschwindet, ist schwer zu sagen. Derzeit sieht es aber eher nach letzterem aus.

Wer sich dennoch dafür interessiert, kann sich beim Kauf eines TVs v.a. zwischen zwei verschiedenen 3D-Varianten entscheiden. Die „Active Shutter“-Technologie (aktiv) oder die „Polarisationstechnologie“ (passiv). Andere 3D-Verfahren werden bei aktuellen TV-Geräten nicht eingesetzt. Bei der Active-Shutter-Technologie arbeiten die batteriebetriebenen Brillen mit dem fortschrittlichen Shutter-3D-System, erfordern allerdings teurere Brillen, die dazu auch aufgeladen werden müssen. Die Polarisations-Technik kennt man vor allem aus den meisten Kinos, die Brillen arbeiten hier nicht aktiv, sondern mit Polfiltern und benötigen daher keine Batterien und sind damit auch leichter.

Beim Kauf sollte auf jeden Fall darauf geachtet werden, ob und wie viele 3D-Brillen enthalten sind.



4K Ultra HD


Brauche ich einen Ultra HD Fernseher oder nicht?

Was 4K TVs besser können als die Standard-FullHD-Alternativen, habe ich bereits bei den Grundlagen beschrieben. Die Frage ist nun: Braucht man so ein Teil (jetzt schon)? Pauschal lässt sich das natürlich nicht beantworten. Man sollte den aktuellen Stand der Dinge kennen und daraus seine eigenen Schlüsse ziehen.

Spoiler:
Mangelnder Content

Das Problem ist derzeit (ähnlich der 3D-Thematik) noch der Content. Ultra HD macht nur Sinn, wenn es auch Quellmaterial in dieser Qualität gibt und sich dieses auch verlustfrei an den TV übertragen lässt (wichtiger Punkt!). Es gibt mit (dem erst diese Woche in Deutschland gestarteten) Netflix derzeit praktisch nur einen kommerziellen Streaming-Anbieter, der echte 4K-Inhalte bereitstellt. Immerhin hat die Konkurrenz bei Maxdome für das nächste Jahr ebenfalls 4K-Streams angekündigt. Ein Problem hierbei ist allerdings auch die dafür nötige Bandbreite: Für einen 4K-Stream sind min. 16 Mbit/s erforderlich. Das dürfte nicht nur in ländlichen Gegenden, sondern auch in städtischen Randgebieten ein Problem werden. Daneben wird es ein physikalisches Medium für 4K-Inhalte mit dem neuen Blu-ray-Standard frühestens Ende 2015 geben.

Googles Videoportal-Platzhirsch YouTube hat immerhin schon einige 4K-Videos im Sortiment - allerdings sollte hier bedacht werden, dass diese in erster Linie die geforderte Auflösung erfüllen, aufgrund der Komprimierung und niedrigeren Bitrate aber momentan nicht die avisierten Ziele von künftigen 4K-Übertragungen erreichen. Dazu kommt, dass es viele Consumer-Camcorder gibt, die 4K-Videos aufnehmen. Mit der Qualität einer 4K-Film-Produktion sind diese Clips allerdings kaum vergleichbar. Es kristallisiert sich also auch hier ein ähnliches Problem wie bei Digitalkameras heraus: Mehr Pixel bzw. höhere Auflösungen bedeuten nicht zwingend eine bessere Bildqualität – auch wenn dies in der Werbung oft so angepriesen wird.

Ultra HD als digitale Fotoleinwand?

Wer eine gute Digitalkamera besitzt, möchte seine Bilder evtl. hochauflösend auf dem TV ansehen - damit wäre zumindest hochwertiges Quellmaterial verfügbar. Dafür eignen sich UHDTVs perfekt - zumindest in der Theorie. Die Praxis ist leider wieder mal etwas komplizierter. Ja, es gibt schon UHD Fernseher, die diese Disziplin ganz gut beherrschen. Allerdings liest man auch - gerade bei billigeren Modellen - in den Reviews bzw. Produktrezensionen, dass diese Aufgabe nicht immer so ausgeführt wird, wie es sein sollte. So gibt es z.B. auf Amazon einen mit unter 500€ unfassbar günstigen UHDTV von „Hisense“, der sich offenbar grobe Fehler bei der Verarbeitung von Bildern über einen USB-Stick bzw. eine USB-Festplatte leistet. Statt die (meist deutlich höher aufgelösten Bilder) in nativer Ultra-HD-Auflösung darzustellen, rechnet er bei der Übertragung an der USB-Schnittstelle erst in FullHD um und skaliert diese 4 mal niedrigere Auflösung erst im Anschluss wieder auf 4K hoch. Das mag zwar immer noch nett aussehen, entspricht aber im Prinzip nur einem gestreckten FullHD-Bild.

Das ist nur ein Beispiel von vielen kleinen Stolperfallen, die besonders überraschend günstige UHD-Geräte betreffen.


Curved TV – das Runde in statt das Eckige?

Eine weitere Neuerung im Ultra-HD-TV-Segment sind die sog. „Curved TVs“. Besonders Samsung bietet hier schon einige Modelle zu bezahlbaren Preisen an. Diese gebogene Display-Form soll besonders bei übergroßen Fernsehern ein besonders natürliches Betrachten des TVs ermöglichen – das klappt in der Praxis aber nur bei einem bestimmten Abstand und Winkel zum Gerät. Besonders wenn der TV-Sessel nicht statisch im Raum steht oder gar eine ganze Familie über eine große Wohnlandschaft verteilt zusehen möchte, ist dieser Effekt im Hinblick auf die Blickwinkelstabilität sogar eher nachteilig. Auch bei einem lediglich zu großen Abstand zum TV-Gerät ist das gebogene Display praktisch nutzlos und wirkt eher unnatürlich.

Wer sich v.a. für den Eigenbedarf einen neuen UHDTV anschaffen möchte, kann diese neue Bauform angenehm empfinden. Allerdings sieht diese Entwicklung langfristig eher nach einem kurzweiligen Trend als einem Must-Have für Heimkino-Fans aus.


Zukunftssicherheit! Zukunftssicherheit?

Wer jetzt einen Ultra HD-TV kauft, macht offenbar eine zukunftssichere Investition. Ultra-hochauflösende Inhalte werden definitiv kommen, von daher gibt es ja eigentlich keinen Grund, bei einer Neuanschaffung darauf zu verzichten - oder?

Jaein. Das Problem ist, dass die Spezifikationen für 4K-Inhalte noch nicht 100%ig definiert sind. D.h. es kann sich besonders bei den Anschlussarten und Decodierungsverfahren über die Jahre durchaus noch etwas ändern. Deshalb sind günstige UHDTVs derzeit mit Vorsicht zu genießen - man sollte sich auf jeden Fall über die Zukunftssicherheit des Modells informieren. Besonders teure Geräte (wie das folgende Modell von Samsung, welches ich mir letztes Jahr in Dubai angesehen habe) sind deshalb schon hardwareseitig vorbereitet. Alle Anschlüsse sind nicht direkt ins Gehäuse integriert, sondern mit einer Art „Steckdosenleiste“ mit dem TV verbunden (siehe Bild unten). Ändert sich über die Jahre ein Anschluss-Typ, muss so nur noch diese Anschlussleiste ersetzt werden und der hochwertige TV bleibt auf dem aktuellsten Stand der Dinge.

Der Haken dabei ist nur, dass solche Luxus-Geräte erstens recht selten und zweitens schnell mal das 10- bis 20-fache von gewöhnlichen UHD Fernsehern kosten…

rlx98z36.jpg

Der 85“ Riese von Samsung kostete 2013 in Europa noch schlappe 35.000€.

Empfehlung

Wer sich den Vor- und Nachteilen eines UHDTVs bewusst ist und sich ernsthaft mit dem Kauf beschäftigt, sollte vor allem darauf achten, dass das gewünschte Gerät ausreichend HDMI 2.0 Anschlüsse besitzt. Das ist der aktuelle HDMI-Standard, über den künftig die ultra-hochauflösenden Inhalte von anderen Medien(-Playern) übertragen werden sollen. Bei vollwertigen HDMI 2.0 Anschlüssen ist auch die neue Kopierschutz-Norm HDCP 2.2 vorgeschrieben, so dass man auch hier auf der sicheren Seite ist. Die für Ende 2015 geplante Einführung der 4K-Blu-rays erfordert z.B. diesen Anschluss.

Ansonsten sollte man auf die Standards und Mindestvoraussetzungen achten, die auch bei FullHD Geräten wichtig sind. In dieser Hinsicht unterscheiden sich die UHDTVs kaum von den Vorgängern.

Meine persönliche Meinung: Ich würde mir momentan auch schwer tun, wenn ich mich jetzt entscheiden müsste. Die Ultra HD Glotzen von namhaften Herstellern wie Samsung und LG sind mit teils deutlich unter 2000€ sehr verlockend. Einstiegsgeräte dieser Hersteller gibt es sogar schon für die Hälfte. Selbst die meist teureren Sony-Geräte sind mit deutlich unter 3000€ verhältnismäßig günstig.

Allerdings gibt es zwei Gründe, weshalb ich mich aktuell noch gegen einen UHDTV entscheiden würde. Zum einen die bereits angesprochene fragwürdige Zukunftssicherheit und die Tatsache, dass die Geräte über die Jahre auch nicht mehr teurer werden. Die aktuellen Schnäppchen wird es schließlich in Form anderer und neuerer Modelle auch in 2-3 Jahren noch geben. Durch die schnelllebige Entwicklung und Etablierung des neuen Standards werden die Angebote im Gegenteil eher noch besser werden. Der zweite Grund ist, dass es jetzt durch den 4K-Trend auch sehr hochwertige FullHD-Modelle zu verhältnismäßig günstigen Preisen gibt. Ein HDTV, der vor 2 Jahren noch 3000€ gekostet hat, ist jetzt für nicht mal mehr die Hälfte zu haben.
Nach dem aktuellen Stand der Dinge nach zu urteilen, ist das imho derzeit noch die bessere Investition.




Fazit

ndz schrieb:
Die TV-Technik ist mittlerweile sehr gut entwickelt. Beim Kauf eines Geräts von namhaften Herstellern kann man heute als Durchschnittsverbraucher kaum mehr einen Fehlkauf begehen. Sobald man natürlich speziellere Vorstellungen vom künftigen Traum-TV hat, sollte man sich natürlich etwas mehr mit der Thematik beschäftigen. Besonders die im Thread erwähnten grundlegenden Austattungsmerkmale (3D? Smart-TV? Triple Tuner? Ultra HD? …) sollten bei einem Kauf beachtet werden.

Ansonsten gilt wie immer: Am besten das Gerät mal im Einzelhandel begutachten und genau ansehen. Beim Online-Kauf sollte man vor allem auf die negativen Rezensionen (falls vorhanden) achten und genau durchlesen, was vom Rezensenten bemängelt wird. Oftmals ist das nur - sorry für die Ausdrucksweise - Bullshit und es werden nur Peanuts angekreidet, weil sich der Käufer im Voraus nicht ausreichend informiert hat. Sind an einem Gerät deutliche Mängel vorhanden, lässt sich das aufgrund vieler gleichlautenden negativen Bewertungen in der Regel schnell erkennen.

Sobald man das Gerät in den heimischen vier Wänden installiert hat, mit den persönlichen Anforderungen an den TV klar kommt und das Bild zu guter letzt die eigenen Augen überzeugen kann, hat man auf jeden Fall nichts falsch gemacht =)


In diesem Sinne: Viel Spaß!
 
Zuletzt bearbeitet:

ndz

Bekanntes Gesicht
[Platzhalter]​

Spoiler:
Weil 15 Seiten Quelltext ja bestimmt noch nicht genug sind :B
 
Zuletzt bearbeitet:

Skeletulor64

Bekanntes Gesicht
Auch wenn ich mit 21,5"-Monitor ganz gut zurecht komme, was das Zocken und das Schauen von Filmen betrifft und mir dementsprechend kaum Gedanken über einen neuen, größeren Fernseher mache, muss ich schon sagen:

Sehr schöner Startpost und eine gute Idee, ndz! :]:top:
 

T-Bow

Bekanntes Gesicht
Sehr schöner Thread, auch wenn ich auf Anhieb kein Wort verstehe. ;D Werde mich nochmal gründlich einlesen, wird ja immerhin alles gut und gründlich von dir erklärt. :top: Und danke für die Verlinkung meines Threads.

Ich habe eine Frage bezüglich eines HD TVs und der PS2. Und zwar habe ich meine PS2 derzeit hiermit an mein' Sony Bravia angeschlossen. Dieses Kabel habe ich mir ursprünglich für meine PS3 geholt, als ich noch eine Röhre hatte. Glücklicherweise - da ich mein Original-Scart-Kabel verlegt hab' - funktioniert das Kabel auch mit der PS2. Nur leider kann ich dementsprechend keine Vergleiche ziehen und nicht sagen, ob das Bild besser als mit dem normalen Scart-Kabel ist. Nun bin ich aber auf das Component Kabel gestoßen und wollte nachfragen, ob ein bemerkbarer Qualitätsunterschied des Bildes vorliegt (verglichen mit dem Premium Scart-Kabel)? Die Resonanzen sind zumindest größtenteils positiv, jedoch wird nur der Vergleich mit dem beiliegenden Kabel herangezogen...
 

ndz

Bekanntes Gesicht
Sehr schöner Thread, auch wenn ich auf Anhieb kein Wort verstehe. ;D Werde mich nochmal gründlich einlesen, wird ja immerhin alles gut und gründlich von dir erklärt. :top: Und danke für die Verlinkung meines Threads.

Danke =) Und gerne, kein Problem ;)

Ich habe eine Frage bezüglich eines HD TVs und der PS2. [...]

Also kurz gesagt: Das erste Kabel ist völlig ausreichend. Das ist ein Standard-RGB-Kabel (Scart-Anschluss), welches ja schon zu PS2-Zeiten das "klassische" Upgrade in Sachen Bildqualität gewesen ist. Ein Komponenten-Kabel ist meist noch etwas teurer und bringt dir eh nicht viel, da die PAL PS2 nur max. 480p ausgeben kann. Außerdem hast du dann ein Problem damit, dass PAL Games u.U. nicht sauber laufen, da diese oftmals (leider) keinen progressiven Modus bieten. Und selbst wenn, hast du ein Downscaling von 576i (PAL) zu 480p (NTSC), d.h. du hast zwar ein Bild welches nicht im Interlaced-Verfahren dargestellt wird, aber dafür auch weniger Bildzeilen.

Im Prinzip ist es relativ egal, imho kannst du dir die Anschaffung eines Component-Kabels aber sparen, da die Unterschiede eben auch stark vom Spiel, vom TV (und scheinbar auch von der PS2-Generation) abhängig sind. Das ist meiner Meinung nach Erbsen-Zählerei, und wenn du schon ein RGB-Kabel hast, behalt das am Besten.

Heutzutage ist diese ganze PAL/NTSC-Sache ja zum Glück Geschichte ;)
 

Ankylo

Bekanntes Gesicht
Ich möchte mich auch einmal zu Wort melden. Allerdings nicht um über (U)HDTV zu sprechen, sondern um eine (größere) Frage zu stellen. Hat jemand einen Beamer und was sollte man beachten, wenn man sich anstatt eines TV solch ein Gerät anschaffen möchte? Dabei möchte es gerne auf die Kombination Leinwand + Beamer beschränken, wobei selbst das ein sehr großes Feld ist.
 

ndz

Bekanntes Gesicht
Ich möchte mich auch einmal zu Wort melden. Allerdings nicht um über (U)HDTV zu sprechen, sondern um eine (größere) Frage zu stellen. Hat jemand einen Beamer und was sollte man beachten, wenn man sich anstatt eines TV solch ein Gerät anschaffen möchte? Dabei möchte es gerne auf die Kombination Leinwand + Beamer beschränken, wobei selbst das ein sehr großes Feld ist.

Hi Anky,

der Thread findet hier leider nicht viel Beachtung, wie es scheint :P Im Allgemeinen Forum hättest du vermutlich schon eher eine Antwort bekommen, da es hier mit Sicherheit ein paar Leute mit Beamer gibt.

Gleich vorweg: Wenn du einen Beamer komplett als TV-Ersatz nutzen möchtest und auch viel guckst, wirst du auf Dauer wohl nicht glücklich werden. Denn (trotz mittlerweile unterschiedlicher Lampentechniken) ist die Lebensdauer begrenzt. Für Filme hin und wieder oder manche Zockersession mag das gehen, den Beamer anstatt eines TVs dauerhaft zu nutzen, halte ich allerdings für keine gute Idee. Dazu kommt die Geräuschkulisse des Lüfters, was besonders am Abend, wenn man den Sound etwas runterdreht, auch nicht optimal ist.

Ansonsten würd ich mich einfach mal umschauen, was so auf dem Markt ist und welche Features du cool findest oder nicht brauchst. Neuere Geräte (auch im Einsteigerbereich) bieten bspw. die Möglichkeit, direkt per USB Bilder anzuzeigen. Oder per MHL Bilder direkt von einem Tablet etc. zu streamen. Das sind allerdings alles nur Zusätze, wo ich jetzt explizit keinen Wert darauf legen würde.

Was man wohl heutzutage nicht mehr erwähnen muss: Kauf dir von der Auflösung nix unter einem FullHD-Beamer. Dann überleg dir: Brauchst du einen 3D-Beamer oder nicht? Ansonsten würde ich generell ein Gerät von einem bekannten Hersteller kaufen, da es hier besonders im Falle eines Defekts schneller Hilfe online gibt oder auch günstige Ersatzteile / Lampen. Speziell achten würde ich auch auf die Lautstärke des Lüfters (Reviews / Rezensionen lesen) und die max. Helligkeit.

Ich hab folgendes Modell erst vor 2 Monaten einem Bekannten gekauft und es selbst auch vorher getestet:

Epson EH-TW5200 LCD-Projektor (Full-HD 2000 ANSI Lumen HDMI USB) schwarz: Epson: Amazon.de: Heimkino, TV & Video

Der hat mir wirklich sehr gut gefallen. Soll jetzt keine direkte Empfehlung sein, da ich ihn selbst nur einen Tag benutzt hab. Er ist aber immer noch zufrieden mit dem Teil und nutzt ihn beruflich / ehrenamtlich fast täglich. Ich persönlich fand besonders den Preis sehr attraktiv für die gebotenen Features. Die Helligkeit ist mit 2000 Lumen auch mehr als ausreichend, selbst wenn ein Raum nicht komplett abgedunkelt ist - im Eco-Modus (reduzierte Helligkeit, aber immer noch für nur halb abgedunkelte Räume ausreichend) ist er auch sehr leise.

Viel Erfolg =)
 

Ankylo

Bekanntes Gesicht
Danke für deinen Beitrag zum Beamer, den habe ich erst jetzt gesehen. :B Hat sich dank Gewitters gemeinsam mit dem PC schon wieder erledigt.


Wie bereits gesagt, suche ich einen neuen Fernseher. Allerdings erwarte ich nichts großartiges, sondern möchte meinen Bisherigen einfach nur fast 1:1 ersetzen. Aktuell habe ich noch einen LG 26LV5500. Jetzt darf es eine Nummer größer sein, aber mehr als 32 Zoll bekomme ich nicht unter und der Sitzabstand sind auch nur 1,5m. Der muss auch gar nichts Besonderes können, sondern einfach auch nur Full HD, LED-Backlight, USB-Anschluss und (mindestes) 2 HDMI-Eingänge, denn irgendwie scheinen alle Geräte nur noch so wenig zu haben. Auf eingebaute Receiver und Smart TV-Funktionen kann ich verzichten, denn dafür habe ich schon einen Receiver von Sky und Spielekonsolen.

Spontan habe ich einen von Samsung entdeckt, wobei ich LG als Marke gerne beibehalten würde. Deshalb habe ich eins, zwei und drei Fernseher von LG auf Amazon gesucht. Allerdings habe ich null Ahnung, ob ich jetzt einen Twin oder Triple Tuner brauche, weshalb ich um ein wenig Aufklärung bitte.

Danke schon einmal. :)
 

LOX-TT

Senior Community Officer
Teammitglied
Also ich hab nen Grundig TV, mit dem bin ich sehr zufrieden, könnte ich weiterempfehlen, ist 32", LED und hat 3HDMI (2x hinten, 1x seitlich), 1 Scart bzw. 1 Component Anschluss und 1x USB2.0 (seitlich). Reciewer ist allerdings nicht verbaut. Weiß aber nicht ob für dich Grundig in Frage kommt, wenn du lieber LG oder Samsung hättest.
 

ndz

Bekanntes Gesicht
Auf eingebaute Receiver und Smart TV-Funktionen kann ich verzichten, denn dafür habe ich schon einen Receiver von Sky und Spielekonsolen.

Allerdings habe ich null Ahnung, ob ich jetzt einen Twin oder Triple Tuner brauche, weshalb ich um ein wenig Aufklärung bitte.

Steht eigentlich alles im Startpost bzw. sogar direkt in der Artikelbeschreibung auf Amazon :P Als "Tuner" werden die integrierten Empfangsmodule bezeichnet. Dein günstigster LG hat nur einen Twin-Tuner, was laut Artikelbeschreibung bedeutet:

"Empfang: Analog, DVB-T (Terrestrisch), DVB-C (Kabel)"

D.h. du hast keinen Sat-Receiver im TV integriert - bei Triple Tunern ist der mit drin. Da du aber oben ja schon geschrieben hast, dass du keinen internen Receiver benötigst, ist es also vollkommen egal ob jetzt ein Twin- oder Triple-Tuner drin ist ;)

Würde dir bei deiner Auswahl daher zu dem Samsung oder dem günstigsten LG für aktuell 294€ raten.
 

Foxioldi

Bekanntes Gesicht
ndz;9559325 ist es also vollkommen egal ob jetzt ein Twin- oder Triple-Tuner drin ist ;-) [/QUOTE schrieb:
Ganz so egal ist es bei mi nicht, wir haben Kabelanschluß und noch extra eine Satellitenschüssel - wenn man letztere mit nutzen oder vorrangig nutzt, dann muß es schon ein TV mit Triple - Tuner sein.

Ich habe in der Küche einen kleinen LCD - TV, der hat nur einen Twin - Tuner ( DVB-T und DVB-C), so dass ich hier nur Kabel - TV nutzen kann, oder dann eben nur mit einem externen Receiver, um DVB-S (S2) sehen zu können, was aber hier nicht notwendig ist, da schon genug Sender über Kabel kommt und mir diese reichen.

Eine eigene Satellitenanlage haben wir uns hauptsächlich zugelegt, weil es oft Probleme mit dem Kabelanschluß gibt und es oft Tage dauert, bis das wieder funktioniert - alle anderen LCD - TV hängen deshalb auch noch an unserer Anlage, da sie alle 3 Tuner eingebaut haben.

Mit einem Triple - Tuner ist man auf alle Fälle auf der sicheren Seite, man weiß ja nie, wie schnell sich mal die Wohnsituation ändert.

Ich würde dir zu dem Samsung raten, hat Triple-Tuner und für 299 EURO auch ein sehr guter Preis.
Bin mit Samsung - TVs absolut zufrieden.
 
Zuletzt bearbeitet:

Foxioldi

Bekanntes Gesicht
Zahlt man für den Kabelanschluss nicht monatlich Gebühren? Falls ja verstehe ich nicht wieso du nicht ausschließlich die SAT Schüssel nutzt. Dann würden die Gebühren fürs Kabelfernsehen doch wegfallen...:O

Wir haben im Ort eine Gemeinschaftsantennenanlage, das kostet mich im Jahr 30 EURO, und diese sind mir es (noch) wert, diesen Anschluß zu behalten.
Um in die Küche das Kabel von der Satellitenschüssel noch zu legen, dafür müßten zu viele Wände durchbohrt werden, und darauf habe ich keine Lust. ;-D
 
Zuletzt bearbeitet:

ndz

Bekanntes Gesicht
Ganz so egal ist es bei mi nicht, wir haben Kabelanschluß und noch extra eine Satellitenschüssel - wenn man letztere mit nutzen oder vorrangig nutzt, dann muß es schon ein TV mit Triple - Tuner sein.

Klar, aber wie Anky schon sagte nutzt er ja sowieso nicht den internen Receiver, von daher spielt es für ihn keine Rolle. Wenn er unbedingt bei LG bleiben möchte, ist der für 294€ mit Sicherheit ok...

Ich würde dir zu dem Samsung raten, hat Triple-Tuner und für 299 EURO auch ein sehr guter Preis.
Bin mit Samsung - TVs absolut zufrieden.

... der Samsung bietet natürlich dank dem Triple Tuner das beste P/L-Verhältnis. Deswegen hab ich oben ja auch schon geschrieben, dass er sich's zwischen den beiden raussuchen kann.


@Mariostar

Über die HD+ Abzocke hab ich mich auch schon oft genug aufgeregt :pissed: Finde ich imho absolut unverschämt, besonders da die öffentlich-rechtlichen die meisten Sender auch für lau in HD senden (sogar der Kinderkanal :B). Und bei den eh schon massiv werbefinanzierten Privatsendern soll ich dafür noch extra zahlen? Ne, ganz sicher nicht.

HD ist meiner Meinung nach die ganz normale Evolutionsstufe im TV-Bereich, so wie damals das Farbfernsehen. Nur wäre damals keiner auf die Idee gekommen, dafür mehr Geld zu verlangen... :rolleyes:
 

ZombieGT

Bekanntes Gesicht
Ich denke ich bin hier genau richtig mit meiner Frage :

Ich suche einen neuen PC Monitor Ersatz (TV) der für meine kommende PS4 tauglich sein sollte, sprich
auch interne Boxen (Lautsprecher) haben sollte - wie eben ein TV. 3D braucht es nicht, MAXIMAL Größe sollte 27" sein
und es sollte A+++ haben oder A++, wenn es WIRKLICH nicht anders geht dann auch einen A+ aber das
nur wenns wirklich nichts gibt. Einer der wichtigsten Punkte ist dieser hier : Hitzeentwicklung, mein Samsung
TV den ich aktuell als Monitor nutze strahlt halt TIERISCH Hitze ab >_< Man schwitzt nach..1 Stunde maximal.
Preis sollte auf keinen Fall 300 überschreiten, weil ..für 320 gibt's nen 3D TV/Touch-Monitor-Hybrid und wenn
man schon für 320 sowas bekommt, dann sollte es auch was geben für mich unter dieser Grenze.

Danke schon einmal für die kommenden Antworten <3

Edit: Falls keiner mir helfen kann, oder es doch im falschen Thread zu sein scheint, wäre es toll, wenn ihr mir
das per PM oder direkt Antwort hier mitteilen könntet, Danke. :)
 
Zuletzt bearbeitet:

FlamerX

Bekanntes Gesicht
Ich hab' von TVs derzeit keinen Blassen. Aber in Anbetracht der Tatsache, dass mein HD nun schon über 8 Jahre alt ist, sollte ich mich mal so langsam umsehen, für den Fall, dass er plötzlich den Geist aufgibt.
Ich brauche, und viel wichtiger, ich will keinen 100Hz, 200 Hz, 600 Hz Schnickschnack. Ich empfinde diese zusätzlichen berechneten Bilder als ekelerregend. Das Bild wirkt plastisch und unecht. Zumal diese Berechnungen Zeit kosten, die beim Zocken entscheidend sein kann. Ich habe das bemerkt, als ich bei meinem Bruder Trials Fusion gespielt habe. Denn er hat einen neueren HD mit post-processing-script-scheiß und ich konnte sofort merken, wie das Bike immer hinter meinen Eingaben hinterherhing. Das waren Millisekunden, aber die sind bei einem Spiel wie Trials überlebenswichtig.

Daher die Frage: Gibt es überhaupt HDTVs bei denen man diese zusätzlichen Berechnungen komplett deaktivieren kann?


Vom Fernsehen selbst hab' ich noch weniger Ahnung. Mein Kabelanschluss steckt in meinem HD und ich hab' ein Bild. Ein nicht besonders gutes Bild, aber mir ist TV eh nicht so wichtig. Trotzdem sollte man ja irgendwie gewappnet sein und ab und zu gucke ich doch mal nen Film, der zufällig läuft.
Mein HD hat also scheinbar einen integrierten DVB-C Tuner. Was wären für mich die Möglichkeiten? Wie gesagt, ich hab' davon echt überhaupt keinen Plan.
Wie sieht es mit dem fernsehen über die Xbox aus? Sie hat ja nen HDMI Eingang. Dafür bräuchte ich also wahrscheinlich einen externen DVB-irgendwas Empfänger. Und dann gibt es noch offiziell einen USB Tuner für die Xbox. Ka, funktioniert das bei mir? Hab' ich dann HD?

Danke ndz %)


Ach, und noch was, dann finde ich vielleicht endlich mal ne Antwort darauf.
In den Xbox One Einstellungen findet sich irgendwo unter TV oder so die Einstellung "50Hz". Ich dachte die 50Hz wären Standard? Oder waren es 60Hz? Aber wozu dann das Ganze?
 
Zuletzt bearbeitet:

Kraxe

Bekanntes Gesicht
In den Xbox One Einstellungen findet sich irgendwo unter TV oder so die Einstellung "50Hz". Ich dachte die 50Hz wären Standard? Oder waren es 60Hz? Aber wozu dann das Ganze?
Hz ist die Bildwiederholungsfrequenz. Sie gibt an wieviele Bilder in einer Sekunde der Bildschirm anzeigen kann. Also die fps des Bildschirms sozusagen. In den meisten Ländern ist PAL-50Hz Standard, weshalb auch bei der XBOX 50Hz eingestellt ist.
 

FlamerX

Bekanntes Gesicht
Hz ist die Bildwiederholungsfrequenz. Sie gibt an wieviele Bilder in einer Sekunde der Bildschirm anzeigen kann. Also die fps des Bildschirms sozusagen. In den meisten Ländern ist PAL-50Hz Standard, weshalb auch bei der XBOX 50Hz eingestellt ist.
Neee, das ist ne zusätzliche Option, die ich aktivieren kann. Daher lautet die Frage eher: Was bedeutet es also, wenn die Option nicht aktiviert ist und was bringt es mir diese zu aktivieren?
 

Kraxe

Bekanntes Gesicht
Neee, das ist ne zusätzliche Option, die ich aktivieren kann. Daher lautet die Frage eher: Was bedeutet es also, wenn die Option nicht aktiviert ist und was bringt es mir diese zu aktivieren?
Weiß ich ja, ich dachte ich hätte die Antwort impliziert. :-D

Mit 60Hz wirst du beim Fernsehen über XBOX One kein einwandfreies Bild erhalten, da das PAL-Signal nur 50 Hz zulässt. Deshalb ist die XBO One auf 50 Hz als Standard eingestellt.

Beim Spielen solltest du mit dem 60 Hz-Modus keine Probleme haben, vorausgesetzt dein TV-Gerät unterstützt mind 60Hz, wovon ich aber ausgehe.

Man kann sagen, dass es die 50 Hz nur wegen dem PAL-Signal beim Fernsehen gibt. Eine US-XBOX One wird wahrscheinlich keinen 50 Hz Modus haben. Aber das weiß ich nicht.
 

ndz

Bekanntes Gesicht
Jetzt kommen sie plötzlich alle aus den Löchern geschossen :B

Ich denke ich bin hier genau richtig mit meiner Frage :

Ich suche einen neuen PC Monitor Ersatz (TV) der für meine kommende PS4 tauglich sein sollte, sprich
auch interne Boxen (Lautsprecher) haben sollte - wie eben ein TV. 3D braucht es nicht, MAXIMAL Größe sollte 27" sein
und es sollte A+++ haben oder A++, wenn es WIRKLICH nicht anders geht dann auch einen A+ aber das
nur wenns wirklich nichts gibt. Einer der wichtigsten Punkte ist dieser hier : Hitzeentwicklung, mein Samsung
TV den ich aktuell als Monitor nutze strahlt halt TIERISCH Hitze ab >_< Man schwitzt nach..1 Stunde maximal.
Preis sollte auf keinen Fall 300 überschreiten, weil ..für 320 gibt's nen 3D TV/Touch-Monitor-Hybrid und wenn
man schon für 320 sowas bekommt, dann sollte es auch was geben für mich unter dieser Grenze.

Danke schon einmal für die kommenden Antworten <3

Edit: Falls keiner mir helfen kann, oder es doch im falschen Thread zu sein scheint, wäre es toll, wenn ihr mir
das per PM oder direkt Antwort hier mitteilen könntet, Danke. :)

Gleich vorweg: Du bist in einem reinen Technik-Forum oder vll. auf PC Games bzw. PC Games Hardware (Schwesterforen) mit Sicherheit besser mit deiner konkreten Anfrage aufgehoben. Ich kenn mich zwar ganz gut mit dem Thema aus, weiß aber aktuell nicht was am Markt ist und müsste selbst erst recherchieren, was so alle an Angeboten verfügbar ist.

Gut zum Schauen, was es überhaupt so alles gibt, ist nach wie vor Amazon.de. Mit das größte Angebote und viele Filtermöglichkeiten, um genau das zu finden, was du suchst.

Dennoch ein paar Anmerkungen: Ein PC Monitor ist eben leider kein TV und umgekehrt - Hybriden gibt es immer, allerdings hat man dann immer irgendwo mit Nachteilen zu kämpfen. Zum ersten würde ich mit dem Sound anfangen. Integrierte Boxen sind gerade bei so kleinen Geräten oft ein großes Manko. Du hörst zwar was, aber wirklich glücklich wird dich das mit Sicherheit nicht machen. Allein hier bist du schon mit Zusatzboxen für nur 20€ deutlich besser beraten als mit den integrierten Teilen bei Größen von max. 27" - das hat zumindest meine Erfahrung gezeigt.

Am einfachsten wäre es da für dich auf jeden Fall in der TV-Sparte zu schauen. Mit einer FullHD-Auflösung und HDMI-Anschluss bist du zumindest grundlegend für den PC gerüstet und kannst das Gerät mit dem integrierten Ton dann auch gut an die PS4 anschließen.

Was die Hitzeentwicklung betrifft: Das wird dir i.d.R. bei neueren Geräten nicht mehr so passieren. Alle Komponenten sind energiesparender geworden und haben somit auch eine geringere Hitzeentwicklung. Wenn du als heutzutage von einem 27" Monitor echt zum Schwitzen kommst, ist was faul :P Ich hatte schon einige TV's genauer in den Fingern und da auch immer ein wenig drauf geachtet - bei meinem alten 40" Samsung von 2009 war an den Lüftungsschlitzen ebenfalls eine recht starke Hitzeentwicklung zu spüren. Bei meinem neuen 55" von Samsung (2015) spüre ich so gut wie nichts.


Zum Thema Energieeffizienz: Wieso ist dir das so wichtig? Viel wichtiger wäre mir der Gesamtverbrauch Watt. Ich hab auf die schnelle z.B. dieses Modell gefunden: http://www.amazon.de/gp/product/B00KGGP6CA

Hat eigentlich alle Kriterien erfüllt, die du genannt hattest - die Energieeffizienz kann ich dir allerdings nicht nennen. Vermutlich aber nur "A" - bei einem Verbrauch von 28 Watt sollte das aber nicht ins Gewicht fallen. Wenn du da eine Lampe währenddessen ausmachst, solange du den Monitor angeschaltet hast, wirst du insgesamt vermutlich weniger Strom verbrauchen ;) Ich würde mich da auf jeden Fall nicht auf die Energieeffizienz festlegen - damit schränkst du deine Auswahl in diesem doch sehr kleinen Nischen-Bereich SEHR ein. In dieser Größe die eierlegende Wollmilchsau zu finden ist nicht einfach.

[...]Daher die Frage: Gibt es überhaupt HDTVs bei denen man diese zusätzlichen Berechnungen komplett deaktivieren kann?

Ja, eigentlich bei allen.

Wie oben beschrieben sind 100Hz eigentlich Standard und sind auch mehr oder weniger notwendig, um alle Inhalte in unterschiedlichen Frequenz-Bereichen (in Hz) darstellen zu können. Das von mir schon im Startpost beschriebene "Overclocking" auf 600 oder weit über 1000 Hz ist imho natürlich Schwachsinn. Zum Glück lässt sich das aber bei eigtl. allen Herstellern (zumindest die namhaften, glaube auch kaum das das irgendwo nicht geht) komplett abschalten. D.h. es werden keine Bilder mehrfach dargestellt, um einen flüssigeren Eindruck zu schaffen (Stichwort Fußball).

Viel mehr ein Problem sind weitere "digitale Bildverbesserer", wie es zusammenfassend oft heißt. Hier musst du dich leider ein Mal durch das ganze TV-Menü wälzen und gucken, was du da alles abschalten kannst - von "Optimalkontrast" bis hin zu "digitale Rauschminderung" gibt es da jede Menge, was zu Signalverzögerungen führen kann. So gut wie alle TVs haben aber auch einen "PC"- bzw. "Spiele"-Modus. Hier wird sämtliches Zusatzzeug meistens deaktiviert, um eine möglichst flüssige Darstellung zu erreichen. Klappt meist auch ganz gut :top: Ich aktiviere diese Modi aber trotzdem nie, da das Bild oft auch nachgeschärft und die Farben verändert werden (um z.b. am PC Schrift besser lesen zu können). Das führt zu einem unnatürlicheren Eindruck. Man kann ja wie gesagt auch die ganzen "Verbesserer" manuell abschalten, um den gleichen Effekt zu haben - nur eben ohne das Bild künstlich zu verändern.

Vom Fernsehen selbst hab' ich noch weniger Ahnung. Mein Kabelanschluss steckt in meinem HD und ich hab' ein Bild. Ein nicht besonders gutes Bild, aber mir ist TV eh nicht so wichtig. Trotzdem sollte man ja irgendwie gewappnet sein und ab und zu gucke ich doch mal nen Film, der zufällig läuft.

Mein HD hat also scheinbar einen integrierten DVB-C Tuner. Was wären für mich die Möglichkeiten? Wie gesagt, ich hab' davon echt überhaupt keinen Plan.

Dann einfach darauf achten, dass dein Wunsch-TV einen "Triple Tuner" hat. Ist zwar eher ein Marketing-Begriff, da eigentlich jeder TV schon von Haus aus einen "Twin Tuner" besitzt, da ein Kabel- und terrestrischer Anschluss (Antenne) historisch bedingt immer schon an Bord waren. Triple Tuner bedeutet daher einfach, dass noch ein DVB-S(2)-Tuner mit an Bord ist, du ergo das Bild auch direkt via Satellit empfangen kannst, auch ohne einen zusätzlichen Receiver kaufen zu müssen. Wenn du aber heutzutage einen "Durschnitts-TV" von etwa 40" kaufst, müsste ein Triple Tuner eigentlich sowieso Standard sein mittlerweile.

Wie sieht es mit dem fernsehen über die Xbox aus? Sie hat ja nen HDMI Eingang. Dafür bräuchte ich also wahrscheinlich einen externen DVB-irgendwas Empfänger. Und dann gibt es noch offiziell einen USB Tuner für die Xbox. Ka, funktioniert das bei mir? Hab' ich dann HD?

Mit dem Xbox-Zeug kenn ich mich nicht aus :P Da musst du selbst etwas recherchieren. Was das Thema "Hab ich dann HD?" betrifft - wenn du einen TV mit "Triple Tuner" kaufst, ist dieser auch dazu imstande die (freien und nicht verschlüsselten) Inhalte auch in HD anzuzeigen. Da TV-Branche aber ein großes Arschloch ist, musst du zusätzlich mit sog. CI+ Karten "HD" kaufen, wenn du auch die Privatsender hochauflösend sehen willst. Siehe oben und siehe Startpost.


Bitte Flamer :P

Ach, und noch was, dann finde ich vielleicht endlich mal ne Antwort darauf.
In den Xbox One Einstellungen findet sich irgendwo unter TV oder so die Einstellung "50Hz". Ich dachte die 50Hz wären Standard? Oder waren es 60Hz? Aber wozu dann das Ganze?

Das Thema ist alt. SEHR alt :P Der Unterschied sind die alten Fernsehnormen. 50Hz ist quasi tot und entspricht dem alten PAL-Standard. In Europa ist dieser verbreitet, die Amis nutzen ausschließlich NTSC. Es gibt noch SECAM (Russland), aber das kennt hier keine Sau. Hier ein schöner Überblick auf Wikipedia. Früher hat das eine Rolle gespielt, für den Zocker auch noch zu PS2-Zeiten ;) Alte Röhren-TVs konnten halt nur 50Hz, war eben in EU so. D.h. wenn ein Spiel aus US importiert wurde und dies auch auf einer PS2 lauffähig war, konnte es sein, dass kein Bild angezeigt wurde. Der TV konnte dann technisch einfach nicht die Frequenz von 60Hz darstellen. Neuere Röhren-TVs konnten dann sowohl 50 als auch 60 Hertz. Da war das dann kein Problem mehr. Heutzutage spielt das ÜBERHAUPT KEINE Rolle mehr. Alle neueren Flatscreens konnten schon 60 Hertz, die Modelle die jetzt jünger als 5-6 Jahre sind können eigtl. mindestens 100Hz, was sich so als Standard etabliert hat. Hat aber mit der 50/60Hz Problematik nix zutun, sondern eher mit der flüssigeren Bilddarstellung (siehe oben).

Die Umschaltungsmöglichkeiten zwischen 50/60Hz finden sich heute oft noch in Geräten wieder, trotz allem. Eben um eine möglichst hohe Kompatibilität herzustellen. Z.B. kann man auch in vielen Kameras noch bei der Videoaufnahme zwischen "PAL" und "NTSC" wechseln. Spielt heute eigentlich keine Rolle mehr, wie gesagt - es ändert sich dann allerdings nur die Framerate der Aufnahme. In "PAL" zeichnen die meisten Kameras in max. 50 Frames auf, in "NTSC" in 60 Frames. D.h. wer besonders schnelle Szenen (Stichwort GoPro) aufnehmen möchte, sollte seine Kamera immer auf "NTSC" stellen. Es gibt Stand heute eigentlich kein Gerät mehr, dass keine 60Hz unterstützt. Eben alles nur historisch bedingt und wird wohl bald komplett von der Bildfläche verschwinden ;)
 
Zuletzt bearbeitet:

FlamerX

Bekanntes Gesicht
Wie oben beschrieben sind 100Hz eigentlich Standard und sind auch mehr oder weniger notwendig, um alle Inhalte in unterschiedlichen Frequenz-Bereichen (in Hz) darstellen zu können. Das von mir schon im Startpost beschriebene "Overclocking" auf 600 oder weit über 1000 Hz ist imho natürlich Schwachsinn. Zum Glück lässt sich das aber bei eigtl. allen Herstellern (zumindest die namhaften, glaube auch kaum das das irgendwo nicht geht) komplett abschalten. D.h. es werden keine Bilder mehrfach dargestellt, um einen flüssigeren Eindruck zu schaffen (Stichwort Fußball).

Aber TV, PS4 und XOne geben doch kein Signal in 100Hz aus, oder? Das heißt selbst bei den mittlerweile standardisierten 100Hz wird dazugerechnet!?


Den TV Kram hab' ich glaub' ich so langsam kapiert. Eigentlich ne Schande für mich, den sonst so technikversierten Kerl. :|



Heutzutage spielt das ÜBERHAUPT KEINE Rolle mehr.
Ja, an den PAL und 50/60 Hz Mist kann ich mich noch erinnern.
Mein TV unterstützt zwar beides, aber wenn ich jetzt beispielsweise Forza, Gears Ultimate oder Call of Duty, die ja alle nativ mit 60 fps laufen, auf einer Xbox spiele, bei der ich 50 Hz eingestellt habe, dann kriege ich doch auch die niedrigere Bildfrequenz, oder? Also ist davon abzuraten 50 Hz auszuwählen? Oder ist das wirklich nur reines Kompatibilitätsgimmick, falls ich ein Lox mit Röhrenfernseher bin? :B

In dem Zusammenhang: Wenn 60 Hz und nicht 50 Hz Standard sind, wie kommen die dann bei den TVs auf 100, 200, 600, etc Hz? Wäre es nicht wesentlich einfacher und sinnvoller jeweils zu verdoppeln? Ich dachte bisher nämlich 50 Hz wären Standard und bei 100 Hz würde einfach ein Bild zwischen zwei "echten" Bildern zwischengerechnet. Bei 200 Hz eben drei zwischen zwei "echten" Bildern.

Und eben noch in den Xbox Einstellungen gefunden: 24 Hz. Unterstützt mein TV aber nicht. 50, 60, 100 usw hatte ich bisher alles recht gut verstanden, kein Wunder, dass ich bei dem Thema verwirrt bin. Was sollen die 24?
 

ndz

Bekanntes Gesicht
Aber TV, PS4 und XOne geben doch kein Signal in 100Hz aus, oder? Das heißt selbst bei den mittlerweile standardisierten 100Hz wird dazugerechnet!?

Das ist korrekt. Wobei "dazugerechnet" zu einfach ausgedrückt ist. Man darf dabei nicht vergessen: Bildrate (Framerate) ist ja bekanntlich nicht mit der Bildwiederholfrequenz gleichzusetzen. Die 100Hz bei einem Monitor beziehen sich immer auf letzteres. Was als Quellmaterial reinkommt, ist ja meist höchst unterschiedlich. Wenn ein Monitor 100Hz beherrscht, bedeutet das allerdings nicht, dass das Bild konstant mit 100Hz angezeigt wird - dafür ist die Standard-Einstellung bei den meisten Geräten auf "intelligent" oder ähnliches gesetzt. D.h. der TV versucht die Zwischenbilder anhand des Quellmaterials (Bildrate) passend zu berechnen. Das führt wie gesagt zu einem flüssigeren Bildeindruck, aber ebenso zu einer geringen Latenz, die tatsächlich einen Bild- und Ton-Versatz hervorrufen kann.

Falls es dich wirklich im Detail interessiert: https://de.wikipedia.org/wiki/Bildwiederholfrequenz
Wird dich aber wohl eher verwirren :B Eher noch passend zum Thema: https://de.wikipedia.org/wiki/Motion_Interpolation

Wie aber oben schon gesagt, lässt sich dies meist deaktivieren.

Oder ist das wirklich nur reines Kompatibilitätsgimmick, falls ich ein Lox mit Röhrenfernseher bin? :B

So ist es :B Lass bei einem modernen TV einfach die Finger weg von 50Hz wenn du es irgendwo liest :P

In dem Zusammenhang: Wenn 60 Hz und nicht 50 Hz Standard sind, wie kommen die dann bei den TVs auf 100, 200, 600, etc Hz? Wäre es nicht wesentlich einfacher und sinnvoller jeweils zu verdoppeln? Ich dachte bisher nämlich 50 Hz wären Standard und bei 100 Hz würde einfach ein Bild zwischen zwei "echten" Bildern zwischengerechnet. Bei 200 Hz eben drei zwischen zwei "echten" Bildern.

Siehe oben - die Technik arbeitet in der Praxis etwas komplexer und entscheidet selbst, wie oft ein Einzelbild des Quellmaterials wiederholt werden muss, um (möglichst) flüssig dargestellt werden zu können.

Um das Chaos noch ein wenig zu steigern: 50Hz sind 50Hz bei PAL, mathematisch bedingt sind aber 60Hz bei NTSC tatsächlich eigentlich ca. 59,94Hz (genau 60000/1001 Hz) :B Frag jetzt nicht wieso, das ist eben historisch bedingt und war eben von Jahrzehnte alter Technik abhängig damals... dazu kommt, dass heute die große Werbetrommel weiter zur Verkomplizierung führt. Die physikalischen Schaltzeiten bei modernen Displays erreichen z.B. NIEMALS 600Hz oder mehr (die Grenze liegt weit darunter). Hier haben die Hersteller witzige Rechenspielchen betrieben und die Schaltzeiten einzelner Bauteile angegeben, die aber nix mehr mit der Bildwiederholfrequenz zutun haben. Klingt einfach im örtlichen Media Markt / Saturn / Expert / Whatever besser, macht in der Praxis aber mal so gar keinen Sinn :P Aber das sollte dich nicht verwirren. Ein Beitrag dazu hab ich spontan auf Heise gefunden (im Video auf 1 Minute vorspulen, da kommt die Erklärung)

Und eben noch in den Xbox Einstellungen gefunden: 24 Hz. Unterstützt mein TV aber nicht. 50, 60, 100 usw hatte ich bisher alles recht gut verstanden, kein Wunder, dass ich bei dem Thema verwirrt bin. Was sollen die 24?

24 Bilder pro Sekunde sind ein NOCH viel älteres Thema :B Ebenso historisch bedingt. Wurde in den obigen Links schon öfter angeschnitten. 24FPS entsprechen dem typischen (umstrittenen, weil viele Vor- und Nachteile) "Kinolook". Die allermeisten (!) Filme werden heute immer noch mit 24FPS aufgenommen (und in den Kinos mit den Projektoren meist mit 48Hz abgespielt).

Was juckt das bei dir zu Hause? Die meisten Blu-rays sind deshalb auch in "24p", will heißen, 24 Vollbilder (progressiv) pro Sekunde gibt das Quellmaterial her. Damit es nicht zum 3:2 Pulldown Problem kommt (guckst du, daher kommen rechnerisch übrigens auch die ca. 59,94Hz beim NTSC Standard) haben aktuelle TVs auch einen "24p" Modus. Will heißen, die Motion Interpolation dank 100Hz oder mehr wird dafür abgeschaltet, damit Blu-rays auch in "echten" 24 Bildern pro Sekunde dargestellt werden können - damit entspricht die Darstellung genau der Bildwiederholrate, die vom Filmemacher gedacht war. Deshalb hat auch deine Xbox als Abspielgerät diese Einstellung, damit nicht da schon hochgerechnet wird. Sowas kannst du aber auch aktiviert lassen, da diese Einstellung ja auch nur bei einem Quellmaterial genutzt wird, was den 24 Frames entspricht. Bringt dir natürlich nur was, wenn's dein TV eben kann.

Heute streitet sich die Branche oft noch, ob 24 Bilder pro Sekunde bei Kinoproduktionen nicht überholt sind. Fakt ist, dass es momentan noch immer der Standard ist und eben dank Blu-rays auch im Heimbereich ein Thema ist (und deshalb die meisten Geräte einen 24p-Modus haben). Der Hobbit ist übrigens ein Ausreißer, dank der modernen Technik wurde der Film ja bekanntlich in 48 Frames komplett digital aufgezeichnet (guckst du). Wieso das erst "Der Hobbit" gemacht hat?

Spoiler:
Das ganze Scheißzeug ist verdammt teuer. Für den Film wurden RED Epic Kamers genutzt, und zwar laut Wikipedia satte 48 Stück (wieso wohl genau 48 :P). Allein der Body einer solchen Kamera (ohne zwingend benötigtes Zubehör und den noch viel teureren Objektiven) kostet ca. $20.000. Im Set ist man da bei so einer Produktion da schnell bei 50k pro Stück = 2,4 Mio Dollar allein für die Kameras. Ohne sämtliches Zubehör und was sonst noch so dazu gehört. Kein Wunder also, dass die Branche sich schwer tut, neue Techniken einzusetzen :B




Und ja, das ganze TV-Zeug ist echt zum Kotzen :B Das Schlimme ist, dass es sogar zwischen TV- und Filmbranche noch einige technische Unterschiede gibt und es daher im Heimbereich oft Hybrid-, Kombi-, oder Zwitterlösungen gab, die alles nur noch komplizierter gemacht haben :B
 
Zuletzt bearbeitet:

ZombieGT

Bekanntes Gesicht
@ FalmerX zu Xbox 50 hz : Es ist nicht abhängig von der Einstellung sondern dem Medium ~ Spiele nutzen 60hz, TV nutzt 50hz.
Das ist besonders merkbar wenn man die One als TV Receiver nutzt, im 50hz Modus läuft das Bild schön flott, schaltet man aber
auf ein Spiel wird automatisch 60hz genutzt. :3 Der Standard ist für Blu-Rays (Filme 24hz), wenn bei 60hz z.B. dein TV stottert,
was vorkommen kann - dafür ist dann die 24hz Einstellung.

(Zu den anderen Antworten komme ich noch :-D)

Edit 1:
ndz schrieb:
Dennoch ein paar Anmerkungen: Ein PC Monitor ist eben leider kein TV und umgekehrt - Hybriden gibt es immer, allerdings hat man dann immer irgendwo mit Nachteilen zu kämpfen. Zum ersten würde ich mit dem Sound anfangen. Integrierte Boxen sind gerade bei so kleinen Geräten oft ein großes Manko. Du hörst zwar was, aber wirklich glücklich wird dich das mit Sicherheit nicht machen. Allein hier bist du schon mit Zusatzboxen für nur 20€ deutlich besser beraten als mit den integrierten Teilen bei Größen von max. 27" - das hat zumindest meine Erfahrung gezeigt.
Du missverstehst, ich suche einen TV der eine native Auflösung eines PC Monitors zulässt. Mein Samsung TV (der jetzt als
Monitor fungiert) hat eine Mischauflösung von 1216x676 und das stinkt >.< Zudem brauche ich keine boxen, mir ist der
Sound ziemlich egal, da ich sowieso für meinen PC ein 7.1 Headset nutze.. ich will nur nicht immer umstecken, daher halt
die integrierten Lautsprecher (falls es ein Monitor werden sollte anstatt ein TV).

Edit2:
ndz schrieb:
Zum Thema Energieeffizienz: Wieso ist dir das so wichtig? Viel wichtiger wäre mir der Gesamtverbrauch Watt. Ich hab auf die schnelle z.B. dieses Modell gefunden: http://www.amazon.de/gp/product/B00KGGP6CA
Ist eine persönliche Mischung aus "mein aktueller hat D.." was gar nicht mehr produziert wird, und ich
will eine möglichst wärmearme, stromsparende Kombination. Und Deswegen ist mir das so wichtig. :)



Edit:3
Danke für deine Hilfe ndz, ich finde nur gute TVs in dieser Größe.. gibt's eigentlich nicht oder ? o.O (24/27Zoll)
Der geilste Punkt wäre ja wenn das Viech noch Component hätte für meine gemoddete Xbox (die fette Alte),
und HDMI, das wäre echt das Maximum was ich mir wünschen würde.
 
Zuletzt bearbeitet:

FlamerX

Bekanntes Gesicht
Und ja, das ganze TV-Zeug ist echt zum Kotzen :B
Ach, ich versteh' das schon ganz gut. Bin ja nicht ganz so dumm. :-D

Man könnte also sagen, diese Frequenzeinstellungen sind equivalent zum ganzen Auflösungsmist - heutzutage beherrscht jeder TV und Monitor eigentlich alle Formate, aber wenn ein TV dieselbe native Auflösung hat wie die Quelle es hergibt ist das Bild besser, als wenn ein TV eine andere native Auflösung hat und diese Quell-Auflösung skaliert. Ist das korrekt?
Und demzufolge: Ich kann Spiele, TV und Blu-Rays auch mit 60 Hz gucken, wenn mein TV es aber beherrscht ist es sinnvoller meiner Xbox zu sagen sie darf das Material auch mit 50 oder 24 Hz ausgeben, weil das exakt dem Quellmaterial entspricht und der TV so nichts weiter berechnen muss.


Noch mal zu den 100 Hz: Der Einfachheit halber rechnen wir jetzt mal mit einer Quellfrequenz von 50 Hz. Was genau macht mein TV? Er aktualisiert sein Bild 100 Mal in der Sekunde, also genau doppelt so oft, wie die Quelle ihm eigentlich ein Signal gibt. Stellt er jetzt jedes Bild einfach doppelt dar, so dass das Bildmaterial bei 50 Hz bleibt oder berechnet er wirklich aus den Bildpunkten zweier Bilder ein Zwischenbild und gibt es aus? Dann wäre das Bild tatsächlich flüssiger, auch wenn es zu kleinen Fehlberechnungen kommen kann.

Aber wahrscheinlich sind das genau die von dir angesprochenen Bildverbesserer. Mit Aktivierten berechnet er Zwischenbilder, mit Deaktivierten gibt er jedes Bild doppelt aus.
Oder beherrschen es die TVs heutzutage sich selbst herunterzutakten? Um bei unserem Beispiel zu bleiben: Kann ein TV runtertakten um auf dieselbe Bildwiederholfrequenz zu kommen wie das Quellsignal? Dann müssten keine Bilder doppelt dargestellt werden, da die Ausgabe ja 1:1 erfolgt.
Oder können die TVs nur ihre eigene Frequenz und müssen dann immer rechnen?
 

ZombieGT

Bekanntes Gesicht
Und demzufolge: Ich kann Spiele, TV und Blu-Rays auch mit 60 Hz gucken, wenn mein TV es aber beherrscht ist es sinnvoller meiner Xbox zu sagen sie darf das Material auch mit 50 oder 24 Hz ausgeben, weil das exakt dem Quellmaterial entspricht und der TV so nichts weiter berechnen muss.
Das Gerät entscheidet, worauf du etwas wiedergibst, nicht der TV. Der Fernseher macht nur mit, wenn er kann. Um bei den leichten
Beispielen zu bleiben, nämlich der Xbox One : Sie skaliert selbst, sprich du kannst zwar sagen : 50hz für alles, aber das wird nicht
gehen, da das Medium (z.B. Spiel) mit 60hz Standard läuft und die Xbox dann sofort auf 60 umschaltet.

Oder beherrschen es die TVs heutzutage sich selbst herunterzutakten? Um bei unserem Beispiel zu bleiben: Kann ein TV runtertakten um auf dieselbe Bildwiederholfrequenz zu kommen wie das Quellsignal? Dann müssten keine Bilder doppelt dargestellt werden, da die Ausgabe ja 1:1 erfolgt.
Oder können die TVs nur ihre eigene Frequenz und müssen dann immer rechnen?
100hz fähige TVs oder 200hz etc. rechnen Hoch oder Runter. Herz ist nicht gleich Pixelanzahl/Auflösung es ist nur eine
Angabe der maximalen Schaltzahl an Bildern. Wie ndz schon sagte, wird da bei den Herstellern auch schon kräftig
gemogelt um eine hohe Anzahl drauf schreiben zu dürfen.
 

ndz

Bekanntes Gesicht
Ist eine persönliche Mischung aus "mein aktueller hat D.." was gar nicht mehr produziert wird, und ich
will eine möglichst wärmearme, stromsparende Kombination. Und Deswegen ist mir das so wichtig. :)

Edit:3
Danke für deine Hilfe ndz, ich finde nur gute TVs in dieser Größe.. gibt's eigentlich nicht oder ? o.O (24/27Zoll)
Der geilste Punkt wäre ja wenn das Viech noch Component hätte für meine gemoddete Xbox (die fette Alte),
und HDMI, das wäre echt das Maximum was ich mir wünschen würde.

Energieeffizienz hat ja nix mit der produzierten Abwärme zutun. Einfach gesagt: Wenn dein Altgerät noch "D" und so eine komische native Auflösung hat, ist es wirklich noch ein altes Teil :B In heutigen Monitoren / TVs werden viel energiesparendere Komponenten verbaut, die auch dadurch viel weniger Abwärme abgeben. Ich kenne keinen aktuellen Monitor in der Größe, der wirklich nennenswerte Abwärme erzeugt... und ich fass gerade an meinen überall hin, der schon den ganzen Tag im Büro läuft :P

Wie schon gesagt, schränk dich nicht künstlich auf die Energieeffizienz ein, da ist die Auswahl viel zu gering mit all deinen Anforderungen. Der von mir verlinkte Monitor kann eigtl. alles was du brauchst, und der Preis ist ja auch ok =) Hat eine native Auflösung von 1920x1080 (FullHD) und folgende Anschlüsse: 2x HDMI, 15pin D-Sub, Component, Compsite Video, Scart

Siehe offizielle Produktseite von Samsung. Bist also dank Component und 2x HDMI für alles gerüstet - nur auf DVI musst du verzichten.


Ach, ich versteh' das schon ganz gut. Bin ja nicht ganz so dumm. :-D

[...]

Mach's nicht so kompliziert ;) Man geht immer vom Quellmaterial aus, und das liegt in der Praxis eben meist in 50Hz, 60Hz (Games, Standardinhalte von der Konsole, Standard-PC-Frequenz) oder 24Hz vor (Blu-rays, die auf einem 24Hz-fähigen Player abgespielt werden).

Das Quellmaterial wird erst mal vom Abspielgerät (in dem Fall deine Xbox) verarbeitet. Und je nach dem was dort eingestellt ist, gibt diese das Bild einfach weiter oder rechnet es um. Ein Praxisbeispiel wäre die 24Hz Einstellung. Wenn dein TV keine 24Hz unterstützt, kannst du diese Option an der Xbox deaktivieren, da du sonst kein Bild hättest. Mit einem aktuellen Monitor kannst du diese Einstellungen also alle aktiviert lassen - die lassen sich eben nur aus Kompatibilitätsgründen deaktivieren. Das letzte Glied in der Kette ist dann dein TV / Beamer etc. - eben dein finales Anzeigegerät. Wenn das bei dem Beispiel 24Hz unterstützt, hast du nativ ohne irgendwelche Berechnungen vom Quellmaterial bis zum Monitor saubere 24Hz in der Darstellung. Dein hypothetischer TV, der dies unterstützt, gibt dies dann übrigens auch so aus, selbst wenn die "100Hz Motion Interpolation" aktiviert ist. Denn er erkennt das Quellmaterial und und schaltet die Funktion ab.

Kurz: Wenn du Bedenken hast mit Latenz etc. beim Spielen von Games, solltest du diese Einstellungen am TV überprüfen - denn der sorgt dafür, dass solche Probleme entstehen. Erfahrungsgemäß sind das eben so Sachen wie "Optimalkontrast", "digitale Rauschminderung" etc. - eben alles was sich nach "Bildverbesserer" anhört. Ist oft auch nur nützlich, wenn das Quellmaterial schon scheiße ist (alter Receiver etc.).

Kleine Anekdote zum Optimalkontrast, so heißt das zumindest bei Samsung:

Spoiler:
Wenn der aktiviert ist, sieht ein Standbild (!) erst mal kontrastreicher aus. Allerdings braucht der TV u.U. so lange das zu berechnen, dass während schnellen Umschaltzeiten des Bildes (z.B. mir selbst aufgefallen beim Amazon Fire TV im Menü, wenn man nur den Menüpunkt wechselt) das Bild erst "normal" aussieht und dann eine Viertelsekunde später plötzlich abrupt kontrastreicher wird.

Aus diesen Gründen hab ich eben viele dieser Sachen ausgeschaltet, weil ich einfach ein Fan von unverfälschtem Quellmaterial bin. Und wenn das schon gut ist, gibt es auch nicht viel zu verbessern :top:
 

ndz

Bekanntes Gesicht
Du hast im Prinzip schon recht, genau deshalb nutze ich eigentlich keine einzige Funktion auf meinem SmartTV. Ich hab vieles ausprobiert und bin zu dem Entschluss gekommen, dass es alles nur Spielereien sind, die ich nicht brauche... aber sowas verkauft sich halt im Massenmarkt gut.
 

ZombieGT

Bekanntes Gesicht
Ndz eine direkte Frage : Ganz ehrlich, ich denke ich werde mir dein Gerät, was du mir gezeigt hast, zum Geburtstag kaufen.
Aber wie sieht es aus mit den 5ms Reaktionszeit ist das für die PS4 nicht zu wenig ? Kannst du mir das erklären ? :3
Das Gerät hat sogar eine Gesamtnote von 1,7 (oder 1, 8 bekommen, er sagt mir schon echt zu.
 

ndz

Bekanntes Gesicht
Ndz eine direkte Frage : Ganz ehrlich, ich denke ich werde mir dein Gerät, was du mir gezeigt hast, zum Geburtstag kaufen.
Aber wie sieht es aus mit den 5ms Reaktionszeit ist das für die PS4 nicht zu wenig ? Kannst du mir das erklären ? :3
Das Gerät hat sogar eine Gesamtnote von 1,7 (oder 1, 8 bekommen, er sagt mir schon echt zu.

Wie meinst du, "zu wenig"? Dass die Verzögerung zu groß ist? Nein, bei 5ms Reaktionszeit des Panels wirst du nix merken, das ist ein ganz normaler Wert ;) Vor wenigen Jahren waren 4ms selbst bei schnellen Panels noch Standard, da hat auch kein Hahn wegen einem Delay geklagt ;) Hab selbst lange mit einem blickwinkelstabileren IPS-Panel mit 8ms gezockt, hab da auch keinen Unterschied zu meinem 2ms TN-Panel, was ich vorher hatte, gemerkt...

Man muss ja auch irgendwann die Kirche wieder zurück ins Dorf bringen :P
 
Oben