Upscaling --> 4K TV oder Himedia

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Lony schrieb:

    Kleines Beispiel : HD Film 1080p, abspielen vom Himedia Q10-Pro

    Einstellung am Himedia 1080p 60 hz ,AVR Upscaling Aus = Der 4K TV übernimmt das upscalen
    Einstellung am Himedia 2160p 60 hz, AVR Upscaling Aus = Der Himedia übernimmt das upscalen

    Würde das bedeuten, ich kann den Q10 Pro auf 576p einstellen? Der TV würde dann ja eh alles skalieren und korrekt wiedergeben!?
  • meiner Meinung nach spielt es aber auch absolut keine Rolle ob jemand ne 4K Kette hat oder nicht , das selbst erkennen der jeweiligen Auflösung findet ja nicht nur zw FHD und 4K statt , da sind ja auch noch 720p50/60 Hz und die FHD Halbbildformate

    und was ich noch irgendwie nicht geschnallt hab ist diese HDMI auto adaption dieser Punkt erschließt sich mir irgendwie gar nicht
    4K HDR/DolbyVision LG Oled C8 * 4K HDR/DolbyVision Onkyo 5.1.2 DolbyAtmos/DTS:X THX AVR mit 7.1 THX Soundsystem * Real 4K UHDBD HDR i7 HTPC * 4K HDR ZidooX9s * Samsung Galaxy S9+ * AMD Octacore FX-8320 (8x 3,5 GHz) + 28" Samsung 4K Monitor * 4K HDR XBoxONE X
  • shooter schrieb:

    Lony schrieb:

    Kleines Beispiel : HD Film 1080p, abspielen vom Himedia Q10-Pro

    Einstellung am Himedia 1080p 60 hz ,AVR Upscaling Aus = Der 4K TV übernimmt das upscalen
    Einstellung am Himedia 2160p 60 hz, AVR Upscaling Aus = Der Himedia übernimmt das upscalen
    Würde das bedeuten, ich kann den Q10 Pro auf 576p einstellen? Der TV würde dann ja eh alles skalieren und korrekt wiedergeben!?
    es gibt zwar eigentlich keine blöden Fragen , aber wenn jemand nur quer liest dann schon - also Post 40
    4K HDR/DolbyVision LG Oled C8 * 4K HDR/DolbyVision Onkyo 5.1.2 DolbyAtmos/DTS:X THX AVR mit 7.1 THX Soundsystem * Real 4K UHDBD HDR i7 HTPC * 4K HDR ZidooX9s * Samsung Galaxy S9+ * AMD Octacore FX-8320 (8x 3,5 GHz) + 28" Samsung 4K Monitor * 4K HDR XBoxONE X
  • DaveO88 schrieb:

    sven29da schrieb:

    Vielleicht kann Dir Dave erklären, warum es bei ihm funktioniert und nicht bei Dir....
    ja kann ich , ist auch ganz simpel für die jenigen wo ein 4K TV haben, alles was kleiner ist als 4K scalliert der TV ja hoch sonst hätten wir ja nur MiniKino (1920x1080 ist ja nur 1/4 Bild von der UHD Auflösung)soweit sollten wir uns ja schon mal einig sein


    so nun habt Ihr Bild Material in in 3840x2160 somit muss der TV nichts mehr scallieren da ja das Material die volle Auflösung besitzt .

    Euer Problem ist das Ihr auf die Anzeige der Bildauflösung des TV guckt und da ist eben nur der HDMI Output was aber nichts mit der Auflösung des Bildmaterials zu tun hat
    Ergo : 1080p wird scalliert und 4K bleibt wie es ist

    drive.google.com/file/d/0B6EbG…xZEdXZ0E/view?usp=sharing
    Dann schau den obigen Post von dir noch mal an. Insbesondere den Satz "Ergo : 1080p wird scalliert und 4K bleibt wie es ist". Damit sagst du doch, dass wenn der Q10 auf 1080p eingestellt, ist dieser das so unverändert weitergibt und TV skaliert. Wenn 4K Material vorliegt, wird dies in nativer 4K Auflösung dargestellt, da der Q10 nicht skaliert und der TV das auch nicht tun muss. Wenn das so stimmt, müsste das doch für 576p oder auch 720p genauso sein.
    Also wenn ich den Q10 auf 720p ausgabe stelle, wird vom Q10 nur dann skaliert, wenn ich Material <720p habe. Alles andere würde vom TV oder gar nicht skaliert.

    Oder was habe ich übersehen?

    Übrigens kann ich mir nicht vorstellen, dass wenn ich den Q10 auf 1080p stelle 4K nativ wiedergegeben wird. Der Q10 muss ja bei dieser einstellung erst runterskalieren, und der TV dann wieder hoch. Kann mir nicht denken, dass das ohne qualitätsverlust geht... Aber ich mag mich auch irren. Vielleicht kannst du in dem Fall deine Aussagen mit quellen belegen?
  • genau das was da steht : steht der Player auf 1080 und das zugespielte Material ist 1080 dann wird gar nichts gemacht und der TV blässt es da auf 4K auf, liegt 4K an scaliert der Player nicht runter da der Player nämlich weis welche Display dran hängt
    soweit ich mich erinnere findet bei jedem einschalten ein handshake statt zw. Player und Anzeigegerät worauf immer Ermittelt wird wozu das Anzeigegerät im Stande ist zu leisten.
    Der Player macht ein Upscale des Videomaterials erst auf die Auflösung die eingestellt ist, (wenn diese kleiner ist das die Auflösung des Anzeigegerätes) und dann auf die native Displayauflösung, falls diese eben abweicht, sonst könnte er das Videomaterial nicht bildschirmfüllend auf dem eigenen Display darstellen.
    1080p Material an einem 4K TV wird schlussendlich immer Upgescaled , nur wer macht den Job , steht also der Player auf 1080 und ich spiele 1080 zu dann scaled der TV auf 4K .
    Jedoch ist es bei der Zuspielung von 4K so das der Player weis was für ein Anzeigegerät angeschlossen (EDID-Daten) ist wenn der Player nun auf 1080 steht dann findet hier kein downscaling statt da das zugeführte Material nicht von der Displayauflösung abweicht (mal davon abgesehen : wenn der Player 4K --> 1080 --> 4K das würde ja übel viel Rechenleistung verbraten welches sich wohl auch bei der Performance bemerkbar machen täte : Quallitative einbussen wird man wohl auch haben aber diese sind eher maginal da dies nur mit der inkorrekten Eistellung zusammenhängt und nicht weil der Player von 4K-->FHD-->4K)
    Downscaling wird nur angewendet wenn das Bildmaterial besser ist als die Displayauflösung (4K --> FHD TV) und das ist wiederum abhängig von den verbauten Chips + Software was dann auch wieder ne Preisfrage der jeweiligen TV Geräte wäre, deshalb wird es wohl eher verbreitet sein das bei der Zuspielung von 4K auf FHDTV dies mit einem Blackscreen quittiert wird (und Meldung : Unzulässigen Bildmaterial oder so)

    und wenn du den Player auf 1080 einstellst und die Anzeige des TV zeigt nun 1080p60 hab ich dann nur noch nen FHD TV statt 4K , sicherlich nicht oder ist das nur die Anzeige des ankommenden Signals ?
    4K HDR/DolbyVision LG Oled C8 * 4K HDR/DolbyVision Onkyo 5.1.2 DolbyAtmos/DTS:X THX AVR mit 7.1 THX Soundsystem * Real 4K UHDBD HDR i7 HTPC * 4K HDR ZidooX9s * Samsung Galaxy S9+ * AMD Octacore FX-8320 (8x 3,5 GHz) + 28" Samsung 4K Monitor * 4K HDR XBoxONE X

    Dieser Beitrag wurde bereits 5 mal editiert, zuletzt von DaveO88 ()

  • Also das beim downscaling viel Rechenleistung verloren geht glaube ich nicht. Wenn ich auf Pal stelle hab ich ja auch ein wesentlich schlechteres Bild als bei 1080p auf melnem 4K TV. Und wenn ich dann einen 4K Film starte sehe ich ganz deutlich dass die Bildqualität eben auch nur 576p ist, und nicht durch irgendwelche edid Daten trotzdem in 4K ausgegeben wird. Warum sollte das bei 1080p 60hz anders sein?

    Die edid Daten und der handshake sind in dem Fall nur dafür da, dem Player mitzuteilen welche Auflösungen möglich sind. Das beinhaltet alle Auflösungen die vom Display darstellbar sind und dient eigentlich nur dem Zweck, dass keine Auflösung eingestellt wird die dann nicht darstellbar und hinterher nicht mehr änderbar ist.

    --> spatz-tech.com/shop_pdfs/HDMI_funktioniert.pdf

    Ich kann mir somit nach wie vor nicht vorstellen, dass wenn ich den Player auf 1080p stelle, 4K Material auch in 4K wiedergegeben wird, sondern ganz einfach in 1080p.
  • so ich hab das ganze jetzt mal nachgestellt

    also wie jemand 4K auf 576 als runterrechnen bezeichnet entzieht sich mir
    zum einen wollte das mein TV erst gar nicht zu lassen, nach dem ich es dann doch geschafft hatte sah ich natürlich warum das Bild der maßen schlecht ist , es ist total gequetscht und gezogen das passte natürlich nicht mehr in die norm das 4K Bild war nicht mehr Formatfüllend sonderhatte jeweils einen fetten sw Balken oben und unten - das kann ja auch nach nicht aussehen
    des weiteren hab ich dann 720p genommen hier stellt sich der Player allein auf 1080/60 bei der Zuspielung von 4K dh. 4K in 720p gibt nicht das gleiche eben mit 1080/60
    also bei denen bleibt dann schon das Ergebnis gleich
    und im Vergleich zu 2160/60 waren die Unterschiede so gering das man kaum ausmachen konnte wo die unterschiede liegen , zu der 2160 Auflösung hat die 1080er nur etwas an Kantenschärfe eingebüßt aber ansonsten Quallitativ gleich
    4K HDR/DolbyVision LG Oled C8 * 4K HDR/DolbyVision Onkyo 5.1.2 DolbyAtmos/DTS:X THX AVR mit 7.1 THX Soundsystem * Real 4K UHDBD HDR i7 HTPC * 4K HDR ZidooX9s * Samsung Galaxy S9+ * AMD Octacore FX-8320 (8x 3,5 GHz) + 28" Samsung 4K Monitor * 4K HDR XBoxONE X
  • Wie würdest du es denn bezeichnen, wenn die Qualität bei 576p schlechter wird, wenn nicht downsclaing oder runterrechnen? Dass da Balken sind ist doch völlig egal! Dann muss man die Bildeinstellungen ggf. anpassen.

    Das die QUalität um ein vielfaches schlechter wird wenn man 720p oder 1080p einstellt und 4K Material zuspielt habe ich auch nicht behauptet. Wie du aber selber sagst wird die Qualität schon schlechter und keinesfalls nativ in 4K dargestellt.
  • so der neue mal wieder :P :P :P
    ich besitze einen samsung der 9er serie aus diesem jahr und da gibt es unter bildeinstellung die den modus hdr+.wenn ich den bei einem 4k film zuschalte sieht das bild im vergleich zum bildmodus natürlich nur schlecht aus...
    hat da jemanden erfahrung mit bzw ahnung von warum es so ist???
    oder ist der mdus nur geeignet wenn man einen uhd player hat
    MediaPlayer: Himedia Q10-Pro

    Firmware des Mediaplayers: 2.0.6

    TV :Samsung UE55KS9000-UE46C6000

    AVR:Marantz SR6010 5.1.2 Dolby Atmos

    Soundsystem :Teufel Ultima40 Surround 5.1 Set + 2x Yamaha NS-E80