Warum ist HDMI->DVI Bild schärfer als VGA?

Ich habe einen Dell U2312HM Monitor an einen Dell Latitude E7440 Laptop angeschlossen. Wenn ich sie über laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor verbinde (der Monitor hat keine HDMI-Buchse), ist das Bild viel schärfer als bei laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor. Der Unterschied ist schwer mit einer Kamera zu erfassen, aber siehe meinen Versuch unten. Ich habe versucht, mit den Einstellungen für Helligkeit, Kontrast und Schärfe zu spielen, aber ich kann nicht die gleiche Bildqualität erzielen. Die Auflösung ist 1920x1080, ich benutze Ubuntu 14.04.

- VGA:

VGA

HDMI:

HDMI

Warum ist die Qualität anders? Ist es diesen Standards eigen oder sollte ich ein fehlerhaftes VGA-Kabel oder einen mDP-VGA-Adapter vermuten?

 20
Author: A.L, 2015-04-10

7 answers

VGA ist das einzige analoge Signal von den oben genannten, daher ist es bereits eine Erklärung für den Unterschied. Die Verwendung des Adapters kann Ihre Situation weiter verschlechtern.

Einige weitere Lektüre: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/

 45
Author: Máté Juhász,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2015-04-10 09:23:35

Unter der Annahme,dass Helligkeit, Kontrast und Schärfe in beiden Fällen gleich sind, könnte es zwei weitere Gründe geben, warum Text mit DVI/HDMI schärfer ist:

Die erste wurde bereits angegeben, VGA ist analog so müssen durch eine Analog-Digital-Konvertierung im Inneren des Monitors zu gehen, wird dies theoretisch verschlechtern Bildqualität.

Zweitens gibt es unter der Annahme, dass Sie Windows verwenden, eine Technik namens ClearType (entwickelt von Microsoft), die das Erscheinungsbild von Text durch Manipulation verbessert die Subpixel eines LCD-Monitors. VGA wurde mit Blick auf CRT-Monitore entwickelt und die Vorstellung eines Subpixels ist nicht dasselbe. Aufgrund der Anforderung, dass ClearType einen LCD-Bildschirm verwendet, und der Tatsache, dass der VGA-Standard dem Host nicht mitteilt, werden die Spezifikationen des Displays ClearType bei einer VGA-Verbindung deaktiviert.

Quelle: ich erinnere mich, zu hören über ClearType von einem seiner Schöpfer auf ein podcast für Diese().Entwickler().Leben() IIRC, aber http://en.wikipedia.org/wiki/ClearType unterstützt auch meine Theorie. Auch HDMI ist abwärtskompatibel mit DVI und DVI unterstützt Electronic Display Identification (EDID)

 12
Author: youngwt,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2015-04-10 12:37:02

Die anderen machen einige gute Punkte, aber der Hauptgrund ist eine offensichtliche Takt-und Phasenübereinstimmung. Der VGA ist analog und unterliegt Störungen und Nichtübereinstimmung der analogen Sende-und Empfangsseiten. Normalerweise würde man ein Muster wie dieses verwenden:

Http://www.lagom.nl/lcd-test/clock_phase.php

Und stellen sie die uhr und phase der monitor zu erhalten die beste spiel und die schärfste bild. Da es jedoch analog ist, können sich diese Anpassungen im Laufe der Zeit verschieben und somit sie sollten idealerweise nur ein digitales Signal verwenden.

 7
Author: Jarrod Christman,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2015-04-10 14:46:32

Es gibt einige Antworten, die auf ein digitales Signal im Vergleich zu analogen hinweisen, das korrekt ist. Aber das beantwortet nicht das Warum? Ein paar erwähnte übersetzung von Ebenen, das ist sorta auch wahr, ein mainstream-A/D-Wandlung kann zu einem Verlust in der treue, aber Sie würde haben, um dies zu Messen, wie es ist schwer zu sehen, die Unterschiede mit dem bloßen Auge. Eine billige Umwandlung und alle Wetten sind aus.

Warum ist digital besser als analog?

Ein analoges RGB-Signal (wie VGA) nutzt die Amplitude des Signal (.7 Volt Spitze zu Spitze im Fall von VGA). Dies hat wie alle Signale Rauschen, das, wenn es groß genug ist, dazu führt, dass die Pegel falsch übersetzt werden.

Reflexionen im Kabel (Impedanzfehlpassungen) sind eigentlich der größte Ausfall eines analogen Videosignals. Dies führt zu zusätzlichem Rauschen und wird mit längeren (oder billigeren) Kabeln schlimmer, je höher die Auflösung des Videos auch das Signal-Rausch-Verhältnis erhöht. Interessanterweise sollten Sie keine sehen können unterschied in einem 800x600-Signal, es sei denn, das VGA-Kabel ist zu lang.

Wie vermeidet ein digitales Signal diese Fallstricke? Nun, für einen ist das Niveau nicht mehr relevant. Auch DVI-D / HDMI verwendet ein differentielles Signal sowie eine Fehlerkorrektur, um sicherzustellen, dass die Einsen und Nullen korrekt übertragen werden. Es gibt auch zusätzliche Konditionierung zu einem digitalen Signal hinzugefügt, die zu einem analogen Videosignal nicht praktikabel ist.

Sorry für die soap-box-Jungs, aber thems die Fakten.

 5
Author: Zameru,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2015-04-15 02:23:41

Ein weiteres Problem ist, dass viele VGA-Kabel Junk sind. Wenn das VGA-Kabel weniger als 1/4 " dick ist, werden Sie wahrscheinlich Ghosting auf größeren Monitoren bemerken (höher die Rez, wahrscheinlicher Ghosting). Ich habe sogar Ghosting auf dem angeschlossenen VGA-Kabel auf einigen 19" CRT Kondensatoren bemerkt. Meine VGA-Kabel sind etwa 1/3 " dick und es hilft wirklich mit der Schärfe (Dickere Drähte, mehr Abschirmung)

 3
Author: matt,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2015-04-11 01:36:12

HDMI und DVI sind sich sehr ähnlich. Beide sind digital; Die Hauptunterschiede sind, dass HDMI Audio und HDCP unterstützt. Beim Umschalten zwischen HDMI und DVI gibt es wenig tatsächliche Konvertierung, sondern das Anschließen der passenden Pins an den Anschlüssen. Displayport ist ein digitales Protokoll, aber VGA ist analog, und der Konverter führt wahrscheinlich kleine Fehler und die Verringerung der Schärfe in das Signal ein. Der Monitor wandelt das Signal wahrscheinlich wieder in Digital um, was zu einer weiteren Konvertierung führt, die beeinträchtigt die Qualität.

Über alle, computer - >HDMI - >DVI - >monitor hat weniger tatsächlichen konvertierungen als computer - >DisplayPort - >VGA - >monitor und nie wandelt das signal zu analog, was eine schärfere bild.

 2
Author: Josh The Geek,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2015-04-11 22:38:16

, HDMI und DVI sind eigentlich ein und dasselbe (zumindest in Ihrem Kontext). DVI-Anschlüsse sind wirklich nur HDMI-Anschlüsse mit einem anderen Pinout (die Reihen von Pins), plus VGA-Anschlüsse mit einem anderen Pinout (die Pins um eine Kreuzform angeordnet). Wenn Sie sich Ihren HDMI-zu-DVI-Konverter ansehen, werden Sie wahrscheinlich feststellen, dass der kreuzförmige Teil fehlt.

Sie vergleichen also ein HDMI-Bild mit einem VGA-Bild und, wie @Josh darauf hingewiesen hat, eines, das eine tatsächliche Konvertierung.

Es gibt tatsächlich einen Unterschied zwischen HDMI und DVI, aber es ist nicht relevant für Sie. HDMI kann zusätzliche Signale übertragen, einschließlich des Verschlüsselungssignals für Inhaltsschutz, Ton, Ethernet usw.

 1
Author: Kevin Keane,
Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/agent_stack/data/www/techietown.info/template/agent.layouts/content.php on line 61
2015-04-12 03:30:13