Что лучше d sub или dvi d
Перейти к содержимому

Что лучше d sub или dvi d

  • автор:

DVI или D-Sub?

Хочу взять ЖК монитор 22 дюйма (сейчас у меня старый ЭЛТ LG 17″). Слышал, что на больших разрешениях (выше 1280*1024) видна существенная разница между DVI и D-Sub. Правда, это было давно (году в 2005-ом). Изменилась ли ситуация сейчас? Смущает то, что сейчас в магазинах подается много 22-дюймовых мониторов только с D-Sub выходом. Моники с DVI разъемом стоят на 2-3 тысячи больше. Стоит ли переплачивать за наличие DVI, или я и с D-sub разницы не замечу?
P.S. видеокарта HD4670 (2VI скоро сменю на HD4850.

LCD — устройства цифровые. Им нужны цифровые данные. Если будешь пользовать аналоговый D-Sub, то сначала будет конвертация сигнала с цифры на аналог в переходнике у видеокарты, а потом — обратная конвертация аналога в цифру в мониторе. Дальше объяснять?

у меня два одинаковых монитора, подключены одновременно, один по DVI, другой по D-Sub
и хотя я тоже знаю теорию про преобразование сигнала, но глазами я разницу не вижу

То, что DVI — цифровой выход, а D-Sub — аналоговый, я знаю. Знаю также и то, что ТЕОРЕТИЧЕСКИ если пользовать аналоговый D-Sub, могут возникать помехи, а использование DVI устраняет ПОТЕНЦИАЛЬНУЮ возможность существования помех.
Поясню, чего я хочу, чтобы не казалось, что я сам ответил на свой вопрос. Много 22″ мониторов продают только с D-Sub, значит ли это, что D-Sub в таком мониторе достаточно, чтобы обеспечить передачу сигнала без помех? Или это посто маркетинговый ход и способ съэкономить пару тысяч рублей? Меня также интересует не теоретическая, а реальная картинка на мониторе — видна ли разница между D-Sub и DVI на 22″?

На 20′ с дсабом меня мучило мерцание. Просто не мог спокойно смотреть на экран, на темных зонах мерцание было очень ощутимым. Может, виновны другие части моника, но с дви такого не видел нигде, хотя частота обновления везде обычно одинаковая. Можно ради прикола проверить, подключить по дсабу свой нынешний моник. Вечером попробую.

А меня в дсабе всегда бесила необходимость периодически делать auto adjustment, чтобы границы картинки не уплывали за пределы экрана.

в переходнике нет преобразования из цифры в аналоговый.
просто на DVI-выходе присутствуют контакты и для аналогового VGA. переходник просто коммутирует.

в переходнике нет преобразования из цифры в аналоговый.просто на DVI-выходе присутствуют контакты и для аналогового VGA. переходник просто коммутирует.

Значит ли это, что можно брать моник только с D-Sub и не париться?

нет, не значит.
D-Sub на дешёвых мониках присутствует лишь из маркетинговых соображений. Всем своим видом он говорит о том, что монитор позиционируется как бюджетный. Тот факт, что производство такого монитора с D-Sub обходится несколько дороже, чем аналогичного, но только с DVI, производителями игнорируется в угоду маркетингу.

просто на DVI-выходе присутствуют контакты и для аналогового VGA. переходник просто коммутирует.

это в DVI-I
мониторы с DVI-D, полностью без аналоговой компоненты, достаточно распространены.

D-Sub на дешёвых мониках присутствует лишь из маркетинговых соображений. Всем своим видом он говорит о том, что монитор позиционируется как бюджетный. Тот факт, что производство такого монитора с D-Sub обходится несколько дороже, чем аналогичного, но только с DVI, производителями игнорируется в угоду маркетингу.

То есть если я хочу купить монитор типа такого
http://www.fcenter.ru/products.shtml?eshop/act=h:a:0:54:a:a.
то я только зря потрачу деньги?

Ничего никогда не бывает зря. Кроме тараканов.

Ничего никогда не бывает зря. Кроме тараканов.

Ну ооочень содержательно. А по теме?

Переформулируй вопрос.

Есть ли визуальная разница при подключении монитора через DVI или D-Sub?

it depends. до 17′ чаще всего нет в принципе, дальше — в зависимости от качества исполнения конкретного монитора и особенности восприятия конкретного человека. чаще есть, чем нет. после 22′ почти всегда есть.

1024х768 это максимальное разрешение, на котором практически гарантированно проблем не будет.

у меня 19″ с родным разрешением 1280х1024 подключен по D-Sub (DVI нет).
Какие проблемы должны быть?
Недавно читал статейку (не нашел с наскоку где крендель рассматривал какую-то дешевенькую 22″ мониторку имеющую разъем только D-Sub. Его очень сильно удивило, что никаких огрехов изображения замечено не было (он смотрел правда визуально, а без спецаппаратуры — т.е. «потребитель обыкновенус»).
Имхо, все это маркетинговая лажа.
Не удивлюсь, что если монитор имеет выводы цифровой и аналоговый, то аналоговый делают менее качественным

я купил BenQ E2400HD.
В комплекте не было DVI-кабеля, подключил через VGA.
Через неделю раздобыл DVI-кабель и подключил по цифровому.
Разница есть.в первую очередь — наличие «эха» около вертикальных контрастных линий (буквы).
и по аналоговому и по цифровому использовал родное 1920х1080

Какие проблемы должны быть?

Могут быть проблемы связки «видеокарта-монитор» (то есть я не могу сказать однозначно что будет виновата именно видеокарта или именно монитор). На 1280х1024 уже большая вероятность с этим столкнуться, и чем выше разрешение — тем хуже. Особенно на встроенных видеокартах.

да, видел такое со встроенными. достаточно распространенный глюк. одна мать просто систему крашила при зугрузке в момент смены разрешения.

Разница очень заметна. Стоит заплатить лишние 2-3 тысячи за dvi.
Хотя, раньше были люди, которые на ЭЛТ не отличали 60 от 100 Hz, для таких, видимо, пофигу.

лишние 2-3 тысячи за dvi

на самом деле даже меньше — часто хватает 1000 рэ.

По поводу моника .
Советую найти BenQ E2200HD .
Там есть всё за небольшие деньги .
Ссылки тебе в помощь
http://price.ru/bin/price/prodlist?curr=2&cid=020907&amp.
http://oldi.ru/catalog/show.php?idx=24106&cod=116702&amp. — здесь он был .
При этом выборе проблема исчезает .

я купил BenQ E2400HD.
В комплекте не было DVI-кабеля, подключил через VGA.
Через неделю раздобыл DVI-кабель и подключил по цифровому.
Разница есть.в первую очередь — наличие «эха» около вертикальных контрастных линий (буквы).
и по аналоговому и по цифровому использовал родное 1920х1080

Видел я дешёвые бенки 17″ с наиотстонишими проводками D-Sub — каких только артефактов не было («эхо» тоже). Заменили на «нормальные», как сразу всё исправилось. Может и у тебя с проводком не всё в порядке?

всё-таки мнение, что VGA D-Sub полностью покрывает потребности до 1280×1024 — очень даже верное.
и на мой взгляд очень некорректно говорить, что
«у меня на 17″ на разрешении 1280х1024 через VGA DSub всё нормально, незнаю почему у тебя на 24″ с 1920х1080 какие-то артефакты. может, в кабеле дело?»
так-то.

всё-таки мнение, что VGA D-Sub полностью покрывает потребности до 1280×1024 — очень даже верное.

может покрывать. но производитель в праве облажаться.
дешёвые модели часто мажут мимо пикселов и получается мыло. у гнусов лучше всех ИМХО работает автоугадывание.

всё-таки мнение, что VGA D-Sub полностью покрывает потребности до 1280×1024 — очень даже верное.

Я свой моник 1280×1024 подключал к одной и той же видюхе через аналог и цифру. Разница есть. При аналоговом подключении немного мылит всё же.

Ну всё, вы меня убедили! Всем спасибо, буду брать моник с DVI.

Разница на глаз между DVI-D и D-SUB?

Я конечно всё понимаю, цифровые данные и аналоговые — десять больших разниц, но что могут сказать очевидцы?

Монитор dell U2412M отдан людям, люди его скорее всего подключили по D-SUB и восхищаются монитором. А они будут больше восхищаться, если DVI-порт заюзают?

kiverattes ★☆
03.07.13 11:46:27 MSK

конечно. а если еще провода с золотыми жилами на подставках из благородных сортов дерева, то они вообще кончат. главное скажи им о проводах до эксперимента

registrant ★★★★★
( 03.07.13 11:48:44 MSK )

Разница заметна, очень заметна.
д-суб и яркость ниже и цвета не такие насыщенные.

на моих девайсах заметна.
про всякие паразитные изменения самого изображения я не вспоминаю.

На встроенной нвидии 6100 (МСР61) деградировал какой-то канал и стал такие тени отбрасывать, что ой.

Deleted
( 03.07.13 11:52:56 MSK )
Ответ на: комментарий от registrant 03.07.13 11:48:44 MSK

тут этот сарказм излишний, уже года так 4ре не маюсь ерундой в виде перетыкивания д-суба по причине закисания контактов.

Deleted
( 03.07.13 11:54:19 MSK )

1680х1050 предел.

По моим практическим наблюдениям максимальное разрешение для D-SUB’а 1680×1050. При подключении монитора 1920×1080 через D-SUB видно мыло, которого не видно при подключении через DVI.

Camel ★★★★★
( 03.07.13 12:05:33 MSK )

По дсабу мыло, ШГ и картинка мимо пикселей.

PolarFox ★★★★★
( 03.07.13 12:06:52 MSK )

На высоких разрешениях чёткость картинки теряется и могут появится мыло и разводы странные.

Alve ★★★★★
( 03.07.13 12:15:51 MSK )

Разницы плюс-минус ничего. D-Sub способен нормально показывать довольно большие разрешения. 27-дюймовые моники в магазине видел запитанные по аналогу. Вполне нормально, и пикчи, и текст.

Сменил аналог на цифру — ожидаемой бОльшей чёткости тех же шрифтов не увидел. Разница если и есть, то на уровне воображаемых глюков, «драматической» разницы нет однозначно.

yu-boot ★★★★
( 03.07.13 12:17:13 MSK )
Ответ на: комментарий от Alve 03.07.13 12:15:51 MSK

На высоких разрешениях чёткость картинки теряется и могут появится мыло и разводы странные.

Если подключать через старый механический KVM, разве что.

yu-boot ★★★★
( 03.07.13 12:18:18 MSK )

А они будут больше восхищаться, если DVI-порт заюзают?

Будут. Разницу между d-sub и dvi не увидит только слепой.

King_Carlo ★★★★★
( 03.07.13 12:20:10 MSK )
Ответ на: комментарий от King_Carlo 03.07.13 12:20:10 MSK

Будут. Разницу между d-sub и dvi не увидит только слепой.

А если ещё золотым проводом подключить.

yu-boot ★★★★
( 03.07.13 12:21:00 MSK )
Ответ на: комментарий от yu-boot 03.07.13 12:21:00 MSK

Давным давно, на заре lcd мониторов, у меня был 17″ sony x72, даже на нём, при 1280 на 1024 разница DVI vs D-SUB была колоссальной. Сейчас на full-hd мониторы с большими диагоналями, подключёнными через аналог без слёз не взглянешь.

King_Carlo ★★★★★
( 03.07.13 12:25:28 MSK )

смотря как D-SUB сделан. Иногда шумцы незаметны, всё зависит от источника видео

n_play ☆
( 03.07.13 12:45:25 MSK )
Ответ на: комментарий от King_Carlo 03.07.13 12:25:28 MSK

Догадываюсь, что где-то стояло неправильное разрешение.

yu-boot ★★★★
( 03.07.13 12:45:46 MSK )
Ответ на: комментарий от n_play 03.07.13 12:45:25 MSK

ну и от глаз ещё сильно зависит.

n_play ☆
( 03.07.13 12:54:05 MSK )

А как насчёт помехоустойчивости, например, к помехам мобильного телефона? Что-то вроде замечал такое, что на старом мониторе с d-sub дёргалась картинка. Но может это монитор был виноват.

Ttt ☆☆☆☆☆
( 03.07.13 13:14:42 MSK )

dell U2412M
Разница на глаз между DVI-D и D-SUB?

Я как раз в него то в цифровой, то в аналоговый интерфейс втыкаюсь.
Разница есть, но её степень зависит от качества аналогового сигнала.
Мне пришлось комплектный кабель заюзать: старый самсунговский оказался хуже. Сейчас, если очень внимательно приглядываться, на однородных заливках можно различить очень слабый шум. С «рабочей» дистанцией до дисплея, определить через что он сейчас подключён невозможно.

Если ноут не мылит изображение и кабель в порядке, то VGA цифре практически не уступает.

aidaho ★★★★★
( 03.07.13 13:44:06 MSK )
Ответ на: 1680х1050 предел. от Camel 03.07.13 12:05:33 MSK

Это ещё от видеоадаптера зависит. Я помню, как в до-DVI’айные времена ещё на ЭЛТ мониторе nvidia карточка мылила изображение на высоком разрешении сильнее чем ati.

aidaho ★★★★★
( 03.07.13 13:47:40 MSK )
Ответ на: комментарий от yu-boot 03.07.13 12:45:46 MSK

Вот не надо ерунду писать, родное разрешение монитора я указал.

King_Carlo ★★★★★
( 03.07.13 14:42:09 MSK )
Ответ на: комментарий от Ttt 03.07.13 13:14:42 MSK

У меня от мобильника DVI-D тоже картинку глючит. GSM-сигнал сам по себе мощный. Если мобилу прямо на провода класть, то он всё на свете проламывает. Там же импульсы до 2 ватт могут в прыжке доходить. Это, типа, немало.

kiverattes ★☆
( 03.07.13 15:05:34 MSK ) автор топика

Нет, не заметят. разницу

Quasar ★★★★★
( 03.07.13 15:10:48 MSK )

Вообще я понимаю, откуда разница. Чем выше разрешение, тем шире спектр видеосигнала. Чем шире спектр, тем ближе к пределам аналоговой электроники VGA в видеокартах. Наверное тут играют роль несколько моментов:

1) на full-HD мониторах ширина спектра видеосигнала для хорошей картинки настолько широкая, что от производителя требуется ставить хорошие компоненты, чуть дороже «обычного набора». Если края спектра видеосигнала будут гаситься, т.е. фигово пролезать в канал, то это будет выглядеть как мыло. Мыло — это удалённые высокочастотные составляющие. Большинство бухгалтеров и банкиров плевать хотело на это мыло. Они даже переживут, если full-HD монитор будет работать в режиме 1024×768.

2) D-SUB по спецификации поддерживает full-HD и даже больше. То есть, ему пофиг: стандарт физического уровня не сосредоточен на понятии разрешения в точках, он теоретически бесконечен, как я понимаю, всё упирается только в физические свойства аппаратуры. В лаборатории вам выжмут разрешение 4K на 200Гц не нарушая стандарта, просто видеокарта будет как ламповый аудиофильский усилитель стоить.

3) В современной вселенной уже все понимают, что чисто идеологически и маркетологически эпоха D-SUB заканчивается и теперь рулит цифра — всякий там HDMI и отец его DVI-D. Поэтому на технические характеристики канала D-SUB менеджеры просто забили болт — нехай всё будет так, как было при дедушкиных мониторах — всё равно в D-SUB будут втыкаться только дедушки, у которых сохранились их LCD-мониторы 1280×1024, все нормальные чуваки будут использовать D-SUB, поэтому давайте экономить на аналоговой схемотехнике для D-SUB. Кто шарит, тот туда втыкаться не станет.

kiverattes ★☆
( 03.07.13 15:19:33 MSK ) автор топика
Ответ на: комментарий от kiverattes 03.07.13 15:19:33 MSK

Причина заметной разницы просто в убогости аналогового выхода современных видях. Сейчас часто можно увидеть, что монитор через DVI-D->VGA работает лучше, чем подключенный к D-SUB-выходу непосредственно. Однако силиконовская видеокарточка, подключенная по коаксиалу к переходнику на VGA отлично потянула 1920×1440 на моем мониторе без заметных эффектов. Это как с дискетами — они сдохли во многом потому, что качество производства упало настолько, что ими стало очень сложно пользоваться. Это потом уже появились технологии, их заменяющие. Просто аналоговый выход уходит, и его активно уходят. Цифровой выход стоит значительно дешевле.

slapin ★★★★★
( 03.07.13 18:56:41 MSK )
Ответ на: 1680х1050 предел. от Camel 03.07.13 12:05:33 MSK

При подключении монитора 1920×1080 через D-SUB видно мыло, которого не видно при подключении через DVI

Не поленился, подключил монитор через DVI (обычно dvi использую для планшета). не заметил разницы (1920×1080).

Old_Hamster ★★★
( 04.07.13 02:00:24 MSK )
Ответ на: комментарий от Old_Hamster 04.07.13 02:00:24 MSK

Выше вроде обсудили уже: если аналоговая часть хорошая, разницы не будет, если «обычная» — будет (-;

kiverattes ★☆
( 04.07.13 02:20:58 MSK ) автор топика

Я конечно всё понимаю, цифровые данные и аналоговые — десять больших разниц, но что могут сказать очевидцы?

ты-бы лучше попробовал на своём железе и со своими глазами.

По моей практике — раз на раз не приходится.

drBatty ★★
( 04.07.13 02:34:24 MSK )
Ответ на: комментарий от aidaho 03.07.13 13:47:40 MSK

Я помню, как в до-DVI’айные времена ещё на ЭЛТ мониторе nvidia карточка мылила изображение на высоком разрешении сильнее чем ati.

А у меня voodoo banshee сильнее чем riva tnt 2 на 1024×768.

gag ★★★★★
( 04.07.13 02:37:00 MSK )

А они будут больше восхищаться, если DVI-порт заюзают?

Будут. 1600х900 и больше на аналоге мылит, и самое главное, плохо защищены от помех.

pekmop1024 ★★★★★
( 04.07.13 02:39:47 MSK )

Если фильмы с расстояния пары метров смотреть, то разница наверняка будет незаметна, но если использовать монитор для работы, то мне лично видно. Как писали выше при подключении к ноуту и 1680×1050 нормально, а вот 1920×1200 — мыльно.

gag ★★★★★
( 04.07.13 02:40:29 MSK )
Ответ на: 1680х1050 предел. от Camel 03.07.13 12:05:33 MSK

2048×1152 нет мыла о__о

тьфу, ой, сорри, у меня DVI->VGA

bhfq ★★★★★
( 04.07.13 02:42:06 MSK )
Последнее исправление: bhfq 04.07.13 02:42:24 MSK (всего исправлений: 1)

люди его скорее всего подключили по D-SUB

Объясни им что да как, если есть возможность то DVI, если моник не умеет пусть заюзают переходник на видеокарту.

Какая разница между d-sub и dvi. И что лучше?

лучше dvi
——————
а теперь подробнее.. .
сейчас вы говорите о d-sub, но имеете в виду скорее всего VGA (DB-15F), т. к. d-sub — семейство электрических разъёмов, среди которых есть разъём D-Sub 15, DE15 или DB15HD. А выглядит он так

а теперь я впишу выдержку из статьи.. и вам станет ясно, кто лучше:
VGA — аналоговый интерфейс, разработанный в 1987 году, и изначально был предназначен для мониторов на электронно-лучевых трубках (ЭЛТ) . Данным интерфейсом также оснащаются некоторые проигрыватели DVD, плазменные и жк-телевизоры. VGA передаёт сигнал построчно, при этом изменение напряжения означает изменение яркости. Для устройств на ЭЛТ это было нужно для изменения интенсивности луча электронов. Рабочее напряжение сигнала составляет 0.7 В. К большинству видеоадаптеров аналоговый монитор возможно также подключить и к выходу DVI через специальный переходник, поскольку часть его линий на самом деле является интерфейсом VGA, за исключением DVI-D, в котором аналоговые линии отсутствуют.
В настоящее время VGA считается устаревшим и активно вытесняется цифровыми интерфейсами DVI, HDMI и DisplayPort.
и еще чуть-чуть умной писанины:
«Интерфейсы DisplayPort и HDMI, которые могут быть использованы в тонких ноутбуках, поддерживают более высокие разрешения с более глубоким цветом, чем технология VGA, которой уже более 20 лет», — говорится в совместном пресс-релизе Intel и AMD. Кроме того, обе компании к 2013 откажутся от поддержки стандарта DVI-I и интерфейсов на основе LVDS-технологии, отмечается в документе.
Будущее лежит за новыми стандартами, такими DisplayPort и HDMI, считает главный технический директор графического подразделения AMD Эрик Демерс. «С нашей точки зрения, DisplayPort 1.2 — будущий интерфейс для компьютерных мониторов, а HDMI 1.4a — для подключения телевизоров», — цитирует ArsTechnica слова Демерса.

Иными словами, даже DVI не так хорош.. как DisplayPort 1.2 и HDMI 1.4a.
А все конечно зависит от вашего монитора.. и что вы хотите от компьютера. .
если вы работаете фотографом.. . и вам важна «натуральная картинка», то VGA тут не к месту! А если вы просто шуруетесь в инете и печатаете в ворде.. то и VGA сгодится.. .

Oleg PokatilovМастер (1936) 6 лет назад
А если HDMI подключать через USB переходник будет хуже чем DVI ?
Остальные ответы
D-SUB аналоговая, DVI — цифровая)
d-sub — аналоговый сигнал передает, а dvi — цифровой, цифровой канечно лучше.
DVI Лучше такой же как и HDMI
Ruslan KhomyachenkoГуру (2932) 12 лет назад
Вы ошибаетесь dvi и hdmi разные сигналы.

D-SUB аналоговый сигнал, DVI цифровой, на небольших мониторах разница не заметна, теоретически DVI лучше.

LORDУченик (233) 8 лет назад
DVI D держит 3k (чуть меньше 4к)
Простой DVI single ling держит с трудом и потерей качества 1080p

DVI — цифровой интерфейс
D-SUB Аналоговый

первый качественней. особенно это заметно на больших диагоналях.

Это совершенно разные интерфейсы для подключения монитора к ПК. D-SUB (он же vga) является аналоговым, а DVI является цифровым. Преобразование из одного типа сигнала в другой возможна через переходник, но только в следующей последовательности: DVI->D-SUB. Обратное преобразование невозможно.

Источник: горячийпесок. рф
AsTГуру (4059) 12 лет назад

Вот именно это преобразование DVI -> D-SUB и говорит о том что м DVI по стандарту присутствует и аналоговый сигнал. т. е. DVI = D-SUB+цифра ну и конструктив разъемов.

Просто разница интерфейс D-sub и DVI интерфейса

В настоящее время, жидкокристаллический дисплей, главным образом, имеет два типа: (также называемый VGA) D-Sub и DVI. D-Sub интерфейс главным образом появляется на low-end продуктов и должен пройти два к аналоговое преобразование и аналого цифрового преобразования для преобразования сигналов дважды, в то время как интерфейс DVI является все цифровой без потерь передачи сигнала, которая появляется в основном в Продукция высокого качества.

Потому что полностью цифровой интерфейс DVI, полученное изображение никогда не появится виртуальный. Поскольку интерфейс D-Sub — это метод моделирования, он имеет таких нестабильных факторов, поэтому он неизбежно принесет некоторые проблемы для нашего использования.

DVI 24+1 male to DVI 24+5 female extension cable

Когда ЖК-дисплей использует интерфейс D-Sub для долгое время, эффект будет размыто. Это необходимо для повторной калибровки часто используемые кнопку Auto для восстановления нормальной эффект (но мало влияет фактическое использование, я использую его). Однако жидкокристаллический дисплей интерфейса DVI никогда не появятся в подобной ситуации, и эффект отображения по-прежнему очень хорошо после долгого времени использования. В сопоставимых ценах мы должны рассмотреть ЖК-дисплей с интерфейсом DVI.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *