Графическая память в видеокарте: что это такое и как использовать всю?

На очереди у нас достаточно немаловажная характеристика видеокарты – это тип памяти. А немаловажная она потому, что две совершенно идентичные по характеристикам видеокарты, но с разным типом видеопамяти – будут очень существенно различаться по производительности.

Поэтому при выборе видеокарты, также нужно руководствоваться этим параметром. Это мы обязательно рассмотрим в рамках данной статьи на реальных примерах. Также, в очередной раз разрушим миф зависимости типа памяти видеокарты от типа оперативной памяти, в рамках одной системы.

Где найти параметры видеокарты?

Самый быстрый способ сделать это в Windows 10, 8, Windows 7 и Windows XP — нажать клавиши Win + R (где Win — клавиша с эмблемой ОС) и ввести команду devmgmt. msc. Еще один вариант — кликнуть правой кнопкой мыши по «Мой компьютер», выбрать «Свойства

» и запустить диспетчер устройств с вкладки «Оборудование».

Интересные материалы:

Какая глубина протектора новой шины? Какая глубина в океане? Какая империя была первой? Какая из башен Кремля самая большая царская Спасская или Кутафья? Какая хорошая летняя резина? Какая кислотность почвы должна быть для огурцов? Какая колбаса самая полезная? Какая комбинация клавиш для печати? Какая комиссия при пополнении QIWI Кошелька? Какая комиссия в убер?

Что такое видеопамять

Вероятно, вы знаете, что за рендеринг любого изображения в компьютере отвечает графический чип – например, он просчитывает взаимодействие объектов в игре.

Промежуточные данные, которые затем выводятся на монитор, хранятся как раз в видеопамяти. Связаны эти блоки между собой, шиной данных (подробнее о том, что это такое, ее разрядности и влиянии на работу устройства, вы можете почитать здесь).

В современных графических ускорителях сейчас используется память GDDR5 (за исключением бюджетных моделей, некоторые из которых все еще работают на DDR3). По сути, это обычная оперативная память, которая есть в любом ПК.

Но в отличие от оперативки, плата видеопамяти впаяна наглухо, поэтому заменить ее, не раскурочив видеокарту, нет совершенно никакой возможности).

Зачем реализовано такое решение? Не в целях «защиты от дурака», как, вероятно, вы могли подумать. Сделано это для того, чтобы пользователь, которому уже не хватает видеопамяти для запуска какой-нибудь новинки игропрома, не докупил по дешевке дополнительный модуль памяти, а покупал новую навороченную видеокарту.

Хотя, если вы не верите в теорию заговора, можете проигнорировать мое мнение.

Какие выводы мы можем сделать

Чуть не забыл, не нужно размышлять, как использовать всю видеопамять – в играх она задействуется автоматически, даже если система отображает, что доступно меньше.


Исходя из вышесказанного, при выборе видеокарты я советую, в первую очередь, ориентироваться на частоту памяти, игнорируя объем, если бюджет на апгрейд ограничен.

А в качестве возможной покупки, могу порекомендовать MSI GeForce GTX 1060 GAMING X 6G – доступный по цене девайс с объемом видеопямяти 6 Гб и очень неплохими прочими характеристиками. Также советую почитать статью «Выбираем процессор для игрового системного блока».

А на этом у меня все. До следующих встреч на страницах моего блога. Не забываем подписываться на новостную рассылку и делиться публикациями в социальных сетях!

С уважением к вам, автор блога Андреев Андрей.

Тактовая частота

Процессор видеокарты обрабатывает графическую информацию с той или иной скоростью. Именно скорость работы и определяется частотой. При прочих равных условиях, чем выше этот параметр, тем быстрее видеокарта обрабатывает графическую информацию. Но, акцентируем Ваше внимание на том, что это правило актуально только при прочих равных условиях. Сравнивать по частоте видеокарты разных семейств и разных производителей нет смысла.

Тем не менее, отдавая предпочтение последним видеокартам с высокой частотой работы графического ядра и с большим количеством потоковых процессоров (программируемые блоки, параллельно выполняющие вычисления) вы делаете лучший выбор.

Интерфейсы подключения к материнской плате

Интерфейс необходим для соединения элементов и материнской платы. Периферийные компоненты подключаются стандартно через стандартные шины типа PCI. Однако при использовании видеокарт используются другие интерфейсы.

AGP

Разработан на основании принципов PCI, но предназначен для карточек. Характеризуется более высокой пропускной способностью, чем стандартная шина. По данным обновления последней версии этот показатель составлял 2,1 Гб/с. Платы не выпускаются с 2006 года, так как был создан другой интерфейс с характеристиками повыше – PCIe.

PCIe

Если сравнивать с предыдущим вариантом, этот интерфейс обладает большей пропускной способностью, до сих пор обновляется, при этом предусмотрен вариант с обратной совместимостью.

Несмотря на наличие 5 спецификаций интерфейса, в большинстве ПК используется 4 версия. Обусловлено это тем, что последний доступный вариант был введен лишь в мае 2022 года, поэтому еще не столь распространен.

SLI и CrossFire

Продолжительное время обеспечить совместную работу видеокарт было возможно лишь при помощи SLI (для видеокарт NVidia) или с использованием CrossFire (AMD). Однако относительно недавно проблема была решена путем выпуска новой версии DirectX, что позволило использовать сразу несколько видеопроцессоров на уровне API. Но подобные нововведения не стали причиной утраты актуальности указанных технологий. Следует уточнить особенности использования. Вне зависимости от типа используемой карты взаимодействие нескольких плат при обработке одной графической информации осуществляется таким образом:

  1. Изображение разбивается на несколько блоков, которые распределяется по отдельности между картами.
  2. Происходит покадровая разбивка картинки – первое устройство обрабатывает четные кадры, второе – нечетные.
  3. Полученные в результате исчисления результаты смешиваются и накладываются, что позволяет достичь четкости и детализированности.

Недостаток использование двух карт – чрезмерные затраты энергии и большая стоимость. При этом нужно учитывать, что на практике производительность повышается не в 2 раза, как хотелось бы, а на 50-70%.

SLI

Чтобы заставить видеокарты фирмы NVidia работать совместно, необходимо наличие материнской платы, которая позволяет использовать несколько комплектующих. Второй важный момент – применение режима SLI возможно лишь в случае с одинаковыми видеопроцессорами. То есть GTX 1060 и GTX 1080 объединить не выйдет.

CrossFire

Использование данной технологии не характеризуется высокими требованиями и допускает некоторые «вольности» в виде разных видеопроцессоров. Однако, они должны быть из одной серии.

Немного про разъемы

Современные версии видеокарт обладают несколькими портами для подключения двух и более экранов. Монитор же может иметь ряд различных типов разъемов, о которых следует знать пользователю.

VGA — Video Graphics Array

Самый старый вариант, используемый до сих пор и предполагающий вывод аналогового сигнала, качество которого могло определяться даже длиной провода. Постепенно вытесняется другими типами, так как не справляется с большим разрешением экрана.

S-Video

Еще один аналоговый разъем с качеством передачи хуже, чем у предыдущего варианта. Преимущество в сохранении хорошего качества изображения даже при длинном кабеле – до 20 метров.

DVI — Digital Visual Interface

Позволяет подключать мониторы с высоким разрешением, что сделало его популярным и среди другого оборудования (проектор и т.п.). Что примечательно, качество выводимой картинки не определяется длиной кабеля.

HDMI — High Definition Multimedia Interface

Также используется для вывода картинки с высоким разрешением, но имеет преимущество перед DVI в виде наличия не только видео, но и аудиоканала. Еще один плюс – компактность и отсутствие креплений.

DP — Displayport

Мало чем отличается от предыдущего варианта, кроме наличия переходников на более популярные типы разъемов. Пропускная способность выше, чем у HDMI, но все же встретить факт его использования среди рядовых пользователей намного меньше.

Thunderbolt

Аппаратный интерфейс для периферийных устройств. Характеризуется разнообразием функционала и большой пропускной способностью. Ранее применялся исключительно для продукции фирмы Apple, но в дальнейшем начал распространяться и на пользователей Windows, и на другие ОС и устройства. Может быть использован для передачи изображения на мониторы с разрешением в 4К.

Существуют и иные параметры видеокарты, будь то количество блоков рендеринга и текстурных блоков, число потоковых процессоров, поддержка шрейдеров. Однако их изучение не считается обязательным, так как они играют второстепенную роль. И все же при необходимости подобрать карту только для определенной цели (игры, работа с графикой), когда даже подобные моменты имеют вес, следует обратить внимание и на данные тонкости. Но для этого придется заняться изучением официального сайта производителя, так как в стандартных прайсах магазина эти характеристики обычно не указываются.

Больше – лучше, или нет?

Предметом сравнительной фаллометрии рядовых юзеров часто выступает объем видеопамяти. Случилось это с подачи маркетологов – втюхивая новый продукт, они прожужжат вам все уши по этому поводу.


Более продвинутые юзеры, особенно геймеры, которым приходится, жертвуя личным временем, предаваться любимому хобби, обращают внимание, в первую очередь, на частоту памяти (ну и, естественно на частоту ядра).

Почему так? Не так важно, сколько данных может запомнить видеокарта – если она работает медленно, даже разгон не всегда поможет существенно увеличить производительность в играх.

Сколько нужно видеопамяти

Не буду углубляться, как сильно изменились видеоигры за последние 5 лет – если вы «в теме», то и сами все прекрасно видите. Такое качество графики требует мощной видеокарты – если вы, конечно, хотите играть на приемлемых настройках, при этом не страдая от «слайдшоу» во время просадки FPS.

Однако качество графики – не единственная проблема, с которой сталкиваются современные геймеры. В игропроме хорошим тоном стало делать игры с открытым бесшовным миром (если жанр подразумевает такую «фичу» — например, РПГ или шутер).

Игра, в которой пользователю придется постоянно ждать загрузки локаций, имеет высокий шанс стать провальной.

Чтобы запомнить все (или хотя бы ближайшие) объекты такого игрового мира, требуется солидный объем видеопамяти. Для современных игр нормой стал показатель от 3 Гб.

Не хочу вас расстраивать, но это только сегодня пока так – уже через пару лет топовые видеокарты может и не будут тянуть новинки на ультра-настройках. А вы как думали?

Увы, большинство разработчиков нацелены на массового потребителя, поэтому акцент они делают на YOBA-играх, где в угоду «графонию» можно пожертвовать остальными составляющими – сюжетом, продуманным ЛОРом, необычными квестами, которые отличаются от привычных «убить всех».

История появления графических процессоров

Возможно, это был один из самых сложных и тернистых путей развития компьютеров, и он начался, как многие могли подумать, не с вывода примитивной 2D- или 3D-графики, а с вывода простейшего текста на монохромный экран монитора.

Стоит отметить, что мы не будем вдаваться в хронологию графических адаптеров, а лишь укажем на наиболее значимые и поворотные моменты истории.

Итак, начнем с порядка.

Первым графическим адаптером был MDA (Monochrome Display Adapter), разработанный в 1981 году. MDA был основан на чипе Motorola 6845 и имеет 4 КБ видеопамяти. Он работал только в текстовом режиме с разрешением 80×25 символов и поддерживал пять атрибутов текста: нормальный, яркий, обратный, подчеркивание и мигание. Он не мог передать никакой цветовой или графической информации, а цвет букв определялся используемой моделью монитора.

Однако настоящим прародителем современных видеокарт считается CGA (Color Graphics Adapter), выпущенный IBM в 1981 году. CGA могла работать как в текстовом режиме с разрешением 80×25, так и в графическом режиме с разрешениями до 640×200 пикселей и с возможностью нарисуйте 16 цветов.

С момента появления первого цветного графического адаптера CGA в 1981–1991 годах слово «даром» не привело ни к каким революционным инновациям. В основном разработчики и дизайнеры аппаратных карт представили небольшое увеличение разрешения, цвета изображения и т.д.

И только в 1991 году появилось такое понятие, как SVGA (Super VGA), расширение VGA с добавлением новых режимов и дополнительных сервисов, например, возможность устанавливать произвольную частоту кадров. Количество одновременно отображаемых цветов увеличивается до 65 536 (High Color, 16 бит) и 16 777 216 (True Color, 24 бит), отображаются дополнительные режимы отображения текста и визуальной информации. SVGA является стандартом де-факто для видеоадаптеров примерно с середины 1992 года, после того как ассоциация VESA приняла стандарт VESA BIOS Extension (VBE) версии 1.0. До этого времени почти все видеоадаптеры SVGA были несовместимы друг с другом.

Рейтинг
( 2 оценки, среднее 4.5 из 5 )
Понравилась статья? Поделиться с друзьями:
Для любых предложений по сайту: [email protected]