В старых видеокартах использовался тип памяти SDR, который имел одинарную скоростью передачи данных. В современных видеокартах используются память типа DDR или GDDR данные передаются в 2 или в 4 раза больше объемов данных при той же частоте, поэтому рабочую частоту умножают на 2 или на 4.
В продаже можно встретить видеокарты с различными типами видеопамяти. Для дешевых видеокарт, класса low-end, используется тип GDDR2 и GDDR3. Такие видеокарты маломощные и для современных игр подходят с трудом.
Какая разница между GDDR5, GDDR5X и GDDR6
Графическая память — важная характеристика видеокарты, оказывает непосредственное влияние на производительность в играх.
Одной из наиболее широко используемых типов памяти по-прежнему остается GDDR5, но она постепенно заменяется более продвинутой GDDR6.
GDDR5
GDDR5 была самой быстрой памятью для видеокарт. AMD GTX 1060, GTX 1070 и RX 580 — хорошие примеры видеокарт с модулем памяти GDDR5 на борту. Память GDDR5 может обеспечивать скорость до 9 Гбит/с, а графические карты поставлялись с объемами: 512 МБ, 1 ГБ, 2 ГБ, 4 ГБ и 8 ГБ. Чипы GDDR5 производятся разными производителями, такими как Samsung, Hynix, ELPIDA или Micron.
GDDR5X
GDDR5 имеет новую расширенную версию, GDDR5X. Эта память является новым эволюционным шагом, обеспечивающим скорость до 14 Гбит/с и высокую пропускную способность, что делает ее отличным выбором для использования в высокопроизводительных графических картах, таких как GeForce GTX 1080 Ti.
GDDR6
Память GDDR6 является самой последней в этом стандарте. Напряжение для памяти GDDR6 составляет 1,3 Вольт и может обеспечить скорость передачи до 16 Гбит/с при пропускной спосбности до 72 Гбит/с на чип. Выпускают ее все те же компании: Samsung, Micron и Hynix. Причем Samsung и Micron будет обеспечивать скорость до 16 Гбит/с. Hynix будет занята в среднем сегменте производительности, где скорость ограничена 12–14 Гбит/с.
Память GDDR6 достигает уровня производительности, аналогичного GDDR5X, но не стоит заблуждаться, это совершенно новый стандарт, его потенциал еще не раскрыт и мы увидим гораздо более мощные чипы в будущем. Вполне возможно мы достигнем 20 Гбит/с.
Сравнение производительности и потребления у GDDR6 и GDDR5
В следующей таблице приведены наиболее важные характеристики памяти GDDR5 и GDDR6:
GDDR5 / 5X | GDDR6 | |
Напряжение | 1.5V | 1.3V |
Производитель | Samsung, Micron, and Hynix | Samsung, Micron, and Hynix |
Скорость передачи | 8 Gbps GDDR514 Gbps GDDR5X | 16 Gbps |
Формат | FBGA190, 0.65 mm pitch, 14x10mm | FBGA180, 0.75 mm pitch, 14 × 12 mm |
Конфигурация | X16 / x32 | X8 / x16 |
Каналов | 1 | 2 |
Объем памяти | 512 MB, 1 GB, 2 GB, 4 GB, and 8 GB | 8 GB and 16 GB |
Сколько памяти нужно видекарте?
Вопрос очень интересный. Тут всё напрямую зависит от того, как будет использоваться видеоадаптер в плане работы с графикой. Например, если это просто офисный компьютер, то ему хватит и встроенного графического адаптера, который будет сам занимать немного видеопамяти из ОЗУ. Если это домашний ПК для фильмов и простеньких игр, то ему вполне хватит от 256 Мб. до 1 Гб. А вот заядлому геймеру или для профессиональной работы с видео нужно будет уже в среднем 2-4 Гигабайта.
Так же необходимо учитывать следующие факторы:
Разрешение монитора
Чем больше у Вас монитор, тем бОльшее он использует разрешение. А чем больше используется разрешение, тем сильнее оно потребляет память видеокарты. Например 1 кадр в качестве FullHD ( разрешение 1920X1080X32) требует 8 Мб видеопамяти. Если же Вы подключили самый современный монитор 4К, то используемое у него разрешение будет потреблять уже в среднем 33 Мб на каждый кадр.
Сглаживание текстур
Сглаживание видео вообще очень сильно потребляет видеопамять. Чем сильнее сглаживание — тем больше потребление VRAM. К тому же разные алгоритмы сглаживания имеют соответственно и разное потребление. Причём разные типы сглаживания по разному потребляют ресурсы компьютера.
Качество текстур и теней
Чем выше качество текстур, чем больше отображается теней у объектов, тем сильнее расходуется и видеопамять компьютера. Это вообще самый сильный потребитель ресурсов видеокарты. Любите поиграть в «тяжелую» игру поставив качество на максимум? Приготовьтесь к тому, что памяти Вашей видеокарты может для этого не хватить. Чем реалистичней качество картинки, тем больше для этого требуется теней и текстур, а значит видеоадаптер будет использоваться по максимуму.
Интересное по теме:
- Как узнать какие игры тянет компьютер и его видеокарта
- Как объединить память телефона и карты памяти на Андроиде
- Недорогой компьютер для игр — сборка зима 2020
- Почему мой мощный компьютер тормозит?!
- Как следить за состоянием компьютера
- Флешка показывает 0 байт и не форматируется
Память HBM2
HBM 2 — это HBM-память второго поколения, имеющая все характеристики HBM, но с более высокой скоростью и пропускной способностью памяти. Она может иметь до 8 DRAM на стек, со скоростью передачи до 2 Гбит/с. С интерфейсом памяти шириной 1024 бит, пропускную способность памяти 256 ГБ / с на стек, что вдвое больше, чем у памяти HBM. Общая емкость HBM2 также больше, и она может иметь до 8 ГБ на стек. Первым чипом GPU, использующим память HBM2, является Nvidia Tesla P100. Новейшая видеокарта Nvidia серии Pascal для рабочих станций Nvidia Quadro GP100 также оснащена памятью HBM2. Память HBM2 будет использоваться в основном для VR-игр, AR-игр и других приложений где нужно быстрая работа с видеопамятью.
Архитектуры GPU, поддерживаемые HBM2, включают Vega, Pascal и новейшую архитектуру Volta GPU от Nvidia. Преемником HBM2 является HBM3, который будет выпущен в 2022 году. Топовые графические карты, использующие память HBM2: Nvidia Titan V, Radeon Vega Frontier Edition, Radeon RX Vega 56, Radeon Vega RX 64, Nvidia Quadro GP100.
Как увеличить видеопамять дискретных карт за счет повышения производительности
Для начала рассмотрим вопрос того, как увеличить видеопамять дискретной видеокарты. В идеале, конечно, проще всего купить новую, однако современные адаптеры стоят весьма недешево, поэтому лучше заняться настройкой имеющегося в наличии.
Исходя из того, что сегодня на рынке предлагаются в основном чипы NVIDIA и AMD/ATI, стоит использовать сопутствующее программное обеспечение, которое поставляется в предустановленном виде при покупке ПК или ноутбука.
Также для Windows-систем в плане улучшения производительности прекрасно подойдут утилиты вроде ATITool или MSI Afterburner, которые позволяют постепенно увеличивать тактовую частоту графического процессора, оставляя показатель памяти без изменений.
Кроме того, можно использовать и программы вроде Catalyst, PhysX или Riva Tuner, способные оптимизировать память видеочипа для использования в определенных играх или других приложениях, высвобождая ресурсы.
История развития стандартов памяти
Впервые память DDR2 использовалась в видеокарте NVIDIA GeForce FX 5800 Ultra. Хотя память была чем-то средним между DDR и DDR2.
Память GDDR3 была разработана специально для видеокарт, она имела те же характеристики, что и DDR2, однако с уменьшенным потреблением и тепловыделением, это позволило проектировать платы, с более высокими рабочими частотами. А значит, повышалась производительность и упрощалась система охлаждения.
Впервые DDR3 была установлена на модифицированную NVIDIA GeForce FX 5700 Ultra, а после в GeForce 6800 Ultra. Хотя стандарт был разработан инженерами ATI совместно с JEDEC, впервые его использовала компания nVidia. Сама ATI начала использовать этот тип памяти в серии Radeon X800. Также GDDR3 использовался в игровых приставках PlayStation 3 и Xbox 360
GDDR4 работала почти в 2 раза быстрее, чем предыдущая GDDR3. Технически она не сильно отличалась от GDDR3. Главными особенностями стало то, что GDDR4 имела повышенные рабочие частоты и уменьшенное энергопотребление – примерно в три раза меньше, чем у GDDR3.
ATI RADEON X1950 XTX стала первой видеокартой, на которую были установлены чипы GDDR4. Память не пользовался особой популярностью, снята с производства и заменена GDDR5.
GDDR5 — самый быстрый тип видеопамяти, который применяется в видеокартах hi-end класса, работающий на учетверённой частоте до 5 ГГц (хотя теоретически до 7 ГГц). Это дало возможность повысить пропускную способность до 120 ГБ/с при использовании 256-битного интерфейса. Для примера: чтобы повысить пропускную способность у памяти типа GDDR3 или GDDR4, нужно было использовать шину шириной 512 бит. При использовании GDDR5 производительность увеличивается вдвое, при меньших размерах самого чипа и с меньшими затратами энергии.
Развитие памяти видеокарты
GDDR | GDDR2 | GDDR3 | GDDR4 | GDDR5 | ||||
Nvidia | ATI | |||||||
Год массового выпуска | 2001 | 2003 | 2004 | 2006 | 2006 | 2008 | ||
Макс. Частота | 200 MHz | 500 MHz | 900 MHz | 1.2 GHz | 1.4 GHz | 5 GHz | ||
Конфигурация | 4 Mx32 | 4 Mx32 | 8 Mx32 | 8 Mx32 | 16Mx32 | 32Mx32 | ||
Ширина буфера | 2n | 4n | 4n | 4n | 8n | 8n | ||
Напряжение | 2.5 V | 2.5 V | 1.8 V | 1.8 V | 1.8 V | 1.5 V |
Что такое графическая видеопамять компьютера?
Думаю Вам уже понятно, что кроме основной оперативной памяти RAM у компьютера или ноутбука есть ещё и видеопамять — VRAM. Аббревиатура расшифровывается как Video Random Access Memory. Графическая видеопамять видеокарты компьютера — это особый вид оперативной памяти, который используется в дискретных видеоадаптерах компьютеров и ноутбуков. Выполнена она в виде чипов, распаянных на плате видеокарты вокруг графического процессора.
Думаю понятно, что чем больше модулей распаяно, тем больше объём видеопамяти. Тут возникает логичный вопрос — а зачем она нужна, ведь у компьютера и так есть оперативная память! Память видеокарты используется для временного хранения графических данных — а именно изображения (так называемый буфер кадра) — сформированных и передаваемых видеоадаптером на монитор ПК. Видеопамять является двухпортовой, то есть она может одновременно записывать данные при изменении изображения и в то же самое время считывать её содержимое для прорисовки изображения на экране. Проще говоря, память видеокарты снабжает графический процессор данными, которые необходимы ему для визуализации изображения — так называемого рендеринга. К этим данным относится буфер кадров, карта теней, используемые текстуры, освещение и так далее.
Как узнать объем видеопамяти
Объём видеопамяти видеоадаптера, установленного на Вашем компьютере Вы можете несколькими способами.
Во-первых, зная точную модель видеокарты, Вы можете узнать о ней абсолютно всё в Интернете, введя индекс модели в поисковик.
Во-вторых, можно воспользоваться одной из многочисленных утилит, которые отображают всю информацию о видеоадаптере компьютера. Например, Everest, Aida64 или HWiNFO64. Мне, например, больше всего нравится бесплатная программка GPU-Z:
Быстрая, лёгкая и показывает абсолютно всю нужную информацию. В поле Memory Type будет показан тип используемой памяти видеокарты, а в поле Memory Size — её объём.
В-третьих, узнать объём памяти можно в наклейке, которую обычно клеят на видеоадаптер. Там написана модель устройства, используемый чип и установленный размер видеопамяти. Правда, чтобы воспользоваться этим способом, Вам придётся разбирать свой компьютер. С ноутбуками вообще в этом смысле дикое неудобство!
Как увеличить объем памяти видеокарты
Такой вопрос обычно задают новички. Они знают, что объём ОЗУ у компьютера можно расширить установкой дополнительных модулей и думают, что с видеокартой всё точно так же. А вот и нет, увеличить объём видеопамяти без замены видеокарты не получится. Для этого надо купить новый адаптер и заменить на него старый.
Кстати, у меня в практике был случай, когда один опытный радиотехник загорелся желанием перепаять модули ОЗУ с одной платы на другую. Причём на плате были для этого соответствующие места. Но ничем эта затея не закончилась. Мало того, что подобные работы имеют высокий класс точности, но даже если это и получится сделать физически увеличить объём видеопамяти, нужно будет ещё и перепрошить само устройство. Ведь без соответствующего программного обеспечения плата всё равно не увидит установленные модули ОЗУ.
High Bandwidth Memory
High Bandwidth Memory выводит параметры подсистемы памяти на новый уровень. Со своим 1024-разрядным интерфейсом (на каждую микросхему, для R9 Fury X суммарно 4096 бит) она вдвое превосходит по показателю ширины шины GDDR5. Добиться этого позволяют две важные инновации: Through-Silicon Vertical Interconnect Access (TSV) и интерпозер (кремниевая подложка).
Чип НВМ первого поколения совмещает четыре слоя микросхем видеопамяти на небольшой площади. В таких видеокартах, как Fury X производства AMD он соединяется непосредственно с графическим процессором. Это снижает энергопотребление и одновременно повышает производительность карты в целом.
В High Bandwidth Memory сохраненные в ячейках памяти биты информации через TSV проходят в логический слой. Он выводит данные через интерпозер к графическому процессору или на устройства отображения.
TSV — это маленькие линии данных, проложенные через слои уложенных стопкой чипов. Каждый слой состоит из нескольких пластов, в которых сгруппированы отдельные ячейки видеопамяти. Для TSV в кремнии протравливаются маленькие отверстия диаметром около 10 мкм и после нанесения защитного оксидного слоя заполняются медью.
В качестве концепта или в прототипах 3D-чипов данный подход практикуется уже давно, но теперь он впервые находит применение в серийном продукте. 1024 линии TSV проходят через стопки HBM вертикально сверху вниз через все четыре слоя. На плате они распределены по восьми каналам — каждый шириной в 128 бит. TSV заканчиваются в маленьких контактах (микробампы), которые связывают микросхемы памяти с управляющей логикой.
Все способы, иных нет
Как увеличить видеопамять?На данный момент нет других вариантов увеличить объем, кроме тех, что описаны в данной статье. В любом случае лучше производить заменой комплектующих, а не их усовершенствованием. В качестве бонуса можно посоветовать правильно настроить видеокарту вашего железного друга. Недаром все мастера утверждают, что собрать компьютер всегда дешевле, чем покупать новый. Однако собирать лучше всего, если есть опыт. Не нужно касаться тех областей, где требуются специализированные знания в архитектуре или компьютерном программировании. Технические вопросы иногда стоит доверить специалистам.
Система охлаждения
Именно этот компонент (огромный радиатор, несколько вентиляторов) и бросается в глаза при первом взгляде на видеокарту. Исключение составляют, пожалуй, только бюджетные маломощные графические адаптеры, которые обходятся скромными по размеру и весу системами охлаждения.
Если же мы говорим о чем-то типа RTX 2060/3060 или AMD 6700 и выше, то система охлаждения будет внушать уважение, как минимум своим весом.
Радиатор представляет собой довольно замысловатую железяку с большим количеством тонких ламелей, состоящую из нескольких секций и теплорассеивающих пластин, контактирующих с графическим процессором, чипами памяти и силовыми элементами системы питания.
Практически все производители устанавливают несколько тепловых трубок для повышения эффективности работы радиатора.
Тепловая трубка – металлическая (часто медная, может быть покрыта никелем) герметичная, с легкоиспаряющейся жидкостью внутри. Эта жидкость испаряется в месте соприкосновения одного конца трубки с горячим элементом, после чего пар конденсируется на противоположном, холодном конце, после чего жидкость возвращается в горячий конец трубки.
Чаще всего применяются тепловые трубки с пористыми внутренними стенками, по которым жидкость под воздействием капиллярных сил перемещается в зону испарения вне зависимости от положения самой трубки в пространстве. Этой жидкостью может быть вода, аммиак, этанол и т. п.
Встречается и такой элемент, как испарительная камера. Это некая модернизация идеи тепловой трубки, использующая тот же принцип испарения жидкости, при которой отбирается тепло у охлаждаемого элемента. Разница в том, что плоская многослойная конструкция увеличивает эффективность этого процесса.
У разных производителей количество и конфигурация трубок различается. Часть их может использоваться для контакта с GPU, а для элементов системы питания устанавливается индивидуальная трубка. Может использоваться технология «прямого контакта», при которой тепловые трубки непосредственно контактируют с графическим процессором. Это позволяет улучшить теплообмен.
Однако недостаточно просто забрать тепло тем или иным способом – тепловой трубкой и/или радиатором, это тепло надо еще куда-то деть. Для этого применяют вентилятор(ы).
Несколько лет назад референсные видеокарты NVidia и AMD использовали систему охлаждения с помощью турбины. Суть ее в том, что устанавливается только один радиальный вентилятор, который забирает воздух из корпуса и прогоняет его через всю видеокарту, выбрасывая наружу.
Под кожухом видеокарты установлен радиатор с большим количеством ребер. Главным недостатком такой системы охлаждения является шумность. Единственный вентилятор имеет небольшой размер, а для обеспечения нужного потока воздуха ему приходится вращаться на большой скорости. А чем она выше, тем выше и шум.
Оба производителя отказались от турбинной системы, начиная с семейств видеокарт NVidia RTX 2000 и AMD RX 6000. Предпочтение отдано более привычным осевым вентиляторам, которых может быть от одного до нескольких в зависимости от размера видеокарты и «горячности» ее нрава.
Рассматриваемая сегодня MSI GeForce RTX 3070 Ti Suprim X имеет три вентилятора диаметром 95 мм каждый. Их максимальная скорость вращения составляет 3 250 об/мин, но надо очень постараться, чтобы ветродуи разогнались до таких скоростей. В реальности даже под максимальной нагрузкой они вращаются на меньших скоростях, а при температуре графического чипа ниже 60°C вообще останавливаются.
Некоторые производители используют противоположное направление вращения вентиляторов. Если их два, то один вращается по часовой стрелке, другой против. При трех вентиляторах обычно средний имеет противоположное направление вращения по отношению к крайним. Производители утверждают, что таким образом удается бороться с турбулентностью воздушного потока и улучшать обдув радиатора.
Редкие модели видеокарт могут оснащаться одним или двумя дополнительными вентиляторами небольшого размера. Например, INNO3D GeForce RTX 3070 ICHILL X4 имеют небольшой вентилятор на верхней грани, обдувающий тепловую трубку с радиатором от цепей VRM.
Альтернативой штатным системам охлаждения может быть жидкостная, которую можно установить самостоятельно, или производитель изначально предлагает модификацию видеокарты со смонтированным радиатором СЖО. Принципиально она не отличается от той, что используется для CPU, но есть некоторые различия. Проблема в том, что помимо графического чипа необходимо охлаждать еще микросхемы видеопамяти и цепи VRM, что делает теплосъемник довольно сложным конструктивно.
Полезной вещью может оказаться и защитная панель, которая закрывает обратную сторону печатной платы. Она как минимум защищает плату от возможных повреждений, улучшает механическую прочность видеокарты, а часто еще и участвует в охлаждении, для чего через термопрокладки контактирует с печатной платой в месте установки, скажем, силовых элементов системы питания.
Интерфейсный разъем для подключения к материнской плате
Все видеокарты последних поколений используют интерфейс PCI-Express. Последние поколения перешли на 4-ю версию, хотя без проблем работают и в более старых версиях, например, PCIe 3.0.
Видеокарты получают от процессора 16 интерфейсных линий. В зависимости от CPU может отличаться количество этих линий и версия интерфейса. Процессоры AMD Ryzen последних поколений и интеловские «камни» могут полноценно обеспечить видеокарту этими «дорожками» для доставки данных.
Если же по какой-то причине нет возможности обеспечить видеокарту всеми 16-ю линиями (например, к процессору подключен второй слот PCIe на материнской плате, и он задействован под какой-либо контроллер) и ей осталась только половина, то… ничего страшного не произойдет. Видеокарта будет прекрасно работать, и маловероятно, что вы вообще заметите какие-либо изменения.
Разъем(ы) питания
Но не только передачей данных занимается разъем PCIe. Через него подается питание на видеокарту. И все бы ничего, но есть проблема. Он не в состоянии обеспечить нормальное питание даже младшей в линейке моделей видеокарты. Почему?
Давайте взглянем на иллюстрацию, показывающую часть разъема PCIe, точнее, короткую его часть до перемычки. Здесь 22 контакта, часть занята для служебных нужд, а часть используется для подачи напряжений 12 В и 3.3 В.
Всего у нас есть пять 12-вольтовых контактов и три с напряжением 3.3 В. Согласно спецификациям на PCIe, максимальный ток для напряжения 3.3 В составляет 3 А, и 5.5 А для напряжения 12 В. Высчитать максимальную мощность теперь просто:
(5.5 (А) * 12 (В)) + (3 (А) * 3.3 (В)) = 75.9 Вт
Теперь вспомним, что для RTX 3060 максимальное потребление энергии указано равным 170 Вт, что более чем вдвое превышает возможности интерфейса PCIe. Где брать дополнительную мощность? Непосредственно от блока питания.
Для этого на видеокартах есть от одного до трех разъемов (с шестью или восемью контактами) для подключения шлейфа/ов от БП. И забывать об этом не следует. Блок питания вашего ПК должен обеспечить необходимое количество коннекторов.
Интерфейсные разъемы для подключения монитора/ов
Все эти чипы, радиаторы, вентиляторы – все это хорошо, но куда подключать монитор, чтобы что-то увидеть? Воспользоваться разъемами, которые располагаются на заднем торце видеокарты. В подавляющем большинстве случаев на современных видеокартах вы найдете один-два HDMI и пару-тройку DisplayPort.
Собственно, вот туда и подключайте, в зависимости от того, какой интерфейс у вашего монитора. Или нескольких, т. к. никто не запрещает использовать более одного средства отображения. В некоторых моделях видеокарт встречается еще и разъем USB Type-C, но это для специфических нужд.
Разъем для объединения видеокарт в режим SLI или CrossFire
Несколько лет назад тема объединения нескольких видеокарт для совместной работы с целью повысить производительность была очень популярна. NVidia представила технологию SLI, у AMD аналог обзывается CrossFire.
Сейчас это стало не столь интересно, т. к. такой режим работы не очень соответствовал ожиданиям. Затраты на покупку двух-трех видеокарт не оправдывают полученного прироста быстродействия.
Неудивительно, что в 3000-й серии видеокарт от NVidia поддержка SLI представлена ограниченно. Я бы сказал, что довольно мало моделей позволяет использовать их таким образом.
А вот видеокарты, например, 1000-й серии имеют такую поддержку. Чтобы задействовать технологию SLI необходимо, чтобы на видеокарте был специальный разъем на верхней грани.
На иллюстрации показан такой разъем для видеокарты Gigabyte GeForce GTX 1070 G1 Gaming. Чтобы объединить два графических адаптера, требуется использовать специальную перемычку, которая устанавливается в этот разъем.
Повторюсь, что современные модели видеокарт в большинстве своем такой функционал не поддерживают.
Что еще?
Я не останавливаюсь подробно на вспомогательных функциях видеокарт. Сюда можно отнести управление подсветкой, наличие небольшого дисплея для вывода служебной информации или пользовательских изображений.
Разве что стоит упомянуть наличие переключателя выбора одного из режимов работы видеокарты. Последние их поколения изначально имеют два BIOS. Первый ориентирован на тихую работу, что достигается снижением частоты работы GPU и оборотов вентиляторов. Второй – этакий «спорт-режим», который раскрывает все возможности видеокарты.
Ну почти все, т. к. пользователь также может самостоятельно устанавливать режимы работы видеокарты, заняться разгоном.
Старые тесты
Тест проверялся на разных играх при самых высоких значениях качества графики:
- Battlefield Bad Company 2
- Call of Duty Modern Warfare 2
- Crysis Warhead
- Grand Theft Auto 4 EFLC
- Mass Effect 2
- Metro 2033
- S.T.A.L.K.E.R. Call of Pripyat
- и другие.
В итоге были получены такие значения:
Использование видеопамяти в различных играх, Мбайт
DirectX 9 | DirectX 10 | DirectX 11 | |
1680х1050 | 402-1104 | 450-993 | 721-1016 |
1920х1200 | 424-1137 | 518-1097 | 784-1034 |
2560х1600 | 733-1536 | 737-1536 | 1030-1536 |
Самой требовательной как всегда остается игра Crysis Warhead, а также Napoleon Total War, игра обошла даже Crysis.
На что влияет объем памяти видеокарты
Как было замечено раньше, в некоторых случаях повышение объема памяти видеокарты – не повышает ее производительность. Нужно понимать, что память это хранилище из которого данные , берутся для обработки GPU (графическим процессором видеокарты) и если GPU слабый, то как бы не повышался объем памяти, производительность не вырастит. Еще конечно влияет ширина шины и тип памяти, но GPU все же важнее.
Это не сложно проверить на одинаковых моделях видеокартах, но с разным объемом видеопамяти.
В тесте использовались одинаковые видеокарты, одного производителя, но с разным объемом памяти. Только в случае с Radeon HD 4870, наблюдается прирост производительности.
Благодаря технологии HyperMemory (у видеокарт ATI) и TurboCache (у видеокарт NVIDIA), при необходимости видеокарта может использовать дополнительную память из оперативной памяти . В связи с этим, некоторые программы указывают неверное значение объема памяти видокарты (даже стандартные утилиты windows). Для проверки лучше всего использовать программу CPU-Z, она определяет физический объем видеокарты, а не расширенный за счет TurboCache или HyperMemory.
Как узнать тип памяти видеокарты?
Чтобы определить тип видеопамяти, потребуется воспользоваться специальными онлайн сервисами или сторонними приложениями, бесплатные версии которых можно без проблем скачать с интернета. Самыми популярными и удобными среди них являются следующие программы:
TechPowerUp GPU-Z
Легкая и простая программка, которая даже не требует установки. Достаточно скачать небольшой файл, запустив который можно сделать выбор – произвести полную установку приложения или сразу же запустить его упрощенную версию и начать пользоваться им сразу.
• Перейдите на сайт разработчика https://gpuz.site/ и скачайте программу;
• Запустите ее и увидите небольшое меню, в котором будет содержаться множество характеристик;
• В пункте “Memory Type” будет указан тип видеопамяти вашей видеокарты.
Стоит отметить, что если на вашем устройстве несколько видеоадаптеров, то вы можете переключаться между характеристиками всех устройств. Для этого в самом низу меню программы присутствуют соответствующий блок.
AIDA64
Еще одна полезная многофункциональная программа, одной из главных функций которой является определения типа видеопамяти:
- Перейдите на сайт разработчика https://www.aida64.com/ и скачайте программу;
- Запустите ее и в левом углу выберите пункт “Отображение”;
- Перейдите в подраздел меню “Графический процессор”;
- Откроется список всех характеристик вашего видеоадаптера, среди которых будет присутствовать пункт под названием “Тип шины”. Именно в нем и содержится описание типа видеопамяти.
Одно за счет другого
Можно попробовать решить вопрос, как увеличить видеопамять, за счет оперативной памяти. Во-первых, удостоверьтесь, в установленных модулях объема достаточно, чтобы передать часть мегабайт на видео. Можно назвать этот метод увеличением объема памяти без затрат.
Попробуем пошагово реализовать намерение увеличить оперативную память ноутбука или компьютера.
- Шаг под номером один. Берем свой ноутбук и отправляемся в магазин, продавцу объясняем, что хотим поставить новый слот памяти.
- Шаг второй. Без особого фанатизма вставляем в слот модуль, если выбираем память второго поколения, а он не вставляется, значит, у техники память третьего поколения. ПомниМ: при присоединении оперативки не стоит усердствовать, ибо можно повредить устройство!
- И третий шаг. Если мы перепробовали все модули, что показал продавец, то нас можно поздравить — мы обладаем довольно редкой энергосберегающей оперативкой (1,35 вольт). В обычных ноутбуках оперативная память рассчитана на полтора вольта.
Сколько памяти можно вставить в ноутбук, можно посмотреть в руководстве или на официальном сайте производителя. Там должно быть указано количество гигабайт, а также какого поколения память потребуется искать в магазинах.