Как увеличить шину на видеокарте

Обновлено: 02.07.2024

Expiiriens
Имеете ввиду ширину шины памяти? Или.

Научитесь мыслю сформулировать до написания (навроде семь раз подумай - один сказани)

Jumper007
Вполне допускаю и такой поворот хода мыслей автора

Expiiriens
Будьте добры в следующий раз точнее высказываться, тем более когда создаёте тему, просмотрите Правила, п.2.1
Как верно отметил камрад DEVES - всё зависит от GPU, укажите конкретную модель/модели ВК и тогда получите более развёрнутый ответ

И да и нет. Суть парадокса в том, что допустим 8е поколение - это очень широкая линейка. От 8800GTS320/640 (320бит) до 8800GTS512 (256бит). Последняя намного превышает предшественников по производительности. Но это как-бы тоже не совсем честно. Формально 8800GTS512 принадлежит к 9му поколению, хоть и называется 8800.

Шина памяти важна, но также важна частота памяти, совокупность этих параметров дает пропускную способность памяти (можно взять 128бит шину и память 5000мгц, а можно взять 256бит и частоту 2500Мгц), но пропускная способность памяти ничего не даст в связке со слабым видеоядром, и аналогично быстрое ядро в паре со слабой памятью тоже бесполезно. Нужно выбирать конкретную видяху, иначе не факт что видяха 512бит будет быстрей видяхи 128бит.

Изображение

Какие шины?

У меня 2 гига!

Если брать продукцию Nvidia, то ваши утверждения ошибочны. Ни одна карта 512бит не проигрывала и не проигрывает до сих пор (в рамках до 6го поколения) 128битным карточкам, а то и вовсе 192х битным типа 550Ти.
Я это утверждаю ибо у меня были почти все карты GF, начиная от 8800GTX и заканчивая сейчас 580.
Так вот если сравнивать 512бит GTX280 и 128бит GTS450OC, то даже GDDR5 не спасает положения у последней.
Другое дело если сравнивать продукцию разных производителей: сразу вспоминается преславутая HD2900XTX c 512бит шиной и никакущей производительностью.

Изображение

Котей: Какие шины?

У меня 2 гига!

И 2 ядра
Сразу вспоминается лохотроны от Эльдорадо 4 ядра - 4 гига
Внутири фекалии, но в названии всё верно

Шина соединяет память и графический процессор видеокарты. От ее ширины зависит количество данных, которое может быть передано графическому процессору и обратно в память. Рост производительности особенно заметен в тяжелых требовательных играх.
Битность(ширина) шины памяти+частота видеопамяти=пропускная способность памяти видеокарты (ПСП).
Чтобы говорить относительно оптимальной величины шины, нужно рассматривать всё в комплексе, то есть, саму ПСП. Обязательно должен быть баланс между графическим чипом и ПСП. Слабому чипу не поможет гиганская ПСП.
ПСП= эффективная частота памяти умноженная на ширину шины памяти.
Что бы перевести биты в байты делим их на 8.
Пример:
ПСП GTX 680=6000Mhz*32байта(256 бит)=192Гб/с
ПСП HD 7970=5500Mhz*48байт(384 бита)=264Гб/с

Jumper007
Золотые слова. В цене учтены буквально все нюансы - ПСП, чип, частоты, память, охлады, питальники и тд и тп. А многие знания влекут за собой немалые печали..

Если брать продукцию Nvidia, то ваши утверждения ошибочны. Ни одна карта 512бит не проигрывала и не проигрывает до сих пор (в рамках до 6го поколения) 128битным карточкам, а то и вовсе 192х битным типа 550Ти.
Я это утверждаю ибо у меня были почти все карты GF, начиная от 8800GTX и заканчивая сейчас 580.
Так вот если сравнивать 512бит GTX280 и 128бит GTS450OC, то даже GDDR5 не спасает положения у последней.
Другое дело если сравнивать продукцию разных производителей: сразу вспоминается преславутая HD2900XTX c 512бит шиной и никакущей производительностью.

у меня были GF начиная с GF 256 1999 года разлива, но речь не про это, и в теме нет упоминания о картах одного поколения или разного, или только ати или нвидия, мы же говорим в общем, а не про конкретную карту. Собственно про 512 бит я писал действительно про 2900хт, которая проигрывает всухую к примеру 128 битным 5770. А 2900ХТ у меня недавно нашлась в тумбочке и была продана после тестов - на самом деле вполне сносная производительность с учетом ее возраста, у нее достаточно высокая ПСП даже с учетом ДДР3, но само ядро на сегодня конечно слабенькое. И кстати хороший пример радеоны 6770 128бит и 6790 256 бит, несмотря на вдвое большую шину памяти, разница в скорости в пределах 30%

Доброго времени суток) Прошу совета по той же теме. Заинтересован gt 1030. У нее разрядность шины 64 бита. Это меня смущает.. Но неплохие частоты:
Частота памяти 6008 МГц
Частота ядра
Базовая частота: 1265 МГц
В режиме разгона: 1518 МГц

Что скажете? Будет ли такая разрядность занижать производительность? И, может, в таком случае лучше искать другие варианты?

Как увеличить производительность видеокарты

Видеоигры весьма требовательны к системным параметрам компьютера, поэтому иногда могут возникать глюки, затормаживания и тому подобные вещи. В таких ситуациях многие начинают задумываться над вопросами о том, как повысить характеристики видеоадаптера, не покупая новый. Рассмотрим несколько способов для этого.

Увеличиваем производительность видеокарты

На самом деле существует множество способов ускорить работу видеокарты. Для того, чтобы выбрать подходящий, нужно определить, какая модель установлена на данном ПК. Об этом читайте в нашей статье.

На отечественном рынке выделяют два основных производителя графических карт — это nVidia и AMD. Карты nVidia отличаются тем, что работают с разными технологиями, делающими игру более реалистичной. Производитель карт AMD предлагает более оптимальное соотношение цена-качество. Конечно, все эти особенности условны и у каждой модели свои характеристики.

Для того, чтобы ускорить работу видеоадаптера, нужно определить, какие показатели влияют больше всего на его производительность.

  1. Характеристика GPU – графического процессора, чипа на видеокарте отвечающего за процесс визуализации. Основной показатель графического ядра – частота. Чем выше этот параметр тем быстрее проходит процесс визуализации.
  2. Объем и разрядность шины видеопамяти. Объем памяти измеряется в мегабайтах, а разрядность шины – в битах.
  3. Разрядность карты — одна из главных характеристик, показывает сколько информации можно передать в графический процессор и обратно.

Что касается параметров программного обеспечения, то главным является FPS – частота или количество кадров, сменяемых за 1 секунду. Этот показатель обозначает скорость визуализации.

Но прежде, чем приступать к изменению каких-либо параметров, нужно обновить драйвер. Возможно, уже само обновление улучшит ситуацию и не придется прибегать к другим методам.

Способ 1: Обновить драйвер

Лучше всего найти соответствующий драйвер и скачать его с сайта производителя.

Но есть альтернативный способ, с помощью которого можно узнать актуальность установленных на компьютере драйверов и получить прямую ссылку для скачивания обновления.

С помощью утилиты Slim Drivers найти подходящий драйвер гораздо проще. После того, как она установлена на ПК, нужно сделать следующее:

  1. При запуске программа просканирует компьютер и установленные драйвера.
  2. После этого в строке обновления будет указана ссылка на скачивание наиболее актуального драйвера.

отсканированные драйвера Slim Drivers


С помощью этой программы можно обновить не только драйвер видеокарты, но и любого другого оборудования. Если драйвер обновился, но неполадки с быстродействием графической карты остались, можно попробовать поменять некоторые настройки.

Способ 2: Настройка параметров для снижения нагрузки на карту

упраление параметрами 3 д нвидиа

  • анизотропная фильтрация – выкл.;
  • V-Sync (вертикальная синхронизация) – выкл.;
  • включить масштабируемые текстуры – нет.;
  • сглаживание – выключить;

Все эти три параметра потребляют много памяти, поэтому отключив их, можно уменьшить нагрузку на процессор, ускорив этим визуализацию.

Это главный параметр, который необходимо настроить. От того, какое значение он принимает, напрямую зависит скорость графики.

Эта настройка помогает ускорить графику, используя билинейную оптимизацию.

При таких параметрах может ухудшиться качество графики, но скорость движения картинки возрастет на целых 15%.

Для того, чтобы изменить настройки графической карты AMD необходимо, нажатием правой клавиши мыши на рабочем столе, открыть меню и зайти в настройки и выполнить ряд простых действий:

настойки 3 д амд

Если нужно повысить скорость, не снижая при этом качество графики, то можно попробовать один из методов разгона.

Разгон видеокарты – очень опасный способ. При неправильной настройке видеокарта может сгореть. Разгон или оверклокинг представляет собой увеличение рабочих частот ядра и шины за счет изменения режима обработки данных. Работа на повышенных частотах сокращает срок службы карты и может привести к поломке. К тому же, такой метод лишает гарантии на устройство, поэтому нужно тщательно взвесить все риски перед тем, как приступать к действиям.

Для начала нужно хорошо изучить аппаратные характеристики карты. Особое внимание следует уделить мощности системы охлаждения. Если начать проводить разгон со слабой системой охлаждения, есть большой риск, что температура станет выше допустимой и видеокарта просто сгорит. После этого восстановить ее уже будет невозможно. Если Вы все же решили рискнуть и разогнать видеоадаптер, то сделать это правильно помогут нижеприведенные утилиты.

Такой набор утилит позволяет получить информацию об установленных видеоадаптерах и работать с настройками температуры и напряжения не через БИОС, а в окне Windows. Настройки некоторых можно добавить в автозагрузку и не запускать вручную.

Способ 3: NVIDIA Inspector

Утилита NVIDIA Inspector не требует установки, ее достаточно скачать и запустить

Далее сделайте вот что:

ползунок повышения частоты памяти в настройках нвидиа

Способ 4: MSI Afterburner

MSI Afterburner идеально подходит для разгона видеокарты на ноутбуке, если эта функция не заблокирована на аппаратном уровне в БИОС. Данная программа поддерживает практически все модели NVIDIA и AMD видеоадаптеров.

кнопка шестеренки в MSI Afterburner

Более подробно о разгоне AMD Radeon и использовании программы MSI Afterburner читайте в нашей статье.

Способ 5: RivaTuner

Опытные оверклокеры рекомендуют программу RivaTuner, как одно из лучших и функциональных решений для повышения производительности видеоадаптера, как для настольного ПК, так и для ноутбука.

Одной из интересных особенностей этой программы является то, что можно изменять частоту шейдерных блоков видеопамяти, независимо от частот GPU. В отличие от рассмотренных ранее способов, с помощью данного инструмента можно увеличивать частоты без ограничений, если это позволяют аппаратные характеристики.

    После запуска откроется окно, в котором выберете треугольник возле названия видеокарты.

Треугольник для запуска меню RivaTuner

кнопка определение рива тюнер

установка автозагрузки рива тюнер

Способ 6: Razer Game Booster

Для геймеров очень полезной может оказаться программа Razer Game Booster. Она поддерживает как автоматическую наладку видеокарты, так и ручные настройки. После входа программа отсканирует все установленные игры и составит список для запуска. Для автоматического ускорения нужно просто выбрать необходимую игру и кликнуть по ее значку.

ускорение игр Razer Game Booster

Сложно сказать, насколько эффективен этот метод, но в некоторой степени он помогает максимально улучшить скорость графики в играх.

Способ 7: GameGain

GameGain – специальная программа для повышения скорости игр путем оптимизации работы всех систем компьютера, и видеокарты в том числе.Понятный интерфейс поможет быстро настроить все необходимые параметры. Для начала сделайте вот что:

Ускорение в GameGain

Все приведенные выше способы могут помочь усилить производительность видеокарты на 30-40%. Но если даже после проведения всех приведенных операций мощности не хватает для быстрой визуализации, наверняка следует купить видеокарту с более подходящими аппаратными характеристиками.

Закрыть

Мы рады, что смогли помочь Вам в решении проблемы.

Отблагодарите автора, поделитесь статьей в социальных сетях.

Закрыть

Опишите, что у вас не получилось. Наши специалисты постараются ответить максимально быстро.


Важно! Обратите внимание, что оперативная память не становится видеопамятью, а просто резервируется для нужд графического адаптера. На Windows 10 по умолчанию все уже должно работать оптимально, поэтому если у вас нет проблем с запуском игр, то и изменять объем не нужно. Попробовать уменьшить или увеличить объем стоит в случае низкой производительности, либо вылета игры или приложения с ошибкой.


На видео видно, как работает встроенная графика Vega 11 с разными настройками памяти. Разницы нет, система все равно использует ОЗУ, какое бы значение вы ни поставили. Это хорошо видно по загрузке оперативной и видеопамяти.

Как увеличить видеопамять интегрированной видеокарты в BIOS

Сначала зайдите в BIOS. Сделать это можно, нажав определенную кнопку при загрузке системы. Это может быть Del, F10, F2 или другая клавиша в зависимости от производителя материнской платы или ноутбука.

Как увеличить объем видеопамяти встроенной видеокарты за счет ОЗУ, чтобы запускались любые игры

Теперь найдите опцию, отвечающую за выделение памяти для интегрированной видеокарты. У разных производителей она называется по-разному, например, UMA Frame Buffer Size или Share Memory. Также обратите внимание, что в современных ноутбуках такой опции часто нет.

Рассмотрим последовательность действий для некоторых популярных материнских плат. Обратите внимание, конкретный путь может отличаться для встроенной графики Intel и AMD. После установки значения не забудьте сохранить настройки!

  • На Gigabyte нужно зайти на вкладку Chipset и найти строку Integrated Graphics. Далее выберите параметр Forces. Появится строка UMA Mode, которую нужно выставить на UMA Specified. Затем в строке UMA Frame Buffer Size выбрать нужный параметр.
  • На ASUS нужно зайти в Advanced Mode (F7), затем перейти на вкладку Advanced и найти пункт NB Configuration. Затем выберите строку UMA Frame Buffer Size и установите желаемый объем памяти.
  • На материнских платах ASRock под Intel перейдите на вкладку Advanced, затем зайдите в Chipset Configuration и найдите пункт Share Memory. Для AMD путь чуть сложнее. Найдите строку AMD CBS и затем NBIO Common Options. Теперь выберите строку GFX Configuration. Параметр UMA Mode установите на UMA Specified. Затем появится строка UMA Frame Buffer Size.
  • Для MSI зайдите в Advanced, затем выберите строку Integrated Graphics Configuration. Параметр Integrated Graphics нужно выставить на Force. Затем установите желаемое значение в UMA Frame Buffer Size.

Внимание! Максимальный объем выделенной памяти, который можно назначить, зависит от модели встроенной графики, объема ОЗУ, а также от особенностей ноутбука и материнской платы.

Как увеличить видеопамять интегрированной графики без входа в BIOS

Существует способ увеличить память встроенного видеоядра Intel UHD Graphics последних поколений от 3-й до 7-й серии. Для этого вам нужно скачать и установить модифицированный драйвер, а также файл реестра. Внимание! Все действия выполняйте на свой страх и риск.

Как увеличить объем видеопамяти встроенной видеокарты за счет ОЗУ, чтобы запускались любые игры


В предыдущих статьях мы поговорили про мифы о процессорах, оперативной памяти и материнских платах, теперь же перейдем к видеокартам, которые уже давно стали обязательной частью любого компьютера.

Первый миф. Чем больше видеопамяти — тем быстрее видеокарта


Казалось бы, это логично — в более мощные видеокарты ставится больше памяти: так, GTX 1070 с 8 ГБ памяти быстрее, чем GTX 1060 с 6 ГБ, а GTX 1080 Ti с 11 ГБ быстрее GTX 1080 с 8 ГБ. Однако следует понимать, что видеопамять, конечно, важна, но зачастую различное ПО не использует всю имеющуюся у видеокарты память: так, в большинстве случаев GTX 1060 с 3 ГБ медленнее версии с 6 ГБ всего на 5-10%, и разница в основном идет из-за различного числа CUDA-ядер.

Так что не стоит судить о производительности видеокарты, опираясь только на объем видеопамяти.

Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное

Опять же, это кажется логичным: если видеокарте памяти не хватило, взять ее больше неоткуда — значит, программы корректно работать не смогут. Однако на деле это, разумеется, не так — любая видеокарта имеет доступ к оперативной памяти, которой обычно куда больше, чем видеопамяти. Конечно, ОЗУ в разы медленнее, а время доступа к ней больше — это может вызвать проблемы с плавностью картинки, но только лишь в том случае, если собственной памяти видеокарте не хватает сильно: например, у нее 2-3 ГБ памяти, а игра требует 4-5 ГБ. Но если не хватает нескольких сотен мегабайт, то обычно это проблем не вызывает: GPU умеют динамически использовать доступные им ресурсы, и в ОЗУ они стараются хранить ту информацию, которая нужна редко или не требует мгновенного отклика.

Третий миф. От разгона видеокарты сгорают

Четвертый миф. SLI/Crossfire увеличивают производительность и объем видеопамяти во столько раз, сколько видеокарт подключено


Насчет производительности это, скорее, не миф, а теоретический результат. Увы — на практике, хотя тому же SLI 20 лет, а Nvidia его использует больше 10 лет, в большинстве игр прирост или околонулевой, или вообще отрицательный. Лишь в единичных проектах можно получить прирост хотя бы 20-30% в сравнении с одной видеокартой, что, конечно, смешно, с учетом двукратного увеличения стоимости и серьезных требований к блоку питания. Что касается вычислительных задач, то тут все сложнее: так, профессиональный софт вполне может использовать несколько GPU эффективно, но это уже не домашнее применение.

Что касается видеопамяти, то тут все просто: при использовании DirectX 11 или ниже в видеопамять каждого используемого GPU записывается одинаковая информация, то есть у связки видеокарт будет по сути тот же объем памяти, что и у одиночной карты. А вот в API DirectX 12 есть возможность более эффективно использовать Split Frame Rendering, когда каждая видеокарта готовит свою часть кадра. В таком случае объемы видеопамяти суммируются — пусть и с оговорками.

Пятый миф. Профессиональные видеокарты лучше игровых


Шестой миф. Если видеокарта не раскрывается процессором — это плохо


Легко можно получить и обратную ситуацию: взять ту же самую GTX 1080 Ti и запустить на ней игру в HD-разрешении с минимальными настройками графики — и тут даже Core i9-9900K не сможет подготовить для ней столько кадров в секунду, чтобы она была занята на 100%.

Так что тут можно сделать два вывода: во-первых, если видеокарта недогружена несильно, а итоговый fps вас устраивает — всегда можно еще немного увеличить настройки графики, чтобы получить 100% нагрузку на видеокарту с лучшей картинкой и при той же производительности. Во-вторых, собирайте сбалансированные сборки, дабы не было такого, что процессор занят на 100%, а fps в игре 20 кадров.

Седьмой миф. Чем уже шина памяти — тем ниже производительность видеокарты


Восьмой миф. Если видеокарта не перегревается, то она работает на максимально возможной для нее частоте в рамках ее теплопакета

Увы — аналогия с процессорами тут не работает: если те действительно удерживают максимальные частоты в рамках TDP вплоть до температуры, с которой начинается троттлинг из-за перегрева, то видеокарты работают хитрее: так, у Nvidia есть технология GPU Boost, которая, с одной стороны, является аналогом Turbo Boost для процессоров — позволяет поднимать частоту выше базовой — а с другой стороны имеет больше ограничений.

Возьмем, для примера, GTX 1080 Ti. Она имеет родную частоту в 1480 МГц, а Boost — 1580. Но стоит нагрузить видеокарту, как частота может подскочить до 1800-1850 МГц — то есть выше Boost: это и есть работа технологии GPU Boost. Дальше — интереснее: критические температуры у видеокарт поколения Pascal составляют порядка 95 градусов — но уже при 85 можно заметить, что частоты снижаются ближе к уровню Boost. Почему так? Потому что Nvidia ввела еще одну опорную температуру, которую называет целевой: при ее достижении видеокарта старается ее не превышать, а для этого сбрасывает частоты. Так что если у вас мощная видеокарта, да и еще с референсным турбинным охлаждением — внимательно следите за температурами, ибо от них в прямом смысле зависит производительность.

Девятый миф. Видеокарты без дополнительного питания хуже аналогов с ним

В продаже можно встретить видеокарты уровня GTX 1050, 1050 Ti и AMD RX 550 без дополнительного питания — то есть, как в старые добрые времена, достаточно поставить их в слот PCIe и они готовы к работе. При этом также есть версии 1050 и 1050 Ti с дополнительным питанием 6 pin, из-за чего некоторые пользователи делают вывод, что раз дополнительное питание есть — значит с ним видеокарты будут работать лучше.

На деле это не совсем так: слот PCIe способен дать видеокарте до 75 Вт, и этого вполне хватает, чтобы даже 1050 Ti работала на указанных на официальном сайте Nvidia частотах. Но если вы нацелены на разгон — да, тут питания от PCIe видеокарте может уже не хватить, так что дополнительные 6 pin от блока питания позволят достичь больших частот, однако разница в любом случае не превысит 10%.

Десятый миф. Не стоит ставить современные PCIe 3.0 видеокарты на старые платы со слотами PCIe 2.0 или 1.0


Все опять же логично — так, пропускная способность PCIe 2.0 x16 вдвое ниже, чем у 3.0 x16, а, значит, современные видеокарты через более старую шину PCIe будут работать медленнее. На деле это опять же не так — пропускная способность PCI Express 3.0 x16 даже для топовых современных видеокарт оказывается избыточной:

Хорошо видно, что разница между 3.0 x16 и 2.0 x16 составляет всего 1%, то есть погрешность, и даже если спуститься до PCIe 1.1 — то есть к материнским платам почти десятилетней давности — падение производительности оказывается всего лишь 6%. Так что вердикт тут прост — версия PCIe практически не влияет на производительность видеокарты, соответственно можно смело к Xeon с PCI Express 2.0 брать GTX 1080.

Одиннадцатый миф. Разгон видеопамяти не имеет смысла

Конечно, наибольший прирост дает разгон ядра видеокарты — тут прирост производительности близок к линейному (то есть увеличили частоту на 10% — получили прирост производительности на 10%). Однако не стоит сбрасывать со счетов видеопамять, особенно в слабых видеокартах: зачастую в них ставят те же чипы памяти, что и в более мощные решения, но при этом сильно снижают частоту. Это дает возможность ее достаточно сильно разогнать, зачастую на 20-40%, что может прибавить к общей производительности графики еще 10-15% — для слабых видеокарт это лишним, разумеется, не будет:


Двенадцатый миф. С выходом каждой новой линейки видеокарт производители урезают производительность старой

Но почему тогда есть разница в производительности между драйверами? Потому что ничто в нашем мире не идеально, и какие-то драйвера, улучшая производительность в новых играх, могут испортить производительность в более старых или привести к различным ошибкам. Обычно через некоторые время выходят исправленные драйвера, и все возвращается на круги своя.

Если вы знаете еще какие-либо мифы — делитесь ими в комментариях.

Sharkoon представила игровое кресло Skiller SGS20

Геймплей релизной версии аркадных гонок в футристичном сетинге Midnight Legends

Смартфон Motorola Razr 3 полностью рассекречен


Ещё один миф. С выходом новой линейки видеокарт, старые дешевеют. Нвидиа это успешно опровергала, просто накрутив цену на новые карты))


А может быть, ВНЕЗАПНО, стоит поставить более быстрый процессор, и FPS будет выше за счёт простаивавших мощностей GPU?


Более половины всех мифов правда.

первый миф так сказать вытекает из второго если видеокарта наталкивается на приложение где нужно больше памяти растет требование к ее пропускной способности. это заметно приводит к покере производительности процентов так на 20, параллельно растет требование к пропускной способности всей системы что можно игру там реально затормозить до 5 фпс с дикими фризами и выпадениями текстур как в раге. хотя как бы то исходя из мощности самого чипа и процессора игра должна работать в реальном времени. и она будет если снизить текстуры. в свою очередь обработка текстур высокого разрешения влияет на производительность очень не существенно. проблемы усугубляются если например в системе сли, кросс фаер или 2х чиповая карта аки 690 а подключено все это на амд фх который пропускной способностью и скоротечность куша не блещет плюс все это хозяйство еще через северный мост и 5гб сек. миф не работает только с бюджетными картами и не понимаем сути задач для которых карта берется. например чешет такой ПеКа репу некий абстрактный школьник какую бы карту возжелать 1060 3гб или то 1050 4гб. вторая в типовых профильных игровых зач будет не круче. а вот еще была такая значится карта фури х 4гб и 390 8 гб там какая то. фури х мощнее и память у ней быстрей но были там какие то означится игры где карта начисто соснула у более слабой карты но с большим объемом врама. то есть потеря производительности на самом деле запредельная. про сли и мульти гпу я уже неоднократно пека утверждал - проверено что с 2мя картами они дают 100% прирост на уровне погрешности если соблюдены ряд условий и очень чудовищная нагрузка на каждый гпу. до 40 фпс они обычно отлично масштабируются. и как бы нет причин чтоб это условие не выполнялось и для 4гпу если не перегружать шину. память они не суммируют но теоретически могут. практически правда то это значит нет. турбобуст видеокарты зависит от температурки это значится правда в зависимости от моделей. под высокое температуры этот турбо обычно не активируется


Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное

Фризы тебе точно гарантированы,и естественно это не миф,попробуй запустить RE7 или Rise of the Tomb Raider с максимальными текстурами на видяхе с 4 гагами памяти,и получишь гарантированные фризы,собственно это мои случаи когда у меня ещё была GTX980,стоило снизить текстуры на один пункт и фризы естественно прекращались.


saa0891 DDR4 более чем достаточно, чтобы по крайней мере не было фризов, так что если не хватает VRAM можно просто добавить воды. gennaz Eh. Евгений Кондратенко Да лучше уж 970 по дешевке ищет и не будет парится в новых игорях.


бестолковые блоги для получения бонусов


добавлю от себя и своего опыта владения около 7 видеокартами в течении 7лет: 2 - фризов и вылетов не будет, но может резко просесть фпс или подгружаться текстуры противников будут прямо перед носом 3- у всего есть свой срок службы при эксплуатации в определённых условиях 7- зависит от оптимизации игры и её способности разбивать данные на меньшие блоки, что упрощает работу видеокарты с узкой шиной 10- чисто из опыта с R7 370: фпс скакало больше на PCIe 2.0 при чём на том же процессоре и оперативке


Еще один миф. С выходом новой линейки старые должны дешеветь. Это широко распространенный миф. Ибо рынок живет по другим законам. Если конкуренты не могу предоставить даже на старую линейку достойной конкуренции. С чего это новая линейка более быстрая должна быть по той же цене что и старая. И уж тем более еще более быстрые карты должны быть по аналогичной цене старой линейки аналогов конкурента. Проще говоря если бы АМД представяла конкурирующие решения на старую линейку то новая линейка Нвидиа была бы дешевле. А так скажите спасибо АМД за ее технологическую импотенцию.


Однако на деле даже решения 600-ой линейки от Nvidia, вышедшей более 6 лет назад, до сих пор получают новые драйвера наравне с более новыми видеокартами Перед тем,как писать данную статью,автору стоило бы зайти на сайт нвидиа и убедиться,что сейчас поддерживаются видеокарты от 700 серии и выше.


gennaz Чувак, помоему это следовало сделать тебе, прежде, чем писать эту дичь.



Евгений Кондратенко Хм, думаешь я не посмотрел,прежде чем писать?))) Это "поддержка" только на бумаге,а на деле вот так



gennaz Т.е. ты запустил на gt630 новую ларку и ждёшь 60фпс в 4к? А если нет то это драйвера плохие? Ты вообще адекватный.


gennaz Чувак, не страдай фигней и не выставляй себя дураком. Купи себе на авито хотя бы GTX 770 и будешь нормально играть. Такие карты стоят на авито 6000-7000р, зато на них не будет такого ахтунга, как у тебя на скриншоте. Да и сама по себе 770 отличная карточка, всё-таки предтоповая семисотка.


erkins007 Дело не в низком фпс,а в графических артефактах в этой игре на карте 600 серии.Евгений Кондратенко Сам себе купи такое фуфло! Да и достаточно было заглянуть в профиль,чтобы не предлагать покупать всякое старьё,у меня любые игры идут отлично, на достаточно приличных настройках.

Читайте также: