Перейти к публикации
Nightmarish Dream

Видеокарты


Егерь
 Поделиться

Рекомендованные сообщения

  • Ответы 287
  • Создано
  • Последний ответ

Лучшие авторы в этой теме

Итак, считаем самые очевидные минусы такого подхода:
1. Ценник конский, конечно.
2. Обязательно нужен именно Thunderbolt 3, который мне ещё не попадался в обычных, пускай и современных неттопах.
3. Понятное дело, что нужен более-менее хороший современный процессор (желательно i7), много быстрой памяти (DDR4) и вот это всё. То есть, ноутбук/неттоп желательно иметь помощнее.
3. Как по мне, это самый существенный минус из всех. Из видеокарты не получится выжать максимум, на что она способна, потому что Thunderbolt 3 в три раза медленнее PCI Express. В видео ниже об этом говорится. На 5:03 видно, что встроенная видеокарта NVIDIA GTX 1080 выжимает лишние 59 FPS, что просто до хрена! Платить такие бабки за эту внешнюю приблуду и терять до 60 кадров в секунду? Серьёзно???

Ссылка на комментарий
Поделиться на других сайтах

Добавлю, что сейчас уже как Intel расщедрилась на больше чем 4 ядра и 8 потоков, то стало необязательно покупать именно i7, достаточно i5 8400 - эта зараза о 6 ядрах и ядра эти термоядерные по мощности и играм более чем достаточно. Просто привычка осталась, т.к. Intel на протяжении стольких лет клепала i7 о 4 ядрах и 8 потоков, а i5 радовался простым лишь 4 ядрам, а с примерно 2016-2017 года играм стало решительно нехватать 4 ядер, они захотели ещё и 4 дополнительных, пусть они и виртуальные, иначе у тебя при достаточном фреймрейте могут случаться подлагивания, т.к. проц забит уже на 100% и для дополнительных требований уже не хватает мощности. И получается как бы нонсенс, фреймрейт за 60 fps, а картинка не плавная и двигается рывками, т.е. плавно-плавно, раз-и микро-лаг.

Ссылка на комментарий
Поделиться на других сайтах

3 часа назад, Silent Rain сказал:

3. Как по мне, это самый существенный минус из всех. Из видеокарты не получится выжать максимум, на что она способна, потому что Thunderbolt 3 в три раза медленнее PCI Express. В видео ниже об этом говорится. На 5:03 видно, что встроенная видеокарта NVIDIA GTX 1080 выжимает лишние 59 FPS, что просто до хрена! Платить такие бабки за эту внешнюю приблуду и терять до 60 кадров в секунду? Серьёзно???

Это если речь идёт о eGPU, работающих по Thunderbolt 3. Есть ещё Alienware Graphics Amplifier, который подключается напрямую, поэтому падения производительности видеокарты не должно быть. Вот здесь об этом пишут:

What is the difference between PCI Express Gen3X4 lanes and Intel Thunderbolt 3 Plug and Play?

The Alienware Graphics Amplifier’s technology uses a direct hardware connection, while the Thunderbolt 3 technology is based on a platform with shared bandwidth. Alienware’s amplifier will never share, or compromise, the bandwidth to your system’s GPU. Instead, it provides reserved high bandwidth directly to your system’s GPU with one unique cable connection. Alienware Graphics Amplifier utilizes four lanes of dedicated PCIe Gen 3. The Thunderbolt 3 specification is capable of either two or four lanes of PCIe depending on the OEM’s implementation of Intel’s technology. Alienware gains an advantage by having these lanes dedicated to graphics that are not shared by LAN, USB or display ports.

Но эта штуковина, судя по всему, работает только с компьютерами серии Alienware. Хотя могу ошибаться.

Ссылка на комментарий
Поделиться на других сайтах

Таки да, только для ноутбуков Alienware эта штуковина подходит ? Нашёл описание в интернете:
Dell Alienware Graphics Amplifier - высокопроизводительная графическая система с блоком питания на 460 Вт и разъемом pci-express x16 для установки полноформатной видеокарты. Graphics Amplifier выводит мощь видеокарты за рамки корпуса ноутбука, позволяя сделать его более тонким и компактным. Усилитель поддерживает любую видеокарту мощностью до 375 Вт (кроме карт, занимающих 3 слота, и 'двухчиповых') и подключается только к ноутбукам Alienware 2015 модельного года с помощью специального кабеля через проприетарный порт на корпусе ноутбука.

Ссылка на комментарий
Поделиться на других сайтах

  • 4 недели спустя...

Редизайнули https://technical.city/ru — более удобно и наглядно показываются показатели видеокарты в различных играх относительно минимальной и рекомендованной.

Ссылка на комментарий
Поделиться на других сайтах

  • 2 месяца спустя...
23.12.2018 в 22:28, Silent Beavis сказал:

Моё мнение, что 2080 будет лучше. nVidia может зарезать производительность 1080Ti. Другое дело, что как себя покажут RayTracing вопрос ещё тот.?

Вот с 1080 Ti vs 2080 как-то совсем непонятно. Изначально 2080 была существенно дороже, поэтому причин для её выбора особо не было. Сейчас же цены на них уровнялись, можно даже 2080 найти дешевле чем 1080 Ti. И вроде теперь выбор очевиден — 2080, если бы не одно НО:

RWybVax.jpg

m4u0nTX.jpg

И после этого снова возникает вопрос: так что лучше — 1080 Ti или 2080? Сейчас по производительности в играх карты идут вровень. Да, Нвидиа со временем будет допиливать дрова и 2080 очевидно будет показывать всё лучшие результаты, но ведь и целых 3 ГБ видеопамяти явно лишними не будут. То есть получается, что в играх без трассировки лучей 2080 будет по сути хуже. А так ли нужна эта технология — это тоже большой вопрос, особенно если её постигнет та же участь, что и реалистичную волосню, которая сжирает ресурсы и которую все отключают.

Ссылка на комментарий
Поделиться на других сайтах

@SerHen’ryну напишу так. Ничего удивительного. Если бы всё упиралось исключительно в техническую мощь и техническую (опять же) грамотность построения железа, картина мира была бы совершенно иной. Ещё во времена 9-поколения GeForce (или 10 точно не помню, но это сути не меняет), шина у новых на тот момент видеокарт была уже и следовательно теоретическая пропускная способность данных и, как следствие, производительность должна же быть меньше, верно? И да, поначалу так и было, в старых приложениях, но с течением времени допиливались драйвера, выпускались новые игры и новые видеокарты начинали лидировать. Казалось бы откуда? Оптимизация и написание софта так, как это нужно новым видеокартам. Так же было и с Radeon. Моя предыдущая Sapphire Radeon R9 290 4Gb имела шину памяти аж в 512 бит, в то время как новая Sapphire Radeon RX 480 8Gb лишь 256 bit. И точно так же в старых неоптимизированных играх старая видеокарта была на равных или даже чуть получше, но в новых нет. И сейчас нет никакого сомнения в том, что Sapphire Radeon RX 480 не то что лучше, а сильно лучше Sapphire Radeon R9 290 и даже лучше уже nVidia GeForce GTX 1060. И дело тут даже не в количестве памяти, даже 4Gb версия будет лучше R9 290. То же самое можно сказать и про процессоры. Технически AMD Ryzen мощнее новых процессоров Intel и синтетические тесты это показывают, а вот в играх ситуация прямопропорциональая, они не лучше, а даже немного хуже. Как же так? А вот так! Потому что Intel всех разработчиков на одном месте вертела и делает что хочет. Другое дело, что разница в стоимости AMD Ryzen 2700 OEM будет в минимальной стоимости 18 575?, а какого-нибудь Intel i7 8700 - 24 797? (и это без индекса "K", а если мы хотим разгоняемую модель, то все 27 950?), я уж не говорю, что это не самое последнее поколение i7 9700, но ОК, AMD третье поколение пока не выкатила. И это я брал OEM-комплектацию, если мы хотим коробочку, то стоимость будет ещё выше. И это учитывая, что у Intel всего 6 ядер 12 потоков, а у AMD 8 ядер 16 потоков. И я уж молчу, что с 9 поколением Intel "родила" искусственное новое разделение процессоров на i7 и i9, теперь если раньше i5 означало просто 6 ядер без дополнительных потоков, а i7 6 ядер и 12 потоков, то теперь в i7 9700 будет всего 8 ядер и никаких дополнительных потоков, а вот i9 уже будет 8 ядер 16 потоков и стоить он будет запредельно 40 197?. И я не удивлюсь, если в новом третьем поколении Ryzen AMD опять размажет Intel в синтетических тестах, а вот в играх всё будет по-прежнему. И вот касательно игр получается такая ситуация, что да, максимальный фреймрейт будет всё равно за Intel, но и AMD будет показывать достаточный фреймрейт. Если Hitman Absolution покажет на Intel 120 fps на минимальных настройках, а AMD Ryzen 90 fps, то будет ли вам такая уж разница от этого, когда мониторы у большинства всё равно 60-75Гц? Да и если выставить ультра настройки то всё упрётся в видеокарту fps будет ~75-90 fps.

Ссылка на комментарий
Поделиться на других сайтах

А если видеокарта сгорела,можно ли играть в комп.игры?:pardon:У меня в основном старенькие,но почему-то Manhunt 2003г. запускается с ужасным графонием,а например Silent Hill 4 2004 года выпуска идет как обычно...просто я в этом совсем не шарю

Ссылка на комментарий
Поделиться на других сайтах

5 часов назад, С окровавленными руками сказал:

А если видеокарта сгорела,можно ли играть в комп.игры?:pardon:У меня в основном старенькие,но почему-то Manhunt 2003г. запускается с ужасным графонием,а например Silent Hill 4 2004 года выпуска идет как обычно...просто я в этом совсем не шарю

Ну раз сгорела и ты до сих способна играть на своём компьютере, значит ты пользуешься встройкой. Встройки будет хватать на нетребовательные игры, но некоторые, даже старые, не очень любят работать на ней. Надо проверять!

Ссылка на комментарий
Поделиться на других сайтах

16 минут назад, anikeev_alexandr сказал:

Ну раз сгорела и ты до сих способна играть на своём компьютере, значит ты пользуешься встройкой. Встройки будет хватать на нетребовательные игры, но некоторые, даже старые, не очень любят работать на ней. Надо проверять!

Смотрела новую-минимум 7 тыщ:shok:

Ссылка на комментарий
Поделиться на других сайтах

Хех, это ты затычку ещё смотрела! Нормальные карты сейчас за 15000 р. стоят, если не больше!

Ссылка на комментарий
Поделиться на других сайтах

1 час назад, anikeev_alexandr сказал:

Хех, это ты затычку ещё смотрела! Нормальные карты сейчас за 15000 р. стоят, если не больше!

Я не настолько люблю игры,и вообще,есть вещи поважнее:beee:

Ссылка на комментарий
Поделиться на других сайтах

Так а во что поиграть то хочется то, для чего не хватает интегрированной? Тот же Manhunt у меня прекрасно запускался на нетбуке с интегрированной Intel GMA 3150, а это та ещё фигня была! Да и ещё с 1 ГБ ОЗУ. Я даже уверен, что она прекрасно пойдёт на моём нынешнем планшете, который не намного дальше отошёл по характеристам от старого нетбука.

Ссылка на комментарий
Поделиться на других сайтах

Nvidia официально внедряет поддержку FreeSync

Количество мониторов с поддержкой технологии динамической частоты обновления изображения VESA Adaptive-Sync/AMD FreeSync довольно велико, поэтому Nvidia решилась на достаточно смелый шаг: отныне после обновления драйверов её графические решения будут поддерживать мониторы с данной функцией. Стоит напомнить, что в настоящий момент на рынке существуют две конкурирующие технологии: проприетарная Nvidia G-Sync и свободная AMD FreeSync. Похоже, теперь войне придёт конец.

Специалисты Nvidia уже нашли и изучили более 550 мониторов с поддержкой технологии адаптивной синхронизации Adaptive-Sync, а со временем к этому списку добавятся новые модели. Но далеко не каждый монитор отвечает всем требованиям: компания протестировала 400 моделей мониторов, но только 12 из них полностью прошли испытания. Однако разочаровываться прежде времени не стоит: по информации ресурса TechPowerUp, всем владельцам мониторов с поддержкой технологии Adaptive-Sync станет доступна активация G-Sync в настройках.

Поддержка мониторов с Adaptive-Sync будет осуществляться уже с 15 января, когда выйдет обновление драйверов от Nvidia.

NLtbIdL.jpg

Ссылка на комментарий
Поделиться на других сайтах

  • 4 недели спустя...
  • 1 месяц спустя...

Присоединяйтесь к обсуждению

Вы можете опубликовать сообщение сейчас, а зарегистрироваться позже. Если у вас есть аккаунт, войдите в него для написания от своего имени.

Гость
Ответить в теме...

×   Вставлено в виде отформатированного текста.   Восстановить форматирование

  Разрешено не более 75 эмодзи.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.

 Поделиться

×
×
  • Создать...