как узнать какие пиксельные шейдеры поддерживает видеокарта
Шейдеры в видеокарте – что это такое: их версии и как они влияют на работу
Всем привет! Сегодня разберем, что такое шейдеры в видеокарте, что дают, как влияют на обработку графики в играх и для чего используются, какие бывают версии и как узнать шейдеры своей платы. О том, что значит OC в наименовании видеокарты NVidia или AMD, можно почитать здесь.
Немного истории
Давным-давно, когда мониторы были большими и пузатыми, а компьютеры маленькими в плане производительности, графику обрабатывал центральный процессор. Этих возможностей хватало, так как и графика была на зачаточном уровне: пиксельные схематические изображения, объекты на которых не всегда можно было узнать.
Видеоигры только зарождались, и пока никто всерьез не рассматривал компьютер как средство для развлечения. Это был рабочий инструмент для выполнения вычислений, к тому же доступный не всякому среднестатистическому американцу.
Шло время, появились первые разработки в сфере компьютерной 3D графики. Вот тут-то и стало понятно, что такую технологию моделирования объектов можно использовать для симуляции виртуальных пространств, живущих по своим законам. Да, речь идет о видео играх.
Простыми словами я рассказываю именно об играх, так как это — прикладная область, которая в полной мере позволяет реализовать 3D технологии. Следующим этапом можно считать унификацию «полномочий» различных игровых компонентов. Так, в отдельный элемент «откололся» так называемый движок — структура, которая отвечает за взаимодействие всех игровых компонентов.
Если вы увлекаетесь видеоиграми, то, конечно же, слышали такие термины как Unity, Cry Engine или Creation Engine. Узкая специализация позволяет игроделам не «изобретать велосипед» каждый раз с нуля, сосредоточившись на главном — созданием непосредственно самой игры.
Любой 3D объект состоит из так называемых полигонов, которые имеют треугольную форму. Детализация объекта будет зависеть от количества таких полигонов: чем их больше, тем четче нарисована каждая мелочь. При выводе изображения на экран полигоны нужно растеризовать, то есть перевести их из трехмерного пространства на плоский экран с сохранением пропорций.
Инженеры пришли к выводу, что это слишком рутинная задача, чтобы нагружать ею центральный процессор. В результате «эволюции» после ряда экспериментов появились видеокарты, которые мы видим сегодня: отдельный графический чип, который через специальную шину связывается с видеопамятью.
Что такое shedar
Shader переводится с английского как «оттеняющий». Это специальная программа, которая обрабатывает объекты, содержащиеся в игровом коде, и придает им окончательный вид.
По сути, это один из элементов унификации. Если совсем упростить, то разработчик игры попросту задает расположение и форму объекта, а также его текстуру. За отрисовку отвечают уже шейдеры, которые для этого и написаны.
Это еще больше упрощает создание игр: не нужно каждый раз программировать, как именно будут отображаться блики, преломление света, разряды молний и прочие красивости, делающие современные игры крайне реалистичными. Фактически, все это уже есть готовое и содержится в DLL библиотеках, которые обрабатываются шейдерами.
Виды шейдеров
Современные графические адаптеры оснащены универсальным набором шейдеров, который умеет обрабатывать любые объекты. Всего их существует 3 типа:
Все это относится к realtime графике, то есть обработке изображения в режиме реального времени (например, 60 кадров в секунду, как это бывает в играх). Для создания 3D мультфильмов используются совсем другие технологии: качество там такое, что для рендеринга видео нужны очень большие вычислительные мощности.
Как узнать какие шейдеры поддерживает моя видеокарта
Самый простой способ сделать это — установить бесплатную утилиту GPU‑Z. Нужная информация отображается в поле DirectX Support. Это будет число в поле SM — например 2.0 (более старая версия) или 3.0 (пригодна для современных игр). Последние модели графических адаптеров поддерживают уже четвертую версию шейдеров.
Также при покупке графической платы обратите внимание на количество шейдеров и их частоту. Принцип прост: чем выше эти параметры, тем лучше.
Для вас будут полезны публикации «Что такое в видеокарте HDCP?» и «Что означает Dual в маркировки видеокарты и что это дает покупателю». Буду признателен, если вы поделитесь этим постом в социальных сетях. До скорой встречи!
Шейдеры. Что и как
Расскажу, как в общем случае они работают, что умеют и как их используют
Сразу оговорюсь, что материал рассчитан на тех, кто никогда не работал с шейдерами или вообще не знаком с разработкой игр, то есть это в некотором смысле научпоп.
Слово «шейдер» в контексте разработки игр очень популярно, слышать его могли и те, кто игры не делает. Само слово изначально появилось от англ. shading (затенение) — первые шейдеры использовались, чтобы передавать глубину с помощью работы со светом, блеском, тенями и прочим. Со временем шейдеры стали использоваться для совершенно разного вида постобработки и вообще отрисовки примерно всего.
Говоря общими словами, шейдер — это просто программа для графической карты. То есть то, что пишется школьниками на паскале (хипстерами на пайтоне) — это программы для вашего центрального процессора (CPU), а шейдеры — для графического (GPU). Особенность же этих программ выходит из особенностей GPU — они работают параллельно на сотнях маленьких ядех вместо нескольких больших, преимущественно осуществляя математические операции.
Теперь разберемся, как это все работает.
В общем случае цель шейдера — отрисовать некоторый объект. Поэтому возьмем куб, распишем процесс его отрисовки и посмотрим, где используются шейдеры и зачем. Сначала опишем сам куб. Для графической карты это 8 точек, между некоторыми из которых есть плоскость. Каждая из точек описывается тремя числами (правильно сказать, что это вершины). Помимо этого у кубика есть цвет и положение внутри мира.
Процесс отрисовки, если его достаточно упростить (что я и сделаю в рамках этой статьи), можно поделить на несколько шагов:
1. Получение входных данных из памяти.
2. Выполнение шейдера вершин.
3. Растеризация.
4. Выполнение шейдера пикселей (фрагментов).
5. Проведение тестов «глубины».
6. Отрисовка на текстуру для экрана.
В первом шаге видеокарта каким-то образом получает данные (вершины, плоскости, текстуры) в свою видеопамять, для нас это сейчас не так важно. Далее происходит конвертация координат относительно объекта в координаты на экране относительно камеры. После происходит растеризация — высчитывается, в каких пикселях уже на экране находится объект. Такие пиксели называют фрагментами. Отличие от пикселей заключается в том, что фрагмент помимо информации о пикселе, содержит еще и некоторую побочную информацию, полученную после растеризации. Для упрощения будем считать, что это все просто пиксели на экране. Далее для каждого пикселя выполняется шейдер фрагмента. А затем проверяется, что расстояние от камеры до фрагмента соответствует высчитанному заранее в нужном направлении в буфере глубины. Проще говоря, проверяется, нет ли перед объектом чего-либо еще, и нужно ли его отрисовывать на итоговое изображение.
Как видите, в процессе отрисовки можно заметить два вида шейдера. На самом деле, сейчас есть чуть больше видов, но они не столь важны для разбора, так как имеют более специфичный характер использования, а мы рассказываем на пальцах. Но вот те два, что нас волнуют:
1. Шейдер вершин.
2. Шейдер фрагментов.
Как сказано было ранее, этот шейдер (или группа шейдеров по очереди) занимается переводом координат относительно объекта, в координаты на текстуре.
На картинке начало координат немного не соответствует реальным, что все так же не влияет на понимание процесса 🙂
Пройдемся по состояниям. В первом у нас, очевидно, входные координаты без излишков. На втором они были перенесены в координаты относительно начала «мира». Потом они переносятся в координаты относительно точки смотрящего (видно на второй картинке), но заметно, что картинка плоская. Их проекция происходит далее и мы получаем наши итоговые координаты. Все эти операции производятся шейдером. Помимо прочего, он позволяет не только отобразить реальные координаты, но и модифицировать их так, чтобы исказить объект для эффекта. Например, я недавно писал шейдер, который переворачивал спрайт, чтобы отрисовать его тень:
После преобразований вершин и растеризации нужно высчитать цвет каждого фрагмента (помним, что для упрощения это пиксели). Для примера возьмём наш куб: мы помним, что он залит одним цветом. Просто сделаем так, чтобы цвет каждого фрагмента стал цвета куба и все:
Выглядит немного странно, да? Проблема в том, что мы не видим ни теней, ни текстур. Будь на кубе какая-либо текстура, мы бы заметили переход между гранями. Вот возьмем текстуру:
Теперь достаточно в каждом пикселе просто брать цвет из текстуры. Но чтобы это сделать, нужно добавить для каждой точки куба еще информацию: UV канал. Это координат вида (u, v). Отсюда и название, так как x и y были заняты. Она присваивается вершине объекта и обозначает точку на текстуре, которая ей соответствует. Чтобы было понятнее, если мы хотим на каждую грань куба нарисовать знакомое нам лицо, то UV координаты для каждой грани будут выглядеть предельно просто:
Модифицировать их никак не надо. Более того, считать координаты для каждой точки — тоже не нужно. Этим занимается GPU, самостоятельно интерполируя точки из вершин. Тогда достаточно просто сказать для каждой точки что-то вроде
Это очень условный пример, но примерно так в простейшем случае оно и работает:
Помимо натягивания текстур в пиксельном шейдере можно, например, получить информацию об освещенности и добавить к цвету черного пропорционально затемнению в этой точке, тогда объект будет менее плоским. Это, конечно, если просчет освещенности где-то написан, потому что сама по себе видеокарта о понятиях освещения и теней мало чего знает. Вообще делать с цветами можно что угодно, например подменять их в зависимости от игрока:
Помимо UV канала в шейдер в зависимости от его вида приходят разные данные. Они зависят от игрового движка и графической библиотеки. Обычно туда входят данные о местоположении точки, нормаль (вектор исходящий от поверхности в точке), UV канал. Но также шейдер вершин может передавать данные в пиксельный шейдер. Если это координата, то она будет проинтеполирована на основе положения фрагмента относительно вершин, между которыми он находится, как, например, UV данные.
Шейдерная революция Nvidia: десять лет спустя
Оглавление
Вступление
Говорят, в Германии «олдтаймером» может считаться автомобиль, выпущенный тридцать и более лет назад. Почему именно такой срок выбран критерием, история умалчивает, но думаю, немцам можно доверять в этом вопросе, ведь именно Карл Бенц в 1886 году получил патент на первый в истории автомобиль с двигателем внутреннего сгорания.
реклама
Что такое тридцать лет для компьютерной индустрии? Определенно – целая вечность: тридцать лет назад, в 1986 году, появился на свет первый ноутбук – IBM PC Convertible, а всего пятью годами ранее произошло событие, о котором знает наверно каждый человек, хоть сколько-нибудь интересующийся историей развития персональных компьютеров. В 1981 году на рынок вышла первая модель персонального компьютера – IBM PC 5150.
И если тридцатилетняя Ferrari F40 по времени прохождения северной петли Нюрбургринга даст прикурить многим современным спорткарам, то можно не сомневаться, что тридцатилетний персональный компьютер уступит по вычислительной мощности даже каким-нибудь модным в определенных кругах публики «умным часам».
Очевидно, что компьютерная отрасль развивается быстрее автомобильной, а значит и компьютеры устаревают быстрее, чем автомобили. А теперь вопрос – какой срок для компьютеров и комплектующих может являться критерием, позволяющим отнести их к категории «ретро» или «олдтайм»? Все исходные данные для ответа на вопрос у нас есть: 130 лет – история развития автомобилей с двигателем внутреннего сгорания, 35 лет – история развития персональных компьютеров, 30 лет – критерий принадлежности к категории «олдтайм» для автомобилей.
Вычислив нехитрую пропорцию, находим, что критерием принадлежности компьютерной техники к категории «олдтайм» может являться срок восемь лет. Разумеется, расчет скорее шуточный, но тем не менее…
Восемь лет назад на рынок вышел первый процессор Intel Core i7 с архитектурой Nehalem. Он пришел на смену процессорам Intel Core 2, появившимся на рынке летом 2006 года и сместившим процессоры AMD с лидирующих позиций практически во всех тестах производительности.
8 ноября 2006 года запомнилось выходом видеокарты GeForce 8800 GTX с новой унифицированной шейдерной архитектурой. Производительность нового продукта Nvidia существенно превзошла уровень, который могли предложить предыдущие флагманы – GeForce 7900 GTX, Radeon X1950 XTX и даже оснащенная двумя графическими процессорами видеокарта GeForce 7950 GX2. Спустя полгода была представлена последняя на данный момент модель Nvidia серии «Ultra» – GeForce 8800 Ultra, получившая новую ревизию GPU G80, что позволило заметно повысить тактовые частоты и упрочить и без того незыблемое лидерство калифорнийской компании.
Десятилетие выхода, не побоюсь этого слова, легендарной видеокарты GeForce 8800 GTX почему-то оказалось практически незамеченным в Рунете, что побудило меня протестировать часть своей небольшой коллекции графических ускорителей и написать об этом статью.
Революция
Шейдер – это программа, визуально определяющая поверхность объекта. В свою очередь, шейдерный блок – это часть графического процессора, предназначенная для выполнения подобных программ.
реклама
Первым графическим процессором с аппаратной поддержкой шейдеров DirectX 8 стал NV20, лежащий в основе видеокарты GeForce3. Шейдеры первой версии (SM1) были довольно простыми – небольшая программа могла выполнять ограниченный набор команд. Более длинные и сложные шейдеры SM2 с расширенным набором команд появились с выходом GPU R300 и видеокарт Radeon 9500/9700, поддерживающих DirectX 9. Очередное увеличение возможностей принесли модели GeForce шестой серии, поддерживающие DirectX 9.0c и SM3.
В чем же тогда заключалась шейдерная революция, если и до этого практически с каждым новым поколением повышалась производительность видеокарт и расширялись их возможности?
До появления GeForce 8800 GTX дискретные видеокарты использовали раздельные блоки исполнения пиксельных и вершинных шейдеров в составе графического процессора: блоки вершинных шейдеров (vertex) производили математические операции с вершинами, из которых состоят 3D-объекты, тогда как блоки пиксельных шейдеров (pixel) выполняли инструкции растеризации пикселей, из которых состоит изображение. Помимо унифицированных блоков исполнения шейдеров, новая архитектура получила целый ряд иных качественных и количественных улучшений, наделив видеоядро новыми возможностями. Подробно со всеми особенностями архитектуры G80 можно ознакомиться, например, в этом материале.
Важным является то, что раньше для выполнения одного типа шейдеров можно было задействовать только определенные блоки графического процессора, тогда как блоки, предназначенные для выполнения иных шейдеров, могли оказаться ничем не задействованы, то есть графический процессор далеко не всегда использовал 100% своих возможностей.
Грядущие в DirectX 10 изменения существенно расширяли возможности шейдеров, что неизменно должно было повысить нагрузку на графический процессор. Логично, что инженеры Nvidia сочли неоптимальным вариантом сценарий, при котором часть дорогостоящих транзисторов нового GPU будет простаивать без дела, тогда как другие будут нагружены работой, и заложили в основу новой архитектуры универсальные вычислительные блоки, которые могут выполнять шейдеры любого типа.
Таким образом, резкое повышение производительности в сравнении с DX9-флагманами Nvidia и ATI было достигнуто не только за счет увеличения абсолютного количества транзисторов графического процессора, но и за счет качественных изменений архитектуры, в чем можно усмотреть некие аналогии со вторым законом диалектики.
По любым меркам видеокарты, ограниченные поддержкой DirectX 10, и, тем более, DirectX 9, давно устарели и монстров своего времени можно смело отнести к категории «ретро». Посмотрим, на что они были способны?
Участники тестирования
Я постарался собрать флагманские видеокарты Nvidia, оснащенные интерфейсом PCI-Express и поддерживающие DirectX 9/10, но с некоторыми оговорками. Во-первых – предпочтение было отдано видеокартам с одним GPU. Этого достаточно для того, чтобы сравнить производительность архитектуры каждого поколения, кроме того ни одной мультипроцессорной модели у меня, к сожалению, нет. Во-вторых – в пределах одного поколения предпочтение отдавалось «финальной» версии флагмана, если так можно выразиться. Единственное исключение было сделано для GeForce 7 series – присутствуют как 7800 GTX, так и 7900 GTX.
Более новые флагманы своего поколения путем понижения частот позволяют эмулировать ранних лидеров. Пусть это и не совсем корректно из-за вероятных различий в таймингах видеопамяти или при некотором изменении архитектуры ядра, но позволяет примерно представить уровень производительности соответствующих продуктов.
Итак, представляю участников.
ASUS GeForce 6800 Ultra 512MB
реклама
Шестая серия видеокарт GeForce впервые была анонсирована в апреле 2004 года. Флагманом была 6800 Ultra с интерфейсом AGP 8X и частотами 400/1100 МГц. Графический процессор NV40, произведенный по технологии 130 нм, получил 16 пиксельных и 6 вершинных конвейеров, видеокарта оснащалась 256 Мбайт видеопамяти с шиной 256 бит. Позднее некоторые вендоры повысили частоту графического процессора до 425 МГц. Таким был последний флагман Nvidia, изначально разработанный для интерфейса AGP.
Версия 6800 Ultra для интерфейса PCI-Express получила тот же графический процессор NV40, на одной подложке с которым расположился переходной мост HSI. Расположение последнего непосредственно рядом с графическим процессором, а не на печатной плате, как в случае младших решений, было обусловлено большей скоростью работы такой конструкции, получившей собственное обозначение – NV45.
Частоты 6800 Ultra в версии для PCI-Express обычно составляли те же 425/1100 МГц, но лишь в версии с 256 Мбайт видеопамяти. Эталонными частотами для варианта с 512 Мбайт вроде бы являлись 400/1050 МГц, но некоторые вендоры по-своему решили этот вопрос, выпустив варианты 425/1050 МГц и 425/1100 МГц. И мой экземпляр из таких – с повышенными частотами графического процессора и памяти.
реклама
Существует мнение, что понижение частоты памяти в случае видеокарты с 512 Мбайт обусловливалось повышенной нагрузкой на контроллер памяти. Возможно, отчасти это так, но, на мой взгляд, все банальнее – если в варианте с 256 Мбайт тепло от всех восьми микросхем памяти отводилось через радиаторы, то в случае варианта с 512 Мбайт памяти радиаторы были установлены лишь на половине из шестнадцати микросхем.
Скачать Assassin’s Creed Odyssey PC Crack (Сентябрь 2021).
Table of Contents:
Microsoft DirectX, также просто известный как DirectX, представляет собой набор API, используемых при разработке и программировании видеоигр в операционных системах Microsoft (Windows и Xbox). Представленный в 1995 году, вскоре после выпуска Windows 95, с тех пор он был включен в каждую версию Windows с Windows 98.
С выпуском DirectX 12 в 2015 году Microsoft представила ряд новых функций программирования, таких как низкоуровневые API-интерфейсы, которые позволяют разработчикам более эффективно контролировать, какие команды отправляются в блок обработки графики. API DirectX 12 также будет использоваться в разработке игр Xbox One и Windows Phone в дополнение к Windows 10.
Поскольку выпуск видеокарт DirectX 8.0 использовал программы / инструкции, известные как Shader Models, чтобы помочь интерпретировать инструкции о том, как отображать графику, отправленную с CPU на графическую карту. Многие новые компьютерные игры все чаще перечисляют версии Shader Model в их системных требованиях.
Тем не менее, эти версии шейдеров привязаны к версии DirectX, которую вы установили на свой компьютер, который затем привязан к вашей видеокарте. Это может затруднить определение, может ли ваша система обрабатывать определенную модель шейдера или нет.
Как определить версию DirectX у вас есть?
Нажми на Начните меню, затем Бежать.
В поле «Выполнить» введите «dxdiag» (без кавычек) и нажмите Хорошо, Это откроет инструмент диагностики DirectX.
в система вкладка, указанная в Системная информация в заголовке вы должны увидеть «версию DirectX».
Совместите версию DirectX с версией Shader, приведенной ниже.
После того, как вы определили версию DirectX, запущенную на вашем ПК, вы можете использовать приведенную ниже диаграмму, чтобы определить, какая версия Shader Model поддерживается.
Версии модели DirectX и Shader
* Недоступно для ОС Windows XP
† Недоступно для Windows XP, Vista (и Win 7 до SP1)
‡ Windows 8.1, RT, Server 2012 R2
** Windows 10 и Xbox One
Примечание. Версия DirectX до DirectX 8.0 не поддерживает шейдерные модели.
Подробные версии DirectX начинаются с версии DirectX версии 8.0. Версия DirectX до версии 8.0 была выпущена в первую очередь в поддержку Windows 95, Windows 98, Windows Me, Windows NT 4.0 и Windows 2000.
Версия DirectX с 1.0 по 8.0a была совместима с Windows 95. Windows 98 / Me включала поддержку через DirectX версии 9.0. Все более старые версии DirectX доступны на разных сторонних сайтах, и если вы устанавливаете более старые версии операционной системы Windows, они могут пригодиться для запуска оригинальных игровых файлов / дисков.
Какие игры поддерживают DirectX 12?
Большинство игр для ПК, разработанных до выпуска DirectX 12, скорее всего, были разработаны с использованием более ранней версии DirectX. Эти игры будут совместимы на ПК с установленным DirectX 12 из-за их обратной совместимости.
Если ваша игра несовместима с новой версией DirectX, в основном игр, запущенных на DirectX 9 или более ранних версиях, Microsoft обеспечивает DirectX End-User Runtime, что позволит исправить многие ошибки времени выполнения с помощью DLL, установленных из более ранних версий DirectX.
Как установить последнюю версию DirectX?
Установка последней версии DirectX необходима только тогда, когда вы пытаетесь сыграть в игру, разработанную с использованием этой последней версии. Microsoft очень легко обновилась, и ее можно обновить с помощью стандартного Центра обновления Windows и с помощью ручной загрузки и установки. Однако с момента выпуска DirectX 11.2 для Windows 8.1 DirectX 11.2 больше не доступен как автономная загрузка / установка и должен быть загружен через Центр обновления Windows.
В дополнение к Windows Update большинство игр проверит вашу систему при установке, чтобы узнать, соответствуют ли вам требования DirectX, если вы этого не сделаете, вам будет предложено загрузить и установить до установки игры.
Как проверить свою версию iOS
Является ли ваше устройство iOS последней операционной системой? Вот как узнать, какую версию вы используете.
Как проверить текущую версию BIOS на вашем компьютере
Вы всегда должны проверить версию BIOS, на которой работает ваша материнская плата компьютера, прежде чем пытаться обновить BIOS. Вот 5 различных способов сделать это.
Как определить версию Mac OS на разделе восстановления
250$ а того гляди и больше.
Хотелось собрать модели видеокарт всех производителей с которых начинается поддержка шейдеров.
В итоге видится табличка:
| Производитель | Видеокарта | Поддержка HLSL | Ну и т.д.
В отдельности волнует компания NVidia
P.S.: Под поддержкой шейдеров понимается и такие мелочи как поддержка HLSL и т.п. :-|)
Я столкнулся с такой темой как машинный код!
интересует так же какие процессоры поддерживают С++.
В отдельности волнуют процессоры Интел 🙂
Ну ладно вам, накинулись на человека 🙂
На самом деле, мне бы тоже было интересно посмотреть на подобную сводную таблицу по картам, а то по сайтам ATI и NVIDIA долго ползать, на спеку каждой карточки смотреть.
может кто уже составлял такую?
Я когда-то на IXBT ветку с кепсами делал, там куча карт была.
Сейчас всё тоже не ограничивается только АТИ-нВидия, на рынке большую часть встроенные в материнку решения занимают.
Насчет С++: судя повсему тебе никто никогда не говорил
«А почему твоя прога не идет на моём интеле, ведь она написана наси»
И не важна что она могла юзать ESSE2.0 а у того была поддержка только ESS1.0
Про стандарты слышал когда нибудь.
Ну да ладно не будем раздувать тему
А вот что стоит не просто отметить, я даже и не знаю как это выразить.
Но MuTPu4 просто взял и решил все споры, проблемы и «мечтыЭ с «желаниями».
СПАСИБО ТЕБЕ ЗА ИНФОРМАЦИЮ И ПОЯСНЕНИЯ КНЕЙ.
Я сталкивался только с тем, что GeForce4 MX был встроенным в один из вариантов исполнения моста nForce2 (по-моему MCP-T).
Встроенные еще очень много intel, и самый страшный кошмар это SiS.
Неплохо бы узнать какие версии шейдеров поддерживаются теми или иными
видеокартами. Никто не знает где инфу можно достать?
P.S.: Если что в вопросе не понятно, то поправте. а не критикуйте.
pentagra
>Ну ладно вам, накинулись на человека 🙂
>На самом деле, мне бы тоже было интересно посмотреть на подобную сводную
>таблицу по картам, а то по сайтам ATI и NVIDIA долго ползать, на спеку каждой
>карточки смотреть.
>может кто уже составлял такую?
Я составлял, у меня даже где-то валяется
_KAIN_
>Я составлял, у меня даже где-то валяется
Ну коль валяется, выставь в нет на обозрение
Можно найти спецификацию отдельных видеокарт.