Перейти к содержанию
  • записи
    144
  • комментарий
    1901
  • просмотра
    210893

Про обзоры железа и подачу информации


Uncle Vёder

1502 просмотра

В очередной раз попытаюсь разогреть интерес народа к околокомпьютерной тематике.

Запилил бы видеоблог (надо ж быть в тренде), да приличной камеры под рукой нет.

Речь сегодня пойдёт о важности подачи информации в обзорах и тестах компьютерного железа.

Побудила меня к этому свежая статья с тестом трёх блоков питания на сайте овердрочерсклокерс, в которой замечательный Chieftec GPS-700A8 обозвали "бледным" и "не стоящим внимания", хотя при своей цене и характеристиках эта серия чифтеков находится на самом деле практически вне конкуренции.

700-ватнный БП всего за 2 тысячи рублей. И это не какие-то "китайские ватты", а честные семь сотен, более того, со способностью выдавать 92% мощности по линии +12В, чему позавидуют многие гораздо более продвинутые железки.

Обосновал свой вывод автор статьи какими-то отмазками вроде "слишком высокий уровень шума при сильной нагрузке" и "нелепая система стабилизации напряжений". В чём-то он прав конечно, но вот я открываю соседнюю статью с тестом более дорогих моделей и вижу примерно те же самые результаты, но уже с достаточно хвалебными отзывами.

Почему так происходит?

Для самого наглядного примера вернёмся в период царствования на рынке процессоров семейства Intel Core 2.

Из всего этого семейства наибольший интерес для нас представляют младшие модели, именуемые даже не Core 2, а Pentium Dual-Core, и отличающиеся от своих старших собратьев пониженной частотой системной шины, урезанным кэшем и т.п.

Замечательным свойством этих младших пней была способность со штатной частоты около 1.5-2.5ГГц легко брать в разгоне частоты около 3.5ГГц, а порой и выше. Без необходимости покупки дорогих материнских плат и суперкулеров, без риска сжечь процессор, и тащемта вообще без каких-либо усилий.

Личной мой Pentium E2160 работающий в стоке на 1.8ГГц замечательно после разгона пахал на 3.4ГГц, сохраняя при этом полную стабильность системы.

Однако тут же вставал вопрос: а насколько эффективно это поднятие частоты? Опираясь на разные тесты и свой опыт я примерно представлял, что в таком режиме младшие пни преспокойно могут попирать по производительности своих старших собратьев, но прямого экспериментального подтверждения тому не было.

Практически ни один сайт ответа на этот вопрос не давал. Те же оверклокерс не раз тестили самые различные пни и в разгоне и без, отмечая их замечательные возможности, но в качестве конкурентов для сравнения всегда выбирались опять же бюджетные процессоры вроде Athlon X2.

В один прекрасный момент меня всё-таки прорвало на масштабное исследование, я собрал цифры из материалов полудесятка разных тестовых лабораторий, загнал их все в несколько таблиц, построил сводные графики, и даже на основании этого написал несколько статей на хабр:

http://habrahabr.ru/post/80962/

http://habrahabr.ru/post/82781/

Если кому лень углубляться в подробности, приведу один самый интересный график:

cpu_intel_overclock_t.png

Остаётся только добавить, что E5200 на момент написания статьи стоил порядка 70 баксов, а E8500 - порядка 200.

Так почему же тестовые лаборатории, имея на руках все эти железки, не вывесили подобные обзоры у себя на сайтах?

А представьте, что они бы это сделали. И что тогда? Что сделает любой грамотный человек, увидев что процессор за 2 тыщи рублей на материнской плате за 2 тыщи рублей может работать так же, как проц за 6 тыщ на мамке за 4? Пойдёт и купит старшие модели? Да хрен там.

Изменившаяся статистика продаж нехило бы порвала пердаки магазинам-спонсорам сайта да и вполне возможно, что даже российскому представительству Intel. Лаборатория после такой антирекламы осталась бы без спонсорства, а значит и без свежих поставок железа, что означает смерть для сайта.

Ребята ничего нам не соврали, они просто подали информацию в удобном для себя виде.

С видеокартами такая же байда.

Есть у меня знакомый товарищ, который утверждает, что преспокойно живёт с GeForce GTX550Ti и ничего у него не тормозит.

И знаете, он прав.

Игры-то сейчас по большей части кроссплатформенные, а сонсоли по чистой производительности застряли году примерно в 2007 (тот же видеочип в PS3 - он практически полный аналог давным-давно устаревшей GeForce 7900GTX).

550 жофорс - это, на минуточку, карточка уровня между начально-средним и совсем бомжовским, да ещё и позапрошлого поколения уже. Но она всё же относительно современная, и не удивительно, что с консольными портами справляется без каких-либо затруднений.

Чтобы как-то оправдать необходимость дорогих видюх, игроделы прикручивают к своим изделиям пару эффектов, которые разницы в картинке особо не дают, зато фреймрейт просаживают ого-го как. Однако стоит чуть понизить настройки и игра снова вполне прилично идёт на этой самой полубомжовской карте.

Есть, конечно, ещё пара игруль вроде Метро, которые тормозят вообще везде и на всём, но это не от того, что карточки плохие, а просто хохлы не умеют писать игровые движки например.

А что в лабораториях? Берут всё те же 550/650 или 7770 и загоняют их в ультрахай режим с многократным сглаживанием. На выходе, ессно, получается совершенно неприемлемый FPS и красочный вывод про то, что для игр дескать эти изделия годятся не очень, извольте приобрести свежую GTX770 за 16 тыщ.

Несомненно, топовая железка будет всегда круче, но стоит ли оно действительно многократной переплаты?

Вряд ли серьёзные издания опустятся до того, чтобы откровенно врать в тестах. Но копать самому себе под ногами яму тоже никто не захочет, и даже если вдруг в бюджетном сегменте появляется какая-то чрезвычайно привлекательная железка - её никогда не опишут так, чтобы вам случайно расхотелось купить что-то более крутое.

Так что друзья, при выборе железа будьте очень внимательны. Не полагайтесь на красноречивые выводы различных хуеписателей, внимательно вчитывайтесь в таблицы и графики, сравнивайте результаты сразу с нескольких сайтов, и только тогда вам откроется истина.

13 Комментариев


Рекомендуемые комментарии

Предыдущая система работала 7 лет, пока я не проиграл Эрмаку 5 матчей подряд, а блок не проиграл мне с одного удара. Некоторое новье шло почти без косяков. некоторое требовало танцев. Был то пень 4 в 3 ггц и джива 9, чтоле 600 или 9800, не помню.

Ссылка на комментарий

Блоги твои с удовольствием читаю, просто мне обычно отсветить нечего)

 

Что на счет 550Ti, обладателем которой я был до недавего времени, её действительно хватало на очень многое даже на максимальных настройках.

Хотя именно ради Metro Last Light я и прикупил 660Ti, ибо что бы вы там ни говорили, а графика в игре охрененная и я бы не сказал, что она тормозит из-за оптимизации.

Собственно, единственнае причина тормозов там - это PhisX-эффекты, которые в настройках можно отрубить и игра просто полетит.

Ссылка на комментарий

Вот тут люто плюсую. Неоднократно лично наблюдал ситуацию, когда коллеги по работе обсуждали топ-железо, брали связки из двух видюх по 40к каждая, отваливали за системник по 100-150 килорублей, и делали удивленные глаза в ответ на мои заявления, что у меня на машине за полтинник все без проблем летает. "Ну как так, там же в обзоре вот так и вот так писали... Стопудово у тебя какие-нибудь там фишечки залоканы и не работают..."

Ссылка на комментарий

В один прекрасный момент меня всё-таки прорвало на масштабное исследование, я собрал цифры из материалов полудесятка разных тестовых лабораторий, загнал их все в несколько таблиц, построил сводные графики, и даже на основании этого написал несколько статей на хабр:

 

Собственно, результаты достаточно ожидаемые.

Обрати внимание, что в случае E5200 прирост частоты на 53% не повысил производительность на 53%, а немного ниже. При этом если сравнивать с E8500, то этот процессор имеет частоту выше на 26%, но производительность поднялась немного выше, чем на 26% за счет более объемного кэша и других улучшений.

 

Что касается цен, то они не формируются через линейную зависимость, и так не только с процессорами, но вообще со всем (да и за пределами информатики так же). Особенно фееричная ситуация с профессиональными видеокартами.

 

P. S. Статьи прочитал по диагонали, но заметил несколько ошибок... Но не буду критиковать, потому что она не для специалистов.

 

А что в лабораториях? Берут всё те же 550/650 или 7770 и загоняют их в ультрахай режим с многократным сглаживанием. На выходе, ессно, получается совершенно неприемлемый FPS и красочный вывод про то, что для игр дескать эти изделия годятся не очень, извольте приобрести свежую GTX770 за 16 тыщ.

 

Сглаживание убьет любую современную видеокарту. Даже сверхмощные топовые системы с 4-мя видеокартами будут тормозить в определенные моменты с 16-кратным сглаживанием. Чисто алгоритмическая причина и современные технологии с этим пока сделать ничего не могут.

Топовые видеокарты сейчас в целом нужны для тех, кто хочет играть в игры с разрешением большим, чем FullHD.

 

Несомненно, топовая железка будет всегда круче, но стоит ли оно действительно многократной переплаты?

 

Решать покупателю, главное чтобы выбор был сделан осознанно.

 

 

Вот тут люто плюсую. Неоднократно лично наблюдал ситуацию, когда коллеги по работе обсуждали топ-железо, брали связки из двух видюх по 40к каждая, отваливали за системник по 100-150 килорублей, и делали удивленные глаза в ответ на мои заявления, что у меня на машине за полтинник все без проблем летает. "Ну как так, там же в обзоре вот так и вот так писали... Стопудово у тебя какие-нибудь там фишечки залоканы и не работают..."

Полтинник это же 50 тысяч рублей? Это вообще-то цена топ-системы, да и за 40 тысяч можно купить почти что топовый системник.

100-150 тысяч за системник можно отвалить, но ждать от него соответсвующего прироста в мощности не стоит ни в коем случае, там уже идет бренд, дорогие материалы и прочее. Исключение это рабочие станции только с какими-то специфическими технологиями.

Ссылка на комментарий

Обрати внимание, что в случае E5200 прирост частоты на 53% не повысил производительность на 53%, а немного ниже. При этом если сравнивать с E8500, то этот процессор имеет частоту выше на 26%, но производительность поднялась немного выше, чем на 26% за счет более объемного кэша и других улучшений.

Вот про это и была почти полностью первая статья.

Приложенный же график сравнивает именно итоговую производительность "сток 8500 против разгон 5200", т.е. наглядно иллюстрирует конкретный пример ситуации.

Более того, это вроде как даже не интерполированный результат, а именно реальные замеры именно на указанных параметрах.

прочитал по диагонали, но заметил несколько ошибок... Но не буду критиковать, потому что она не для специалистов

А я бы с радостью послушал. Ибо посещают меня мысли перевыпустить (и наконец закончить) этот цикл статей с обновлением на современные реалии.

Полтинник это же 50 тысяч рублей? Это вообще-то цена топ-системы, да и за 40 тысяч можно купить почти что топовый системник

Это всё-таки будет не топ, а производительный middle. Настоящий топ (без особых выкрутасов) он ближе к 70-80.
Ссылка на комментарий

Приложенный же график сравнивает именно итоговую производительность "сток 8500 против разгон 5200", т.е. наглядно иллюстрирует конкретный пример ситуации.

Да я понимаю, мне просто показалось интересным обратить внимание на это важное отличие в повышении производительности с частотой, и тем повышением, которое задают другие параметры у другого процессора.

 

 

А я бы с радостью послушал. Ибо посещают меня мысли перевыпустить (и наконец закончить) этот цикл статей с обновлением на современные реалии.

Ну я не могу сейчас устроить полноценный разбор, просто несколько ошибок, которые сразу попались на глаза:

 

General Purpose Graphics Processing Units — технология использования графического процессора для вычислений общего назначения. Т.е. грубо говоря, заставляющая ГП выполнять работу центрального процессора.

 

Вторая фраза неверная, поскольку видеокарта не может взять на себя функции ЦП типа исполнения произвольных процессов или ядра системы. Речь идет просто о вычислениях, которые не связаны с графикой, поэтому они и "general purpose".

Я думаю, ты итак это знаешь, просто фраза может ввести в заблуждение.

 

В настоящее время существует 4 реализации даного подхода — CUDA (NVIDIA GeForce 8 и старше), Stream (AMD Radeon HD4000 и старше), Compute Shader (одна из фич MS DirectX 11), OpenCL (открытый стандарт, призванный навести порядок в данной области).

 

Здесь немножко смешиваем суп и котлеты.

CUDA это архитектура программируемых шейдеров Нвидии, Stream не знаю что это такое, но у AMD программируемый шейдер называется AMD FireStream процессор, a сами программируемые шейдеры так же входят в класс stream processors.

Compute Shader - это так Microsoft называет программируемый шейдер, а их пропиетарная API для их программирования называется DirectCompute.

OpenCL - это фреймворк и API, который совместим с видеокартами NVidia, AMD и кучей других видов ускорителей вплоть до звуковых карт. CUDA так же является API и фреймворком, но он совместим только с видеокартами NVidia.

Вообщем, терминология неверная, смысл верный.

 

Декодер CoreAVC, например, выполняет фактически ту же функцию что и DXVA, но совсем не привередлив к параметрам файла — достаточно, чтобы он была закодирован нужным кодеком (H264/AVC).

 

Декодер CoreAVC - это многопоточный декодер h.264, он может работать как с многоядерным процессором, так и с совместимой видеокартой.

 

Для чего не нужна видеокарта:

  • Видеокарта НЕ используется как ускоритель в процессе обработки 2D-графики;
  • Видеокарта НЕ используется как ускоритель в процессе воспроизведения видео.

Здесь рассмотрен общий случай, поэтому дошедшим до этого места более сведущим юзерам просьба не бежать сразу же в комментарии с гневными «а вот...», а иметь терпение и читать дальше (конкретно — абзац про дополнительные возможности).

 

Это две очень странные фразы. В первой фразе наверное имеется в виду то, что фильтры для Фотошопа чаще всего работают на CPU, а не на GPU, но это как раз таки не общий случай. Для рендера 2D-графики (например, оконного интерфейса Windows) используется именно GPU, да и в графических API вроде OpenGL есть функции для рендера 2D-графики, то есть в 2D-играх тоже используется GPU.

Что касается видео, то, как правило, речь идет о декодировании видео, которое осуществляется через CPU (если только не используется декодер типа CoreAVC), но после декодирования видео отправляется в видео рендерер типа EVR или VMR-7 (видео рендерер Windows XP). Видео рендерер в свою очередь использует видеокарту для того, чтобы отрисовать кадр, в случае с VMR-7 для этого используется DirectDraw (API Microsoft для 2D). То есть сказать, что видеокарта не используется, думаю нельзя. Она чаще всего не используется для декодирования, но все, что мы видим на экране, так или иначе проходит через нее и рендеринг это не самый тривиальный процесс.

 

Пока что все, попозже я прочитаю не по диагонали...

 

 

Это всё-таки будет не топ, а производительный middle. Настоящий топ (без особых выкрутасов) он ближе к 70-80.

Хм... Ну каждый определяет топ по своему :) Для меня вот это вполне себе топ: http://www.compday.ru/igrovye-kompyutery/igrovoy-kompyuter-compday-194.html Хоть и на базе AMD :)

Ссылка на комментарий

Я думаю, ты итак это знаешь, просто фраза может ввести в заблуждение.

Ну там собсно и написано "грубо говоря".

Для рендера 2D-графики (например, оконного интерфейса Windows) используется именно GPU

Напоминаю, что статья написана в начале 2010 года, где половина юзеров сидит ещё на WinXP и Vista, рендерящих свои оконные интерфейсы на CPU, а GPU использующие только для вывода.

В общем в обеих фраза упор сделан на слово "ускоритель". Не самым удачным способом я конечно фразу построил, но смысл её в целом был в следующем: для описанных задач характеристики GPU не имеют значения (ну разве что только список поддерживаемых режимов), ибо всё это задачи, выполняемые любым стандартным видеоадапетром. Как-то так.

Декодер CoreAVC - это многопоточный декодер h.264, он может работать как с многоядерным процессором, так и с совместимой видеокартой.

Суть в том, чтобы переложить нагрузку с CPU на GPU.
Ссылка на комментарий

Ну там собсно и написано "грубо говоря".

Ну вот надо стараться выражаться точнее, а то потом не очень хорошо разбирающиеся люди несут всякую чушь :)

 

 

Напоминаю, что статья написана в начале 2010 года, где половина юзеров сидит ещё на WinXP и Vista, рендерящих свои оконные интерфейсы на CPU, а GPU использующие только для вывода.

Здесь ты не прав.

Как минимум начиная с Windows 95 рендер оконных элементов, меню и так далее осуществляется через компонент под названием GDI, который старается использовать видеокарту как можно чаще для непосредственно рендера. Само управление элементами осуществляется через user.dll/user32.dll, но функции этой библиотеки используют функции из GDI для рендера. Точное соотношение того, что рендерится через GPU, а что через CPU, неизвестно, поскольку это закрытые элементы, но вообще рендер только через CPU осуществляется только когда нету драйвера видеокарты, а это происходит крайне редко. Если уже запустился оконный интерфейс, то этого уже точно не происходит.

 

Вот тебе немного ссылок в подтверждение моих слов:

http://en.wikipedia.org/wiki/Windows_USER

http://en.wikipedia.org/wiki/Graphics_Device_Interface

http://stackoverflow.com/questions/6591227/how-gdi-gdi-works-without-opengl-or-directx

 

 

В общем в обеих фраза упор сделан на слово "ускоритель". Не самым удачным способом я конечно фразу построил, но смысл её в целом был в следующем: для описанных задач характеристики GPU не имеют значения (ну разве что только список поддерживаемых режимов), ибо всё это задачи, выполняемые любым стандартным видеоадапетром. Как-то так.

Лучше именно так, как ты написал сейчас (что не имеют значения).

 

 

Суть в том, чтобы переложить нагрузку с CPU на GPU.

Да, но опять же, лучше уточнить, иначе создается впечатление, что CoreAVC это декодер чисто для GPU, а на самом деле это декодер общего назначения.

Ссылка на комментарий

Точное соотношение того, что рендерится через GPU, а что через CPU, неизвестно, поскольку это закрытые элементы

Ну например точно известно, что все эффекты Aero в Vista рисуются силами CPU, отчего и было  в своё время много жалоб на медленную их работу.

В Win7 это уже выполняется на GPU, но только при наличии WDDM-совместимого адаптера и драйверов.

 

В целом суть критики ясна, но если писать такие статьи именно для масс, то возможных путей 3:

1. Действительно расписывать всё в полных технических подробностях - но это чревато TLDR.

2. Не лезть в эти детали вообще - а зачем тогда статья?

3. Затронуть наиболее важные моменты поверхностно и грубо - чревато именно такого рода критикой.

Ссылка на комментарий

Ну например точно известно, что все эффекты Aero в Vista рисуются силами CPU, отчего и было в своё время много жалоб на медленную их работу. В Win7 это уже выполняется на GPU, но только при наличии WDDM-совместимого адаптера и драйверов.

Ты что-то точно путаешь.

Чтобы активировать Aero в Windows Vista требовалась видеокарта с поддержкой DirectX 9.0, в противном случае этот режим просто невозможно включить, каким бы мощным не был процессор. Это даже написано на сайте Microsoft:

http://support.microsoft.com/kb/919183

 

Подумай сам чисто по логике какой оверхеад был бы у процессора если бы он рендерил Aero, который являются практически 3D-интерфейсом. Особенно учитывая, что, еще раз, начиная с Windows 95 видеокарта активно учавствует в отрисовке элементов интерфейса, кто бы додумался использовать процессор для рендера гораздо более тяжелого интерфейса?

 

Жалобы на медленную работу скорее всего были из-за медленной видеокарты. Aero достаточно тяжелый сам по себе и не всякая карта с ним справлялась. К тому же он включался автоматически, насколько я знаю, если видеокарта была совместимая, что не всегда было лучшим решением.

 

 

В целом суть критики ясна, но если писать такие статьи именно для масс, то возможных путей 3:

1. Действительно расписывать всё в полных технических подробностях - но это чревато TLDR.

2. Не лезть в эти детали вообще - а зачем тогда статья?

3. Затронуть наиболее важные моменты поверхностно и грубо - чревато именно такого рода критикой.

Есть разница между поверхностным и ошибочным описанием. Одно дело сказать, что существуют две главные технологии для реализации GPGPU - CUDA и OpenCL и сказать так же, что существуют другие, и другое смешать в одну кучу архитектуры видеокарт, фреймворки и локальные терминологии отдельных фирм. Надо исходить из того, что многие люди итак путают многие вещи, не надо запутывать их еще больше.

 

И извини, конечно, но ошибка насчет рендера Aero через процессор вместо видеокарты очень грубая. Одно дело это интерфейс Windows 95 или Windows XP где может быть несовсем понятно, на чем происходит рендер, да и информацию сложно найти, но в случае с Aero все слишком очевидно и легко находится. Имхо, прежде чем писать подобные статьи нужно очень многое знать самому или по крайней мере тщательно проверять каждое свое утверждение.

Ссылка на комментарий

Есть разница между поверхностным и ошибочным описанием. Одно дело сказать, что существуют две главные технологии для реализации GPGPU - CUDA и OpenCL и сказать так же, что существуют другие, и другое смешать в одну кучу архитектуры видеокарт, фреймворки и локальные терминологии отдельных фирм.

Изначально ATI (ещё в бытность независимой компанией) пилила свою технологию GPGPU под именем FireStream и свой же фреймворк Close To Metal, позже переименованный в Stream SDK.

Уже значительно позже появился OpenCL, целью которого было решить вопрос платформозависимости CUDA, FireStream и потенциальных будущих технологий GPGPU. Примерно в то же время MS вместе с DirectX 11 выкатил свой DirectCompute.

Позже технологии начали переплетаться между собой. AMD от развития собственного фреймворка отказалась в пользу того же OpenCL например, но никто не запрещает использовать и DirectCompute. В случае с NVIDIA можно помимо вышеупомянутых двух и нативный CUDA SDK выбрать.

По сути мы имеем сейчас две физических реализации и четыре (ну если выкинуть опять же мёртвый Stream SDK - то три) программных фреймворка.

Тут ещё и Intel кстати недавно вклинился со своим Haswell, только они свою аппаратную модель городить не стали, просто реализовав полную поддержку именно OpenCL.

Ты что-то точно путаешь. Чтобы активировать Aero в Windows Vista требовалась видеокарта с поддержкой DirectX 9.0, в противном случае этот режим просто невозможно включить, каким бы мощным не был процессор.

Я, конечно, налажал, но опять же в деталях.

Порылся по техническим ресурсам за тонкостями, и вот оно.

Vista c появлением WDDM модели драйверов и DWM потеряла возможность аппаратного ускорения GDI+, в результате чего многие операции 2D-рендеринга перевалились на CPU, добавив тому работы.

В Win7 с WDDM 1.1 часть GDI+ таки "ускорили", к тому же добавили новый API Direct2D, опять же для аппаратной обработки 2D-графики.

Отсюда и разительные различия в скорости  работы, а далеко не только из-за слабых видеокарт.

прежде чем писать подобные статьи нужно очень многое знать самому

Я всё-таки считаю что знаю довольно много например.
Ссылка на комментарий

Изначально ATI (ещё в бытность независимой компанией) пилила свою технологию GPGPU под именем FireStream и свой же фреймворк Close To Metal, позже переименованный в Stream SDK. Уже значительно позже появился OpenCL, целью которого было решить вопрос платформозависимости CUDA, FireStream и потенциальных будущих технологий GPGPU. Примерно в то же время MS вместе с DirectX 11 выкатил свой DirectCompute. Позже технологии начали переплетаться между собой. AMD от развития собственного фреймворка отказалась в пользу того же OpenCL например, но никто не запрещает использовать и DirectCompute. В случае с NVIDIA можно помимо вышеупомянутых двух и нативный CUDA SDK выбрать. По сути мы имеем сейчас две физических реализации и четыре (ну если выкинуть опять же мёртвый Stream SDK - то три) программных фреймворка. Тут ещё и Intel кстати недавно вклинился со своим Haswell, только они свою аппаратную модель городить не стали, просто реализовав полную поддержку именно OpenCL.

Вот такого типа абзацы лучше всего подходят для подобных статей. Все четко, кратко и, главное, без ошибок.

 

Я, конечно, налажал, но опять же в деталях. Порылся по техническим ресурсам за тонкостями, и вот оно. Vista c появлением WDDM модели драйверов и DWM потеряла возможность аппаратного ускорения GDI+, в результате чего многие операции 2D-рендеринга перевалились на CPU, добавив тому работы. В Win7 с WDDM 1.1 часть GDI+ таки "ускорили", к тому же добавили новый API Direct2D, опять же для аппаратной обработки 2D-графики. Отсюда и разительные различия в скорости работы, а далеко не только из-за слабых видеокарт.

Вот это уже похоже на правду. Точнее, это так и есть.

К слову это подтверждает тот факт, что даже в 2D-графике видеокарта значительно ускоряет процесс рендеринга.

 

Я всё-таки считаю что знаю довольно много например.

Окей, и тем не менее ошибок ты пока делаешь много, но их можно исправить.

Если ты будешь переписывать эти статьи для новой публикации, если хочешь, ты можешь черновые варианты скинуть в этот блог и я (и другие люди) могли бы сделать пруфрид перед публикацией на Хабре или еще где-нибудь. Потом можно запись удалить и оставить вместо нее ссылку на законченную версию (или просто удалить :) ). Или, если хочешь, можно просто отправить мне в ЛС, если у меня будет время, то я обязательно прочитаю и напишу тебе отзыв. Конечно, это ничего не будет гарантировать, но скорее всего это улучшит финальный результат.

Ссылка на комментарий
Гость
Добавить комментарий...

×   Вставлено с форматированием.   Вставить как обычный текст

  Разрешено использовать не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отображать как обычную ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставлять изображения напрямую. Загружайте или вставляйте изображения по ссылке.

×
×
  • Создать...