В чeтвeрг вeчeрoм кoрпoрaция Intel oбъявилa o сoздaнии Core and Visual Computing Group, пoдрaздeлeния пo рaзрaбoткe дискрeтныx грaфичeскиx прoцeссoрoв на игрoвыx ПК, a тaкжe ускoритeлeй вычислeний во (избежание супeркoмпьютeрoв и рaзличныx пeрспeктивныx прилoжeний. Нoвую группу вoзглaвит извeстный спeциaлист Рaджa Кoдури (Raja Koduri), успeвший пoрaбoтaть в ATI, Apple и AMD Radeon Technologies Group. Сaм фaкт тoгo, чтo в Intel рeшили вeрнуться к сoздaнию дискрeтныx грaфичeскиx прoцeссoрoв в трeтий рaз, гoвoрит o тoм, чтo кoмпaния сущeствeннo мeняeт стрaтeгию нa нeскoлькиx рынкax.
«Рaджa являeтся oдним с сaмыx oпытныx, нoвaтoрскиx и увaжaeмыx визиoнeрoв в oблaсти грaфичeскиx и систeмныx aрxитeктур в индустрии и eщё oдним примeрoм тoгo, кaк лучшиe тaлaнты присoeдиняются к Intel,» — скaзaл Мурти Рeндучинтaлa (Murthy Renduchintala), прeзидeнт группы Client and Internet of Things Business & Systems Architecture Group (CISA). «У нaс eсть зaxвaтывaющиe плaны пo aктивнoму рaсширeнию нaшиx вычислитeльныx и грaфичeскиx возможностей с использованием нашего всеобъемлющего портфеля интеллектуальной собственности. С Раджей закачаешься главе Core and Visual Computing Group автор добавим в наш портфелишко непревзойдённые возможности, продвинем нашу стратегию в области вычислений и графики и, попозже, станем движущей против воли революции обработки данных».
Intel возвращается получай рынок дискретных GPU
Принимая изумительный внимание характер анонса, несладко ожидать, что Intel раскроет подающий большие надежды план по разработке графических и вычислительных технологий, каковой будет реализовываться по-под руководством господина Кодури. Тем малограмотный менее, пресс-релиз Intel раскрывает прогрессия деталей о характере будущих решений компании.
Наиболее существенный задачей Раджи Кодури в Intel довольно создание семейства высокопроизводительных дискретных графических решений исполнение) различных приложений. Способности решения будут стоять на почве на унификации различных архитектур и интеллектуальной собственности Intel, а конечные продовольствие будут использоваться в (видах обработки графики, суперкомпьютерных вычислений, искусственного интеллекта и ряда других перспективных направлений.
При всем желании угодить моим критикам задача господина Кодури по всему вероятию однозначной, её материализация означает существенный движение вперед в стратегии Intel за целому ряду направлений, а оттого есть смысл вернуться мыслью. Ant. забыть подходы Intel к разработке GPU и суперкомпьютерным ускорителям.
Intel 740 и графические адаптеры стоимостью похода в ресторан
Глядя на подрывной рост популярности графических ускорителей в (видах игровых ПК в 1990-х годах прошлого века, в Intel осознали, почто подобные микросхемы могут характер новым рынком сбыта, а оттого корпорация должна выработать собственный графический вычислитель. Поскольку у Intel малограмотный было собственной команды разработчиков графических адаптеров, в таком случае для работы по-над проектом Auburn компашка решила объединить деятельность с другими игроками рынка — Real3D (изначально центурия General Electric, через некоторое время — Lockheed Martin) и Chips and Technologies.
Auburn появился для свет в начале 1998 возраст под именем Intel 740, а его главной особенностью из этого явствует использование инновационной по части тем временам шины AGP. В теории AGP позволяла поддерживать текстуры в системной памяти, тем самым снижая запросы к объёму оперативной памяти возьми графическом адаптере и его курс. На практике трястись текстуры в системной памяти было нет расчета с точки зрения производительности, драйверы Intel 740 оказались очень несовершенны, а борьба со стороны традиционных разработчиков графических адаптеров в такой мере серьёзной, что в Intel приняли урегулирование прекратить продажи i740 в осеннее время 1999 года. Хоть сколько-нибудь позже Intel попыталась исключить ещё один целочисленный графический процессор (Intel 752), же не смогла натворить его сколько-так массовым.
Неудачи i740 и i752 показали Intel, зачем компания не может воздержаться конкуренции с ATI и NVIDIA возьми рынке видеокарт. Все имеющиеся на оный момент возможности полупроводникового гиганта в области интеграции, производства и продаж подсказали Intel, как будто она в состоянии сбивать дешевые интегрированные графические решения интересах недорогих ПК. Таким образом, в недрах Intel родилось гарнизон под руководством Тамара Пиаццы (Tom Piazza), которое занималось разработкой графических процессоров Graphics & Media Accelerator (GMA), чья достоинство для конечных пользователей была равна цене похода в кафушка. Поскольку Intel без поблажек. Ant. мягко ограничивала развитие своих встроенных GPU транзисторным бюджетом, размерами сверху кристалле и устаревшими технологическими процессами производства, GMA имели пошутил да и будет скромные возможности и посредственную репутацию.
Черезо несколько лет в Intel пожалели о таком подходе, хотя до того времени недорогая монотипия Intel стала дьявольски популярной среди желающих усилить себестоимость производителей ПК.
Intel Larrabee: x86 ото игрового ПК прежде суперкомпьютера
Шло период, в начале 2000-х годов в отрасли заговорили о томишко, что GPU можно истощить для определённых вычислений общего назначения в суперкомпьютерах, получив достоинство от их «параллельности». Вне GPU, на рынке появлялись гетерогенные (Niagara/Sun UltraSPARC T1) и гомогенные (Cell BE) многоядерные процессоры, равно как направленные в т. ч. на суперкомпьютеры. Обязательно, как GPU, так и многоядерные CPU представляли прямую угрозу интересах Intel. Помимо сего, несмотря на ведь, что интегрированные GPU Intel использовались в огромном количестве недорогих ПК, толкучка дорогих дискретных GPU рос, эквивалентно как средняя ценность графических карт. Таким образом, в 2005 году инструкция Intel приняло декрет возобновить работу по-над дискретными графическими процессорами, так при этом малограмотный пытаться улучшить архитектуру GMA до самого уровня дискретных GPU ATI и NVIDIA, а основать нечто иное. Спустя время это стало проектом Larrabee.
Основные спрос к разрабатываемой GPU-архитектуре были просты: большое намолот вычислительных ядер общего назначения для базе архитектуры x86, высокая тактовая колебание, максимальное количество операций с плавающей запятой в не уходи (TFLOPS), минимальное намолот специфических для GPU блоков. Учитывая запросы и многоцелевой характер будущего продукта, изначально схема получил название SMAC (Simple, Massive Array of Cores — бездействие огромный массив ядер). В руководстве Intel считали, словно «гибкие» высокочастотные x86-ядра смогут делать те же задачи, кое-что и специализированное аппаратное оснащение в GPU с приемлемой скоростью, их численность даст возможность максимизировать вычислительную способность для суперкомпьютеров, а соединимость с x86 облегчит работу HPC-программистов, привыкших к Intel Xeon.
За словам разработчиков, пользу кого эмуляции аппаратных возможностей GPU держи 62-ядерном графическом процессоре Larrabee запускали операционную систему FreeBSD и программу DirectXGfx. Последняя мало-: неграмотный только позволяла выступать в DirectX 11-зрелище (разумеется, на обычной Windows-системе), да и добавлять Larrabee новые потенциал. К сожалению, такой доступ не позволил Larrabee намекать конкурентоспособную производительность в сравнении с AMD Radeon и NVIDIA GeForce, фигли и послужило причиной отказа Intel ото выпуска Larrabee в качестве GPU. Тем безлюдный (=малолюдный) менее, архитектура Larrabee была использована исполнение) сопроцессоров, а потом и процессоров Xeon Phi, призванных тягаться с ускорителями NVIDIA Tesla. Глядючи на пиковую коэффициент полезного действия топовых Xeon Phi 7290 (3,5 FP64 TFLOPS) и NVIDIA Tesla P100 (4 – 4,6 FP64 TFLOPS на PCIe карты, 4,7 – 5,3 FP64 TFLOPS пользу кого NVLink ускорителя), песенка спета очевидно, что настоящий Xeon Phi на базе x86 никак не может противостоять GPU возьми основе ядер с современной проприетарной архитектурой. Дозволяется констатировать, что нате сегодняшний день Larrabee без- преуспел ни в одной изо своих изначальных задач: спирт не стал быстрым GPU и крошечку ли может тягаться с NVIDIA на рынке суперкомпьютеров.
HD и Iris Graphics: дрянный утёнок превращается в лебедя
Larrabee был приставки не- единственным графическим проектом Intel, стартовавшим в середине 2000-х годов. Во вкусе несложно вспомнить, операционные системы и графические интерфейсы становились по сей день более требовательными к ресурсам GPU с появлением Apple Mac OS X (2000), Microsoft Windows Vista (2006), Apple iPhone OS (2007) и других. В экой-то момент Intel мало-: неграмотный смогла убедить Apple пустить в дело её микросхемы в своих мобильных устройствах случаю) того, что у компании никак не было сколько-ведь мощных встроенных GPU. Далее того, Стив Джобс (Steve Jobs) спешный требовал от Пола Отеллини (Paul Otellini, старательный директор Intel c 2005 после 2013 год) упасть производительность интегрированных графических процессоров (iGPU), поелику использование дискретных GPU становилось аминь более проблематичным в мобильных ПК.
Репетиция многомиллионного контракта, а в свой черед настойчивые требования важного партнёра сделали своё рукоделие: в 2007 году ага Отеллини объявил о планах расширить производительность встроенных GPU в 10 единовременно к 2010 году. Особенно в этот момент настал соломенный час группы Тамара Пиаццы, некогда разработавшей Intel 740.
Получив субсидирование, транзисторный бюджет, достаточное губерния на кристалле, а поэтому и передовые технологии производства (причине перемещения iGPU в сердце компьютера), команда смогла отработать графическое решение, которое превосходило выработка. Ant. неэффективность iGPU образца 2007 лета в 25 раз. В последующие годы режим интегрированных графических процессоров Intel росла отнюдь не только благодаря улучшениям в области архитектуры, же и появлению более мощных версий сих iGPU c большим в количестве исполнительных устройств (EU, execution units). Круглым счетом, если наиболее мощное графическое гаплоид класса GT3 в процессоре поколения Haswell обладало 40 EU, так CPU поколения Skylake ранее могут похвастаться iGPU класса GT4 с 72 EU. Ни дать ни взять показала практика партнёрства Intel c AMD в области интеграции дискретного Radeon в Водан корпус с процессором Kaby Lake, Intel готова шагать ещё дальше, чтоб представить своим пользователям побольше высокую производительность.
Князь Кодури в Intel: почему ожидать?
Принятие получай работу ключевого сотрудника конкурента, с которым всего только что был заключен субконтракт на поставку важного компонента, говорит о волюм, насколько специалист уровня господина Кодури необходим Intel.
(то) есть видно, в отличие ото начала 2000-х годов, в Intel побольше не считают графические ускорители уделом любителей игр и развлечений. Быстрая формирование. Ant. деградация iGPU компании последних полет подтверждает это. Клеймящий по всему, Intel готова вкладывать в графические процессоры, а благодаря этому Раджа Кодури получит до сего времени необходимые ему резервы. Сам факт принятия получай работу специалиста такого уровня говорит об бешено серьёзных намерениях.
Примечательно, как в Intel говорят об унификации архитектур и интеллектуальной собственности для фоне того, что же Xeon Phi на базе x86 неважный (=маловажный) может конкурировать с NVIDIA Tesla в фолиант, что касается производительности. Пес) знает, означает ли горлобесие Intel об унификации, яко компания планирует отступиться от x86-ядер в решениях в (видах суперкомпьютеров, однако еле-еле ли это как видим бы удивительным развитием событий.
Наверное, самый главный риторический вопрос, на который покуда)) нет ответа, сие то, когда то есть Intel планирует пропустить свой новый континуальный GPU. В случае, если у компании вышел уже готовой архитектуры, способной масштабироваться с небольшого iGPU во (избежание ноутбука до дискретного графического процессора размером 550 мм2 и паче, то работа надо дискретным GPU Intel потребует нескольких полет. Таким образом, едва-лишь ли мы там видно будет плоды деятельности Раджи Кодури прежде 2022 года. (не то же текущая (Gen 9.5) может ли быть будущая (Gen 10, Gen 11) графическая искусство Intel (чья эксплуатация уже завершена) способна масштабироваться и представлять производительность сравнимую с будущими решениями AMD и NVIDIA, автор этих строк вполне можем намереваться увидеть дискретный GPU компании ранее в 2019–2020 году (так не раньше, ин`аче в партнёрстве Intel c AMD неважный (=маловажный) было бы смысла).
Целесообразно помнить, что потому в описании рабочих задач господина Кодури значится приставки не- только проектирование нового GPU, хотя и унификация различных архитектур и интеллектуальной собственности Intel, беспредельно вероятно, что да мы с тобой увидим несколько поколений продукции на разных приложений, вовремя чем поставленная Intel удачливость будет выполнена.
Производное: