Кaк сooбщaют нaши кoллeги с сaйтa Tom’s Hardware Guide, нa мeрoприятии Israeli Development Center (IDC) Day в Xaйфe кoмпaния Intel пoд брeндoм Nervana прeдстaвилa нoвыe ускoритeли нeйрoнныx сeтeй. Стиль идёт об ускорителе Nervana Neural Network Processor for Inference (NNP-I). Разумеется, это то решение, надо которым Intel вместе работает с компанией Facebook. В начале января 2019 лета на CES 2019 компании сообщили, сколько создают высокоэффективный чип в (видах ускорения нейронных сетей с функцией принятия решений. Сие важная составляющая платформ с машинным обучением и функциями искусственного интеллекта. Симпатия не такая ресурсоёмкая, в духе обучение и может быть относительно легко делегирована периферийным устройствам. Да без функции принятия решений ни одна прототип машинного обучения не игра стоит свеч выеденного яйца.
Оказалось, ась? Nervana Neural Network Processor for Inference ― сие модифицированный 10-нм сердце компьютера поколения Ice Lake. Часть вычислительных ядер с него выброшены (вероятно, двуха из четырёх доступных), а в обмен. Ant. наряду с них и встроенного GPU (который равным образом модифицирован либо ликвидирован) держи кристалле размещены специализированные ИИ-блоки и универсальные цифровые сигнальные процессоры (DSP). Максимальное использование NNP-I осталось на прежнем уровне 28 Вт, только появилось иное ограничение. Оно связано с выбранным угоду кому) NNP-I вариантом изготовления, что оказалось безумно интересным.
Компания Intel приняла иджма выпускать модули Nervana с модифицированными Ice Lake в формфакторе карт M.2. Спецификациями разъединение и формфактор M.2 предназначены не не более чем для SSD-накопителей, хотя как они тотально выпускаются в таком виде. В формфакторе M.2 допускается выпускать любую периферию с интерфейсом PCIe, скажем так, сотовые модемы. Или ускорители NNP-I, по образу решили в Intel. Актуальные спецификации M.2 маловыгодный разрешают использовать питание с потреблением сверх 15 Вт, что ограничит плодотворность NNP-I при подключении к соответствующим разъёмам получи и распишись материнской плате. Зато такого ограничения маловыгодный будет, если в полноценный слот PCI Express для материнской плате через компандер установить несколько NNP-I в формфакторе NNP-I.
Предвидится, что поставщики облачных услуг получат NNP-I и незаменимый инструментарий до конца текущего годы. Можно ожидать, что мафия Facebook станет первой с них.
Источник: