В результате конкуренции между GPU от AMD и NVIDIA побеждает... Intel

Еще в 2006-ом году компания Intel опубликовала первые данные о своей разработке x86 процессора Larrabee, который способен обрабатывать графику. Теперь, как сообщается на Techradar.com, «Intel приоткрыла завесу тайны над своим проектом. И если у компании действительно получилось сделать задуманное, само определение GPU станет морально устаревшим, и даже крупнейшие вендоры в лице NVIDIA и AMD окажутся просто неконкурентоспособными».
Известно, что эти процессоры будет иметь от 16-и до 24-х ядер, каждое из них будет работать на частоте от 1.7Ghz до 2.5Ghz, используя расширенный набор инструкций X86. Larrabee будет устанавливаться на карты с интерфейсом PCI Express 2.0, производство которых будет вестись по техническому процессу 45-нм или 32-нм, а значения TDP будут равны 300W.
Отличительной особенностью Larrabee является набор инструкций, схожих с процессорами x86, которые делают этот графический процессор более «гибким», чем у конкурентов. Также известна способность Larrabee обрабатывать до 16-и инструкций за такт - это в четыре раза больше, чем в любом существующем процессоре; а также он будет способен проводить физические расчеты и предложит трассировку лучей в реальном времени.
Intel обещала продемонстрировать работу Larrabee к концу 2008-го года, но пока компания молчит. Производство планировалось начать не ранее следующего года, возможно, во второй его половине.

Комментарии: 34
Ваш комментарий

1 Пантовая вещь будет... наверно...

0

Возможно это будет технологический прорыв.

0

отличная новость. Интересно посмотреть на ихние достижения. Будущее наступит раньшше, чем планировалось. В графическом плане...

0

и сколько интересно будут стоить первые экземпляры?

0

И кто это чудо оптимизировать будет?

0

NVIDIA и AMD остануца без кормушки чет неверица, промышленный шпионаж некто не отменял.

0

С графическим пентиумом Интел пролетит как фанера над Парижем, провал супертехно(не)логичного нетбёрста видимо их ничему не научил. Пусть уж лучше вложатся в многоядерные ЦП и их поддержку - до сих пор игры не используют больше 2 ядер, а 4-х ядерные процессоры клепают миллионами. Исключения, где рост 5-10%, можно пересчитать по пальцам одной руки.

0

Идем в будущее! Да насамом деле интересно будет посмотреть

0

Непонял, интел что ли видюху сделали?? которая будет иметь от 16-и до 24-х ядер.. а для сравнения у NVIDIA и AMD что есть???

0

300 Ватт... Интел, иди на*уй!!!! sarman Ещё не сделали, но делают. У NVIDIA и AMD ничего подобного нет.

0

Я вот тему завел http://forums.playground.ru/hardware/206157/ кто может обьясните....очень интересно

0

посмотрим на цены и тесты, потом, года через 2-3 - купим. Главное, чтобы была совместимость со старыми играми.

0

Эта штука будет только графику обрабатывать или еще за процессор работать ?

0

Во мля чудо, эти bitch уже незнают как филки высосать.

0

4ReservoirDOG "посмотрим" - это ваше величество и отражение в зеркале?

0

Поживем увидим пусть сначала покажут того зверя которого вырастили ну а NVIDIA и AMD что нибудь придумает )

0

Если выпуск этого продукта приведет к более активной конкуренции, то здорово конечно. Игроки только в плюсе. По уму, так и должно случиться.

0

я состарюсь быстрее прежде чем такое появится в продаже((

0

HazarXxX Никому неизвестно круто или не круто , нынешние видеокарты мощнее чем любой процессор , в десятки раз , а тут 16 или 24 кастрата собираются воспроизводить видео , мало того что я сомневаюсь в великой мощности этого решения , так кто ещё оптимизировать всё это будет ? :))))

0

Читал на Overclockers.ru что по прогнозам AMD и NVidia данное решение от Intel по графической производительности будет на уровне их хайенда 2006 года. И почемуто мне в это верится.

0

А это не опечатка насчет 300 ватт TDP?

0

2Tetragramaton Не опечатка. 2Sin-sama Если оптимизаций не будет под этот ГПентиум, то еще хуже.

0

А это не опечатка насчет 300 ватт TDP?

0

Ну Да Вот Тока Смущает Ими Заявленная производительность в 2 Терафлопа,т.к. Х4870Х2 на Данный момент Имеет производительность в 2,4 Терафлопа XD,Да и Цена От интел,типо"Вот Это Чудо! И Цена ему Всего Лиш 1500 Зеленых" XD

0

хе) ну.. если это чудо начнут покупать то ATI и nVidia быстро Intel на место поставят) у них опыт больше, 15 лет в этой сфере) ну а вообще конкуренция - круто.. по скорей бы поиграть в игры с кинематографичной картинкой)

0

чет вы не обьективно на это смотрите, интел себе давно почву подготавливает для своих видюх, на подавляюшем большинстве материн стоит логика от интел, так что с оптимизацией у них все будет на ура, интел обладает подавляюшим количеством средст и ресурсов, промышленная мощьность в свере производства микросхем у них намного превосходяшая чем у амд и нвидия, у них лучшие инжинеры они первые перейдут на 32нм тех процесс, насчет дров у них норм все будет.

0

Видали мы "мультиядерные процы" -> самый яркий пример Cell для PS3 который "проклинают" любые разработчики игрового софта. И плюс ко всему прошу заметить что там всего 8 ядер, но "гемороя" нереально много, а представьте что будет с 24-х ядерником %)... На сегодняшний день уровень современного программирования еще не способен адекватно строить софт под мультипоточность: 2 года - 5 лет ...

0

В интеле вроде как работает Бабаян :) Уж не его ли это "разработка" ?? :))))))))) (для тех кто в танке гуглим про Бабаяна и "Эльбрус")

0

их ждет провал как и с rdram

0

Если она действительно сможет обрабатывать трассировку лучей и при этом не тормозить, то это будет мега вещь, если нет то в топку её.

0

Отличная новость от Intel я такого не ожидал, но скажу сразу что с Nvidia тягаться Intel бесполезно, так-как у Nvidia путь проложен к качеству, технологиям.. а у Intel путь начинается с производительности котоая толком пока никому ненужна.

0