Еще в 2006-ом году компания Intel опубликовала первые данные о своей разработке x86 процессора Larrabee, который способен обрабатывать графику. Теперь, как сообщается на Techradar.com, «Intel приоткрыла завесу тайны над своим проектом. И если у компании действительно получилось сделать задуманное, само определение GPU станет морально устаревшим, и даже крупнейшие вендоры в лице NVIDIA и AMD окажутся просто неконкурентоспособными».
Известно, что эти процессоры будет иметь от 16-и до 24-х ядер, каждое из них будет работать на частоте от 1.7Ghz до 2.5Ghz, используя расширенный набор инструкций X86. Larrabee будет устанавливаться на карты с интерфейсом PCI Express 2.0, производство которых будет вестись по техническому процессу 45-нм или 32-нм, а значения TDP будут равны 300W.
Отличительной особенностью Larrabee является набор инструкций, схожих с процессорами x86, которые делают этот графический процессор более «гибким», чем у конкурентов. Также известна способность Larrabee обрабатывать до 16-и инструкций за такт - это в четыре раза больше, чем в любом существующем процессоре; а также он будет способен проводить физические расчеты и предложит трассировку лучей в реальном времени.
Intel обещала продемонстрировать работу Larrabee к концу 2008-го года, но пока компания молчит. Производство планировалось начать не ранее следующего года, возможно, во второй его половине.
1 Пантовая вещь будет... наверно...
Возможно это будет технологический прорыв.
отличная новость. Интересно посмотреть на ихние достижения. Будущее наступит раньшше, чем планировалось. В графическом плане...
и сколько интересно будут стоить первые экземпляры?
И кто это чудо оптимизировать будет?
NVIDIA и AMD остануца без кормушки чет неверица, промышленный шпионаж некто не отменял.
С графическим пентиумом Интел пролетит как фанера над Парижем, провал супертехно(не)логичного нетбёрста видимо их ничему не научил. Пусть уж лучше вложатся в многоядерные ЦП и их поддержку - до сих пор игры не используют больше 2 ядер, а 4-х ядерные процессоры клепают миллионами. Исключения, где рост 5-10%, можно пересчитать по пальцам одной руки.
Идем в будущее! Да насамом деле интересно будет посмотреть
Непонял, интел что ли видюху сделали?? которая будет иметь от 16-и до 24-х ядер.. а для сравнения у NVIDIA и AMD что есть???
300 Ватт... Интел, иди на*уй!!!! sarman Ещё не сделали, но делают. У NVIDIA и AMD ничего подобного нет.
я се 2 таких хочу))
Я вот тему завел http://forums.playground.ru/hardware/206157/ кто может обьясните....очень интересно
посмотрим на цены и тесты, потом, года через 2-3 - купим. Главное, чтобы была совместимость со старыми играми.
Эта штука будет только графику обрабатывать или еще за процессор работать ?
Во мля чудо, эти bitch уже незнают как филки высосать.
4ReservoirDOG "посмотрим" - это ваше величество и отражение в зеркале?
Поживем увидим пусть сначала покажут того зверя которого вырастили ну а NVIDIA и AMD что нибудь придумает )
Если выпуск этого продукта приведет к более активной конкуренции, то здорово конечно. Игроки только в плюсе. По уму, так и должно случиться.
я состарюсь быстрее прежде чем такое появится в продаже((
круто... но 300watt..
HazarXxX Никому неизвестно круто или не круто , нынешние видеокарты мощнее чем любой процессор , в десятки раз , а тут 16 или 24 кастрата собираются воспроизводить видео , мало того что я сомневаюсь в великой мощности этого решения , так кто ещё оптимизировать всё это будет ? :))))
Читал на Overclockers.ru что по прогнозам AMD и NVidia данное решение от Intel по графической производительности будет на уровне их хайенда 2006 года. И почемуто мне в это верится.
А это не опечатка насчет 300 ватт TDP?
2Tetragramaton Не опечатка. 2Sin-sama Если оптимизаций не будет под этот ГПентиум, то еще хуже.
А это не опечатка насчет 300 ватт TDP?
Ну Да Вот Тока Смущает Ими Заявленная производительность в 2 Терафлопа,т.к. Х4870Х2 на Данный момент Имеет производительность в 2,4 Терафлопа XD,Да и Цена От интел,типо"Вот Это Чудо! И Цена ему Всего Лиш 1500 Зеленых" XD
хе) ну.. если это чудо начнут покупать то ATI и nVidia быстро Intel на место поставят) у них опыт больше, 15 лет в этой сфере) ну а вообще конкуренция - круто.. по скорей бы поиграть в игры с кинематографичной картинкой)
интел дрова писать не умеет.
чет вы не обьективно на это смотрите, интел себе давно почву подготавливает для своих видюх, на подавляюшем большинстве материн стоит логика от интел, так что с оптимизацией у них все будет на ура, интел обладает подавляюшим количеством средст и ресурсов, промышленная мощьность в свере производства микросхем у них намного превосходяшая чем у амд и нвидия, у них лучшие инжинеры они первые перейдут на 32нм тех процесс, насчет дров у них норм все будет.
Видали мы "мультиядерные процы" -> самый яркий пример Cell для PS3 который "проклинают" любые разработчики игрового софта. И плюс ко всему прошу заметить что там всего 8 ядер, но "гемороя" нереально много, а представьте что будет с 24-х ядерником %)... На сегодняшний день уровень современного программирования еще не способен адекватно строить софт под мультипоточность: 2 года - 5 лет ...
В интеле вроде как работает Бабаян :) Уж не его ли это "разработка" ?? :))))))))) (для тех кто в танке гуглим про Бабаяна и "Эльбрус")
их ждет провал как и с rdram
Если она действительно сможет обрабатывать трассировку лучей и при этом не тормозить, то это будет мега вещь, если нет то в топку её.
Отличная новость от Intel я такого не ожидал, но скажу сразу что с Nvidia тягаться Intel бесполезно, так-как у Nvidia путь проложен к качеству, технологиям.. а у Intel путь начинается с производительности котоая толком пока никому ненужна.