воскресенье, марта 01, 2009

Что мы знаем про Larrabee

Larrabee - новый GPU от Интел. Очень много шума в форумах и блогах по поводу Larrabee, то есть как минимум в этом Интел преуcпела - разработчики интересуются. Сами интеловцы ездят по конференциям, рассказывают всякое и слайды показывают.
Larrabee будет состоять из кучи x86 процессоров. Программировать его можно будет на С++. На том С++, к которому все привыкли, а не на каком-то странном языке, похожем на С++. И с использованием компиляторов, к которым все привыкли. Это приятно. Как оно всё будет на самом деле, увидим и довольно скоро.

Ссылки:
Parallel Programming on Larrabee - слайды
Next-Generation Graphics on Larrabee - слайды
Larrabee: A Many-Core x86 Architecture for Visual Computing[.pdf]
Larrabee for HPC: Not So Fast
Intel Larrabee - википедия

11 коммент.:

Анонимный комментирует...

Ох уж они со своим x86 то...

Unknown комментирует...

интересно - насколько это похоже на wliv процы?

на Texas Instruments тоже можно писать на C++ а их хитрый компилер распараллеливает код по конвейерам достаточно эффективно, и для GPU задач эти процы весьма эффективны.

Андрей Валяев комментирует...

Дык это ж дополнительные IA32/64 CPU в количестве до 48 штук...

Для многозадачности должно хорошо рулить.

PS: А графика мне в общем-то пофиг. системщик я. :)

Kirill V. Lyadvinsky комментирует...

Это хорошая новость. Поскольку мы делаем некоторые продукты для военных, нам не разрешают использовать DSP от NVIDIA и прочих иностранных производителей(а тексас, вообще, считается конкурентом), а Intel-у почему-то доверяют :)

Programmist комментирует...

2 Андрей Валяев
>> Дык это ж дополнительные IA32/64 CPU в количестве до 48 штук...

А на каждом еще и по 4ре гпертреда...

Но есть и менее приятные новости. "Есть мнение", что это "In order" числодробилка.

Unknown комментирует...

Интел хочет максимально использовать свои х86 наработки. Похоже не очень умные менеджеры сказали: «Мы завоевали рынок своими x86 CPU, теперь завоюем рынок x86 GPU». Я не могу понять какое преимущество дает использование x86 архитектуры в GPU. Похоже это простая возможность для Интел продолжать производство морально устаревших ядер. А на понятном С++ можно писать и не под х86.

AleSha комментирует...

А сейчас есть привыкшие использовать софтверные рендеры, а не надстройки над OpenGL, DirectX и тому подобные языки?

Omega комментирует...

Интересная разработка, если заживет - можно будет распараллеливать, например, обработку видео на видеокарте.

Alena комментирует...

2AleSha:

А сейчас есть привыкшие использовать софтверные рендеры, а не надстройки над OpenGL, DirectX и тому подобные языки?

Как минимум софтверный рендерер придется использовать, если у тебя железка без хардварной акселерации. Возможно, в компании есть некий софтверный рендерер, написанный в стародавние времена, который всех устраивает, и который периодически дорабатывается.
Еще есть научные разработки по поводу рендеринга, там тоже все софтово.

2omega:

Интересная разработка, если заживет - можно будет распараллеливать, например, обработку видео на видеокарте.

Дык эта, уже можно.
На CUDA чего только не считают. В том числе и видео обрабатывают.

Анонимный комментирует...

А программировать шейдеры не так уж и сложно. Не вижу смысла ставить создавать столько шума. Вот если цена-производительность будет на высоте, да и сами процессоры окажются хорошими, то мне все равно, является ли этот язык истенным С++ или просто похож. До сегодняшнего дня Intel пока не очень преуспевал со своими графическими процессорами.

Александр комментирует...

Не перуспевал? Интел лидер на рынке встроенных видеоадаптеров.
Зачем покупать дискретную видеокарту за 200$ если в процессор за 400$ сможет справляться с графикой? ИМХО по этому ивидиа стала суетиться с лицензированием x86 технологий, покупать VIA и т.п.