:entry
Недавно задумался - а какой, собственно, мне хочется видеть видеокарту будущего? Проходя мимо "музейного" экземпляра системной платы 286 машины (с воткнутыми в нее современными ей картами расширения), осенило - вот именно такой и хочется ее видеть: плата с большим количеством микросхем, а не современные подобия системных (с центральным чипом с огромным TDP, с заметным PSU для него). Одним словом, типичная "шоколадка".
:data
Логично было бы тогда каждый из конвееров рендеринга расположить на "своей" линии PCI Express. Помимо упрощения арихитектуры, это еще дает широкие возможности масштабирования, ну, а в случае желания разместить на 1 плате более 16 GPU - просто добавить чип типа NF200.
Чип, названный на схеме "Greed" будет отвечать за сборку отрендеренных каждым GPU фрагментов. Собственно поэтому ему и понадобится немного своей памяти для фреймбуфера (RAM2D) и для Z-буфера (RAM3D). Также ему придется заниматся композицией изображений, полученных несколькими видеокартами (по сути аналог Xilinx XC3S400, применявшегося на XF1G). При этом желательно не заставлять его заниматся вещами типа Post-processing, лучше пусть он опять распараллелит их и озадачит ими GPU. Собственно, часть нагрузки должна будет выполнена еще драйверами - распараллелить по (имеющейся) куче GPU. Линии, соединяющие каждый из GPU с Greed - это может быть типичная межчиповка типа HT или тот же PCI Express. Желтые линии межкарточных связей - тоже нечто вроде этого. В свете роста объема кэша процессоров, возможно, не будет нужды в "собственной" микросхемы внешней памяти для GPU.
:sample
Собственно из таких сообржаний и вырисовавается общий вид карточки: напротив каждого GPU - свой блок памяти, на задней части, у самых разъемов, Greed. Большое количество выводов, обусловленное и "своей" памятью, и большим количеством GPU, возможно, сделает более выгодным ставить на старшие видеокарты их парами, соответственно уменьшив чип. Разнести в разные края bracket`а разъемы можно для оптимизации охлаждения, выполнив его в виде одного Ш-образного радиатора, расположив в средней части vent holes.
:red or blue
С другой стороны, для связей Greed-Greed и Greed-GPU более адекватным будет HyperTransport как традиционная уже межчиповка. Встроенный в процессор контроллер памяти лучше изучен в AMD в том смысле, что проблемы когерентности (уже не кэша, а типа N.U.M.A.) встали перед ними раньше. И у AMD есть ATI как специалисты по архитектурe GPU. В свете планов по выпуску процессоров с интегрированным видеоядром межчиповкой CPU-GPU вполне может стать HT (если, по слухам, они будут выпущены на разных кристаллах).
:end
Надеюсь, что мои "сырые" мысли, хоть и не были достаточно последовательно изложены, все\таки нашли понимание. Это ни в коем случае не есть готовая статья, хотя у меня и есть надежда довести этот текст до такого состояния.
:disclaimer
Все изложенное - не более чем гипотетические построения. Текст stage alpha, поэтому в нем куча неточностей, опечаток и такого, что осталено между строк.
:old-data
radeon.ru/articles/technology/chiparch/img/s1.png
radeon.ru/articles/technology/chiparch/img/s2.png
не самые удачные рендеры
lomran.mail333.su/9.10.27/components%20side%d8.jpg
lomran.mail333.su/9.10.27/back%20side0.jpg
Хм. картинок не вижу. Идея на самом деле витает в воздухе.
Я уже предлагал концепцию следующего вида:
- на текущий момент времени и GPU, и CPU имеют встроенный контроллер памяти.
- CPU имеет шину HT, GPU - PCI-Express, но нет никаких преград для того, чтобы сделать основным интерфейсом для GPU - HT.
- в случае унификации пинаута между GPU/CPU можно сделать мат. плату с N разъемов, в которые пользователь сможет ставить нужное ему кол-во процессоров и видеоядер. При этом эти N разъемов будут объединены по принципу каждый с каждым... Ну, или по менее растратному "кольцу"...
При этом у каждого из ядер есть своя память... Но они могут лазить и в "чужую" память. [хотя это опционально] На Оптеронах АМД все проблемы, связанные с такой организацией уже победила...
Уже весело получается. Масштабируемость при этом получается лютая. Не то что у Интела с QPB и нВидия со SLI
Так что все в руках производителей.
Аццкий ромбовод {:€
Я пока не волшебник - я только учусь! :-P
Что-то с фотофилом, так что картинок не видать (. Выложил на довольно тормознутый и левый, пашет и ладно.
Но текст еще сильно некондиционный, так что не сильно расстраиваюсь )
Root
но нет никаких преград для того, чтобы сделать основным интерфейсом для GPU - HT.
Есть. HT - самая обычная межчиповка и плохо выводится на разъем.
Хотя концепция и вправду красивая. Но с ней сама видеокарта становится достоянием истории.
Была еще идея AMD ставить на socket940 (или уже F?) процессоры для специализированных расчетов и т.п.: Torrenza. В ее рамках вполне можно было бы попробовать сделать HT Video. Правда, во времена 940 это было безнадежно из-за малой ПСП DDR1, если от этой идеи не отказались, на DDR3 это не так уж и плохо.
Выход обычно есть. Но он не работает.
Выводится - стоит вспомнить KxUpgrade серию от AsRock Чего они только на разъем не выводили - и HT, и V-Link, и вроде как для интелов что-то даже было (уже не помню, что - смотреть на оффсайте лень)...
Уважаемые коллеги, в переписке с нашими англоязычными партнерами помните: whether - который, weather - погода, wether - кастрированый баран!
У некоторых людей торс - это просто разветвитель, позволяющий подключить руки и голову к заднице.
Ты этот разъем помнишь? Набранный из всевозможных PCI, PCI-Ex - иначе как "Плохо" это не назовешь..
Выход обычно есть. Но он не работает.
Отправить комментарий