Суперкомп'ютери: особливості сучасної модернізації
У статті проаналізовані особливості модернізації HPC (High Performance Computer). Відмічено значний ріст продуктивності та показників енергозбереження для стандартизованих кластерів, рішення катастрофостійкості для Центру обробки даних(ЦОД), розробки спеціалізованих мікросхем для стратегічних суперк...
Збережено в:
Дата: | 2010 |
---|---|
Автори: | , |
Формат: | Стаття |
Мова: | Russian |
Опубліковано: |
Інститут проблем математичних машин і систем НАН України
2010
|
Назва видання: | Математичні машини і системи |
Теми: | |
Онлайн доступ: | http://dspace.nbuv.gov.ua/handle/123456789/83228 |
Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
Цитувати: | Суперкомп'ютери: особливості сучасної модернізації / В.П. Клименко, Е.Г. Комухаєв // Мат. машини і системи. — 2010. — № 3. — С. 3-8. — Бібліогр.: 6 назв. — рос. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraineid |
irk-123456789-83228 |
---|---|
record_format |
dspace |
spelling |
irk-123456789-832282015-06-18T03:02:19Z Суперкомп'ютери: особливості сучасної модернізації Клименко, В.П. Комухаєв, Е.Г. Обчислювальні системи У статті проаналізовані особливості модернізації HPC (High Performance Computer). Відмічено значний ріст продуктивності та показників енергозбереження для стандартизованих кластерів, рішення катастрофостійкості для Центру обробки даних(ЦОД), розробки спеціалізованих мікросхем для стратегічних суперкомп'ютерів зі спільною пам'яттю. Виділені в таблицю випадки застосування прискорювачів спеціалізованих обчислень для 12 систем нового списку Top500. Вважаємо актуальним упровадження прискорювачів і в структури українських кластерів та ЦОД. В статье проанализированы особенности модернизации HPC (High Performance Computer). Отмечен значительный рост производительности и показателей энергосбережения для стандартизированных кластеров, решения катастрофоустойчивости для Центра обработки данных(ЦОД), разработки специализированных микросхем для стратегических суперкомпьютеров с общей памятью. Выделены в таблицу случаи внедрения ускорителей специализированных вычислений для 12 систем нового списка Top500. Считаем актуальным внедрение ускорителей и в структуры украинских кластеров и ЦОД. Features of modernization of High-performance computer (HPC) are analyzed in the article. A considerable growth of productivity and energy efficiency for standardized clusters, disaster-resistance decisions for Data-processing centre (DPC), workings out of specialized microcircuits for strategic supercomputers with common access to the memory are noted. Cases of introduction of accelerators of specialized calculations for 12 systems of new list Top500 are allocated in the table. We consider that introducing accelerators in structures of Ukrainian clusters and DPC is of current importance. 2010 Article Суперкомп'ютери: особливості сучасної модернізації / В.П. Клименко, Е.Г. Комухаєв // Мат. машини і системи. — 2010. — № 3. — С. 3-8. — Бібліогр.: 6 назв. — рос. 1028-9763 http://dspace.nbuv.gov.ua/handle/123456789/83228 681.3 ru Математичні машини і системи Інститут проблем математичних машин і систем НАН України |
institution |
Digital Library of Periodicals of National Academy of Sciences of Ukraine |
collection |
DSpace DC |
language |
Russian |
topic |
Обчислювальні системи Обчислювальні системи |
spellingShingle |
Обчислювальні системи Обчислювальні системи Клименко, В.П. Комухаєв, Е.Г. Суперкомп'ютери: особливості сучасної модернізації Математичні машини і системи |
description |
У статті проаналізовані особливості модернізації HPC (High Performance Computer). Відмічено значний ріст продуктивності та показників енергозбереження для стандартизованих кластерів, рішення катастрофостійкості для Центру обробки даних(ЦОД), розробки спеціалізованих мікросхем для стратегічних суперкомп'ютерів зі спільною пам'яттю. Виділені в таблицю випадки застосування прискорювачів спеціалізованих обчислень для 12 систем нового списку Top500. Вважаємо актуальним упровадження прискорювачів і в структури українських кластерів та ЦОД. |
format |
Article |
author |
Клименко, В.П. Комухаєв, Е.Г. |
author_facet |
Клименко, В.П. Комухаєв, Е.Г. |
author_sort |
Клименко, В.П. |
title |
Суперкомп'ютери: особливості сучасної модернізації |
title_short |
Суперкомп'ютери: особливості сучасної модернізації |
title_full |
Суперкомп'ютери: особливості сучасної модернізації |
title_fullStr |
Суперкомп'ютери: особливості сучасної модернізації |
title_full_unstemmed |
Суперкомп'ютери: особливості сучасної модернізації |
title_sort |
суперкомп'ютери: особливості сучасної модернізації |
publisher |
Інститут проблем математичних машин і систем НАН України |
publishDate |
2010 |
topic_facet |
Обчислювальні системи |
url |
http://dspace.nbuv.gov.ua/handle/123456789/83228 |
citation_txt |
Суперкомп'ютери: особливості сучасної модернізації / В.П. Клименко, Е.Г. Комухаєв // Мат. машини і системи. — 2010. — № 3. — С. 3-8. — Бібліогр.: 6 назв. — рос. |
series |
Математичні машини і системи |
work_keys_str_mv |
AT klimenkovp superkompûteriosoblivostísučasnoímodernízacíí AT komuhaêveg superkompûteriosoblivostísučasnoímodernízacíí |
first_indexed |
2025-07-06T09:57:18Z |
last_indexed |
2025-07-06T09:57:18Z |
_version_ |
1836891073278902272 |
fulltext |
© Клименко В.П., Комухаев Э.И., 2010 3
ISSN 1028-9763. Математичні машини і системи, 2010, № 3
ОБЧИСЛЮВАЛЬНІ СИСТЕМИ
УДК 681.3
В.П. КЛИМЕНКО, Э.И. КОМУХАЕВ
СУПЕРКОМПЬЮТЕРЫ: ОСОБЕННОСТИ СОВРЕМЕННОЙ МОДЕРНИЗАЦИИ
Abstract. Features of modernization of High-performance computer (HPC) are analyzed in the article. A considerable
growth of productivity and energy efficiency for standardized clusters, disaster-resistance decisions for Data-
processing centre (DPC), workings out of specialized microcircuits for strategic supercomputers with common access
to the memory are noted. Cases of introduction of accelerators of specialized calculations for 12 systems of new list
Top500 are allocated in the table. We consider that introducing accelerators in structures of Ukrainian clusters and
DPC is of current importance.
Key words: expansion of applications, modernization, petaflop, exaflop, power savings, many-core, parallelization,
Grid, accelerators of calculations, common memory.
Анотація. У статті проаналізовані особливості модернізації HPC (High Performance Computer). Відмічено
значний ріст продуктивності та показників енергозбереження для стандартизованих кластерів, рішення
катастрофостійкості для Центру обробки даних (ЦОД), розробки спеціалізованих мікросхем для стратегі-
чних суперкомп’ютерів зі спільною пам’яттю. Виділені в таблицю випадки застосування прискорювачів спе-
ціалізованих обчислень для 12 систем нового списку Top500. Вважаємо актуальним упровадження приско-
рювачів і в структури українських кластерів та ЦОД.
Ключові слова: розширення застосувань, модернізація, петафлоп, екзафлоп, енергозбереження, багато-
ядерність, паралелізація, Грід, прискорювачі обчислень, спільна пам’ять.
Аннотация. В статье проанализированы особенности модернизации HPC (High Performance Computer).
Отмечен значительный рост производительности и показателей энергосбережения для стандартизиро-
ванных кластеров, решения катастрофоустойчивости для Центра обработки данных (ЦОД), разработки
специализированных микросхем для стратегических суперкомпьютеров с общей памятью. Выделены в
таблицу случаи внедрения ускорителей специализированных вычислений для 12 систем нового списка
Top500. Считаем актуальным внедрение ускорителей и в структуры украинских кластеров и ЦОД.
Ключевые слова: расширение применений, модернизация, петафлоп, экзафлоп, энергосбережение, много-
ядерность, параллелизация, Грид, ускорители вычислений, общая память.
1. Ускоренная модернизация HPC
Кризис незначительно снизил высокие темпы модернизации HPC с целью повышения их продук-
тивности, особенно в США, Германии, Китае, России, Японии, где суперкомпьютеры все шире ис-
пользуются при решении актуальных задач науки, экономики, обороны, экологии [1]. Из долговре-
менных тенденций ускорения, рассмотренных нами в [2], выделяются замена гонок мегагерц про-
цессоров на использование многоядерности последних с разработкой новых алгоритмов, знаний в
области параллельных вычислений и растущая роль энергосбережения для HPC. Теперь в мире
ранжируют ведущие HPС не только списком рейтинга Top500 по уровню производительности, но и
списком Top Green500 по уровню энергосбережения.
Петафлопный уровень производительности HPC (квадрильйон операций с плавающей за-
пятой в секунду) для теста Linpack был превзойден в середине 2008 года системой IBM Roadrunner
вопреки ряду прогнозов, относивших такое событие на более поздний период. Для преодоления
следующего, экзафлопного, барьера (тысяча петафлопс) мировому сообществу потребуются ог-
ромные усилия по созданию новых языков программирования, алгоритмов, средств разработки,
намного более эффективных средств вычислений, памяти, коммутации, периферии. По оценкам
Джека Донгарры, разработчика теста Linpack и одного из авторов рейтинга Top500, появление эк-
зафлопного суперкомпьютера, вероятно, в 2019 году, следует соответственно ожидать через 11
ISSN 1028-9763. Математичні машини і системи, 2010, № 3 4
лет после покорения петафлопного рубежа. Донгарра при этом учитывает сложившийся четкий 11-
летний цикл роста быстродействия суперкомпьютеров. Действительно, гигафлопный рубеж был
преодолен в 1986 году, терафлопный – в 1997 году и т.д.
Не способствуют развитию сотрудничества на этом пути практика эмбарго на распростра-
нение некоторых перспективных микросхем, пакетов ПО, устройств, засекречивание новых пер-
спективных технологий и проектов HPC. С ностальгией упоминают в [3] существовавшее в СССР
многообразие собственных перспективных суперкомпьютерных проектов, когда, в частности,
“…Институт кибернетики АН Украины разрабатывал машину с макроконвейерной архитектурой
ЕС2701 и целое семейство языков программирования для него…” наряду с проектами других орга-
низаций при соответствующей координации и взаимоподдержке решений [4]. Отметим, что заказы-
ваемые государством высокопроизводительные вычислительные системы нередко ориентированы
на отдельные приоритетные применения, где необходимо особое сочетание высоких производи-
тельности и надежности. Например, спроектированные в прошлом веке российские высокопроиз-
водительные средства вычислений для противовоздушной обороны в составе комплекса С-300 до
сих пор эффективны благодаря инновационным высоконадежным архитектурно-алгоритмическим
решениям параллелизации вычислений, даже при использовании устарелых микросхем, которые
позже были обновлены в комплексах С-400. Главный конструктор указанных вычислительных
средств академик В. Бурцев [2] охарактеризовал, с учетом своего опыта, супер-ЭВМ как “ЭВМ с
наивысшей среди других производительностью, разработанную с предельным интеллектуальным
напряжением проектировщиков и построенную с предельным технологическим напряжением заво-
дов-изготовителей”. Нередко высокой интеллектуальностью решений, применением специализиро-
ванных ускорителей удается компенсировать невысокую производительность доступных
cтандартных компонентов. Соответствующие супер-ЭВМ с предельно достижимыми специализиро-
ванными параметрами востребованы для ряда оборонных применений, среди них и упомянутая
петафлопная военная система Roadrunner с ускорителями вычислений, используемая, в частности,
для моделирования ядерных арсеналов, лазеров высокой мощности и др. В [5] отмечается архи-
тектурное влияние работ группы академика В. Бурцева по машине, управляемой потоками данных,
на современное развитие российского проекта суперкомпьютера с глобально адресуемой памятью,
выполняемого в московском ОАО “НИЦЭВТ”.
Эксперты утверждают, что в условиях растущего сокращения сроков и усложнения решае-
мых задач для существенного повышения продуктивности коренная модернизация суперкомпьюте-
ров необходима не реже чем через 5 лет. Часто намного целесообразнее установить новый супер-
компьютер с повышенными показателями производительности и энергосбережения, новым ПО,
чем продолжать выборочно обновлять устарелые средства “старого” суперкомпьютера. Один из
мощных суперкомпьютеров немецкого университета Штутгарта, несколько лет назад еще входив-
ший в список Top500, на этапе обновления состава суперкомпьютеров этого немецкого универси-
тета недавно подарен Донецкому техническому университету. Ввод в эксплуатацию этого “научного
подарка” планируют приурочить к открытию в Донецке Генерального консульства Германии в сере-
дине 2010 года. До этого Украина использовала три суперкомпьютера уровня 6–7 Тфлопс произво-
дительности (в ИК НАНУ, ГАО НАНУ, КПИ) и десятки значительно менее производительных сис-
ISSN 1028-9763. Математичні машини і системи, 2010, № 3 5
тем. Предусматривается, что донецкий суперкомпьютер станет частью европейской сети суперком-
пьютерных вычислений. Отметим высокую квалификацию специалистов суперкомпьютерного цен-
тра упомянутого университета Штутгарта (HLRS), которые совместно со специалистами компании
Cray разработали новую линию суперкомпьютеров “среднего уровня” Cray XT5m для широкого кру-
га потребителей. Причем, первым заказчиком системы Cray XT5m стал именно HLRS. Суперком-
пьютеры серии Cray XT5m ориентированы на гибкую модернизацию и расширение блоков, напри-
мер, на базе использования шестиядерных процессоров AMD с возможностью доведения продук-
тивности модернизируемой системы даже до уровня Cray XT5 – теперешнего лидера.
2. Перспективные cистемы и проекты
Итак, мировой рейтинг, согласно 34-му списку Top500, возглавил кластер Jaguar Cray XT5 с произ-
водительностью на тесте Linpack 1759 TFlop/s. Третье место в списке принадлежит суперкомпью-
теру Cray XT5 Kraken с производительностью 831,7 TFlop/s. Обе эти системы компании Cray, уста-
новленные в национальной лаборатории Оак-Ридж, США, используют возможности шестиядерных
процессоров AMD Opteron с тактовой частотой 2,6 ГГц, маршрутизаторы Seastar 2+ с пропускной
способностью 57,6 Гб/с. Компания Cray также выиграла конкурсы на поставки в 2010 году трех су-
перкомпьютерных систем повышенного быстродействия для МО США. Эти системы Baker будут
иметь новый чипсет Gemini для межсоединений и усовершенствованную архитектуру Cray XT.
Применение этих систем будут обеспечивать фундаментальные и прикладные научные исследо-
вания, разработки новых материалов, горючего, вооружений, разработки долговременных прогно-
зов погоды.
Главным конкурентом компании Cray при создании систем петафлопсной производительно-
сти остается компания IBM, системы которой занимают второе и четвертое места в рейтинге
Top500. Причем военный суперкомпьютер IBM Roadrunner имеет производительность 1042 TFlop/s,
занимая второе место. На четвертом месте суперкомпьютер IBM Blue Gene/P JUGENE, установ-
ленный в Германии, с производительностью 825,5 TFlop/s на тесте Linpack.
Пятую позицию рейтинга занял суперкомпьютер Китая Tianhe-1 с производительностью
563,1 TFlop/s на тесте Linpack.
Неожиданным стало появление на двенадцатой позиции российского суперкомпьютера
“Ломоносов” с производительностью 350 TFlop/s на тесте Linpack после невысоких позиций России
в прежних рейтингах. Ключевую роль для достижения высокой производительности системы “Ло-
моносов” обеспечили запатентованные специалистами московской компании “Т-Платформы” вы-
числительные узлы на базе блейд-структур T-Blade2. Рекордная вычислительная плотность на
квадратный метр площади структур T-Blade2 открывает реальные возможности создавать системы
с показателем 1 петафлопс и выше.
Основные технические характеристики суперкомпьютера “Ломоносов” следующие:
− пиковая производительность 420Тфлопс;
− реальная производительность 350Тфлопс;
− эффективность (соотношение пиковой
и реальной производительности) 83%;
ISSN 1028-9763. Математичні машини і системи, 2010, № 3 6
− число вычислительных узлов 4 446 ;
− число процессоров 8 892;
− число процессорных ядер 35 776;
− число типов вычислительных узлов 3 (T-Blade2, T-Blade1.1, платформа
на базе процессора PowerXCell 8i);
− основной тип вычислительных узлов T-Blade2;
− процессор основного типа
вычислительных узлов Intel Xeon X5570;
− оперативная память 56 576ГБ;
− общий объем дисковой памяти вычислителя 166 400 ГБ;
− занимаемая площадь 252 кв.м;
− энергопотребление вычислителя 1,5 МВт;
− интерконнект QDR Infiniband;
− система хранения данных трехуровневая с параллельной
файловой системой;
− объем системы хранения данных до 1 350ТБ;
− операционная система Clustrx T-Platforms Edition.
Данную систему относят к гибридному типу, посколько здесь взаимодействуют универсаль-
ные четырехъядерные процессоры Intel Xeon, выполняющие системные функции, и ускоряющие
вычисления спецпроцессоры PowerXCell. Напомним, что первый петафлопный кластер был также
гибридным, использующим сочетания ускорителей PowerXCell и универсальных процессоров AMD
Opteron.
Наибольшие известность и применение получили следующие разновидности ускорителей
для HPC:
− Cell-процессоры, разработка IBM совместно с компаниями Sony, Toshiba;
− платы компании ClearSpeed (Великобритания – США);
− платы на базе FPGA разработок компаний Celoxica, Nallatech, DRC и др.;
− блоки и платы GPGPU (General Purpose Graphical Processing Units) разработок компаний
NVIDIA, AMD (ATI);
− платы и чипы GRAPE, разработанные университетом Токио. Все указанные разновидно-
сти ускорителей уже представлены в новом списке Тор 500.
Таблица 1. Ускорители в системах Top500
Тип
ускорителя
Cистема, организация,
страна установки
Ранг системы в
Top500/ произ-
водит. в TFlops
по Linpack
Ранг системы в
Top Green500
List/показатель
энергоэффект. в
MFlops
Ключевые аппаратные
средства
IBM Power
XCell 8i
Roadrunner,
DOE/NNSA/LANL, США
2/1042 4/458.33 Opteron DC, InfiniBand
AMD ATI
Radeon HD
4870
NUDT TH-1 National
SuperComputer Center in
Tianjin, Китай
5/563.1 8/379.24 Xeon E5540/E5450
IBM Power
XCell 8i
“Ломоносов”, МГУ,
Россия
12.350.1 56/230.42 T-Platforms T-Blade2, Xeon
5570, InfiniBand QDR
ISSN 1028-9763. Математичні машини і системи, 2010, № 3 7
Продолж. табл. 1
IBM Power
XCell 8i
DOE/NNSA,LANL, США 29/126.5 4/458.33 Opteron DC, InfiniBand
IBM Power
XCell 8i
IBM Ponghkeepsie
Benchmarking Center,
США
78/63.25 4/458.33 Opteron DC, InfiniBand
IBM Power
XCell 8i
Forschungszentrum
Juelich, Германия
110/43.01 1/722.98 3D Torus IBM
IBM Power
XCell 8i
Universitaet Regensburg,
Германия
111/43.01 1/722.98 3D Torus IBM
IBM Power
XCell 8i
Universitaet Wuppertal,
Германия
112/43.01 1/722.98 3D Torus IBM
ClearSpeed
CSX600
Институт технологий,
Токио, Япония
56/87.01 290/78.88 Opteron, Xeon E5440, In-
finiBand
nVidia GT200 Институт технологий,
Токио, Япония
56/87.01 290/78.88 Opteron, Xeon E5440, Infin
GRAPE-DR Национальная
астрономическая
обсерватория, Япония
445/21.96 7/428.91 InfiniBand
FPGA Stratics
III
Skif Aurora, Южноураль-
ский университет,
Россия
450/21.84 47/248.18 Xeon E55XX
Специфические задачи некоторых ЦОД внесли свой вклад в расширение разновидностей
ускорителей на чипах FPGA. В частности, здесь отметим возможности аппаратных платформ Cres-
cendo Networks CN-5504 и СN-5510 на базе чипов FPGA, внедренные в ЦОД Франции, Кореи, Рос-
сии. Платформы эффективно устраняют избыточные соединения TCP, мультиплексируют и уско-
ряют веб-приложения. Продукты компании Сrescendo Networks получили название ADC-Application
Delivery Controller. ADC обеспечивают интеллектуальную балансировку нагрузки отдельных серве-
ров и географически распределенных ЦОД, значительно снижают количество серверов приложе-
ний, распознают тип трафика и оперативно управляют им. Аналитики Gartner уже представляют
компанию в качестве безусловного лидера рынка ADC. Крупнейший хостинг Франции Интернет Fr
повысил эффективность работы более чем
15000 web-сайтов средствами ADC, которые
по главным тестам Fr превосходят конкурен-
тов на 300%. Крупный бизнес, особенно бан-
ковский, Интернет-профилей, убедившись в
преимуществах ЦОД, все чаще внедряет
именно географически распределенные сис-
темы для обеспечения их максимальной ка-
тастрофоустойчивости. Cоответственно со-
вершенствуются и расширяются волоконно-
оптические сети, ускорители специали-
зированных функций для оперативных смен
режимов географически распределенных
кластерных средств (рис. 1), включая функ-
ции обеспечения информационной безопас-
ности таких средств.
Развитие перспективных Грид-систем, где интегрирует большой объем географически уда-
ленных ресурсов вычислений и хранения данных, также во многом базируется на совершенствова-
Рис. 1. Географически распределенный кластер
ISSN 1028-9763. Математичні машини і системи, 2010, № 3 8
нии скоростных оптоволоконных линий связи и средств информационной безопасности. Хотя еще
не решен ряд юридических вопросов по оплате Грид-сервисов, существенно расширились прило-
жения Грид. Так, с помощью Грид-систем успешно обрабатывают большие объемы эксперимен-
тальных данных большого адронного коллайдера ЦЕРН, ряда масштабных медицинских исследо-
ваний для долговременных прогнозов синоптиков. Программу Грид в Украине поддерживают На-
циональная академия наук (координатор – Институт теорфизики) и Министерство науки и образо-
вания (координатор – Национальный технический университет «КПИ»).
3. Выводы
1. Широкая модернизация суперкомпьютеров, в первую очередь, вызвана требованиями весомого
прироста производительности для решения многих актуальных задач. Новый список Top500 вклю-
чает две системы США с превышением петафлопного уровня, анонсирован предстоящий ввод сис-
тем с показателями 10–20 петафлопс.
2. Для ряда применений критичен уровень энергозатрат суперкомпьютеров, теперь введен обнов-
ляемый каждые полгода список рейтинга Top Green500. Сейчас его возглавляют три системы, ус-
тановленные в Германии, с уровнем 722,98 MFLOPS/W (производительность на ват).
3. Особенно значимо снижение уровня энергозатрат для ЦОД, число которых быстро растет в Ук-
раине, России. Низкие энергозатраты для ЦОД обеспечивают приемлемый уровень стоимости,
улучшают катастрофоустойчивость систем, заказываемых бизнес-структурами телеком-
муникационной, банковской, транспортной, нефтегазовой и других отраслей.
4. В последнем списке Top500 уже 12 систем используют различные типы ускорителей специали-
зированных операций. Представляется, что украинские разработчики имеют достаточную квалифи-
кацию для активного участия в реализации перспективных проектов создания ускорителей для
внутренних и внешних HPC.
5. Совершенствуются технологии и применения Грид-систем с использованием многих кластеров
различных стран, включая Украину. Эффективно используются возможности сервисов Грид для
обработки данных коллайдера ЦЕРН, медицинских данных, особенно в онкологии. Недавно укра-
инская сеть “УАРНЕТ” была подключена через польскую систему “Пионер” к общеевропейской ака-
демической сети Грид.
6. Лидером модернизационных разработок для HPC в РФ стала компания “Т-Платформы”, создав-
шая самый быстродействующий в РФ суперкомпьютер “Ломоносов”, эффективные блейд-
конструкции Т-Blade2, cобственные решения ПО для пета-, экза-суперкомпьютеров, установившая
HPC в ряде стран, существенно модернизировав два академических кластера Украины [6].
СПИСОК ЛИТЕРАТУРЫ
1. Суперкомпьютерные технологии в науке, образовании и промышленности. – М.: Изд. Московского универси-
тета, 2009. – 232 c.
2. Клименко В.П. Cуперкомпьютеры: тенденции и технологии последнего двадцатилетия / В.П. Клименко,
Э.И. Комухаев // Математичні машини і системи. – 2006. – № 3. – С. 146 – 151.
3. www.delyagin.ru/citation/9468.html.
4. Структурно-архитектурные решения многопроцессорных ЭВМ с микроконвейерной обработкой данных /
В.С. Михалевич, Ю.В. Капитонова, А.Г. Кухарчук [и др.] // Электронная вычислительная техника: сб. статей. –
1988. – Вып. 2. – С. 151 – 160.
5. Слуцкин А. Российский суперкомпьютер с глобально адресуемой памятью / А. Слуцкин, Л. Эйсымонт // От-
крытые системы. – 2007. – № 9. – С. 42 – 51.
6. www.t-platforms.ru.
Стаття надійшла до редакції 09.06.2010
|