Поддержка

Суперкомпьютеры, смена эпох

16 октября 2013

Облака и компьютерные системы, служащие для обработки больших объемов данных, могут стать альтернативными путями развития HPC.

Автор: Леонид Черняк

«Computerworld Россия», № 25, 2013

В 70-лет­ней ис­то­рии су­пер­ком­пью­те­ров неслож­но об­на­ру­жить оче­вид­ную пе­ри­о­дич­ность: она делит­ся на от­рез­ки вре­ме­ни по 20-30 лет, каж­дый из них на­чи­нал­ся с на­коп­ле­ния зна­ний и опыта, затем на­сту­пал пе­ри­од рас­цве­та и ко­ли­че­ствен­но­го роста, в нед­рах ко­то­ро­го фор­ми­ро­ва­лись пред­по­сыл­ки для ка­че­ствен­но­го пе­ре­хо­да на новую фазу.

Труд­но по­ве­рить, но в конце 20-х годов су­пер­ком­пью­те­ром на­зва­ли ги­гант­ский электромеханический та­бу­ля­тор, со­здан­ный IBM. Позже, в 40-е и даже 50-е годы, эти неве­ро­ят­но шум­ные мон­стры, по­стро­ен­ные на реле и ша­го­вых ис­ка­те­лях, все еще иг­ра­ли за­мет­ную роль, напри­мер, они при­ме­ня­лись для рас­че­тов в атом­ных про­ек­тах. Пер­вым в со­вре­мен­ном понимании этого слова су­пер­ком­пью­те­ром стал CDC 1604, со­здан­ный Сей­му­ром Креем в 1960 году. За­ло­жен­ные в него идеи стали ру­ко­вод­ством к поль­зо­ва­нию на­дол­го, почти на 30 лет. Вплоть до на­ча­ла 90-х су­пер­ком­пью­те­ры все еще имели один или мак­си­мум несколь­ко очень слож­ных цен­траль­ных про­цес­со­ров. Далее на­сту­пил мо­мент, когда за­ду­ман­ные для со­всем иных целей мик­ро­про­цес­со­ры до­стиг­ли опре­де­лен­но­го уров­ня зре­ло­сти, и тогда имен­но эти ры­ноч­ные про­дук­ты стали ос­но­вой для си­стем с мас­со­вым па­рал­ле­лиз­мом. С их по­яв­ле­ни­ем суперкомпьюте­ры по­те­ря­ли свою эли­тар­ность, их стало на­мно­го боль­ше, и на­ча­лась со­всем иная эпоха, ее сим­во­лом стал спи­сок Top500, пуб­ли­ку­е­мый с 1993 года.

Но и этой эпохе конец неиз­бе­жен, нас ожи­да­ют ка­че­ствен­но новые ре­ше­ния. Тем более что меняет­ся и сама сфера при­ме­не­ния HPC (High-Performance Computing, вы­со­ко­про­из­во­ди­тель­ные вы­чис­ле­ния). До по­след­не­го вре­ме­ни су­пер­ком­пью­те­ра­ми в ос­нов­ном ре­ша­лись рас­чет­ные задачи и за­да­чи фи­зи­че­ско­го мо­де­ли­ро­ва­ния, а сей­час к ним при­бав­ля­ют­ся за­да­чи, свя­зан­ные с об­ра­бот­кой боль­ших мас­си­вов дан­ных. На пути их ре­ше­ния от­ча­сти стоит непре­одо­лен­ное увлечение ги­ган­тиз­мом. И от ака­де­ми­че­ских уче­ных, и от самых вы­со­ко­по­став­лен­ных чи­нов­ни­ков можно слы­шать утвер­жде­ния о зна­чи­мо­сти су­пер­ком­пью­те­ров для бла­го­со­сто­я­ния нации. Об успеш­но­сти от­рас­ли они судят по месту, ко­то­рое занял один от­дель­но взя­тый су­пер­ком­пью­тер в пре­стиж­ном, по их пред­став­ле­нию, спис­ке Top500.

Если мы го­во­рим о зна­че­нии HPC для об­ще­ства, то целью долж­но стать не со­зда­ние уни­каль­ных об­раз­цов су­перк­ла­сте­ров с брос­ки­ми на­зва­ни­я­ми, эф­фек­тив­ность ко­то­рых никем и ни­ко­гда не была по­ка­за­на и до­ка­за­на ни на при­ме­ре ре­ше­ния ре­аль­ных боль­ших задач, для ко­то­рых раз­мер дей­стви­тель­но имеет зна­че­ние, ни на мак­си­маль­ном ис­поль­зо­ва­нии ре­сур­сов за счет эффективного раз­де­ле­ния мощ­но­сти между поль­зо­ва­те­ля­ми. Если смот­реть на вещи все­рьез, то необ­хо­ди­мо пе­ре­стать рас­смат­ри­вать HPC как спорт выс­ших до­сти­же­ний и не отож­деств­лять его ис­клю­чи­тель­но с суперкомпьютерами.

Несколь­ко лет назад ана­ли­ти­ки IDC пред­ло­жи­ли сле­ду­ю­щую клас­си­фи­ка­цию по сег­мен­там HPC в за­ви­си­мо­сти от их цены: свыше 500 тыс. долл. — су­пер­ком­пью­те­ры (supercomputing segment), от 250 до 499 — сер­ве­ры мас­шта­ба под­раз­де­ле­ния (divisional segment), от 100 до 249 — сер­ве­ры мас­шта­ба от­де­ла (departmental segment) и ниже 100 — сер­ве­ры ра­бо­чих групп (workgroup segment). В 2013 году ми­ро­вой вы­пуск HPC-сер­ве­ров оце­ни­ва­ет­ся почти в 12 млрд. долл., си­стем хра­не­ния дан­ных для HPC — в 4 млрд., ПО, в том числе при­ло­же­ния про­ме­жу­точ­но­го слоя, — 5 млрд., сервис — 2 млрд., то есть всего около 22 млрд. долл. При этом еже­год­ный рост за­трат на суперкомпью­те­ры со­став­ля­ет 7-8%. Хотя по­дав­ля­ю­щая часть этой суммы тра­тит­ся на три млад­ших сег­мен­та, эти ко­лос­саль­ные за­тра­ты не счи­та­ют­ся оправ­дан­ны­ми, по­сколь­ку, даже по самым оптими­сти­че­ским оцен­кам, ко­эф­фи­ци­ент по­лез­но­го дей­ствия су­пер­ком­пью­те­ров на­хо­дит­ся в преде­лах от 15 до 25%. По­это­му и биз­нес, и го­су­дар­ствен­ные струк­ту­ры, фи­нан­си­ру­ю­щие HPC, боль­ше вол­ну­ют не ре­корд­ные по­ка­за­те­ли, а воз­врат инвестиций.

При­зна­ков на­сту­па­ю­щей новой эпохи HPC мно­же­ство, среди них можно вы­де­лить два наи­бо­лее ра­ди­каль­ных — об­лач­ные под­хо­ды к HPC, ко­то­рые поз­во­ля­ют более эф­фек­тив­но рас­пре­де­лять ре­сур­сы между поль­зо­ва­те­ля­ми, и недав­но воз­ник­шее на­прав­ле­ние в HPC, ко­то­рое на­зы­ва­ют Data Intensive Computing, то есть ком­пью­тер­ные си­сте­мы, ори­ен­ти­ро­ван­ные на ра­бо­ту с данными.

Об­ла­ка и HPC

Об­лач­ная те­ма­ти­ка в при­ло­же­нии к HPC на­би­ра­ет по­пу­ляр­ность, о до­сти­же­ни­ях в этой пока еще узкой об­ла­сти сви­де­тель­ству­ет со­сто­яв­ша­я­ся в сен­тяб­ре в Гей­дель­бер­ге чет­вер­тая по счету кон­фе­рен­ция ISC Cloud 2013. Здесь с ос­нов­ным до­кла­дом вы­сту­пил Джей­сон Стоув, ос­но­ва­тель и ру­ко­во­ди­тель ком­па­нии Cycle Computing, ко­то­рая уди­ви­ла всех по­ка­за­те­ля­ми своих об­лач­ных ре­ше­ний. Спе­ци­а­ли­за­ция Cycle Computing — раз­ра­бот­ка ПО и ме­то­дов для ре­а­ли­за­ции HPC в об­ла­ке. Ис­поль­зуя Amazon EC2, ин­же­не­рам Cycle Computing уда­лось в 2011 году со­брать кла­стер из 10 тыс. ядер, затем из 30 472, а в 2012 году ко­ли­че­ство ядер до­стиг­ло 50 тыс. Все эти си­сте­мы про­су­ще­ство­ва­ли несколь­ко часов, ровно то время, ко­то­рое было необ­хо­ди­мо для ре­ше­ния опре­де­лен­ной за­да­чи, од­на­ко по своим по­ка­за­те­лям и та, и дру­гая, и тре­тья за­ко­но­мер­но могут пре­тен­до­вать от­нюдь не на по­след­ние места в спис­ке Top500.

Воз­ни­ка­ет есте­ствен­ный во­прос, яв­ля­ют­ся ли об­ла­ка кон­ку­рен­та­ми су­пер­ком­пью­те­рам? Сто­рон­ний на­блю­да­тель внешне едва ли об­на­ру­жит раз­ни­цу между стой­ка­ми об­лач­но­го ЦОД и стой­ка­ми су­пер­ком­пью­те­ра, но на самом деле, невзи­рая на внеш­нее сход­ство, есть зна­чи­тель­ные раз­ли­чия. Об­ла­кам стре­мят­ся при­дать мгно­вен­ную го­тов­ность, неогра­ни­чен­ную ем­кость ре­сур­сов, боль­шой выбор ПО, но глав­ное — вир­ту­а­ли­за­ция. Ос­нов­ные свой­ства су­пер­ком­пью­те­ров со­всем иные: ни­ка­кой вир­ту­а­ли­за­ции, мак­си­маль­ное ис­поль­зо­ва­ние воз­мож­но­стей же­ле­за, все ап­па­рат­ное обес­пе­че­ние на­стро­е­но на уве­ли­че­ние ско­ро­сти счета. Общим ка­че­ством яв­ля­ет­ся вы­со­кая спо­соб­ность к мас­шта­би­ро­ва­нию, за­да­ча может по­лу­чить столь­ко ре­сур­сов, сколь­ко ей тре­бу­ет­ся, при­чем тех­но­ло­гии обес­пе­че­ния мас­шта­би­ро­ва­ния прин­ци­пи­аль­но разные.

Кри­ти­че­ский мо­мент — меж­со­еди­не­ния, в общем слу­чае ско­рость об­ме­на между уз­ла­ми су­пер­ком­пью­те­ра будет все­гда на по­ряд­ки выше, чем между уз­ла­ми об­ла­ка. По этой при­чине об­ла­кам будет боль­ше со­от­вет­ство­вать на­груз­ка с есте­ствен­ным па­рал­ле­лиз­мом. По оцен­кам экс­пер­тов, сей­час такая на­груз­ка со­став­ля­ет от 5 до 10% всего объ­е­ма задач, ре­ша­е­мых на су­пер­ком­пью­те­рах, но в бу­ду­щем это со­от­но­ше­ние будет ме­нять­ся, и про­цент будет уве­ли­чи­вать­ся за счет уве­ли­че­ния доли сла­бо­свя­зан­ных при­ло­же­ний. До сих пор ос­нов­ная часть на­уч­ных задач от­но­си­лась к силь­но­свя­зан­ным при­ло­же­ни­ям, ко­то­рые тре­бу­ют ин­тен­сив­но­го об­ме­на дан­ны­ми между уз­ла­ми, эф­фек­тив­ность ра­бо­ты су­пер­ком­пью­те­ров опре­де­ля­ет­ся ве­ли­чи­ной за­держ­ки, от­сю­да в HPC сле­ду­ет стрем­ле­ние к со­вер­шен­ство­ва­нию си­стем­но­го ин­тер­кон­нек­та и на­ли­чие раз­ных ар­хи­тек­тур, от про­стых кла­сте­ров Beowulf до вы­со­ко­про­дук­тив­ных си­стем с общей па­мя­тью. Но есть и дру­гие за­да­чи, и их ста­но­вит­ся все боль­ше, где по­треб­ность в об­мене между уз­ла­ми зна­чи­тель­но ниже, их от­но­сят к ка­те­го­рии High Throughput Computing (HTC). Это за­да­чи с боль­шой на­груз­кой, для них время ре­ше­ния не яв­ля­ет­ся су­ще­ствен­ным фак­то­ром, важно их ре­шить хотя бы ко­гда-ни­будь, и об­ла­ка будут ис­поль­зо­вать­ся глав­ным об­ра­зом для этого клас­са приложений.

Се­год­ня ряд ком­па­ний, в первую оче­редь Penguin, R-HPC, Amazon, Univa, SGI, Sabalcore и Gompute, предо­став­ля­ют тех­но­ло­гии и услу­ги для об­ла­ков, под­дер­жи­ва­ю­щих вы­со­ко­про­из­во­ди­тель­ные вычисления.

По­жа­луй, самый ха­рак­тер­ный при­мер — Penguin Computing, один из пер­вых вен­до­ров, пред­ло­жив­ших спе­ци­а­ли­зи­ро­ван­ное HPC-об­ла­ко Penguin’s On-Demand HPC Cloud Service (POD). Вы­чис­ли­тель­ные узлы POD стро­ят­ся на сдво­ен­ных че­ты­рех- или ше­сти­ядер­ных про­цес­со­рах Xeon либо на 12-ядер­ном про­цес­со­ре AMD, ра­бо­та­ю­щих на ча­сто­те от 2,2 до 2,9 ГГц с па­мя­тью от 24 до128 Гбайт и ло­каль­ной СХД до 1 Тбайт. Из узлов может на­би­рать­ся тре­бу­е­мая кон­фи­гу­ра­ция с воз­мож­но­стью под­клю­че­ния двух гра­фи­че­ских про­цес­со­ров Nvidia Tesla C2075 с 448 яд­ра­ми и 6 Гбайт па­мя­ти GDDR5, ско­рость об­ме­на по шине — 144 Гбайт/с. В сеть POD про­цес­со­ры объ­еди­не­ны по GigE/10Gig Ethernet или InfiniBand. Об­ла­ко POD HPC под­дер­жи­ва­ет более 150 го­то­вых к ис­поль­зо­ва­нию при­ло­же­ний (ком­мер­че­ских или от­кры­тых), что де­ла­ет его удоб­ным во мно­гих слу­ча­ях. Если же их недо­ста­точ­но, то можно вос­поль­зо­вать­ся ин­стру­мен­та­ри­ем PODTools, вклю­ча­ю­щим набор ути­лит для до­сту­па в HPC-облако.

R-HPC и Amazon EC2 пред­ла­га­ют близ­кие по своим воз­мож­но­стям об­ла­ка. Об­ла­ко Cyclone, со­здан­ное в SGI, воз­мож­но, наи­бо­лее про­из­во­ди­тель­ное, по­сколь­ку, по­ми­мо ин­тер­кон­нек­та InfiniBand, в нем ис­поль­зу­ет­ся SGI NUMAlink, что поз­во­ля­ет со­би­рать не толь­ко тра­ди­ци­он­ные кла­стер­ные ар­хи­тек­ту­ры, но и струк­ту­ры более слож­ной то­по­ло­гии. Об­ла­ко Cyclone ори­ен­ти­ро­ва­но на за­да­чи вы­чис­ли­тель­ной био­ло­гии, вы­чис­ли­тель­ной химии, вы­чис­ли­тель­но­го ма­те­ри­а­ло­ве­де­ния, вы­чис­ли­тель­ной га­зо­вой ди­на­ми­ки, ме­то­да ко­неч­но­го эле­мен­та и др. Ре­ше­ние UniCloud от Univa клас­са Infrastructure as a Service (IaaS) слу­жит для со­зда­ния внут­рен­ней (ло­каль­ной) ин­фра­струк­ту­ры об­ла­ка с ис­поль­зо­ва­ни­ем ги­пер­ви­зо­ров VMware, KVM или Xen, а в неко­то­рых слу­ча­ях еще и OpenStack или VMware vSphere. В UniCloud за­дей­ство­ван уро­вень Infrastructure as a Service для со­зда­ния необ­хо­ди­мых кон­фи­гу­ра­ций «на лету».

Ком­пью­те­ры, ори­ен­ти­ро­ван­ные на данные

Вто­рая аль­тер­на­ти­ва — Data-Intensive Computing (DIC), ком­пью­тер­ные си­сте­мы, слу­жа­щие для об­ра­бот­ки боль­ших объ­е­мов дан­ных. В про­ти­во­по­лож­ность им обыч­ные вы­со­ко­про­из­во­ди­тель­ные си­сте­мы (HPC) стоит на­звать Compute-Intensive Computing (CIC). Не ис­клю­че­но, что DIC, ко­то­рый скла­ды­ва­ет­ся сей­час как па­рал­лель­ное на­прав­ле­ние по от­но­ше­нию к CIC, со вре­ме­нем может ока­зать­ся более значимым.

Общая схема ра­бо­ты DIC раз­де­ля­ет­ся на три фазы: сбор дан­ных, из­вле­че­ние ин­фор­ма­ции из них и пе­ре­вод ин­фор­ма­ции в форму, удоб­ную для вос­при­я­тия че­ло­ве­ком. Для опре­де­ле­ния про­из­во­ди­тель­но­сти си­стем клас­са DIC пред­ло­же­на еди­ни­ца из­ме­ре­ния BORPS (Billions Of Records Per Second, мил­ли­ард за­пи­сей в се­кун­ду), в от­ли­чие от MIPS (Million Instructions Per Second, мил­ли­он ин­струк­ций в се­кун­ду) счет здесь идет не по ко­ли­че­ству вы­пол­нен­ных за еди­ни­цу вре­ме­ни ко­манд, а по числу об­ра­бо­тан­ных за­пи­сей. В недав­нем про­шлом в ка­че­стве ос­нов­ной плат­фор­мы для DIC рас­смат­ри­ва­лись раз­лич­ные грид-кон­фи­гу­ра­ции, но в по­след­нее время, в связи с по­яв­ле­ни­ем вы­со­ко­про­из­во­ди­тель­ных кла­сте­ров, со­би­ра­е­мых из недо­ро­гих сер­ве­ров-лез­вий, пред­по­чте­ние от­да­ет­ся им. От более из­вест­ных кла­сте­ров, пред­на­зна­чен­ных для CIC, такие кла­сте­ры от­ли­ча­ют­ся ни­же­сле­ду­ю­щи­ми че­тырь­мя особенностями.

Во-пер­вых, в них ис­поль­зу­ет­ся сов­мест­ное рас­по­ло­же­ние про­грамм и дан­ных. При ра­бо­те с Боль­ши­ми Дан­ны­ми чрез­вы­чай­но важно ми­ни­ми­зи­ро­вать их транс­пор­ти­ров­ку. В боль­шин­стве из­вест­ных HPC-си­стем, где нет та­ко­го тре­бо­ва­ния, при­ня­то хра­нить ос­нов­ные дан­ные в от­дель­ных ре­по­зи­то­рях и в про­цес­се ра­бо­ты пе­ре­ме­щать тре­бу­е­мые дан­ные в со­от­вет­ству­ю­щие кла­сте­ры, где раз­ме­ще­ны за­да­чи; по мере необ­хо­ди­мо­сти ре­зуль­та­ты воз­вра­ща­ют­ся в ре­по­зи­то­рии. В слу­чае с DIC скла­ды­ва­ет­ся прямо про­ти­во­по­лож­ная си­ту­а­ция. Здесь обыч­но рас­пре­де­лен­ные дан­ные и рас­пре­де­лен­ная фай­ло­вая си­сте­ма ста­тич­но, на весь пе­ри­од ре­ше­ния за­да­чи, за­гру­жа­ют­ся в узлы кла­сте­ра, а про­грам­мы, ре­а­ли­зу­ю­щие ал­го­рит­мы об­ра­бот­ки этих дан­ных, под­гру­жа­ют­ся по мере того, как в них воз­ни­ка­ет по­треб­ность. Прин­цип пе­ре­ме­ще­ния кодов к дан­ным осо­бен­но эф­фек­ти­вен еще и по­то­му, что раз­ме­ры про­грамм, вы­ра­жен­ные в бай­тах, на­мно­го мень­ше, чем объем дан­ных, и тем самым за­мет­но сни­жа­ет­ся на­груз­ка на сеть, об­ра­зу­ю­щую кластер.

Вто­рое от­ли­чие — иная про­грамм­ная мо­дель. При ре­а­ли­за­ции DIC обыч­но вы­би­ра­ют ма­шин­но-неза­ви­си­мый под­ход, то есть опе­ра­ции над дан­ны­ми, вы­пол­ня­е­мые в при­ло­же­ни­ях, вы­ра­жа­ют­ся в тер­ми­нах языка вы­со­ко­го уров­ня, неза­ви­си­мо от осо­бен­но­стей той или иной ап­па­рат­ной плат­фор­мы и си­сте­мы дис­пет­че­ри­за­ции, кон­тро­ли­ру­ю­щей по­сле­до­ва­тель­ность, про­цесс ис­пол­не­ния, ба­лан­си­ров­ку, ком­му­ни­ка­ции и пе­ре­ме­ще­ние про­грамм и дан­ных. Аб­стра­ги­ро­ва­ние от «же­ле­за», до­сти­га­е­мое за счет ис­поль­зо­ва­ния ин­стру­мен­таль­ных средств языка вы­со­ко­го уров­ня, важно по той при­чине, что поз­во­ля­ет вы­ра­зить об­ра­бот­ку дан­ных в тер­ми­нах по­то­ков дан­ных и ис­поль­зо­вать общие рас­пре­де­ля­е­мые биб­лио­те­ки. В этом со­сто­ит глав­ное от­ли­чие дан­ной мо­де­ли от обыч­ной про­грамм­ной мо­де­ли HPC, где с целью по­вы­ше­ния ско­ро­сти счета бе­рет­ся за ос­но­ву ма­шин­но-за­ви­си­мая мо­дель, ши­ро­ко ис­поль­зу­ет­ся низ­ко­уров­не­вое управ­ле­ние вы­пол­не­ни­ем задач и ком­му­ни­ка­ци­ей между уз­ла­ми и опора де­ла­ет­ся на спе­ци­а­ли­зи­ро­ван­ные про­грамм­ные па­ке­ты, до­бав­ля­ю­щие слож­но­сти к и так непро­сто­му па­рал­лель­но­му программированию.

В-тре­тьих, боль­шое вни­ма­ние уде­ля­ет­ся на­деж­но­сти и го­тов­но­сти к ра­бо­те. Оче­вид­но, что па­рал­ле­лизм дан­ных пред­по­ла­га­ет син­хрон­ность в их об­ра­бот­ке, поток дан­ных дол­жен со­хра­нять «ла­ми­нар­ность», по­это­му си­сте­ма DIC более чув­стви­тель­на к сбоям, на­ру­ше­ни­ям в ком­му­ни­ка­ции и про­грамм­ным ошиб­кам. Если дан­ные при­вя­за­ны к узлам, то слож­но пе­ре­стро­ить ра­бо­ту всего кла­сте­ра при вы­хо­де из строя од­но­го узла. Такие си­сте­мы долж­ны быть чрез­вы­чай­но от­ка­зо­устой­чи­вы­ми, что пред­по­ла­га­ет со­зда­ние копий про­ме­жу­точ­ных ре­зуль­та­тов, ав­то­ма­ти­че­ское об­на­ру­же­ние вы­шед­ших из строя узлов с ав­то­ма­ти­че­ским рас­пре­де­ле­ни­ем на­груз­ки между остав­ши­ми­ся и воз­мож­но­стью вос­ста­нов­ле­ния на ходу и по­втор­ных вы­чис­ле­ний в слу­чае необходимости.

И на­ко­нец, чет­вер­тое от­ли­чие — га­ран­ти­ро­ван­ная мас­шта­би­ру­е­мость. Ап­па­рат­ная и про­грамм­ная ар­хи­тек­ту­ра си­стем клас­са DIC долж­на быть адап­ти­ро­ва­на к раз­лич­ным по раз­ме­рам объ­е­мам дан­ных во вход­ном потоке.

Чаще всего пер­спек­ти­вы DIC свя­зы­ва­ют с тех­но­ло­ги­ей MapReduce и ее ре­а­ли­за­ци­я­ми на ос­но­ве Hadoop. Но этот путь да­ле­ко не един­ствен­ный, весь­ма ин­те­рес­ные ре­зуль­та­ты по­ка­за­ны на вы­со­ко­про­из­во­ди­тель­ном кла­сте­ре HPCC (High-Performance Computing Cluster), его еще на­зы­ва­ют DAS (Data Analytics Supercomputer). Кла­стер был со­здан несколь­ко лет назад под­раз­де­ле­ни­ем Risk Solutions в LexisNexis из недо­ро­гих сер­ве­ров-лез­вий. Со­всем иной под­ход де­мон­стри­ру­ет ком­пью­тер Gordon, со­здан­ный ком­па­ни­я­ми Appro и Intel для су­пер­ком­пью­тер­но­го цен­тра в Сан-Ди­его. В 2011 году Gordon занял 48-е место в Top500. В 2012 году Appro, вхо­дя­щая во вто­рой эше­лон про­из­во­ди­те­лей HPC (в Top500 на тот мо­мент было 24 со­бран­ных ею ком­пью­те­ра), пе­ре­ш­ла в соб­ствен­ность Cray. С этого мо­мен­та Gordon стал офи­ци­аль­но име­но­вать­ся Cray CS300-AC. От боль­шин­ства более из­вест­ных кон­ку­рен­тов Gordon от­ли­ча­ет­ся ши­ро­ко­мас­штаб­ным ис­поль­зо­ва­ни­ем твер­до­тель­ных на­ко­пи­те­лей, боль­ши­ми раз­ме­ра­ми па­мя­ти в узлах и более про­из­во­ди­тель­ной меж­уз­ло­вой ком­му­ни­ка­ци­ей с ар­хи­тек­ту­рой «трех­мер­ный тор».

HPC, об­ла­ка, DIC

В пред­две­рии оче­ред­но­го Мос­ков­ско­го су­пер­ком­пью­тер­но­го фо­ру­ма, ор­га­ни­зу­е­мо­го из­да­тель­ством «От­кры­тые си­сте­мы», ре­дак­ция Computerworld об­ра­ти­лась с несколь­ки­ми во­про­са­ми к оте­че­ствен­ным ком­па­ни­ям и пред­став­лен­ным в Рос­сии вен­до­рам, свя­зан­ным с HPC. Хо­те­лось узнать, как они ис­поль­зу­ют су­ще­ству­ю­щие су­пер­ком­пью­те­ры и какие по­лу­че­ны ре­зуль­та­ты, ка­ко­во их мне­ние о пер­спек­ти­вах об­лач­ных тех­но­ло­гий в при­ло­же­нии к HPC, а также что они ду­ма­ют в связи с по­яв­ле­ни­ем DIC. И нужны ли, на­ко­нец, для ре­ше­ния ре­аль­ных задач эк­зафлопс­ные ком­пью­те­ры. На часть по­став­лен­ных во­про­сов от­ве­ти­ли пред­ста­ви­те­ли ком­па­ний «Ак­ва­ри­ус», «Т-Плат­фор­мы» и Fujitsu Technology Solutions.

АЛЕК­САНДР БУ­РАВЛЕВ, тех­ни­че­ский ди­рек­тор ПК «Аквариус»

До недав­не­го вре­ме­ни мы за­ни­ма­лись толь­ко тех­ни­че­ским ком­пью­тин­гом. Ре­ше­ния для тех­ни­че­ско­го ком­пью­тин­га часто по­хо­жи на ре­ше­ния для HPC по ло­ги­че­ской ар­хи­тек­ту­ре по­стро­е­ния, од­на­ко они не имеет целью войти в те или иные рей­тин­ги, так как часто вы­пол­ня­ют за­да­чи спе­ци­а­ли­зи­ро­ван­ных рас­че­тов, при­чем огра­ни­чен­но­го числа при­ло­же­ний. Как пра­ви­ло, такие си­сте­мы не столь боль­шие по раз­ме­рам. На­при­мер, по­след­ний такой от­гру­жен­ный нами ком­плекс имел раз­мер в одну стой­ку, ба­зи­ро­вал­ся на вы­чис­ли­тель­ных узлах х86-ар­хи­тек­ту­ры с ин­тер­кон­нек­том Infiniband FDR и под­си­сте­мой хра­не­ния с па­рал­лель­ной фай­ло­вой си­сте­мой. Мы на­де­ем­ся, что ко­ли­че­ство си­стем тех­ни­че­ско­го ком­пью­тин­га будет расти в стране, так как рас­тет число при­клад­ных задач для них в про­мыш­лен­но­сти, стро­и­тель­стве, ме­ди­цине и дру­гих отраслях.

Об­лач­ные ре­ше­ния от­ли­ча­ют­ся эко­но­ми­че­ской це­ле­со­об­раз­но­стью. На­при­мер, один из наших по­сто­ян­ных за­каз­чи­ков — «Ян­декс» — предо­став­ля­ет свои мощ­но­сти для рас­че­тов гео­де­зи­че­ской ин­фор­ма­ции. Од­на­ко такой спо­соб, ско­рее всего, можно рас­смат­ри­вать в ка­че­стве до­пол­ни­тель­но­го, так как ар­хи­тек­ту­ра по­стро­е­ния да­та-цен­тров и ар­хи­тек­ту­ра по­стро­е­ния си­стем HPC раз­ли­ча­ют­ся. Пер­вые стро­ят­ся пре­жде всего для об­сче­тов кли­ент­ских при­ло­же­ний (вы­со­кий тра­фик дан­ных на­ру­жу, низ­кий тра­фик внут­ри), в то время как вто­рые — для ин­тен­сив­ной сов­мест­ной ра­бо­ты узлов (низ­кий тра­фик на­ру­жу, вы­со­кий тра­фик внутри).

Источник: http://www.osp.ru/cw/2013/25/13037754/