вторник, 2 августа 2016 г.

AMD планирует выпуск CPU + GPU мегачипа Zen для серверов

AMD хочет вернуть себе часть серверного рынка с помощью своих новейших процессоров серии Zen. 


AMD была серьезной угрозой для Intel в на рынке серверных решений больше, чем десять лет назад, но после серии промахов и плохих чипов, сервер-бизнес компании висит на волоске. 

Теперь AMD попытается вернуть утраченные позиции с новейшим Zen CPU+GPU, который также будет использоваться в персональных компьютерах. AMD хочет осуществить слияние CPU с GPU высокой производительности с целью создания мега-чипа для самых высокопроизводительных задач. 

Это будет не первый раз, когда AMD попробует создать подобный мега-чип. Компания уже объединяла полнофункциональные процессоры и графические процессоры в сделанных на заказ чипах для игровых консолей Xbox One и PlayStation 4. Чип Xbox One с 5-ю миллиардами транзисторов использует восемь AMD процессоров под кодовым названием Jaguar и графический процессор Radeon. 

Графические процессоры используются в качестве сопроцессоров в одних из самых быстрых компьютеров в мире для таких задач, как моделирование погоды, экономического прогнозирования и проектирования оружия. Они также используются Google в центрах обработки данных для задач обучения различных систем. В данной области Nvidia монополизировала рынок суперкомпьютеров, в то время как AMD пытается бороться на подобных рынках со своими графическими процессорами FirePro. 

Но будущий интегрированный мега-чип от AMD похоже будет действительно уникальным. Nvidia выпускает графические процессоры высокой производительности, но им не хватает центрального процессора. Процессоры Intel доминируют на рынке серверов, но Intel не предлагает GPU. При этом некоторые действующие суперкомпьютеры уже объединили в себе графические процессоры NVIDIA с процессорами от Intel или AMD. 

Intel предлагает для суперкомпьютеров мега-чип под названием Xeon Phi 7290 с 72 ядрами в качестве основного чипа, но он не интегрирован с GPU. 

Новый мега-чип будет довольно смелой авантюрой для AMD, но в случае успеха позволит добиться прорыва. Один процессор и GPU-чип могут быть вполне конкурентоспособными по цене, и это может привести к сокращению потребностей компаний, в том, чтобы покупать отдельные чипы. 

AMD в свое время сделали ставку на ARM процессоры и по непонятным причинам отказалась от развития x86 серверных чипов. Но ARM чипы не прижились в серверах, и Intel нажились на этой оплошности AMD. В итоге Intel уже захватил более 90 процентов рынка чипов для серверов. 

Ожидается, что первые серверы на базе Zen будут доступны в первой половине следующего года от нескольких поставщиков, по заявлениям представителей AMD. 

Компания будет делать чипы для отдельных сегментов рынка серверов, поскольку в отличие от Intel, AMD не столь богата на ресурсы и сосредоточит внимание на том, что считает будет наиболее прибыльным для бизнеса.

вторник, 28 июня 2016 г.

Накопители на магнитных лентах или диски? Будущее ленточных носителей и сферы их применения

Один информационный вестник, не будем называть имени (все совершают ошибки), активно обсуждал увядание сектора хранителей на магнитной ленте. По их мнению, всё, что оставалось производителям магнитных носителей, это просто уйти из бизнеса. Они подчёркивали, что резервное копирование сместилось в сторону VLT, и что для магнитных накопителей это означает конец.

В статье была поставлена под вопрос конкурентоспособность магнитных носителей в сравнении с дисками - одним из аргументов против магнитных накопителей был более медленный доступ к ним по сравнению с ними. Наконец, в этой статье было сказано, что единственный производитель магнитных накопителей, скорости которых были сопоставимы со скоростями классических дисков, это SpectraLogic, поскольку новости относительно других производителей оказывались совсем уж безрадостными.

У всех бывают плохие дни. Оглядываясь на результаты прошлого года, можно выделить несколько моментов, почему приведённые в статье выводы были ошибочными:

• Резервное копирование. В этом авторы отчасти оказались правы. Десятилетиями магнитные ленты были основным носителем для сохранения информации, однако этому, как и многому другому, приходит конец. Резервное копирование быстрее делать на винчестер и дешевле – в смысле краткосрочного хранения – в облако. Целевой рынок – предприятия малого и среднего бизнеса, небольшие объёмы информации которых можно заливать прямиком в облачное хранилище без потери производительности. Однако более крупные предприятия производят большие объёмы данных, которые необходимо хранить в течение длительного периода времени. Именно для них становятся актуальными носители на магнитных лентах, предоставляющие большую плотность хранимых данных и более экономные в плане стоимости.

• Надёжность. Надёжность магнитных лент действительно имела плохую репутацию некоторое время, в основном из-за DLT поколений. Однако с развитием и стабилизацией LTO стандарта это больше неактуально. Магнитные накопители доказали свою надёжность, которая даже превосходит надёжность дисков, особенно дешёвых. National Energy Research Scientific Computing Center (NERSC) сообщил о том, что картриджи для магнитных лент примерно на 4 порядка надёжнее, чем их аналоги для SATA.

На это есть несколько причин – можно рассмотреть критерий качества передачи данных (BER) и феномен деградации хранимых данных. Параметр BER предсказывает процент порченых бит от общего числа записанных бит информации. Магнитные ленты показывают 10-кратное улучшение этого показателя в сравнение с лучшими винчестерами. Деградация данных – постепенное снижение качества среды хранения информации на магнитном носителе – также очень важный показатель качества носителя данных в терминах долгосрочного хранения. И ленты, и винчестеры по природе своей устройства магнитные, но вращающийся диск винчестера представляет больше опасности для хранимой информации (продолжительность жизни LTO – 15-30 лет).

• Продажи. После небольшого провала в продажах, в 2013 году продажи магнитных накопителей остановились, а в 2014 и далее снова пошли в гору. LTO -достаточно чётко описывает состояние рынка магнитных лент. LTO-6 дисков было продано в общей сложности на 100,000 Пб ёмкости меньше, чем лент. LTO-4 также немного сбавили темпы, а вот объёмы продаж LTO-5 выросли. LTO-6 продаётся быстрее благодаря новому фрэймворку. Также одной из причин возросшей популярности стала цена за гигабайт. Производители дисков не упустили шанса упомянуть о снижении цены на свои винчестеры, но ленточные накопители всё равно остались дешевле: картридж для магнитной ленты на 1.5 Тб стоит порядка $40, что в сравнении со схожей ёмкостью - в два раза меньше цены для HDD.

• Производительность. Производители винчестеров любят избитое клише: «магнитные ленты медленнее дисков». По большому счёту это неверно: производительность зависит от скорости дисковой системы или автозагрузки/библиотеки и типа передаваемых данных. Диск, как правило, быстрее при работе со случайным доступом к данным, когда головка диска может перемещаться в разные секторы быстрее, чем головка магнитной ленты. Тем не менее, производительность магнитных ленточных накопителей, как правило, выше при последовательном доступе к данным. Именно поэтому их удобно использовать для бэкапов, архивирования и хранения больших объёмов данных.

Наиболее частые случаи использования магнитных лент

Сегодня магнитные накопители успешно используются в следующих случаях: архивирование, облака (да, вы не ослышались, в облачных хранилищах). Производители дисков отрицают это, но посудите сами: производителям, которые не предлагают покупателям магнитные накопители, выгодно, чтобы последние навсегда исчезли. Такие производители будут спорить, что они не продают ленточные магнитные накопители по той простой причине, что не верят в их возможности. Хотя, с точки зрения ёмкости лент, их экономичности и надёжности такие утверждения просто несправедливы.

Архивирование

Самый распространённый вариант использования – долгосрочное архивирование. Классический пример – долгосрочное хранение архивов данных. Активное архивирование также один из вариантов, когда лента принимает часть данных с диска, таким образом, разгружая его, и предоставляет данные для использования аналитическими программами или загрузки в другие системы.

За примерами далеко ходить не надо. National Geographic’s NG Global Media управляет огромными массивами медиа данных. Television MediaCore – её подразделение, предоставляющее медиа сервисы своим клиентам. Как правило, они генерируют порядка 5-10 Тб контента в день и архивируют примерно 90% от этого количества на ленточные магнитные библиотеки Spectra Logic. Архивы остаются постоянно доступными, в то время как значительный процент объёма данных находится в прямом доступе и повторно используется.

Суперкомпьютер Blue Waters центра суперкомпьютерных вычислений (NCSA) использует ленточную библиотеку Spectra 380B в качестве активного хранилища. Библиотека обеспечивает скорости чтения/записи порядка 2.2 Пб/ч и может хранить 380 Пб данных.

Национальный институт здоровья (NIH) использует магнитную библиотеку Oracle для активного архивирования в своих центрах обработки данных, а также для долгосрочного хранения. Огромные объёмы данных остаются доступны для прямого доступа и анализа медицинскими исследователями по всему миру.

Некоторые провайдеры услуг на базе дисков и облачных хранилищ пытаются противопоставить магнитные ленты и облака друг другу, заявляя что-то наподобие: «хранение данных в облаках быстрее и дешевле, чем на магнитных лентах». Это неверный аргумент в пользу облачных хранилищ по той простой причине, что магнитные носители используются в облаках. Центры данных облачных хранилищ часто владеют огромными библиотеками магнитных лент для долгосрочного и экономичного хранения информации. Исключением является разве что Glacier: Amazon клянётся, что не применяет магнитные ленты, в то же время скромно отмалчиваясь, а что же именно она использует. Однако, многие основные поставщики облачных сервисов, включая Google, пользуются преимуществами магнитных накопителей.

Примеры научных сообществ, сочетающих облака и магнитные носители, включают CERN, лабораторию Argonne National Laboratory и NASA, а канал Discovery, пожалуй, самый яркий пример в этой области.

Большие данные

Ленточные серверы являются наиболее экономичными хранилищами для неструктурированных данных. Даже производитель суперкомпьютеров Cray использует магнитные ленты для хранилищ в своём 4-отсековом архиве. Для анализа больших данных ключевым является активное архивирование и картриджи большой ёмкости для огромных наборов данных.

Промышленная линейка HP StoreEver ESL G3 хранит до 75 Пб данных в единой системе. Крупнейшая промышленная модель Quantum Scalar i6000 также расширяется до 75 Пб. В прошлом году Oracle представила магнитный диск StorageTek, способный хранить 8.5 Тб сырых данных со скоростями доступа до 252 Мб/с. В этом году IBM и Fujifilm анонсировали прототип картриджа, способного хранить 85.9 млрд. бит данных на квадратный дюйм, что эквивалентно 154 Тб несжатых данных. IBM также сотрудничает с Sony, анонсировавшей магнитный носитель с плотностью данных в 148 Гб на квадратный дюйм или 185 Тб в одном картридже.

Что дальше? 

• “Flape”. Не очень удачный термин, сочетающий два слова – флэш (flash) и магнитная лента (tape). Хоть IBM и не использует этот термин, у них есть наработка, объединяющая систему FlashSystems V840 с магнитной лентой. Флэш система имеет достаточную ёмкость и производительность для систем Tier 0 и Tier 1. Она интеллектуально переносит данные прямиком на второстепенный уровень, которым может являться диск или магнитный носитель. IBM предлагает использовать здесь магнитные накопители в целях экономии и надёжности долгосрочного хранения данных.

• Взлёт LTFS. LTFS – это по своей сути грандиозно. Вкратце, файловая система LTFS хранит данные на магнитном носителе вместе с метаданными, которые позволяют пользователям получать доступ к файлам на ленте без необходимости использования бэкап-приложений или специфических версий. Это решает насущную IT проблему необходимости поиска нужных файлов через бэкап-каталог с целью их восстановления с магнитной ленты. IBM разрабатывает магнитную систему, интегрирующую LTFS и GPFS, кластерную файловую систему IBM. Новая система облачит магнитные носители в форму винчестеров для серверов и задаст общее пространство имён диску и магнитной ленте для глобального управляемого хранилища.

• Технические преимущества. LTO-6 всё ещё держится. Каждое новое LTO поколение делает серьёзный скачок в повышении плотности. И LTO-7 уже на подходе, а LTO-9 и 10 – в планах на ближайшее будущее. Ленточные картриджи также постоянно совершенствуются. IBM, Oracle, Quantum, Spectra Logic и прочие производители делают существенные подвижки в плане повышения ёмкости, надёжности и долговечности, улучшая жизненный цикл управления данными и повышая скорости доступа к информации. Поставщики также улучшают характеристики энергопотребления и технологии охлаждения, делая библиотеки магнитных накопителей всё более экономичными. 

Экономия за счёт роста

Экономия на магнитных лентах это экономия за счёт роста. Чем больше масштаб предприятия, объём, необходимый для хранения данных, тем больше выгода от использования магнитных накопителей по сравнению с обычными дисками. Диски быстро становятся более дорогими, поскольку 80% информации на них записывается один раз и дальше просто хранится, как архив, а износ самого диска за счёт наличия внутри подвижных конструкций при этом продолжается – таким образом, компания теряет деньги на неразумное обслуживание архивов данных. А с ростом объёмов информации, которую необходимо хранить, преимущества магнитных носителей становятся всё более очевидными.

Вывод из всего сказанного очень прост – магнитные накопители не умирают, их продажи не уменьшаются и на пенсию они пока не собираются.


Обзор составлен на основе материалов нашего интернет-магазина резервного копирования AllBackup.ru 

четверг, 13 февраля 2014 г.

пятница, 22 ноября 2013 г.

Размагничиватели жестких дисков (Degaussers). Основы.

Размагничиватель -  это устройство, предназначенное для сброса текущего магнитного состояния устройства или носителя информации. Результатом данного воздействия является, как правило, вывод самого устройства из строя и полное уничтожение записанной на нем информации с невозможностью дальнейшего восстановления.

пятница, 3 августа 2012 г.

10 изменений, которые претерпят "облачные" вычисления к 2020 году

Сейчас облачные вычисления и технологии находятся в начальной стадии развития и применения и пока не пользуются должной популярностью у компании. Многие организации медленно и с осторожностью внедряют их в свою структуру. Однако к 2020 г. облако станет главной и неотъемлемой частью вычислительной инфраструктуры предприятия.

CloudTech

Возможно, что через восемь лет многие задачи в облаке будут обрабатывать малопотребляющие процессоры, работающие в высокоавтоматизированных ЦОДах и поддерживающие тесно интегрированную, масштабируемую архитектуру ПО.

Помимо этого получат развитие поддерживающие облака технологии, а быстрое увеличение вычислительной мощности сделает облачные проекты еще дешевле, поскольку в результате станут массовыми технологии, реализуемые в настоящее время только на суперкомпьютерах.

И конечно, к 2020 г. в организациях произойдет смена поколений. Появятся CIO, выросшие во времена использования облачных инструментов. Они будут в гораздо большей степени готовы к применению облаков в масштабе предприятия.

С учетом названных тенденций эксперты приводят 10 кардинальных отличий облаков 2020 г. от сегодняшних.

1. ПО утрачивает связь с аппаратурой

Джон Менли, директор лаборатории HP Automated Infrastructure, считает, что ПО будет оторвано от аппаратуры. Все новые и новые технологии будут предоставляться в виде сервиса. “Облака окончательно превратят вычисления в невидимые”, — заявил он.

В результате, если в 2020 г. вы попросите CIO нарисовать карту инфраструктуры, он не сможет этого сделать, сказал Дэвид Меррилл, главный экономист Hitachi Data Systems. Это связано с тем, что она будет находиться в “абстрактном пространстве”, где ПО пишется таким образом, что, прежде чем вступить во взаимодействие с аппаратурой, оно проходит через ряд фильтров. Это означает, что клиентские приложения или приложения, созданные поверх “платформы как сервиса”, будут инвариантны к аппаратуре.

2. Модульное ПО

Чтобы воспользоваться огромным парком аппаратуры, доступной через облака, каждое приложение в отдельности должно стать объемнее и сложнее, поскольку оно пишется в расчете на использование эффекта масштаба. С ростом размеров и сложности программ акцент в процессе разработки ПО будет смещаться в сторону модульного ПО — крупных приложений, компоненты которых могут модифицироваться без прекращения работы программы. Соответственно облачные приложения потребуют от программистов нового склада мышления, особенно в тех случаях, когда они должны взаимодействовать с несколькими облаками.

“К ПО необходимо подходить по-разному”, — отметил Менли. Он считает, что в 2020 г. одной из главных проблем станет управление интегрированными сервисами. Это связано с тем, что приложения будут не только размещаться в облаке, но и обращаться к другим облакам и к приложениям, размещенным в ЦОДах различных компаний. Иными словами, различные части приложений будут находиться у сервис-провайдеров и вокруг них. По мнению Менли, проблема будет заключаться в том, чтобы добиться хорошего соглашения об уровне обслуживания.

3. Социальное ПО

Наряду с модульной архитектурой ПО может приобрести особенности, характерные сейчас для приложений социальных сетей вроде Facebook, заявил Меррилл. При необходимости программы смогут автоматически создавать кратковременные связи с элементами оборудования и ПО.

“Это будет эволюция в направлении социальных сетей, — считает Меррилл. — У вас будет инфраструктура. Она будет выглядеть как облако, но мы спроектируем ее так, чтобы СУБД “нравился” сервер или ей “нравился” массив хранения”.

Иначе говоря, инфраструктура и ПО ЦОДа будут формироваться вокруг решаемой задачи, а не наоборот. Разработчикам больше не придется заботиться о выделении объема хранения, сервера и коммутатора, сказал Меррилл. Все это будет происходить автоматически.

4. Оборудование потребительского класса правит бал

К 2020 г. будет полным ходом осуществляться переход на недорогое оборудование, поскольку такие схемы, как Open Compute Project, выйдут за пределы ЦОДов Facebook и Amazon Web Services и станут внедряться и небольшими компаниями. “Серверы и системы хранения будут сменными, выдвигающимися на салазках”, — заметил Фрэнк Френковски, директор Facebook по техническим операциям и председатель правления проекта Open Compute Project.

Если разделить инфраструктуру на базовые компоненты, можно быстро производить замены и апгрейды, сказал он. Лучше всего инфраструктура на оборудовании потребительского класса подходит крупным компаниям, имеющим большие ЦОДы. “Я бы сказал, что с нынешнего времени и до 2020 г. наиболее быстро растущим сектором рынка станут облачные сервис-провайдеры”, — заявил Френковски.

5. Малопотребляющие процессоры и более дешевые облака

Примерно год отделяет нас от появления на рынке малопотребляющих процессоров ARM с 64-разрядными возможностями. И когда это произойдет, их использование начнет нарастать очень быстрыми темпами. Для RISC-процессоров будет разработано корпоративное ПО, позволяющее компаниям применять в своих ЦОДах экономно расходующие энергию процессоры и тем самым на порядок снизить расходы на электричество.

HP создала в рамках проекта Moonshot пилотную серверную платформу Redstone, чтобы посмотреть, как клиенты воспримут процессоры ARM. А Dell уже многие годы продает серверы заказной конфигурации на процессорах ARM крупнейшим облачным клиентам через свою группу Data Center Solutions.

Весьма вероятно, что к 2020 г. малопотребляющие процессоры можно будет встретить повсеместно. И это будут не только процессоры ARM. Intel, сознавая нависшую над ней угрозу, напряженно трудится над снижением энергопотребления процессоров Atom. Правда, в основном ее усилия в данной области нацелены на мобильные устройства, а не на серверы. Facebook считает, что распространение процессоров ARM начнется с устройств хранения, а затем охватит серверы.

6. Более быстрые внутренние соединения

Сочетание потребностей в широко распределенных приложениях и наращивании числа ядер в высокопроизводительных процессорах приведет к появлению в ЦОДах сверхскоростных внутренних соединений. Как предсказывает Джозеф Регер, главный технолог Fujitsu Technology Solutions, можно ожидать, что к 2020 г. коммуникации в ЦОДах “будут осуществляться со скоростью нескольких сотен гигабит в секунду”.

По мнению Регера, произойдет “очень быстрое превращение” технологий скоростных внутренних соединений в массовый товар, что приведет к появлению очень дешевых и очень быстрых соединений. Это позволит ускорить передачу информации в ЦОДах и снизить стоимость передачи. Благодаря этому компании смогут создавать более крупные приложения, пересылающие больше данных (их называют “болтливыми”), и потенциально откроет перед разработчиками возможность написания более интеллектуальных, автоматизированных и сложных программ.

7. ЦОДы превращаются в экосистемы

Облачный ЦОД будет “во многом напоминать дышащий живой организм, принимающий различные состояния”, — считает Регер. Сочетание абстрагированного от аппаратуры ПО и ставшего массовым товаром оборудования сделает ЦОДы похожими на экосистемы. Система более высокого порядка будет управлять оборудованием из одной точки, возможности ЦОДа будут расширяться и сужаться в зависимости от нагрузки.

В результате автоматизации простых задач, таких как ремонт и обновление оборудования, ЦОД “станет больше напоминать биологическую систему”, заметил он, в том смысле, что изменения и исправления будут вноситься автоматически.

8. Облака консолидируют

Интернет поощряет большие масштабы. А поскольку в действующие облака вложены огромные капитальные средства, весьма вероятно, что на рынке облачных провайдеров произойдет некоторая консолидация.

Острая конкуренция между несколькими крупными провайдерами может оказаться полезной, так как будет заставлять каждого из них экспериментировать с радикально новыми технологиями. Например, в стремлении снизить затраты на внутреннюю сеть и повысить коэффициент ее использования Google перевела недавно всю свою внутреннюю сеть на управление посредством ПО в соответствии со стандартом OpenFlow. Когда этот стандарт получит достаточно широко распространение, он вызовет переворот в отрасли.

Менли считает, что получат развитие различные облака, предназначенные для конкретных целей: “Установится разнообразие. Думаю, монополия могла бы сложиться, если бы появилась инфраструктура, способная в достаточной мере соответствовать всем нефункциональным инфраструктурным требованиям конечных сервисов”.

9. Смена поколений

К 2020 г. в компаниях появится новое поколение CIO, выросшее после появления облаков и начала предоставления ИТ в виде сервисов. “Наша модель потребления меняется, будучи проблемой поколений. У нас действуют архаичные, основанные на налогах и бухучете правила, препятствующие инновациям”. И новое поколение может полностью изменить порядок оплаты ИТ компаниями, считает Меррилл

10. Возникнет стратификация облаков

Сегодня облака различаются в зависимости от того, какие услуги они предоставляют: инфраструктура как сервис, платформа как сервис или ПО как сервис. А к 2020 г. появятся более специализированные облака.

Согласно Forrester, к 2020 г. можно ожидать появления таких вещей, как инструменты промежуточной виртуализации (middle virtualisation tools) и динамические сервисы аутсорсинга бизнес-процессов, а также еще целого ряда труднопроизносимых аббревиатур. Иными словами, наряду с несколькими крупными провайдерами, предлагающими простые технологии, такие как хранение и вычисления, возникнет широкая сеть провайдеров специализированных облачных сервисов, позволяющая компаниям переносить в облака задачи, которые иначе пришлось бы решать с помощью весьма специфических (и, как правило, очень дорогих) приложений.

Меррилл считает, что облака, как и любые полезные вещи, будут дифференцироваться в зависимости от возможностей их инфраструктуры и разделятся на неизвестные ранее классы. “Подобно тому, как энергию вырабатывают электростанции на угле и природном газе, так и тут появятся различия, — сказал он. — Экономика, по моему мнению, способствует дифференциации и категоризации”.

среда, 27 июня 2012 г.

Принцип энергоэффективного охлаждения суперкомпьютера IBM

Компания IBM предложила охлаждать компьютерные машины при помощи горячей воды еще в 2010 году. Тогда она разработала новую систему охлаждения Aquasar, которая была внедрена в суперкомпьютер Power 575. По мнению разработчиков данная система знаменует «новую эру в энергоэффективном компьютинге». Совсем недавно компания внедрила аналогичную технологию в супермощный компьютер SuperMUC, который находится в суперкомпьютерном центре имени Лейбница в Мюнхене. По словам представителей центра, теперь охлаждение машины потребляет на 40% меньше энергии.


Водяная система охлаждения представляет собой сеть микротрубок, по которым вода подходит к активным элементам компьютера (процессорам и оперативной памяти). Как правило, при водяном охлаждении используется входящая жидкость с искусственно сниженной температурой, однако в текущей разработке SuperMUC охлаждается при помощи воды с довольно высокой температурой (около 40 градусов). Это значит, что использованная вода на выходе может охлаждаться естественным образом за счет окружающего воздуха и далее использоваться в новом цикле процесса.

Таким образом, отпадает необходимость в использовании специального компрессорного оборудования, а значит – и в дополнительном энергопотреблении. Более того, как говорят в датацентре имени Лейбница, в зимний период отработанная вода, нагретая суперкомпьютером SuperMUC , будет использоваться для обогрева внутренних помещений центра.


Как сказали разработчики, такая экономная и «умная» система охлаждения позволяет сохранять около 1,25 миллионов долларов ежегодно. Более того, как сказал Бруно Мишель, член команды разработчиков компании, система охлаждения горячей водой позволяет уменьшить физический размер системы серверов IBM в 10 раз. Учёные также утверждают, что к 2025 году, благодаря водяным системам охлаждения, суперкомпьютер можно будет поместить в корпусе размером с обычный персональный компьютер.


В этом месяце IBM была признана мировым лидером суперкомпьютерной технологии благодаря своим достижениям в области суперкомпьютеров. Ее суперкомпьютер Sequoia, объявили лучшим из самых быстродействующих устройств такого типа.

До IBM лидером была Fujitsu.Эта компания тоже активно развивается. Так, например, в прошлом месяце она заявила о решении строить новый суперкомпьютер. Его мощность составит примерно 10,5 петафлоп/сек, что соответствует мощности суперкомпьютера "K".  Значительная часть мощности - это решения на базе Fujitsu Primergy CX1000 на базе чипов Xeon 5600, появившиеся еще два года назад. Новинка будет иметь 1476 таких серверов с двумя процессорами в каждом и суммарной памятью 184,5 терабайта. Вся система будет работать на специальной суперкомпьютерной версии Linux. По всем параметрам это решение не уступает решению IBM, однако, как и для всех других производителей, главной проблемой в серверах Fujitsu остается система охлаждения.

После начала применения водяной системы, ее разработчики решили поэкспериментировать. Жидкость, нагретую до 60 градусов Цельсия, которую применяли для охлаждения, пустили для обогрева здания, где размещается вычислительный комплекс. Таким образом, с помощью суперкомпьютера Aquasar появилась возможность экономить энергию, а этой энергией, в свою очередь, снабжать окружающие постройки.

пятница, 8 июня 2012 г.

Индустриальные ИБП

Источник бесперебойного питания (Uninterruptible Power Supply, UPS, ИБП) —  автоматическое устройство,источник вторичного электропитания, обеспечивающий подключенное к нему электрооборудование бесперебойным потоком электроэнергии в пределах нормы.



ИБП защищает оборудование от неполадок в питающей сети, а именно
:
  • аварий сетевого напряжения;
  • высоковольтных импульсных помех;
  • долговременных и кратковременных подсадкок и всплесков напряжения;
  • высокочастотного шума;
  • побегов частоты.
ИБП способен корректировать параметры выходной сети, также может совмещаться с различными генераторами электроэнергии. 

Схемы построения ИБП:
  • Резервная схема (Off-Line, Standby) — питание оборудования осуществляется из первичной электрической сети, бесперебойник обеспечивает минимальные изменения производя фильтрацию высоковольтных импульсов и электромагнитных помех. 
  • Интерактивная схема (Line-Interactive) — аналогична предыдущей схеме; дополнительно на входе стоит ступенчатый стабилизатор напряжения, позволяющий получать регулируемое выходное напряжение.
  • Режим двойного преобразования (online) — используется для питания высокопроизводительных рабочих станций локальных вычислительных сетей, нагруженных серверов и любого другого оборудования имеющего повышенные требования к качеству сетевого электропитания. Принцип работы состоит в двойном преобразовании (double conversion) рода тока.

Основными производителями ИБП на сегодняшний день являются: APC, Ippon, Eaton Powerware, POWERCOM, AEG Power Solutions и др.

Одним из мощнейших ИБП еnterprise-класса является APC Smart UPS VT со следующими отличительными характеристиками:
  • малые габариты и вес;
  • технология двойного преобразования On-Line (VFI-SS-11);
  • широкий диапазон входного напряжения;
  • минимальное выделяемое ИБП тепло и высокий КПД;
  • мощные батареи для длительной автономной работы;
  • низкий коэффициент гармонических искажений входного тока и единичный входной коэффициент мощности;
  • наличие раздельных входов для выпрямителя и байпаса;
  • встроенные статический и механический байпасы;
  • встроенная модульная батарея, которая упрощает обслуживание ИБП и увеличивает срок службы;