пятница, 29 апреля 2011 г.

Maxtronic Arena будет использоваться в Музее Изящных Искусств Бельгии

MaxTronic изначально тайваньская компания и не очень известна в мире, несмотря на 16-летнюю историю и активно используемые решения на всех континентах. Сейчас офисы компании находятся во всех развитых странах (Китай, США, Россия, Япония и т. д.).

Однако участие систем хранения MaxTronic в государственных и крупных коммерческих проектах все заметнее, RAID-массивы Arena Janus, Accusys все чаще становятся основой для крупных инфраструктурных проектов.

Музей художника-сюрреалиста Рене Магритте (Magritte) в Брюсселе имеет площадь более 2500 квадратных метров, поэтому задача обеспечить системами видеонаблюдения эту культурную достопримечательность весьма не тривиальна. Британская компания G4S для обеспечения записи сигнала с большого количества IP-видеокамер использовала массивы iSCSI to SATAII Arena Janus II SS-6603E. Установка такой системы позволила сократить количество 19-дюймовых стоек с четырех до одной (!) без потерь дискового пространства и установки дополнительных охлаждающих мощностей.

Такой позитивный опыт решили перенять в Музее Изящных Искусств Бельгии (Royal Museum of Fine Arts of Belgium) и заменить 145 аналоговых камер наблюдения на цифровой современный комплекс с лучшим качеством сигнала, шифрованием и надежным хранением записей. Последнее снова будет реализовано на дисковых массивах MaxTronic.

Ранее G4S перевела на IP-камеры Дом Рубенса в Антверпене (Rubens House in Antwerp) и Брюссельский Koninklijke Musea, что также потребовало развертывания качественных систем хранения информации. И здесь тоже не обошлось без СХД MaxTronic.

Источник: maxtronic.com

вторник, 26 апреля 2011 г.

Облачная неизбежность

Алексей Леонтьев из журнала Эксперт опубликовал свое видение перспектив облачных технологий. Оценки журналиста кажутся нам очень точными. Ведь на самом деле, нет более модной темы новостей, пресс-релизов и программно-аппаратных разработок, чем новые методы распределенных вычислений. А идея автора о возможно концептуальном превосходстве Cisco, NetApp и VMWare в рамках облачной тенденции рынка заслуживает как минимум внимания. Здесь мы приводим краткую перепечатку статьи.

В минувшем году массовый переход к «облакам» стал неизбежен. Не потому, что программисты создали некий новый суперпродукт, а потому, что тренд утвердился в умах создателей «железа»

Развитие концепции «облачных» вычислений, или cloud computing, напоминает известный закон превращения количественных изменений в качественные. О том, что за «облаками» будущее, представители ИТ-отрасли говорят уже как минимум третий год. Минувший год стал переломным: все эксперты признали, что это не модная тенденция или ответвление рынка, а основной тренд, в некотором смысле меняющий весь рынок. Объединяя в «облако» все вычислительные ресурсы, а также устройства для хранения информации (в компаниях или центрах обработки данных – ЦОД), виртуальные решения в первую очередь предназначены для хранения и обработки данных. Но эти функции становятся фундаментом для предоставления всех возможных ИТ-сервисов, поэтому «облака» меняют механизм распространения ПО, замещая лицензирование арендой и лизингом, и открывают новые возможности использования широкого спектра устройств, даже самых слабых, для получения доступа к любым ИТ-сервисам.

Представители корпорации Intel максимально лаконично и понятно объяснили, почему это не просто эволюция, а смена парадигмы: «Ключевые атрибуты, отличающие cloud computing от обычных вычислительных сред:
  • вычислительные функции и функции хранения разделены и предлагаются как сервисы; сервисы создаются с учетом инфраструктуры, допускающей масштабирование в очень широких пределах;
  • сервисы легко приобрести, они оплачиваются в соответствии с фактическим потреблением;
  • доступ к сервисам осуществляется через интернет или внутреннюю сеть с помощью любых устройств».

От очевидной экономии к новой эффективности

Акцентируем внимание на двух внешних факторах, которые подтолкнули мир к принятию «облачных» вычислений. Во-первых, объемы данных и траты на их хранение (в крупных компаниях 60-70% ИТ-бюджета) стали огромными. Во-вторых, финансовый кризис, который максимально актуализировал экономию. Сработало не только то, что виртуальные решения позволяют более эффективно использовать «железо», но в не меньшей степени и то, что виртуализация, создавая общую среду хранения информации, позволяет одновременно применять системы разного уровня и класса от различных производителей и тем самым отложить на некоторое время приобретение нового оборудования.

Однако представляется, что не совсем правильно в качестве ключевой причины называть сочетание объективных факторов с удачными наработками компаний, создающих виртуальные решения, в частности лидера в данной области VMware. При более близком знакомстве с особенностями перехода к «облачным» вычислениям становится понятно, что речь идет о трех ключевых составляющих, о взаимодействии участников разных рынков. В переходе к «облачным» вычислениям большую роль играют не только виртуальные платформы, но и решения от разработчиков систем хранения данных (СХД), а также компаний, создающих инфраструктуру для ЦОД.

Производители устройств для хранения информации играют ключевую роль в развитии концепции «облачных» вычислений. Не случайно VMware принадлежит мировому лидеру рынка СХД – компании EMC. И первые виртуальные решения от VMware выполняли в целом ту же задачу, что и специализированные решения по оптимизации хранения данных (иными словами, технологии сжатия данных). Современные виртуальные решения – это в первую очередь технологии гибкого управления ресурсами, дающие более динамичное распределение ресурсов ЦОД. Что не избавляет производителей серверов от необходимости активно развивать решения, позволяющие максимально эффективно использовать возможности их продукции.

Показателен в этом плане пример компании NetApp. Относительно молодой игрок на рынке СХД и потому компания второго эшелона (заметно отстающая от таких игроков, как EMC, IBM и HP), NetApp последние три года стабильно увеличивала свою долю на рынке. Залог ее успеха, отмечает ведущий технический консультант NetApp Метт Уотс, не в «железе», а в «софте» (платформе), а также в постоянно совершенствуемых программных технологиях, которые позволяют максимально эффективно использовать возможности серверов. Последние решения от создателей серверов позволяют добиться повышения эффективности работы «железа» в десять раз (четыре года назад это использовала при продвижении та же VMware).

И более того, продолжает Метт Уотс, в результате успеха NetApp на рынке СХД в минувшем году возобладала идеология, что компаниям логичнее создавать единое унифицированное решение (повышающее эффективность использования) для всех устройств, вне зависимости от их класса (раньше была популярна идеология, что полный лучший комплект ИТ-решений получают дорогие СХД). Естественно, эта унифицированная платформа готова интегрировать все имеющиеся серверы для создания «облака».
Связать и получить эффект

Решения создателей СХД позволяют максимально эффективно использовать каждое устройство, а виртуальная платформа объединяет все физические устройства для хранения и обработки данных в некий единый виртуальный сервер, или «облако», чтобы динамически использовать их нагрузку. Но наряду с более высокой эффективностью использования возможностей физических устройств это создает большую сложность управления ЦОД. Так, в 2009 году, согласно исследованию IDC, специалистам ЦОД приходилось самостоятельно, практически в «ручном режиме», решать вопросы конфигурации серверов, а также проблемы обеспечения безопасности. Единое «облако» нуждается в более тесном взаимодействии всех физических составляющих. Здесь на первый план выходят компании, которые занимаются разработкой сетевой инфраструктуры ЦОД. Без предоставленных ими инноваций cloud computing как новая вычислительная среда состоялся бы позже.

«Когда мы внедряем виртуальное решение, то фактически берем и превращаем много отдельных физических серверов в виртуальные машины, которые живут в едином хосте, а это предполагает совсем другие требования к подключениям внутри ЦОД», – рассказывает системный инженер-консультант Cisco Systems Александр Скороходов. Самая неприятная проблема, возникающая при виртуализации, – необходимость дублировать каналы для хранения информации и доступа в интернет. В ЦОД фактически работают две сети: сеть передачи данных, использующая технологию Ethernet, и сеть хранения данных, построенная на технологии Fiber channel. «Это всегда не радовало, но несколько сглаживалось тем, что к сети хранения данных вы подключали не все серверы. При переходе к виртуализации все серверы должны иметь доступ к общему ресурсу, для каждого сервера нужна сеть передачи и хранения данных. Две параллельные сети, два параллельных набора одного оборудования – это затратно и усложняет управление», – замечает Александр Скороходов.

Как решение проблемы созданы устройства для построения конвергентной сети ЦОД, где единое подключение используется для передачи и хранения информации (технология fiber channel over internet). Параллельно производители сетевого (теперь уже – конвергентного) оборудования повысили скорость подключения с 1 до 10 Гбит/сек. Параллельно ими разработаны решения, позволяющие настраивать сетевую архитектуру виртуальной сети, чтобы соблюдать существующую политику безопасности, ориентированную на традиционные вычислительные системы (без виртуализации).

При этом важно, что данная тенденция, как и в случае с созданием унифицированных решений производителей серверов, является не неким отвлечением, а осознанной перспективой развития компании. «В целом компании, которые давно находятся на рынке, считают, что представить единую архитектуру, включающую в себя все главные идеи, – это проще и эффективнее. В случае Cisco можно говорить, что есть единое видение развития наших систем, куда входят конвергентные решения, сетевая поддержка виртуализации», – поясняет Скороходов. То есть хотя новые устройства и не подразумевают обязательное использование «облачных» вычислений, они предоставляют возможность использования конвергентной инфраструктуры.

Так, совместные усилия представителей трех рынков дают новое содержание cloud computing. Производители СХД создают не только «железо», но и решение для оптимального использования его возможностей в «облаке», виртуальная платформа объединяет все физические мощности, позволяя динамически перераспределять нагрузку как для хранения данных, так и для вычислительных функций, дополняют все устройства для организации внутренней сети, «заточенные» под «облачные» вычисления. В итоге владельцы «облака» имеют такую же надежность и управляемость своей системы хранения и обработки данных, как если бы применяли традиционный подход – не создавали «облако», но с заметно более высокой эффективностью (в разы больше).

Оформление в конце 2009-го – начале 2010 года тройственного союза (в частности, EMC объявила о совместных работах с Cisco и VMware в ноябре 2009 года, а NetApp в апреле 2010-го начала продвигать совместное с Cisco и VMware решение) дает силу старым рассуждениям о том, что «облачные» вычисления в скором времени приведут к серьезным изменениям на ИТ-рынке, а те, кто не встроится в тренд, окажутся в аутсайдерах.

Само появление концепции «облачных» сервисов – продолжение развития технологий виртуализации, которые, в свою очередь, создавались в рамках развития аппаратных средств, то есть «железа». Но в настоящее время выстраивается обратная зависимость: «облачные» сервисы, став популярными, начинают определять требования к аппаратной инфраструктуре. Отсюда следуют как минимум два немаловажных вывода.

Во-первых, платформы от создателей СХД имеют все шансы стать унифицированными не только для собственного оборудования, но и для оборудования конкурентов, и таким образом сформировать отдельный рынок. Во-вторых, стремление к максимально эффективной работе с данными включит в систему решения по организации документооборота, такие как Documentum или DocsVision. Предпосылки для этого в целом есть: та же Documentum принадлежит EMC, а ключевой игрок на рынке ERP- и CRM-решений компания Oracle в минувшем году приобрела Sun Microsystems – производителя систем хранения данных.

понедельник, 25 апреля 2011 г.

Дата-центр Facebook: видео

На видео можно посмотреть на серверы, стойки и шкафы, источники бесперебойного питания и охлаждение для инфраструктуры Facebook. Продолжительность роликов – 8 для первого и 12 минут для второго.







пятница, 22 апреля 2011 г.

Любой смартфон будет как компьютер

Я всегда мечтал, чтобы рядовое устройство можно было легко превратить в полноценный компьютер, просто присоединив необходимые периферийные девайсы - монитор, клавиатуру, мышь и так далее. Сейчас конечно тоже можно так себя порадовать, да только так могут только некоторые дорогие смартфоны и планшеты. И то существует список поддерживаемых устройств, так что свою любимую мышку так просто не подключишь, а придется покупать брендированную bluetooth-мышь за немаленькую цену.

Теперь же, пророчит нам ARM, пользовательское счастье не за горами. Cortex-A15 - вот имя мечте. Новые мобильные процессоры компания планирует выпустить на рынок уже в следующем году, что позволит создавать энергоэффективные планшеты со стандартной спецификацией периферийных устройств.

В интервью ресурсу TG Daily господин Джеймс Брюс (James Bruce), руководитель отдела маркетинга мобильных решений, заявил: «С выходом нашего грядущего процессора Cortex-A15 мы определённо станем ближе к тому дню, когда ваш смартфон или планшет сможет выступать в качестве основного вычислительного устройства. Вы сможете просто подключить смартфон или планшет к внешнему монитору для просмотра фильма или презентации, а подключив мышь и клавиатуру через Bluetooth — работать с документами Office.

«Процессор поддерживает многоядерный дизайн, легко масштабируемый от двух до четырёх или даже до восьми ядер. Существуют различные решения для различных рынков, и вы сможете увидеть A15 в ряде платформ, включающих смартфоны, планшеты, портативные вычислительные устройства и даже серверы», — отметил господин Брюс.

Джеймс Брюс традиционно выразил немало энтузиазма относительно использования ARM-процессоров в растущем числе серверов: «Индустрия в целом сейчас осознаёт, что невозможно продолжать наращивать энергопотребление, как с точки зрения окружающей среды, так и с чисто финансовой стороны. Именно поэтому мы работаем с партнёрами над интеграцией A15 в серверные решения. В основном, 32-битного чипа A15 (с 40-битной физической адресацией) более чем достаточно для стандартных серверных задач вроде обслуживания среднего уровня сайтов или хостинга данных».

Посмотрим.


Кругляк Валерий

четверг, 21 апреля 2011 г.

Научный центр CERN переходит на HP Networking

Расположенная в Женеве кампусная сеть передачи данных одного из крупнейших мировых научных центров CERN, в которой каждый год обрабатывается до 15 петабайт данных, готовится к переходу на сетевой протокол IPv6, позволяющий расширить возможности по распределению IP-адресов и подготовиться к мировой революции в IP-адресации.

Европейская организация по ядерным исследованиям хочет перейти на новую версию IP для повышения масштабируемости сети и внедрения на ее основе новых приложений. В кампусной сети CERN'а сегодня работает более 50 тысяч активных пользователей. Она состоит из более 10 тысяч километров кабеля и 2500 коммутаторов и концентраторов, из которых значительная доля приходится на сетевое оборудование HP Networking (HP ProCurve). Через эту сеть ученые из разных стран получают доступ к шести ускорителям элементарных частиц, в том числе Большому адронному коллайдеру (LHC), и самой большой в мире академической системе распределенных вычислений Worldwide LHC Computing Grid (WLCG).

Для модернизации сети и внедрения протокола IPv6 CERN выбрал коммутаторы HP E-Series. Коммутаторы E6600, E5412, E8212 и E3500 обеспечивают подключение суперкомпьютеров к границе кампусной сети. Во всех этих коммутаторах HP поддержка IPv6 реализована на аппаратном уровне.

Выбор решений HP Networking для построения серверной границы модернизированной сети был обусловлен тем фактом, что HP представила пятилетний план развития своих сетевых продуктов, который полностью удовлетворяет требованиям CERN и хорошо вписывается в стратегию расширения его кампусной сети. Кроме того, ИТ-отдел остался доволен своим опытом сотрудничества с HP на предыдущем этапе развития кампусной сети, который стартовал в 2007 году.

"А что может мешает вашей компании выбрать HP Networking?", - спрашивают специалисты HP. Главное затруднение - это нераспространённость решений и отсутствие специалистов по ним, особенно в России. Тем более что объективно процесс досконального и комплексного освоения сетевых решений HP по сравнению с Cisco начала не так давно.

Посмотрим. 11xx.ru.

Источник: Блог HP

среда, 20 апреля 2011 г.

Слияния и поглощения в 2011 году

В эпиграф вынесем старый добрый анекдот про слияния и поглощения: Встречает Серый Волк Красную Шапочку и говорит: - Ну, ты сама понимаешь: у тебя есть два варианта. - Какие? - Ну либо слияние, либо поглощение.

Рынок M&A: восстановление доверия на фоне противоречивых сигналов

В ближайшие полгода треть международных компаний сосредоточит свои усилия на поиске новых объектов для проведения сделок M&A (Mergers and Acquisitions = Слияния и поглощения), что свидетельствует о тенденции увеличения активности на этом рынке, установившейся на ближайшую перспективу.

Несмотря на нестабильную политическую обстановку, экономическую неопределенность и стихийные бедствия, руководители компаний делают оптимистичные прогнозы в отношении развития мировой экономики. При этом количество руководителей, полагающих, что турбулентность в финансовой сфере сохранится дольше года, сократилось на 20%.

Однако даже несмотря на рекордный объем денежных средств, образовавшийся в результате рефинансирования деятельности на протяжении нескольких лет и заключенных недавно на рынке нескольких сделок с высокой стоимостью, в долгосрочной перспективе компании предпочитают придерживаться более сдержанной тактики. Таковы результаты четвертого исследования «Эрнст энд Янг» «Барометр уверенности компаний» (Capitalconfidencebarometer), которое проводится два раза в год.

На основе данных мартовского исследования, в котором приняли участие более 1000 руководителей высшего звена из разных стран мира, можно сделать вывод о том, что более половины респондентов (56%) отмечают улучшение конъюнктуры на рынке капитала. При этом 38% опрошенных не испытывают трудностей при получении доступа к источникам финансирования инвестиционных проектов.

Тем не менее, несмотря на недавний рост стоимости сделок на рынке M&A, количество компаний, считающих данное направление развития приоритетным, снизилось на 20% за год, тогда как практически 50% компаний (т. е. почти в два раза больше, чем полтора года назад) сосредотачивают свое внимание исключительно на органическом росте.

Пип МакКрости, вице-президент Ernst & Young Global, руководитель международной практики консультационных услуг по сделкам, говорит: «Вряд ли можно с уверенностью сказать, что ситуация на рынке M&A восстановилась, учитывая целый ряд сложных вопросов как внутреннего характера, связанных с деятельностью самих компаний, так и внешнего: к ним относятся развитие политической ситуации на Ближнем Востоке и стихийные бедствия. А если добавить к этому потенциальное увеличение инфляции и налогов, то сложность ситуации лишний раз подчеркивает неопределенность мирового рынка и характер проблем, с которыми приходится сталкиваться руководителям компаний.

Некоторые из важнейших элементов роста все же можно отметить: средства на балансе есть, доступ к источникам кредитования стал свободнее, однако такое положение вещей наблюдается уже в течение некоторого времени. Последние показатели свидетельствуют о всплеске активности, однако он обусловлен исключительно ростом стоимости сделок, в то время как их объемы оставляют желать лучшего. В прошлом году мы стали свидетелями нескольких фальстартов и задержки обещанного бума на рынке M&A. Несомненно, нами было отмечено значительное увеличение активности в отдельных секторах некоторых рынков, однако нельзя сказать, что 2011 год будет менее сложным или предсказуемым, чем прошлый».

Прогноз на краткосрочную перспективу
В последнем квартале на рынке был завершен ряд сделок с высокой стоимостью, а с октября количество компаний, планирующих приобретение в течение ближайшего полугода, увеличилось на 18%. Однако доля тех, кто планирует приобретение в течение следующих одного-двух лет, продолжила снижаться, составив всего 44% (по сравнению с 54% в октябре 2010 года и 67% в апреле 2010 года).

Все больше компаний озвучивают планы о сворачивании инвестиционной деятельности в течение ближайшего полугода. Пятая часть из них (18%) высказывает предположения о продаже активов. В то же время доля компаний, планирующих завершить инвестиционную деятельность в течение следующих одного или двух лет, сократилась на треть, что свидетельствует об ускорении компаниями темпов реализации активов.

Пип МакКрости продолжает: «Существует резкий контраст между планами, составляемыми компаниями на полугодие, и их перспективами на 12 и более месяцев. Несомненно, некоторые компании сокращают сроки реализации своих планов. Другие придерживаются стратегии органического роста, так как считают ее более безопасной, чем рост за счет сделок M&A».

Новые барьеры
Основное условие, препятствующее заключению сделок на данном этапе, − это несовпадение ожиданий покупателя и продавца, о котором говорят все больше руководителей (50%). При этом 49% респондентов выразили обеспокоенность по поводу неопределенности или сложности в оценке стоимости.

По мнению руководителей компаний, основные трудности, связанные с завершением сделки, заключаются в нехватке времени и ресурсов менеджмента (65%), а также в необходимости согласования позиций многочисленных заинтересованных сторон (63%). Причем в октябре 2010 года более половины компаний (52%) назвали осторожность инвесторов основным препятствием для завершения сделок M&A. Впрочем, это уже не актуально. Осторожность инвесторов все еще представляет некоторые трудности, однако ситуация несколько упростилась (количество респондентов снизилось до 48%).

Гонка за рефинансированием практически завершена
За последние два года 80% компаний провели рефинансирование и улучшили балансовые показатели. Однако те компании, которые изыскивают на рынке средства, должны получить доступ к капиталу как можно скорее. Две трети организаций, нуждающихся в рефинансировании обязательств, должны провести его в течение ближайших шести месяцев.

Немало компаний так и не ликвидировали существенные сбои в операционной деятельности, при этом 8% направляют все свои усилия исключительно на выживание. Три четверти из них указывают, что им приходится сталкиваться с трудностями и в профильной, и во вспомогательной деятельности. При этом многие рассматривают в качестве единственной и основной проблемы недостаточную ликвидность. Чтобы продемонстрировать всю сложность задач, которые все еще требуют решения, более половины всех респондентов (55%) отмечают более или менее серьезные сбои в профильной деятельности.

Пип МакКрости говорит: «Более или менее серьезные сбои в деятельности по-прежнему остаются основной частью уравнения. Хотя некоторые компании уже приняли меры для решения своих финансовых проблем путем экономии денежных средств и оптимизации оборотного капитала, другим этот процесс еще только предстоит. Те, кто прошел данный путь, выходят на новую стадию дальнейшего повышения эффективности деятельности, предполагающую стабильный органический рост. Им пришлось принимать сложные решения, теперь они ищут пути дальнейшего совершенствования».

Цель – развивающиеся рынки
За последние 18 месяцев доля компаний, в планы которых на ближайшее полугодие входит освоение развивающихся рынков, увеличилась на 50%. Перспективы работы на развитых рынках, напротив, вызывают незначительный интерес, уровень которого продолжает падать. Однако лишь менее половины (47%) респондентов думали о путях выхода из инвестиций перед заключением сделок.

«Компании продолжают искать пути проникновения на развивающиеся рынки, для которых характерны более широкие перспективы роста, чем для рынков развитых стран. Однако инвестиции в развивающиеся рынки, даже при поддержке со стороны опытных партнеров по совместному предприятию, могут повлечь за собой существенные риски, причем не в последнюю очередь связанные с политической нестабильностью и различиями деловой культуры. Даже организациям, которые нацелены на долгосрочную перспективу, приходится тщательно продумывать пути выхода из инвестиций в случае необходимости», − говорит Пип МакКрости.

Источник: энд Янг»

вторник, 19 апреля 2011 г.

Резервное копирование: ленточные накопители до сих пор самые популярные

На недавно прошедшей конференции CNews обсуждались проблемы и перспективы рынка хранения данных и резервного копирования. Эта секция кроме всем известных фраз о необходимости вкладываться в облака, дедупликацию, виртуализацию и просто расширять IT-инфраструктуру, нам показалась интересным очередное подтверждение актуальности ленточных картриджей как носителей данных. Ибо ни диски RDX, ни обычные дисковые системы хранения и NAS не имеют аналогов по своим качественным характеристикам и свойствам в роли устройства для резервного копирования.

Вот тут можно почитать статьи о ленточках: http://www.allbackup.ru/articles_new.php

Источник: nstor.ru

понедельник, 18 апреля 2011 г.

Новые видеокарты Intel с 50 ядрами

Графические ускорители начинают всё более активно использоваться в суперкомпьютерах. Корпорации Intel, которая получает немалые доходы от этого рынка, нужно как можно скорее представить адекватный ответ, который смог бы противостоять экспансии графических решений NVIDIA Tesla и AMD FireStream. В этом отношении Intel делает ставку на архитектуру MIC.

Новая тестовая платформа MIC с кодовым именем Knights Ferry уже начала поставляться избранным разработчикам, причём до конца года их число должно возрасти до 100. Преимуществом платформы MIC является совместимость с архитектурой x86: для получения значительных преимуществ существующее ПО не придётся полностью переписывать, как в случае с графическими ускорителями.

Intel обещает, что до конца 2011 года доступ к тестовой платформе MIC получат около сотни разработчиков


Кирк Скауген (Kirk Skaugen), вице-президент отделения архитектур Intel и главный управляющий группы центров обработки данных в Intel, во время своего доклада на форуме IDF заявил: «Intel MIC следует рассматривать в качестве сопроцессора. Преимущество в том, что вы можете использовать те же компиляторы, те же инструменты, те же профили производительности VTunes, которые применяются примерно в 90% суперкомпьютеров, входящих в рейтинг Top 500».

Ускорители MIC нового поколения будут представлять собой карты для разъёма PCI Express, в основе которых лежит 22-нм чип (кодовое имя Knights Corner), имеющий более 50 вычислительных ядер. По словам господина Скаугена, новые компиляторы Intel позволяют оптимизировать программное обеспечение для максимально эффективного автоматического распределения задач между процессорами Intel Xeon и MIC. Корпорация Intel утверждает, что тесное взаимодействие серверных процессоров и модулей MIC позволяет добиться эффективного решения самых сложных высокопараллельных задач на планете с самым большим объемом данных и параллельных потоков.

Выход семейства 22-нм серверных ускорителей с архитектурой Many Integrated Core, похоже, должен состояться в следующем году. Речь пока идёт только о серверном оборудовании: Intel ничего не сообщает относительно возможного в будущем противостояния с NVIDIA и AMD в области игровых потребительских видеокарт, но новые технологии, однозначно, рано или поздно придут и в пользовательский домашний сектор. Возможно, в урезанном виде.

Источник: fudzilla.com, softpedia.com, 3dnews.ru

четверг, 14 апреля 2011 г.

Интервью с сотрудницей Facebook

В интервью Rumpus анонимная сотрудница Facebook рассказывает о том, как алгоритм социальной сети собирает и применяет информацию о пользователе. Сам Facebook, казалось бы, не скрывает и не отрицает того, что алгоритмы функционирования сервиса подразумевают сбор и обработку поведенческих данных. Но детали, тем не менее, впечатляют многих:

- если даже вы удаляете из своего профиля какие-то данные (фото, посты, "поделения" ссылками) - Facebook все равно сохраняет у себя эту информацию. Та же судьба ждет то, чего вы удалить не можете - информацию о заходах на Facebook, кликах ссылок в ленте, лайках, отметках на фото и т.д. История просмотров чужих профилей, фото, история поиска - всё сохраняется. Навсегда.

- личные сообщения тоже не удаляются, а отправляются на вечное хранение. Фейсбукерам достаточно сделать запрос к базе данных, чтобы их почитать.

- Это помогает персонализировать то, что Facebook вам показывает - будь то "френдлента" или результаты поиска. Уже по первой букве, введенной в поисковую форму, Facebook догадывается, кого из пользователей вы скорее всего хотите найти

- Всего у Facebook 200-220 млн. активных пользователей (залогинились и сделали что-то хотя бы раз за 30 дней) и больше 300 млн. аккаунтов

- Facebook не собирается менять свою политику хранения информации. Разве что - хранить меньше фоток. Facebook превратился в самый крупный фотохостинг в мире. Когда вы загружаете фото, сервис делает из него шесть - разные форматы для показа в новостной ленте, в альбомах, на аватаре и т.д.

- не так давно у команды Facebook был master-password, пароль, с помощью которого можно залогиниться в любой аккаунт на Facebook. Пароль был очень сложный и безопасный, использовать его могли только в офисе и только особо доверенные сотрудники Facebook. Сейчас, по словам собеседницы Rumpus, такого пароля уже нет. Как минимум двое сотрудников социальной сети были уволены за злоупотребление этим паролем. Да и сама собеседница им злоупотребляла в личных интересах: просматривала закрытые профили. Но ничего там не меняла!

- Мастер-пароль они отключили, но взамен дали сотрудникам другой инструмент. Теперь если сотрудник заходит в профайл обычного пользователя из внутренней сети Facebook, у него появляется кнопка "залогиниться в аккаунт этого пользователя". Чтобы нажать эту кнопку, сотрудник должен написать объяснение того, зачем ему нужно логиниться в чужой профайл. За недостаточно убедительное объяснение светит увольнение.

- для тестирования новых фич (и не только) в Facebook начинают применять "психологический анализ". В первую очередь - eye-tracking, клики и прочие поведенческие метрики

- иранская версия Facebook (перевод интерфейса на язык фарси) была сделана за 36 часов. Руководство сервиса обнаружило, что иранские граждане используют Facebook для организации митингов и других мероприятий протеста, связанных с проходившей в стране избирательной кампанией, и дало команду быстренько выйти на новый рынок. А это было не слишком просто, потому что фарси (персидский язык), подобно арабскому, подразумевает написание справа налево. Было оперативно нанято "двадцать с чем-то" переводчиков и программистов, и сайту сделали "зеркальное отражение" на фарси. Результатом стало утроение количества регистраций в первый же день работы иранской версии.

- Facebook намерен и дальше идти на локальные рынки, в том числе не самых развитых стран. И делать он это будет исключительно "для людей", а не для себя. Самой компании рынки США, Европы, Канады, Австралии и Мексики приносят 99,9% дохода, и так будет следующие 5-10 лет.

- самая странная ситуация, в которой девушке приходилось участвовать, оказалась таки связана с необходимостью залогиниться в чужой аккаунт. Какой-то загадочный тип отобрал 200 пользовательниц по имени Кэтлин и отправил им длинный текст о семантическом родстве их имени со словом poop (какашка). Еще более загадочный тип создавал фейковые аккаунты, копируя информацию других пользователей (фото, биографию etc) и общался с этих фейковых аккаунтов... с самим собой. То есть, со своим настоящим профайлом. Слал сообщения, писал на "стене"... Оба случая начали расследоваться потому, что затрагивали друзей или родственников интервьюируемой.

- программисты в facebook тоже странные, хотя и очень умные. Один из них, например, прямо сейчас переписывает весь Facebook с PHP на HPHP (гипер-PHP). Редакция рассылки не рискует переводить пассаж про отличие этого языка от PHP во избежание технических неточностей и просит интересующихся обратиться к первоисточнику. Разговаривать о банальных вещах типа баскетбола с этими людьми нельзя. Разве что о теории графов.

среда, 13 апреля 2011 г.

Российский интернет: ".ru", ".su" и ".skolkovo"? Всего 185 тысяч долларов!

Фонд "Сколково" собирается зарегистрировать собственную доменную зону .Skolkovo, сообщил в своем блоге вице-президент фонда Станислав Наумов.

Представители фонда направили 5 марта 2011 года в корпорацию ICANN (занимается администрированием интернета) письмо, в котором высказали желание зарегистрировать доменную зону .Skolkovo. В понедельник им ответил директор ICANN Род Бэкстром. По его словам, процедура регистрации новых зон корпорацией еще не утверждена, и регистрация нового домена верхнего уровня пока невозможна.

По словам представителя крупнейшего российского регистратора компании Ru-Center Андрея Воробьева, новые домены верхнего уровня могут появиться к концу 2011 года. "Ожидается, что процедура регистрации может быть утверждена 20 июня в преддверии очередной конференции ICANN", - поясняет РИА Новости Воробьев. Вообще, вопрос о регистрации новых доменных зон в ICANN обсуждается с 2008 года.

При этом, по его словам, минимальная сумма, которую фонду "Сколково" придется заплатить за новую доменную зону корпорации ICANN, составит 185 тысяч долларов. Весьма рациональная трата денег на инновации. Кстати, у России итак два собственных национальных домена первого уровня - .ru и .su, доставшийся от СССР.


Источник: stanislavnaumov.ru

вторник, 12 апреля 2011 г.

PC Magazine назвал лучшие серверы 2010 года: впереди - русские

В марте журнал PC Magazine представил обзор "Россия: лучшие из лучших 2010". Нам интересны результаты в секции серверов. Чем руководствуются сотрудники журнала, составляя рейтинг с выигравшими российскими сборщиками серверов, лихо обошедшими именитых брендов - IBM, Dell, HP? Цитата со страниц официального пресс-релиза:

  • Во-первых, оцениваются технические особенности (по результатам испытаний в тестовой лаборатории или по оценке экспертов журнала).
  • Во-вторых, рассчитывается технико-экономический профиль изделия (в сравнении с другими продуктами того же класса и ценовой категории; используется собственная аналитическая система).
  • В-третьих, привлекаются данные опросов серии «Сервис и качество: выбор читателей», отражающие мнение пользователей как о конкретных моделях, так и о той или иной марке в целом.
Итак, результаты рейтинга:

Серверы начального уровня

- R-Style Marshall NP 2110
- DEPO Storm 1300NT
- IBM Power 710 Express
Представления о том, какой инструментарий необходим крупному, среднему и малому бизнесу, у каждого свои, тем более в ИТ-отрасли. Неудивительно, что даже такие гиганты корпоративного сегмента, как IBM, осваивают сектор малого и среднего бизнеса. Ориентируются они на растущие компании с богатым потенциалом развития — и предлагают им недорогие и простые в управлении инфраструктурные решения, оптимизированные для выполнения новых рабочих нагрузок. Именно к таким решениям относится IBM Power 710 Express, предназначенный для консолидирования ИТ-ресурсов, управления мобильными приложениями, контроля за информационными потоками. Сервер построен на базе процессора IBM POWER7 и позволяет удовлетворить растущие потребности средних компаний в развертывании надежных, защищенных и гибких инфраструктур, способных оперативно масштабироваться для поддержки развивающегося бизнеса.

Серверы среднего уровня

- HP ProLiant DL380 G7
Средний бизнес, пожалуй, в большей степени, чем малый или крупный, строит свою стратегию вокруг возврата инвестиций. Выверенное балансирование между стремлением вложить деньги в собственное развитие и ухватить очередную небольшую долю рынка ведет к успеху и дальнейшему развитию; стратегический просчет оборачивается неминуемым крахом. В такой ситуации особенно важно, чтобы и ИТ-оборудование (расходы на которое у большинства средних компаний относятся к непрофильным) само как можно скорее окупилось. Компания НР, предлагая новую платформу ProLiant G7, оценивает ожидаемый срок возврата инвестиций всего в два месяца. Монтируемый в стойку сервер HP ProLiant DL 380 G7 заслуживает столь высокую оценку эффективности потому, что обеспечивает ряд ключевых бизнес-преимуществ: коэффициент консолидации до 20:1, сокращение требуемых для развертывания ИТ-инфраструктуры площадей, повышение производительности ЦОД, в том числе и в расчете на 1 Вт энергопотребления. Конвергентная инфраструктура, ключевым компонентом которой должен стать HP ProLiant DL 380 G7, позволяет интегрировать разрозненные технологические активы, высвобождая ресурсы компании для более активной работы на основном поле ее деятельности.
- Gladius Tw2 2086XQR24-192 2532
- Aquarius N70Q43


Нам особенно интересны именно серверы лидеров рынка - HP Proliant и Integrity, IBM System X, Dell PowerEdge, Supermicro. Именно поэтому мы здесь приводим аргументацию журналистов только в применении к этим серверам. Вообще, если честно, странно, что отечественной сборки машины занимают столь высокие и даже первые места, однако развернутую аргументацию сомневающиеся могут найти на страницах pcmag.ru. А нас итоги заставляют задуматься об объективности рейтинга, тем более что выигравшие получают небольшое маркетинговое конкурентное преимущество - могут поместить на свой сервер логотип рейтинга PCMag.

У HP новый сервер - DL120 G7

HP выпустила новый сервер - Proliant DL120 G7 Пока купить его получится только в США и Европе, ждем в России через пару месяцев, сейчас нет даже цены, но ожидается относительно доступная. "Относительно" - потому что это HP. Зато мощно и надежно. Описание на русском доступно здесь.

Источник: NStor

Мир потребляет 9.57 зеттабайт данных в год

Трое исследователей из Калифорнийского университета в Сан-Диего провели интересное исследование, в рамках которого подсчитали количество деловой информации, которая обрабатывается компьютерными серверами во всем мире.

Если эту информацию перенести в книги, то образовалась бы огромная стопка, которая могла бы достичь от Земли восьмую планету Солнечной системы - Нептун, и обратно - и так 20 раз в год.

Ученые подсчитали, что 27 млн. компьютерных серверов расположенных в разных странах мира обработали вместе 9.57 зеттабайт, что составляет 9.5 млрд. терабайт или 9,570,000,000,000,000,000,000 байт, информации в 2008 году. А научная статья была представлена ​​на конференции Storage Networking World в начале апреля.

По словам исследователей, каждые два года общая нагрузка на серверы заметно увеличивается. Если такая тенденция сохранится, то где-то до 2024 года серверы ежегодно будут обрабатывать такое количество информации, которое в виде книг достигло бы Альфа Центавры - ближайшей к нам звездной системы в Млечном Пути (в том случае, если толщина книги 4.8 см., и в ней содержится 2.5 Мб информации).

Кроме того, по словам профессора Роджера Бона, большое количество информации существует короткий промежуток времени. Она создается, быстро используется в нужных целях и удаляется, то есть человек никогда не увидит ее.

Источник: erudytam.net

пятница, 8 апреля 2011 г.

Кто и как продвигает облачные технологии: Google, Amazon, IBM, Cisco, Microsoft

При рассмотрении корпоративных стратегий крупнейших ИТ-компаний удобно разделить эти компании на вендоров с сервисным (Google, Amazon Web Services) и инфраструктурным/инструментальным (IBM, VMware, Cisco, Microsoft) бэкграундом. Принципиальная разница заключается в том, что сервисным компаниям не нужно предпринимать никаких усилий для того, чтобы освоить облачный бизнес – они изначально работают именно в нем и обладают достаточным набором популярных облачных приложений, не нуждающихся в дополнительном представлении.

Компаниям, бизнес которых изначально основан не на онлайновых сервисах, а на инфраструктурных решениях и лицензировании ПО, приходится несколько труднее. Связь между старыми продуктами этих компаний и их новыми облачными предложениями зачастую не очевидна. Кроме того, человеческое сознание инерционно, и нужно потратить много времени и денег, прежде чем Cisco или Microsoft станут восприниматься как поставщики технологий для облачных вычислений, а не как разработчики решений для сетевой инфраструктуры и "коробочного" программного обеспечения соответственно.

Разные приоритеты в работе с "облаками"


Облачная стратегия сервисных компаний проста и понятна – она рождается из самого бизнеса компаний, а не из модернизационных усилий руководства. Облачная стратегия компаний с инфраструктурным/инструментальным бэкграундом часто бывает сложнее и противоречивее, поскольку она изначально представляет собой компромисс между существующим бизнесом и направленными в будущее несколько абстрактными облачными амбициями.

КомпанияВызовВозможности
AmazonДо запуска Amazon Web Services наличие избыточных мощностей, предназначенных для поддержки собственного онлайнового бизнеса, требовало дополнительных "непрофильных" расходов.Большое число потенциальных клиентов, покупающих собственные серверы, но не имеющих возможности использовать их на полную силу.
CiscoПоставщики решений для приватных облаков создают конкурентную угрозу традиционному бизнесу компании по продаже оборудования и ПО для сетевой инфраструктуры.Наличие клиентской базы и портфеля зрелых продуктов позволяет компании стать серьезным поставщиком облачной инфраструктуры с относительно небольшими затратами.
GoogleТрадиционные ПК ограничивают возможности Google по продвижению своих сервисов.Популярность сервисов Google создает хорошие перспективы для создания единой SaaS-платформы от Google как для компьютеров, так и для мобильных устройств.
IBMТрадиционные предложения IBM в области ПО в большей степени ориентированы на ПК, нежели на облачные вычисления.Имеющиеся аппаратные технологии IBM позволяют создавать мощные решения для развертывания приватных облаков.
MicrosoftУгроза утратить рыночные позиции при переходе от ПК к облачным вычислениям.Большая клиентская база и верное сообщество разработчиков обеспечивают сильные конкуретные позиции.


Источник: cnews.ru

четверг, 7 апреля 2011 г.

Новый микро-сервер от TYAN (что это вообще?)


Одновременно с системными платами S5510 и S5512 (анонсированы сегодня) малоизвестная компания TYAN анонсировала еще одну новинку. Это микро-сервер FM65-B5511.

Сервер FM65-B5511 характеризуется высокой плотностью компоновки и предназначен для вычислительных центров. В конфигурацию FM65-B5511 может до 18 процессоров Intel Xeon.

Как видно на снимке, TYAN FM65-B5511 легко масштабируется, поскольку в шасси типоразмера 4U с фронтальной загрузкой может быть установлено до 18 съемных вычислительных нод. Кроме того, есть встроенный коммутатор Gigabit Ethernet или 10 Gigabit Ethernet и блоки питания с резервированием по схеме «2+1» и возможностью горячей замены.

Конфигурация каждого узла включает один процессор Intel Xeon E3-1260L или E3-1220L, до 32 ГБ памяти ECC DDR3 и два SSD или HDD типоразмера 2,5 дюйма. Узел имеет два порта Gigabit Ethernet и поддерживает IPMI 2.0. Как видно, серверы мощные и современные.

Источник: ixbt

среда, 6 апреля 2011 г.

Поисковые серверы Яндекса захватывают Америку

В последнее время Рунет всё энергичнее идет к глобализации - растут Twitter и Facebook, приходят на наш рынок международные компании и сервисы, появляются американские и европейские представительства у наших IT-компаний. Например, у Яндекса.

Сначала открылся офис в Калифорнии. Потом начали индексироваться иноязычные, в первую очередь англоязычные сайты. Потом руководство Яндекса перестало говорить во всех интервью, что это только для того, чтобы русским пользователям не надо было ходить в Google.com. Потом у Яндекса появился специальный пиарщик для общения с американской прессой. Открылся yandex.com. Из утекших документов wiki.yandex.team выяснились планы по завоеванию Польши и Турции в 2011 году. Интернациональные амбиции и слухи о близком IPO Яндекса - вот основные центры притяжения внимания "цивилизованного мира" к Рунету.

Энди Аткинс-Крюгер с затеял целую серию публикаций про Яндекс. Рекомендуем прочесть последнюю и остальные. Особенно редакцию рассылки радует использование в тексте информации сервиса Analyzethis.ru - "анализаторов поисковых систем" от "Ашманов и Партнеры". Правда, в тексте сервис назван "независимой SEO-компанией", но это мелочи.

Явно неправ был популярнейший IT-блоггер Роберт Скобл, когда на Quora.com назвал Яндекс клоном Google и заявил аудитории Quora, что она "никогда о нем не услышит". Илья Сегалович на Quora.com активно отвечает на вопросы про Яндекс и не только. В частности, благодаря этому мы знаем, зачем Яндексу нужен калифорнийский офис. Он нужен для "поиска местных талантов", проще говоря для хедхантинга. Потому что в России Яндекс уже нанял всех, кого только мог.

Чтож, значит высокотехнологичный российский бизнес начинает уже перерастать свою родину. Пора задумываться о внешних рынках не только сбыта продуктов и услуг, но и предложения квалифицированного персонала.

Источник: Ashmanov

пятница, 1 апреля 2011 г.

Эксперты IBM: количество уязвимостей растёт

На следующие неделе корпорация IBM опубликует ежегодный итоговый отчёт подразделения X-Force о тенденциях и рисках информационной безопасности по итогам 2010 года. Компания отметила, что всё больше государственных и частных организаций по всему миру сталкиваются с различными изощрёнными угрозами в сфере ИТ.

На основании данных, полученных в ходе исследования, а также мониторинга более 150 000 событий безопасности в секунду в течение каждого дня 2010 года, компания пришла к следующим заключениям. Так, согласно отчёту, на 27 % по сравнению с аналогичным периодом 2009 года увеличилось количество уязвимостей. Зарегистрировано более 8000 новых угроз. Вместе с тем, стабилизировался объём спама.

Несмотря на то, что в прошлом году было зафиксировано уменьшение числа фишинга, в этом году вновь зафиксировано увеличение количества фишинговых атак. Однако по данным отчёта, в 2010 году киберпреступники сделали ставку не на количество нападений, а на качество.

В 2010 году отмечен высокий рост использования смартфонов и мобильных устройств, в связи с чем, ИТ-отделы безопасности были вынуждены усилить контроль и способы защиты. Несмотря на то, что случаи нападений были не большими по своему объёму, данные IBM X-Force всё же показали рост уязвимостей.

Согласно отчёту IBM X-Force в 2010 году почти четверть всех финансовых фишинговых электронных писем предназначалась для европейских банков. В число же 10 стран, рассылающих спам в 2010 году, вошли Великобритания, Германия, Украина и Румыния.

По словам аналитика IBM X-Force Тома Кросса, с каждым днём появляется всё больше разнообразных методов нападений со стороны киберпреступников. «Они хорошо финансируются и при этом знают слабые места, по которым можно ударить», отметил он.

Группа исследований и разработок IBM X-Force занимается каталогизацией, анализом и изучением уязвимостей ИТ-безопасности с 1997 года. Каталог X-Force, содержащий более 43000 уязвимостей, является крупнейшей в мире базой данных уязвимостей программного кода. Эта уникальная база данных помогает специалистам X-Force лучше понять динамику процесса, что помогает в исследовании известных уязвимостей и эффективном выявлении новых угроз.

Источник: rbcdaily.ru