Принимаю условия соглашения и даю своё согласие на обработку персональных данных и cookies.

Excel научили обрабатывать гигантские массивы данных

14 июня 2011, 20:31
Новая технология позволяет связать Microsoft Excel с массивными вычислительными возможностями Windows Azure.

Новый проект приведет к революции в области обработки больших массивов данных, сделав доступ к таким данным общедоступным, считают исследователи компании.

С точки зрения конечного пользователя Excel DataScope представляет собой лишь дополнительную ленту в интерфейсе Microsoft Excel, однако эта лента открывает доступ к функциям по ресурсоемкой обработке данных, которые невозможно реализовать на уровне отдельного персонального компьютера.

Excel DataScope позволит исследователям загружать наборы данных в облако и осуществлять такие аналитические процедуры как поиск закономерностей, определение скрытых ассоциаций, обнаружение сходства и предсказание временных последовательностей. При этом технические процедуры, связанные с созданием виртуальных машин и резервированием вычислительных мощностей, полностью скрыты от пользователя, который взаимодействует только с интерфейсом Microsoft Excel. Таким образом, исследователи и аналитики смогут запускать ресурсоемкие аналитические процедуры, которые требуют использования десятков и даже сотен процессоров.

Роджер Барга, архитектор команды Cloud Research Engagement:

— Excel сегодня является ведущим инструментом для анализа данных. Число лицензированных пользователей насчитывает 500 млн, и существует невероятное множество людей, которые уже умеют пользоваться этим инструментом. В сущности, электронные таблицы представляют собой подходящую метафору для манипулирования данными. Они просты и поддерживают различные типы данных, и поэтому вполне могут стать той пусковой установкой, которая выведет аналитиков к облакам.

По сравнению с суперкомпьютерами, которые часто используются исследовательскими учреждениями для решения подобных аналитических задач, облако работает медленнее, однако во многих случаях этот недостаток компенсируется высокой оперативностью предоставления ресурсов.

Роджер Барга, архитектор команды Cloud Research Engagement:

— Многие крупные лаборатории по обработке данных в США, где используется наиболее мощное оборудование, требуют нескольких недель времени, прежде чем ваша задача будет принята к обработке. Таким образом, если принять во внимание все потраченное время, то в облаке ваша задача могла бы быть решена уже давным-давно, и к настоящему моменту вы бы могли уже завершить написание отчета.

Новая технология позиционируется как открытая для сторонних исследователей, которые смогут дополнять ее собственными алгоритмами по обработке данных, пишет CNews.ru.