Рубрикатор | ![]() |
![]() |
Статьи | ![]() |
![]() |
24 января 2014 |
С.Кузнецов: Под термином Big Data скрываются самые разные вещи
Рынок до сих пор не определился, что такое «большие данные» - давно известные технологии или архитектуры для решения нового класса задач.
Мнения системных интеграторов и поставщиков решений - в полной версии Дискуссионного Клуба «ИКС» темы №1-2 «Кому и чем полезна Big Data?». Часть 1.
?«ИКС»: Согласны ли вы с утверждением, что Big Data – это в большей степени маркетинговый термин, чем набор новых технологий и архитектур?
Сергей Кузнецов, директор по технологиям Дивизиона Данных, IBS: Не согласен. Я считаю, что термин Big Data как раз символизирует новый виток развития архитектуры и технологий для обработки не только большого объема данных, но и для абсолютно новых типов интерактивных, быстро-изменяющихся и неструктурированных данных. Как пример, можно привести адаптированные программно-аппаратные комплексы для хранения таких структур (SAP Hana, Exadata). Появились и абсолютно новые подходы в анализе и хранении – Лямбда-архитектура, которая помогает анализировать, в том числе потоковые данные, и существенно сокращает время принятия решения.
Денис Первушин, директор департамента бизнес-приложений Oracle, «АйТи»: Говорить о том, что Big Data – это только маркетинговый термин не вполне корректно. Несмотря на то, что решения для обработки больших объемов информации в основе своей содержат те компоненты, которые были разработаны и до появления самого термина “Big Data”, новизна подхода заключается в том, что производители предлагают преднастроенные и оптимизированные для выполнения нового класса задач аппаратно-программные комплексы. Изменилась и архитектура решений – например, для эффективного решения задач бизнес-анализа на больших данных потребовалось использование таких технологий, как In-Memory Database, без комплексного использования которых задача оптимального кэширования данных для построения аналитики вряд ли была бы приемлемо решена.
Александр Хлуденев, заместитель генерального директора по перспективным технологиям, КРОК: Есть информация, что термин Big Data пришел он из академической научной среды. В то же время это и набор технологий, таких, как потоковая аналитика и аналитика неструктурированных данных, распределенные файловые системы и базы данных, массивно-параллельная обработка. Часть из них – относительно новые для массового применения в ИТ, а часть получили «второе дыхание» благодаря интересу к Big Data в силу расширения возможностей решения реальных задач.
Денис Андриков, заместитель технического директора по работе с заказчиками, «Открытые Технологии»: Любая новая технология в своем развитии проходит разные стадии: заявление о себе, набирание оборотов, резкий рост, расцвет и, наконец, спад, двигаясь по своеобразному hype-cycle. А дальше возможно два варианта развития событий: либо технология становится повседневной, как Wi-Fi, о ней уже не говорят, а просто используют, либо она не приживается и уходит в небытие.
Сейчас Big Data как раз находится на своем пике, в стадии активного роста, поэтому можно сказать, что пока маркетинговое продвижение опережает технологическое развитие. Полностью проработанной технологической базы еще нет, все еще в стадии развития.
Виктор Сусойкин, директор по консалтингу Центра финансовых решений, РДТЕХ: Big Data - это техническая концепция, предполагающая определенные подходы, ИТ-инструменты и методики для аналитической работы с большими объемами разнородных данных (объемы, скорость и разнородность данных - три ключевых свойства BigData). В силу популяризации данной концепции вендоры не могут этим не пользоваться ее названием, и потому одновременно с технической концепцией Big Data стал еще и устоявшимся маркетинговым термином.
Алексей Тоскин, генеральный директор, T-Systems CIS: Новые технологии за термином есть, это бесспорно, но они завёрнуты в красивую маркетинговую обертку. Иногда в понятие Big Data объединяют такие тенденции, как увеличение количества информации, снижение скорости обработки и разнообразие источников и типов информации, а также вызванная ими потеря структурированности. Хотя в принципе Big Data - это большой объём любых данных, структура и тип данных неважны (они могут быть и однородны). Если время отклика системы больше 10 секунд и это не вызвано производительностью сервера базы данных, то, скорее всего, данные большие. Проблема разве нова? Но масштабы уже другие.
Дмитрий Бухаринов, ведущий аналитик отдела продаж систем бизнес-анализа, Softline: Само понятие больших данных существует достаточно давно, но в современном понимании термин употребляется с 2008 года. Думаю, это закономерный процесс выделения отдельного направления по обработке данных, необходимость его появления продиктована сложившейся ситуацией. Некоторые считают, что существующие системы BI в сочетании с крупными хранилищами данных – это и есть Big Data, но подобное сравнение не совсем корректно, поскольку BI – это обработка исторических данных, в соответствии с заранее заданным паттерном. В случае Big Data паттерн заранее не известен. И тут важен не столько объем данных, сколько скорость их появления. Это первое. Второй аспект – неструктурированность входящих данных, что также требует новых способов обработки, отличных от «классических». Третье, что бы я выделил, – множество источников, которые необходимо оперативно анализировать и находить взаимосвязи между ними. Например, если произошло снятие денежных средств с карты клиента в Москве, а он в своем Twitter в это время пишет: «Как здорово отдыхать в Таиланде!» - то это сразу должно рассматриваться службой безопасности банка как тревожный инцидент.
Александр Василенко, глава представительства, VM Ware в России и СНГ: Технологии Big Data с каждым днем все больше проникают как в научно-исследовательскую деятельность, так и в коммерческий сектор и сферу госуправления. Сегодня мы переживаем самый прорывной период в истории индустрии — каждый день создается 2,5 квинтиллиона байтов данных, объемы информации продолжают стремительно расти, грани между консьюмерским и корпоративным ИТ стираются: у нас есть социальные сети, мобильные технологии, BYOD, облака…«Большие данные» весьма критичны для бизнеса, и в будущем их значение будет только возрастать.
Олег Глебов, эксперт по информационной безопасности компании «Андэк»: Есть два направления анализа «больших данных». Первое представлено специализированными решениями, которые изначально разрабатывались для этих задач и представляют собой готовые продукты для коммерческого использования, например, Hadoop или Cassandra. Второе направление связано со встраиванием технологий анализа больших данных в специализированные программные продукты, например, специализированные базы данных, аналитические продукты, ERP системы и др. Пользователи таких ИТ - решений уже пользуются преимуществами анализа больших данных, возможно, даже не подозревая об этом.
Сергей Знаменский, технический консультант, HP Россия: С одной стороны Big Data - это термин, обозначающий границы возможностей (применимости) аналитических систем, построенных на основе реляционных СУБД. Этот термин не дает при этом четкого определения границы, за которой начинаются «большие данные» - то есть эта граница может быть индивидуальна для каждой компании, использующей аналитические системы и начинается от десятков или сотен терабайт и выше. С другой стороны, Big Data обозначает область применения технологий и архитектур нового поколения, оптимизированных для обработки «больших данных» как структурированных так и неструктурированных.
Сергей Лихарев, руководитель продаж IBM Big Data Solutions: В первую очередь, Big Data - то набор технологий и архитектур, помогающих эффективно делать вещи, ранее компаниям и организациям недоступные. Термин, по-моему, вторичен, а составные части понятия Big Data - объективная реальность. Мало кто будет спорить, что объемы генерируемых данных становятся просто гигантскими, что скорость поступления данных в организацию, по сути своей, это отражение событий реального времени в жизни и в окружающей среде, что данные представлены в самых разных форматах. Значит, технологии и архитектуры, помогающие компаниям анализировать информацию и принимать решения на основе анализа «больших данных», которые возникают в режиме реального времени, - совершенно практическая вещь.
Александр Зейников, региональный менеджер по продажам в России и СНГ, LSI: BigData – это не маркетинговый, а технический термин. Он обозначает комплекс проблем при обработке больших объемов информации. Восприятие же этого термина как маркетингового связано с чрезмерным его использованием в маркетинговых материалах, посвященных решению проблем при обработке больших объемов данных. На сегодняшний день есть целый набор архитектур и решений, а соответственно и компаний, напрямую ассоциированных с Big Data с помощью маркетинговых коммуникаций. Все это – нормальный процесс коммерциализации технических проблем, возникающих с развитием вычислительных систем. Любая новая тема всегда проходит фазу максимальной информационной освещенности, и Big Data в этом отношении не исключение.
Андрей Медведев, руководитель направления технологического консалтинга, Qlik-Tech: На мой взгляд, подобная постановка вопроса не совсем некорректна. Это не маркетинг и не технология\архитектура в чистом виде. Big Data из быстро принятого IT- миром маркетингового термина превратился в подход к хранению и обработке массивов данных различного уровня структуризации и формализации. Этот подход позволяет производить анализ этого массива с очень высокой скоростью, что для многих компаний является критически важным преимуществом на конкурентном рынке. Естественно, любая идея должна быть подкреплена со стороны архитектуры и технологического стека продуктов и, на данный момент, подобные архитектуры и связки программного обеспечения прекрасно работают в решениях мировых лидеров по производству и поставке как программных, так и программно-аппаратных решений, а также в Open Source сообществе.
Андрей Прозоров, ведущий эксперт по ИБ, InfoWatch: Big Data – это скорее новая возможность быстрой обработки больших и плохо структурированных данных, которую мы получили с развитием информационных технологий. Компьютеры с каждым годом становятся все мощнее, их сети глобальнее, сервисы быстрее и точнее. А становление систем виртуализации и «облаков» дают мощный толчок к совершенствованию распределенных вычислений, необходимых для обработки Big Data.

Подготовила Александра Крылова