Rambler's Top100
Реклама
 
Статьи ИКС № 01-02 2014
Александра КРЫЛОВА  27 января 2014

Big Data – золотая лихорадка начинается

Маркетологам известен такой факт: в канун 2012 г. компания Walmart, ведущий мировой игрок рынка ритейла, направила 20 миллионам своих клиентов 20 тысяч уникальных предложений – по предложению на каждые 2000 человек. 

При этом маркетологи компании четко понимали, чем предложение №1998 отличалось от предложения №1999. А клиенты, получившие одно из таких предложений, видели, что оно отвечает их нуждам.

В России же, сколько бы ни говорили о персонализации предложений операторы связи, интернет-провайдеры, банки и ритейлеры, миллионы рядовых потребителей такие предложения получают редко. И это понятно: далеко не все компании располагают платформами и инструментами для анализа Big Data, которые позволили бы им прецизионно в режиме онлайн работать с миллионами клиентов.

Сегодня, когда за словами «персонализация», «клиентоориентированность», «управление клиентским опытом» стоят высокопроизводительные ИТ-архитектуры и аналитические витрины, а их поставщики проявляют бурную активность, дискутировать о «больших данных» становится все интереснее.

Воспитать на примерах

Один из основных способов продвижения технологий Big Data, которым пользуются сегодня поставщики ИТ-архитектур и платформ на российском рынке, – это истории успешных внедрений в зарубежных компаниях того же сектора экономики, где ведет бизнес потенциальный заказчик. По признанию Андрея Алексеенко, главы Teradata в России, 80% времени консультанты компании тратят на разъяснение того, какие преимущества получают от внедрения продуктов Big Data за рубежом, в организациях, решающих сходные задачи. И надо сказать, примеры, причем очень убедительные, есть и у Teradata, и у EMС, и у Microsoft – словом, у всех ведущих поставщиков.

Так, крупнейшая электроэнергетическая компания Southern California Edison, обслуживающая более 14 млн человек в зоне 50 тыс. кв. миль, для снижения нагрузки на сети в пиковые часы потратила $1250 млн на установку «умных» счетчиков, в режиме реального времени передающих данные о потреблении домохозяйствами электричества. Используя для их хранения, обработки и визуализации инструменты Big Data от Teradata, энергокомпания смогла предложить потребителям льготные тарифы на электричество в то время, когда нагрузка на сети меньше, а заодно открыть им доступ к показаниям счетчиков, чтобы они могли оценить энергопотребление своего домохозяйства и при необходимости скорректировать его. Тем самым компания решила свою задачу и добилась повышения удовлетворенности клиентов.

Инструменты Big Data EMC помогли многократно повысить коэффициент конверсии системе онлайн-бронирования Expedia.com, среди партнеров которой 240 тыс. отелей и более 140 авиа-компаний, обеспечив ее клиентам во всем мире возможность быстро выбрать и заказать тур, избегая двойного бронирования.

Решение Microsoft для хранения и управления «большими данными» помогло департаменту специальных расследований Таиланда, отвечающему за раскрытие серьезных преступлений, сократить время обработки и анализа информации по ряду дел с двух лет до двух недель.

Российские примеры тоже есть у ведущих поставщиков решений и инструментов класса Big Data: у Teradata в Сбербанке, у SAS Institute – в ВТБ24, у HP – в Yota Networks. В банке «Тинькофф Кредитные Системы» (позиционирующем себя, впрочем, как ИТ-компания, предоставляющая финансовые сервисы) используются технологии EMC. В каждодневной практике результатами анализа «больших данных» на платформе SAP HANA пользуются в «Эльдорадо». Но по большому счету клиентский опыт внедрения таких решений у нас пока невелик. И если операторы связи их протестировали, а отдельные уже используют, то банки, за редким инновационным исключением, пока удовлетворены действующими у них системами бизнес-аналитики и не торопятся переходить к более производительным инструментам.

«Сейчас на технологии Big Data откликаются early adopters – компании наиболее технологичные, новаторские, либо те, которые хотят занять новые ниши на рынке», – констатирует Сергей Золотарев из компании Pivotal (образована в апреле 2013 г. путем выделения продуктовых активов ЕМС и VMware, связанных с «большими данными»). И в этом с ним согласна

Мировая аналитика

Например, Александр Прохоров (IDC) считает, что в России на сегодняшний день в области «больших данных» реализовано несколько десятков пилотных проектов, все телеком-провайдеры так или иначе опробовали эти решения. Проект в «ВымпелКоме», где построена «фабрика идей» в интересах целевого маркетинга на базе Hadoop-кластера, отражает ситуацию в индустрии. По сведениям А. Прохорова, есть также банки, крупные ведомства, отечественные интернет-компании, давно и успешно использующие для анализа Big Data инструменты собственной разработки.

Объем рынка Big Data (экосистема, затраты на инфраструктуру, средства организации данных, хранение, средства аналитики, приложения по вертикальным рынкам, а также услуги по сопровождению этих решений) в России IDC пока не измеряет, хотя располагает свежей оценкой рынка программного обеспечения для бизнес-аналитики. Его объем по итогам 2012 г. составил $340 млн, из которых $100 млн заработала SAP, а оставшиеся $240 млн – другие глобальные игроки в этом сегменте: Oracle, Microsoft, IBM и SAS Institute. Мировой рынок Big Data аналитики IDC оценивают в $8,1 млрд по итогам 2012 г., прогнозируя его рост до $23,8 млрд в 2016 г.

Впрочем, участники рынка считают, что он пока еще полностью не сформирован, причем в глобальном масштабе, границы его размыты. «Когда мы говорим о корпоративных хранилищах данных, то ссылаемся на Gartner, когда о Hadoop – то на Forrester, которая оценивает, как эта технология используется для корпоративных задач, а говоря о BI, смотрим на соответствующие квадранты. Единого рынка нет, единой оценки тоже», – констатирует С. Золотарев.

На пути перехода технологии Big Data от стадии, когда ее применяют early adopters, к стадии, когда она привлекает внимание большинства, сначала раннего, а потом и позднего, стоят

Сдерживающие факторы

Лариса Малкова и Мария Кузнецова из Accenture выделяют среди сдерживающих факторов основные и дополнительные. К числу первых относятся сложность встраивания таких решений в ИТ-ландшафт компаний и необходимость обеспечить требования, предъявляемые к промышленным решениям (безопасность, надежность и доступность, возможность мониторинга всех компонентов системы). «Уровень зрелости средств управления кластером Big Data существенно ниже, чем для традиционных хранилищ данных», – отмечают эксперты. В качестве дополнительных факторов они называют недостаточную известность стандартных сценариев применения технологий для различных видов бизнеса, слабо развитую методологию внедрения, ограниченное количество специалистов, подготовленных к реализации таких проектов, и малое количество success story.

Впрочем, среди компаний-заказчиков бытует мнение, что приемлемую стоимость хранения 1 Тбайт (примерно $1000) обеспечивает только Apache Hadoop – инфраструктура с открытым кодом для разработки и выполнения распределенных программ на компьютерных кластерах. Для сравнения: стоимость хранения 1 Тбайт в хранилище на базе технологии In-Memory, с дублированием и резервированием, может достигать $100 тыс. Кстати, необходимость обеспечить невысокую стоимость хранения и обработки Big Data назвали одним из главных условий роста числа внедрений и участники круглого стола по этой теме, состоявшегося на Форуме BOSS-2013.

В качестве еще одного сдерживающего фактора поставщики платформ для хранения и обработки «больших данных» обычно называют недостаток специалистов в области управления информацией, data scientist. Но вот парадокс: игроки рынка профессионального обучения, по крайней мере в России, пока не видят спроса на их подготовку. «Это продуктовое направление в нашем учебном центре пока не представлено, – рассказывает Владимир Оверченко, директор УЦ HP, – поскольку запросов на курсы по HP Vertica к нам пока не поступало. Как правило, такие обращения поступают от компаний, которые у себя либо софт, либо “железо” уже внедрили».

И все же усилия вендоров, направленные на то, чтобы пробудить интерес к использованию «больших данных» для вывода бизнеса на новый технологический уровень, не пропали втуне – скорее всего потому, что совпали с внутренней потребностью самих компаний оптимизировать управление всей полнотой корпоративной информации, видя в данных

Новый актив

Особенно заметно такое отношение к данным на высококонкурентных рынках, считает Александр Хлуденев (КРОК), где игроки всегда ищут способы сэкономить или получить дополнительные преимущества. «Инновационные компании обычно сами ищут возможности получения конкурентного преимущества за счет повышения эффективности операций, более быстрого выпуска новых продуктов на рынок, улучшения качества обслуживания клиентов, – говорит Сергей Лихарев (IBM). – Многие понимают, что значительную часть ответов на такие вопросы дает умение собирать и анализировать как можно больше доступной информации».

А чтобы извлекать выгоду из накопленных компанией данных, необходима аналитическая система, работающая в режиме реального времени, в том числе и с растущими объемами неструктурированных данных. И это неудивительно, ведь согласно отчету Microsoft Global Enterprise Big Data Trends: 2013, на который ссылаются эксперты Accenture (опрошено около 300 ИТ-руководителей, принимающих решения, из разных отраслей), примерно 60% респондентов уже хранят не менее 100 Тбайт данных и 30% ожидают удвоения хранимых данных в ближайшие 2–3 года. В этих условиях научиться получать из Big Data революционные идеи для бизнеса значит в худшем случае окупать затраты на их хранение, а в лучшем открывать для себя новые источники прибыли, причем там, где их появления и не ожидалось.

«Безумство храбрых – вот мудрость жизни!»

На сегодняшний день делать ставку на работу с Big Data стоит только в том случае, если объемы накопленных в компании данных настолько велики, что их долго или дорого обрабатывать при помощи традиционных технологий. Или если данные, которые в процессе бизнеса вынуждена собирать, хранить и обрабатывать компания, разнотипны и представлены во множестве форматов, или если ей требуется обрабатывать данные, поступающие с высокой скоростью.

Хотя бы одно условие соблюдается? Тогда необходима выработка стратегии и тактики получения с помощью Big Data новых конкурентных преимуществ.

«Стратегия индивидуальна для каждого предприятия, – отмечает Сергей Знаменский (HP Россия), – она определяет, что именно считать “большими данными”, такие их характеристики, как размерность, объемы, типы данных, темпы роста, сроки актуальности данных, а также содержит требования к функциональности аналитической системы, методам агрегации и обработки данных».

Вырабатывать стратегию важно еще и потому, что в условиях постоянного роста объема данных крайне острым становится вопрос снижения операционной стоимости. Для этого требуется создавать интеллектуальные механизмы обработки, которые способны перераспределять данные как по их значимости и востребованности, так и в соответствии с нормативами их жизненного цикла.

Внедрение Big Data обязательно должно начинаться с выстраивания правильной структуры для всей имеющейся в компании информации, которая должна включать в себя отдел контроля качества, отдел документооборота, тендерно-договорной отдел и т.п. «Этот back-office, – поясняет Денис Андриков («Открытые технологии»), – и выставляет требования к созданию правильной инфраструктуры для грамотного выстраивания и расположения метаданных в компании. Потому что Big Data – это по сути двухуровневая система: уровень физического хранения и уровень метаданных, на котором происходит очистка данных и их классификация».

Что касается тактических вопросов, то они предусматривают проведение исследовательских пилотных проектов, направленных на решение одной-двух наиболее остро стоящих перед бизнесом задач, для которого требуется анализ Big Data. По этому пути пошел «ВымпелКом», один за другим реализовав на своем Hadoop-кластере 10 сценариев получения прибыли в интересах целевого маркетинга. Недаром Виктор Булгаков из «ВымпелКома» назвал созданную оператором «Фабрику идей» делом на сто миллионов, причем в буквальном смысле этого слова.

Награда за смелость

Время, по прошествии которого становится заметным эффект от внедрения решений в области «больших данных», эксперты оценили по-разному. По опыту компании КРОК, только процедура анализа всех данных компании ради понимания, достижим ли какой-то эффект вообще, может занять от месяца до трех.

«После организации правильной системы управления данными положительный эффект от внедрения технологий для работы c Big Data может стать заметным практически сразу же», – убеждена Ирина Яхина (Hitachi Data Systems). С этим согласен С. Лихарев, при условии что данные ранее не анализировались из-за их большого объема или из-за нехватки вычислительных мощностей хранилища. «Положительный и, главное, монетизируемый эффект, – отмечает он, – получается уже на этапе пилотного проекта в течение нескольких недель. То же самое можно сказать о проектах, в которых заранее понятен потенциальный эффект от анализа определенных данных, но ранее не было экономически эффективного способа их собирать и анализировать. В этом случае видимый положительный эффект тоже достигается быстро».

А позицию скептиков по отношению к эффекту от реализации концепции «больших данных» ярко выразил Виктор Сусойкин (РДТЕХ): «Big Data, как и все предыдущие поколения средств сбора и аналитической обработки информации, не дает прямого экономического эффекта». Точнее, дает, но не прямой, а косвенный – за счет повышения качества и скорости процессов управления.

И все же выгода есть!

Компании, работающие в розничном сегменте, начав анализировать «большие данные», получают максимум информации о своих потребителях и об их поведении, а значит, наконец-то смогут поощрять не только самых высокодоходных и самых лояльных из них с помощью персонализированных предложений. Смогут строить с ними интерактивные коммуникации, используя обратную связь в виде пожеланий и просьб, для оптимизации своих бизнес-процессов.

Технологические компании смогут в режиме реального времени анализировать данные о работоспособности и уровне изношенности оборудования, определять вероятность выхода из строя отдельных его узлов.

И те и другие смогут повысить качество корпоративного управления и сократить операционные издержки. А главное – сопоставив большие объемы данных из разных источников за разные годы, они смогут найти способ преобразить свой бизнес.

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!