Руководители ИТ-подразделений компаний различных отраслей говорят, что внедрение технологий Big Data окупаются многократно, а расходы на такие проекты легко согласовываются. При этом необходимо по максимуму централизовать данные, чтобы избежать дублирования и, как следствие, чрезмерного расходования ресурсов на обработку данных.
© ComNews
15.10.2020

Об этом рассказали участники форума Cloudera 2020, прошедшего вчера, 14 октября 2020 г.

Директор по цифровым технологиям компании "Северсталь" Борис Воскресенский сказал: "Нам чертовски везет: проекты, что мы делаем, показывают очень хороший экономический эффект. В "Северстали" работает стратегия: мы хотим собирать все данные с агрегатов, и нам должно хватать мощностей, чтобы их хранить и обрабатывать. Соответственно, мы смотрим, сколько нужно ресурсов для этого и закладываем в план на следующий год. Пока мы видим, что эффект от продуктов, которые мы делаем на основе этих данных, существенно превосходит то, что мы тратим на железо. Аналогично с трудовыми ресурсами. Стоимость профильного специалиста хоть и высока, но вклад, который приносят сотрудники этой сферы, окупает эти затраты".

Его поддержал вице-президент и начальник департамента ИТ общих банковских процессов Газпромбанка Игорь Ашметков. Он отметил, что на данный момент эффекты от продуктов Big Data настолько выше затрат на них, что практически каждый открываемый банком проект идет с сильно положительным экономическим эффектом. "Это направление пока вопросов не вызывает. Так как мы пока храним единицы петабайтов, то и стоимость самой инфраструктуры несравнимо меньше. В целом экономика хорошо складывается", - пояснил он.

Старший управляющий директор департамента управления данными Сбера Борис Рабинович рассказал, что в банке несложно получить одобрение на выделение бюджета под проект с Big Data. "Нельзя сказать, что мы боремся за каждый рубль и должны его обосновывать. С учетом запуска Agile-трансформации, у нас продуктовоориентированный подход. Защита бюджета у нас идет на уровне продукта: на каждый продукт нужно рассказать, что планируется получить в результате и какие затраты необходимы. И тогда рассчитываются затраты на круг, в том числе на сервис. Весь банк понимает, зачем мы делаем платформу и как она будет работать и приносить выгоду: рассматривают это как энейблер (enabler), который дает возможность это сделать", - сообщил Борис Рабинович.

Руководитель центра платформы Big Data компании МТС Андрей Бащенко согласен с предыдущими выступающими: обосновать затраты необходимо, но для компании очевидно: скорее всего, в итоге никто в накладе не останется. "Наши финансисты просят обоснование затрат и спрашивают строго, но мы, как и коллеги, видим, что за счет экономического эффекта мы однозначно отбиваем текущие затраты. Мы идем в направлении к тому, чтобы выстраивать иерархию продуктов. И по каждому продукту собираем данные о его использовании, таким образом отслеживаем затраты: и от самого продукта, и от того, что он потребляет от других продуктов. Плюс мы собираем данные по выручке и идем к тому, чтобы продукты были с прозрачной денежной механикой", - рассказал Андрей Бащенко.

Дублирование данных - одна из проблем, снижающая эффективность решения, в том числе финансовую. Участники форума также рассказали, как надо выстраивать бизнес-процессы, чтобы избежать финансовых потерь в результате дублирования данных.

Андрей Бащенко (МТС) отметил, что важно по максимуму централизовать необходимые данные, чтобы избежать дублирования и чрезмерного расходования ресурсов на их обработку и построение процессов. "Вроде бы нам удается справляться с этим. Например, в потоковой обработке мы сейчас это делаем с помощью построения проектного бюро, которое оптимизировало бы все потоковые обработки и коммунальные потоки данных, нужные сразу нескольким заказчикам. Мы используем повторно все данные, которые возможно. За счет этого мы сильно экономим на затратах", - объяснил Андрей Бащенко.

Борис Воскресенский рассказал, как "Северсталь" переиспользует данные: "В качестве единой шины данных для наших сервисов мы выбрали Kafka. Если у вас есть данные в Kafka, любой микросервис может подписаться на нее и использовать одни и те же данные. Мы избежали необходимости держать несколько потоков в разных местах".

Игорь Ашметков (Газпромбанк) отметил, что важно создавать интегрированный слой данных. "Мы тоже этим занимаемся, и это крайне непростая задача. Помимо того что потребители сами пытаются считать агрегаты, они у них всегда получаются разными, когда это делается из сырых данных. После того как данные разложены в те или иные витрины или слои, наша инфраструктура позволяет с ними работать любыми инструментами. Дублировать надо только тогда, когда нужны разные разрезы и структуры для разных потребителей", - считает Игорь Ашметков.

Борис Рабинович (Сбер) рассказал, что у банка к платформе подключено более 250 источников: это внутренние, внешние источники, источники в реальном времени, справочники. "Есть слой сырых данных - общий для всего банка, который в потоке. Второй слой - интегрированные данные. Это набор витрин данных по предметным областям с контролем качества данных, с SLA, с выверкой предметных областей. На их основе можно сдавать бухгалтерскую и налоговую отчетность. Эта работа делается для определенного круга потребителей", - подчеркнул Борис Рабинович.

Ведущий эксперт направления Big Data ИТ-компании КРОК Александр Граб согласен, что проекты Big Data дают высокую окупаемость. "Прибыльность проектов всегда определяет бизнес, и это коммерческая тайна для рынка. В рынок может подаваться информация в процентном соотношении от базиса или one-off-эффект от внедрения. Бизнесом внутри компании по итогам проекта делается детальный анализ, и ИТ-руководители используют данную информацию для защиты инвестиций (ROI) в технологии Big Data и оценку окупаемости cost/income ratio. Действительно, проекты Big Data дают высокую окупаемость с помощью обогащения дополнительной информацией математических моделей (риски, маркетинг) или построения предиктивных моделей, подготовки предложений в режиме реального времени. В процессе работы с данными для различных задач бизнес и ИТ создают разные песочницы и дублируют промышленные данные. Конечно, ИТ-руководители осознают это и проводят чистки устаревших и не используемых данных, тем самым экономя бюджет компании, но данный процесс требует регулярности. Один из выходов, которые предлагает КРОК, - методология на базе Data Governance, которая разрабатывается с учетом специфики работы сектора экономики и конкретной компании, и регулярный аудит фабрик данных клиента", - рассказал ComNews Александр Граб.

Директор департамента анализа данных Softline Марина Онищенко прокомментировала: "Как правило, проекты, связанные с технологиями Big Data, осуществляются с целью реализации оперативного анализа данных, построения моделей прогнозной аналитики с применением методов машинного обучения, и основной эффект компании получают именно от результатов построения аналитических платформ, где четко отлажены механизмы и внедрены инструменты не только сбора и хранения данных, но и оперативного их анализа, визуализации, мониторинга. Данные представляют собой большую ценность, когда их можно оперативно извлечь с целью решения конкретной бизнес-задачи, и, как правило, реализация таких проектов и приносит основную прибыль, и действительно, по отзывам наших клиентов, такие проекты окупаются на первых решенных аналитических задачах".

Партнер и директор компании "Интеллектуальный Резерв" Павел Мясоедов рассказал, что в настоящее время в РФ объем рынка Big Data составляет от 10 млрд до 30 млрд руб., к 2024 г. рынок вырастет в 10 раз (до 300 млрд руб.). "За счет использования технологии обработки больших объемов данных можно добиться экономического эффекта в размере 1,5-3% ВВП РФ. Речь идет о том, что разные данные, часто не связанные между собой, при обработке для конкретных коммерческих целей дают новые возможности для дополнительного развития самых разных направлений экономики. В настоящее время наиболее активно технологии Big Data используют ретейлеры, банки, компании сектора телекома и ИТ-сектор. Возможности прогнозирования на основе сбора и аналитики больших объемов данных снижают затраты в среднем на 15-20% в зависимости от направления бизнеса, так как позволяют более продуманно и точно направлять усилия компании на отдельные сектора - покупателей, продукцию, целевую аудиторию и т.д. Соответственно, внедрение таких технологий, несмотря на их изначальную высокую стоимость, окупаются многократно, когда используются в конкретном бизнесе", - прокомментировал Павел Мясоедов.

Новости из связанных рубрик