Главная » Big Data » Специалисты компании Gartner высказались по поводу тенденций в сфере обработки больших объемов данных

Специалисты компании Gartner высказались по поводу тенденций в сфере обработки больших объемов данных

  • 27 апреля 2017
0 комментариев

Исходя из информации, предоставленной компанией Gartner, к началу следующего года большая часть ситуаций, связанных с нарушениями при анализе значительных массивов данных, будет вызвана неспособностью пользователей к их обработке. Gartner обнародовала рекомендации, которые поспособствуют минимизации таких случаев. Таковыми являются специализированные программные средства и особые подходы к обработке информации.

Основная рекомендация специалистов-аналитиков — это грамотное соотношение аналитических выводов с требуемым эффектом от принятых бизнес-мер.

Один из администраторов банка «Открытие» Алексей Балагиров высказался по данному поводу следующим образом: «В этой области имеются две ключевые проблемы. Первая связана с человеческим фактором. Современные технологии настолько стремительно развиваются, что специалисты-аналитики попросту не успевают их изучать и извлекать из них ценность. Вторая грань проблемы — роль, которую играют статистические данные в бизнес-процессах. Поэтому сегодня совершенно необходима разработка единой стратегии в процессах оперирования данными».

Дмитрий Шепелявский, занимающий пост замдиректора другой аналитической компании — SAP, — заявил, что анализ статистических данных никто не осуществляет просто так. Как минимум, всем заказчикам они требуются для отчетности, определения уровня результативности различных бизнес-решений. Также он высказал мнение, что новые подходы к обработке значительных объемов данных будут особо востребованы во многих капиталоемких сферах индустрии — энергетике, рудной, нефтегазовой отрасли.

Добавить комментарий

Вы должны войти, чтобы оставить комментарий.