В статье рассматривается проблема организации процесса распределенной обработки, больших объёмов данных применительно к анализу логов серверов и приложений. Анализ логов позволяет выявить тенденции нагрузки и доступа к ресурсам системы и далее па основе этого определить факты, сетевых атак и несанкционированного доступа. В рамках решения поставленной задачи были проанализированы, средства обработки, больших объёмов данных и выбран фреймворк Apache Hatloop, позволяющий запускать вычисления в кластере. Описан процесс организации обработки, данных с применением данного фреймворка.