На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

GeekBrains

4 подписчика

Как освоить Hadoop — простой инструмент для Big Data

Сегодня почти все крупные компании работают с Big Data — большим объёмом данных о сотрудниках, клиентах и всех процессах компании. Это помогает придумывать и создавать новые продукты, обгонять конкурентов и делать сервис удобнее. Основная задача кластера Hadoop — хранение и анализ больших данных.
На вебинаре разберёмся, как именно устроен Hadoop, попробуем развернуть кластер на ноутбуке и научимся безопасно экспериментировать с ним в работе.

Вы узнаете:
как запустить кластер Hadoop и проверить его работоспособность;
как использовать Docker-контейнеры;
как устроена архитектура Hadoop;
как работают механизмы отказоустойчивости.

Вебинар будет полезен:
тем, кто хочет попасть в IT-сферу;
тем, кто уже пробовал работать с Hadoop;
тем, кто планирует развиваться в Big Data, но не понимает, с чего начать.

Формат: Zoom-конференция
Длительность: 1,5 часа
Перед началом вебинара вы получите email со ссылкой на конференцию.
Запись можно посмотреть на следующий день.
На вебинаре можно и нужно задавать вопросы!

Ведущий:

Андрей Телюков

Руководитель проектов в «Ростелекоме». Работает с Big Data-проектами и DS-командами.

Опыт работы в IT — более 10 лет.

Ссылка на первоисточник
наверх