На Coursera стартует новая серия курсов по большим данным. Это дополнение к постоянно растущему списку специализаций призвано вооружить вас надежным набором навыков для обработки, анализа и извлечения значимой информации из больших объемов сложных данных.
Курсы основаны на экосистеме Hadoop и обучают платформе Hadoop, ее архитектуре и инструментам, составляющим ее экосистему. Существуют практические инструкции и задания с использованием таких инструментов, как Spark, Pig и Hive, а также инструкции по стратегиям обработки массивных наборов данных с использованием инфраструктуры map / reduce.
Если вы хотите получить окончательный сертификат, специализация состоит из пяти курсов и заключительного проекта Capstone, и если вы заплатите заранее, вы можете сэкономить 10%. Конечно, вы можете бесплатно проверять курсы, что дает доступ ко всем материалам курса.
.
Первый курс из этой серии рассчитан на 3 недели и требует 5-6 часов обучения в неделю и стоит 49 долларов. Он называется «Введение в большие данные» и предназначен для начинающих. Его цель — развенчать шумиху вокруг больших данных и дать вам ответы на такие вопросы, как «Кто эти загадочные специалисты по данным, о которых все говорят?», «О каких проблемах? — навыки и знания, которыми они должны обладать? »и« Какие проблемы могут быть решены с помощью технологии больших данных? ».
Курс также знакомит вас с ключевыми техническими терминами, инструментами и приложениями для работы с большими данными, которые вы будете использовать в остальных курсах по специальности «Большие данные». В следующей части начального курса, «Демистификация науки о данных», более подробно рассматривается то, что делает специалиста по данным, а в последнем разделе «Приступая к работе с Hadoop» рассказывается, как загрузить и установить Hadoop, а также создать свой первая простая программа Hadoop.
Каждый из остальных курсов длятся 5 недель и стоит 79 долларов. Следующим в этой серии является платформа и платформа приложений Hadoop, в которой рассматриваются основные инструменты, используемые для работы с большими данными и их анализа, а также на практических примерах с фреймворками Hadoop и Spark. Далее следует введение в аналитику больших данных, охватывающее основные подходы к запросам и изучению данных с использованием инструментов более высокого уровня, созданных на основе платформы Hadoop. Затем «Машинное обучение с большими данными» охватывает инструменты с открытым исходным кодом, которые вы можете использовать для параллельного, распределенного и масштабируемого машинного обучения, а «Введение в аналитику графов» — это широкий обзор области графической аналитики, чтобы вы могли изучить новые способы моделирования, хранения и извлечения. и анализировать данные с графической структурой. Последний компонент специализации — Big Data — Capstone Project, который охватывает создание экосистемы больших данных с использованием инструментов и методов из предыдущих курсов по этой специализации и доступен только для студентов, платящих за обучение.
Курс проводится Калифорнийским университетом в Сан-Диаго, а инструктором начального курса является Наташа Балак, директор Центра передового опыта в области прогнозной аналитики (PACE) Суперкомпьютерного центра Сан-Диего.
Набор на курс начинается 21 декабря и заканчивается 26 декабря, курс длится с 21 декабря по 18 января.