Публикации по теме 'big-data'


Беседа с Чиной Лоусон, министром цифровой экономики и цифровой трансформации Того
CEGA приняла у себя Сину Лоусон, министра цифровой экономики и цифровой трансформации Того, для личного выступления в Калифорнийском университете в Беркли 13 октября, а также основного доклада на симпозиуме CEGA Evidence to Action ( E2A ) в ноябре. 4. Министр присоединилась к нам виртуально с саммита COP26 в Глазго — вы можете посмотреть ее выступления здесь . Во время своего пребывания в должности министр Лоусон уделяла первоочередное внимание цифровой трансформации Того и помогла..

Как можно использовать большие данные с помощью технологии ИИ?
Объединение больших данных и мощных возможностей искусственного интеллекта позволит получить инновационные идеи и решения с большой рыночной ценностью. Большие данные собирают массивные наборы данных, в которые каждый вносит свой вклад каждый день, увеличивая данные с каждой минутой. По данным DOMO, в 2020 году примерно каждый человек на земле будет генерировать 1,7 МБ данных каждую секунду. Интерпретация этих собранных данных может раскрыть потенциал для создания замечательных..

Понимание процесса настройки приложения Spark.
Apache Spark — это мощный аналитический механизм с открытым исходным кодом и распределенной инфраструктурой кластерных вычислений общего назначения. Приложение Spark — это автономное вычисление, включающее процесс-драйвер и набор процессов-исполнителей. Здесь процесс драйвера запускает функцию main(), сидя на узле внутри кластера. Более того, он отвечает за три вещи: управление информацией о приложении Spark; ответ на программу или ввод пользователя; анализ, распределение и планирование..

Стать инженером данных: основные навыки и инструменты
Data Engineering — это создание и управление инфраструктурой для хранения, обработки и анализа больших объемов данных. Давайте рассмотрим рабочий процесс и инструменты, объяснив важность и альтернативы для каждого этапа. Сбор данных Сбор данных — это первый важный шаг в конвейере разработки данных, когда данные собираются из множества источников. Чтобы эффективно справиться с этой задачей, инженеры данных используют различные инструменты. Давайте рассмотрим некоторые из самых..

Текстовый анализ по науке о данных
На первой неделе я изучил интеллектуальный анализ текста, чтобы изучить концепции, связанные с областью науки о данных. Часто встречающиеся термины раскрывают важные ключевые слова, связанные с наукой о данных, такие как статистика, исследования и регрессия. Он также содержит другие слова, описывающие область науки о данных: машинное обучение, большие данные и искусственный интеллект. Пакет Wordcloud может преобразовать частотность терминов в облака слов, замаскированные..

Объяснение больших данных
Большие данные простыми словами! Большие данные повсюду. От Netflix до оцифровки простых ручных форм стало возможным только благодаря большим данным. Большие данные не только сделали хранение и обработку данных более быстрыми, но и более дешевыми и доступными. В этой статье я расскажу вам, что такое большие данные и чем они отличаются от традиционного подхода к хранению и обработке данных.

Какой выбрать? Вычисления на GPU против Apache Spark для масштабирования вашей следующей большой задачи
Правило большого пальца для выбора правильной среды параллельных вычислений Параллельные вычисления - это тип вычислений, при котором вычисления или выполнение процессов выполняются одновременно. Большие проблемы часто можно разделить на более мелкие, которые затем можно решить одновременно. И Apache Spark , и вычисления на GPU предоставляют эту возможность и мощь параллельных вычислений. Время от времени я использовал возможности Apache Spark и GPU, пытаясь решить..