Основные события недели: Google запускает собственную AI Studio для поддержки стартапов в области машинного интеллекта; ImageNet: данные, которые породили нынешний бум искусственного интеллекта; 37 причин, по которым ваша нейронная сеть не работает; Превосходя средний уровень обучения с подкреплением

Новости

AI Grant



AI Grant - это некоммерческая распределенная исследовательская лаборатория искусственного интеллекта, которой руководят Нат Фридман и Дэниел Гросс для финансирования работы над передовым искусственным интеллектом. Подача заявок 25 августа 2017 г.

Google запускает собственную AI Studio для поддержки стартапов в области машинного интеллекта



Google стремится удовлетворить потребности стартапов с помощью специализированных наборов данных, инструментов моделирования и помощи в создании прототипов. Еще одним преимуществом Launchpad Studio является то, что принятые стартапы будут иметь доступ к талантам Google, включая инженеров, экспертов в области интеллектуальной собственности и специалистов по продуктам.

Статьи

ImageNet: данные, которые породили нынешний бум искусственного интеллекта



В 2006 году Фей-Фей Ли начал обдумывать идею. Прочтите глубокую и богатую историю ImageNet, как она изменила глубинное обучение и что нас ждет впереди.

Учебники, инструменты и советы

Как я использовал глубокое обучение, чтобы научить чат-бота говорить, как я



Интересный эксперимент Адита Дешпанде, чтобы заставить чат-бота говорить, как он. Вы видите сходство?

Глубокое обучение для передового опыта НЛП



Этот пост представляет собой сборник лучших практик использования нейронных сетей в обработке естественного языка.

37 причин, по которым ваша нейронная сеть не работает



С чего начать проверку, выводит ли ваша модель мусор (например, прогнозирует среднее значение всех результатов или имеет действительно низкую точность)?

Исследовать

Превышение среднего для обучения с подкреплением



В новой статье исследователи Deepmind показывают, что можно моделировать не только среднее, но и полное изменение изменений вознаграждения из-за случайности, известной как распределение значений. Это приводит к тому, что системы RL более точны и быстрее обучаются, чем предыдущие модели, и, что более важно, открывает возможность переосмысления всего обучения с подкреплением.

Если вам нравится то, что вы читаете, подпишитесь и порекомендуйте своим друзьям или напишите сообщение в Twitter! Рад услышать ваши предложения и рекомендации @deephunt_in или в комментариях ниже!