Публикации по теме 'deep-learning'


Fast.ai Deep Learning for Coders, Part 1 (v2) 2018: The Ultimate Collection of Video Timelines
В дополнение к хронологии видео 2017 Часть 1 и 2017 Часть 2 ниже вы можете найти полную коллекцию хронологии видео для части 1 2018 (V2). Эта версия включает множество ключевых слов для поиска. Особая благодарность @hiromi за ее помощь Примечание 1: это для студентов, которые прошли весь курс Части 1 (V2) и хотят быстро найти / перейти в определенный раздел, используя поиск по ключевым словам на одной странице / месте. Имхо, если вы не взяли курс: не используйте это как..

Как работает локальная линейная сходимость, часть 2 (машинное обучение)
Локальная линейная сходимость градиентных методов для оптимизации подпространства посредством строгой дополнительности (arXiv) Автор : Дэн Гарбер , Рон Фишер Аннотация: Рассматриваются задачи оптимизации, целью которых является найти k-мерное подпространство Rn, k‹‹n, которое минимизирует выпуклые и гладкие потери. Такие проблемы обобщают фундаментальную задачу анализа главных компонентов (PCA), включая, среди прочего, надежные и разреженные аналоги, а также логистический PCA для..

Будущее программирования: изучение преимуществ разработки программного обеспечения с помощью ИИ
Разработка программного обеспечения с помощью ИИ — это быстро развивающаяся область, которая сочетает в себе возможности искусственного интеллекта с традиционными методами кодирования. Он включает в себя интеграцию технологий искусственного интеллекта, таких как машинное обучение и обработка естественного языка, в процесс разработки программного обеспечения для повышения эффективности, производительности и качества кода. Автоматизируя повторяющиеся задачи, предлагая улучшения кода и..

Функция Tanh  — S-образная функция, аналогичная сигмовидной функции.
Пошаговая реализация с его производной В этом посте мы поговорим о функции активации Таня и ее производной. Форма функции Tanh очень похожа на сигмовидную, но выходной диапазон равен (-1, 1), в отличие от (0, 1) для сигмовидной. Скачать Jupyter Notebook можно здесь . Вернуться к предыдущему сообщению Вернуться к первому сообщению 3.2 Что такое функция активации Tanh и ее производная? Это определение функции Таня. И очень легко найти производную функции Таня...

Работа с машинами повышения градиента, часть 6 (машинное обучение)
Машина повышения градиента с частично рандомизированными деревьями решений (arXiv) Автор : Андрей Владимирович Константинов , Лев Викторович Уткин Аннотация: : Машина повышения градиента — это мощный метод машинного обучения на основе ансамбля для решения задач регрессии. Однако одной из трудностей его использования является возможный разрыв функции регрессии, который возникает, когда области обучающих данных не плотно покрыты обучающими точками. Чтобы преодолеть эту трудность и..

Варианты использования семантического анализа в различных сценариях, часть 2 (инженерия данных)
Независимый от языка нейросимволический семантический анализ для понимания формы (arXiv) Автор: Бхану Пракаш Вутхароджа , Лижен Цюй , Фатеме Шири . Аннотация: Недавние работы по пониманию форм в основном используют мультимодальные преобразователи или крупномасштабные предварительно обученные языковые модели. Эти модели нуждаются в достаточном количестве данных для предварительного обучения. Напротив, люди обычно могут определить пары ключ-значение из формы, только взглянув на..

Как работает многоязычное предварительное обучение, часть 1 (машинное обучение)
mPMR: многоязычный предварительно обученный машинный ридер в масштабе (arXiv) Автор: Вэйвэнь Сюй , Синь Ли , Вай Лам , Лидонг Бин . Аннотация: Мы представляем многоязычный предварительно обученный машинный ридер (mPMR), новый метод предварительного обучения многоязычному машинному чтению (MRC). mPMR направлен на то, чтобы направлять многоязычные предварительно обученные языковые модели (mPLM) для выполнения понимания естественного языка (NLU), включая как классификацию..