Публикации по теме 'pytorch'


Классификация изображений Intel с PyTorch (Pt2): перенос обучения с предварительно обученной моделью ансамбля
ВВЕДЕНИЕ При глубоком обучении получение обучающих данных и сам процесс обучения требует больших затрат как с точки зрения физических усилий, так и вычислительных ресурсов, без гарантии отличной производительности. В моей предыдущей статье (ниже) модель, подобная VGG, была обучена с нуля на наборе данных Intel Image и смогла обеспечить только около 70% точности теста. На самом деле, многие приложения использовали трансферное обучение вместо обучения моделей с нуля, чтобы..

Мы нанимаем разработчиков глубокого обучения — Zemana
Команда Zemana разрабатывает самые умные и мощные решения для обеспечения безопасности посредством постоянных исследований и взаимодействия с пользователями. Мы создаем команду, которая верит в простоту, исследования и силу искусственного интеллекта, которые ведут нас к решениям, меняющим мир. Каждый член команды здесь, чтобы бросить вызов и принять вызов, делая мир лучше. Междисциплинарное сотрудничество является ключевым фактором нашего успеха в предоставлении отмеченных наградами..

API поддержки PyTorch Multi-Weight снова делает перенос обучения тривиальным
Новый API Pytorch позволяет легко настраивать популярные архитектуры NN и заставлять их работать на вас. Тонкая настройка модели глубокого обучения (DL) еще никогда не была такой простой. Современные фреймворки DL, такие как TensorFlow и PyTorch , делают эту задачу тривиальной. Вы можете получить проверенную искусственную нейронную сеть, адаптированную к вашим потребностям, за считанные минуты. Однако тонкая настройка модели — это всего лишь один шаг в вашем эксперименте. Таким..

5 лучших практик для эффективного обучения моделей
В ходе наших исследований и разработки продукта мы систематизировали ряд лучших практик для эффективного обучения CNN, и мы хотели бы поделиться некоторыми из них с вами здесь. tl;dr Обучите свою CNN намного быстрее, используя Composer (наша библиотека для эффективного обучения) и образ докера MosaicML , а также включите последние каналы с помощью аргумента командной строки --algorithms channels_last . Введение Цель MosaicML — сделать обучение нейронной сети более эффективным..

Создание мощного преобразователя для маркировки последовательностей в PyTorch: Часть II
В первой части этой серии мы рассмотрели основные компоненты модели Transformer - Multi Head Внимание и Positionwise Feedforward . Теперь посмотрим, как они работают вместе. Собираем все вместе PyTorch упрощает объектно-ориентированный дизайн с nn.Module , поэтому мы можем вкладывать компоненты, как в статье. Следуя их терминологии слой и подслой , я структурировал код в трех файлах: sublayers.py : определяет самые внутренние компоненты, а именно MultiHeadAttention и..

Классификация текста с использованием TextCNN
Если вы хотите классифицировать текстовые данные, TextCNN — это популярная и эффективная архитектура, которую можно использовать для классификации текста по разным классам. В этой статье мы рассмотрим основы TextCNN и узнаем, как реализовать его в PyTorch для классификации адресов по категориям, таким как образовательные учреждения, коммерческие учреждения, спортивные комплексы и т. д. Классификация текста является важной задачей обработки естественного языка (NLP), целью которой является..

Руководство по методам увеличения данных в машинном обучении
Вы хотите повысить производительность и обобщить свои модели машинного обучения? Хотите узнать о методе, который может повысить точность вашей модели, не требуя дополнительных размеченных данных? Если да, то рассматривали ли вы возможности расширения данных? В этой статье мы углубимся в увлекательный мир увеличения данных и рассмотрим его приложения, методы и лучшие практики. Что такое увеличение данных? Аугментация данных — жизненно важный метод в области машинного обучения и..