1. Преобразование знаний от нескольких к одному для семантической сегментации облака точек (arXiv)

Автор: Шоумэн Цю, Фэн Цзян, Хайцян Чжан, Сянъян Сюэ, Цзянь Пу.

Аннотация: Семантическая сегментация трехмерного облака точек является одной из фундаментальных задач для понимания окружающей среды. Хотя за последние годы был достигнут значительный прогресс, эффективность классов с небольшим количеством примеров или баллов по-прежнему далека от удовлетворительной. В этой статье мы предлагаем новую структуру дистилляции знаний от нескольких к одному для задачи семантической сегментации трехмерного облака точек, чтобы повысить производительность этих сложных классов. Вместо того, чтобы объединять все точки мультисканирования напрямую, объединяются только экземпляры, принадлежащие ранее определенным жестким классам. Чтобы эффективно и в достаточной степени извлекать ценные знания из нескольких сканирований, мы используем многоуровневую структуру дистилляции, то есть дистилляцию представления признаков, дистилляцию логита и дистилляцию сходства. Мы также разрабатываем новый алгоритм дистилляции сходства с учетом экземпляров для сбора структурных знаний высокого уровня для повышения эффективности дистилляции для сложных классов. Наконец, мы проводим эксперименты с набором данных SemanticKITTI, и результаты как проверочного, так и тестового наборов показывают, что наш метод дает существенные улучшения по сравнению с базовым методом. Код доступен по адресу \Url{https://github.com/skyshoumeng/M2SKD}.

2. Моделирование ансамбля с контрастной дистилляцией знаний для последовательной рекомендации (arXiv)

Автор: Ханьвэнь Ду, Хуанхуань Юань, Пэнпэн Чжао, Фучжэнь Чжуан, Гуаньфэн Лю, Лэй Чжао, Янчи Лю, Виктор С. Шэн.

Аннотация: последовательная рекомендация направлена ​​на то, чтобы уловить динамический интерес пользователей и предсказать следующий элемент предпочтений пользователей. Большинство методов последовательных рекомендаций используют глубокую нейронную сеть в качестве кодировщика последовательности для создания представлений пользователей и элементов. Существующие работы в основном сосредоточены на разработке более надежного кодировщика последовательности. Однако было предпринято несколько попыток обучения ансамбля сетей в качестве кодировщиков последовательности, что является более мощным, чем одиночная сеть, поскольку ансамбль параллельных сетей может давать различные результаты прогнозирования и, следовательно, более высокую точность. В этой статье мы представляем ансамблевое моделирование с контрастной дистилляцией знаний для последовательных рекомендаций (EMKD). Наша структура использует несколько параллельных сетей как ансамбль кодировщиков последовательности и рекомендует элементы на основе выходных распределений всех этих сетей. Чтобы облегчить передачу знаний между параллельными сетями, мы предлагаем новый подход к дистилляции контрастных знаний, который выполняет передачу знаний с уровня представления через внутрисетевое контрастное обучение (ICL) и кросс-сетевое контрастное обучение (CCL), а также дистилляцию знаний ( KD) с уровня логитов путем минимизации расхождения Кульбака-Лейблера между выходными распределениями сети учителя и сети ученика. Чтобы использовать контекстную информацию, мы обучаем основную задачу прогнозирования замаскированных элементов вместе с задачей прогнозирования вспомогательных атрибутов в качестве многозадачной схемы обучения. Обширные эксперименты с общедоступными эталонными наборами данных показывают, что EMKD обеспечивает значительное улучшение по сравнению с современными методами. Кроме того, мы демонстрируем, что наш ансамблевый метод является обобщенным подходом, который также может улучшить производительность других последовательных рекомендаций. Наш код доступен по этой ссылке: https://github.com/hw-du/EMKD