Рубрика:
Наука и технологии /
Раздел для научных публикаций
|
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
|
Колесникова А.С., магистр института информационных технологий, Челябинский государственный университет, alexandrashel@list.ru
Дистилляция знаний, как метод сжатия сверточных нейронных сетей в задаче классификации
Данная статья посвящена исследованию метода дистилляции знаний в задаче классификации с использованием сверточных нейронных сетей. Основная тема работы – разработка метода сжатия модели с помощью дистилляции знаний, что позволяет уменьшить количество параметров модели без значительного ухудшения качества классификации. Цель работы – исследовать эффективность метода сжатия моделей для решения задачи классификации. Результаты работы показывают, что метод дистилляции знаний эффективен в уменьшении количества параметров модели без существенного ухудшения качества классификации.
Введение
Дистилляция знаний – это метод переноса знаний из одной нейронной сети в другую. Он используется для улучшения производительности и уменьшения ресурсов, необходимых для обучения модели. В данной статье мы рассматриваем применение дистилляции знаний для сжатия сверточных нейронных сетей в задаче классификации.
Дистилляция знаний является актуальной проблемой в области машинного обучения, так как большие модели требуют большого количества ресурсов, что может быть затруднительно на мобильных устройствах или устройствах с ограниченной памятью. Дистилляция знаний позволяет снизить размер модели без существенного снижения качества распознавания.
<...>
Ключевые слова: дистилляция знаний, распознавание знаний, сверточные нейронные сети, глубокое обучение
Полную версию статьи читайте в журнале Подпишитесь на журнал Купите в Интернет-магазине
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
|