Дистилляция знаний, как метод сжатия сверточных нейронных сетей в задаче классификации::Журнал СА
www.samag.ru
     
Поиск   
              
 www.samag.ru    Web  0 товаров , сумма 0 руб.
E-mail
Пароль  
 Запомнить меня
Регистрация | Забыли пароль?
Журнал "Системный администратор"
Журнал «БИТ»
Наука и технологии
Подписка
Где купить
Авторам
Рекламодателям
Архив номеров
Контакты
   

  Опросы

1001 и 1 книга  
19.03.2018г.
Просмотров: 9417
Комментарии: 0
Потоковая обработка данных

 Читать далее...

19.03.2018г.
Просмотров: 7616
Комментарии: 0
Релевантный поиск с использованием Elasticsearch и Solr

 Читать далее...

19.03.2018г.
Просмотров: 7714
Комментарии: 0
Конкурентное программирование на SCALA

 Читать далее...

19.03.2018г.
Просмотров: 4933
Комментарии: 0
Машинное обучение с использованием библиотеки Н2О

 Читать далее...

12.03.2018г.
Просмотров: 5613
Комментарии: 0
Особенности киберпреступлений в России: инструменты нападения и защита информации

 Читать далее...

Друзья сайта  

 Дистилляция знаний, как метод сжатия сверточных нейронных сетей в задаче классификации

Архив номеров / 2023 / Выпуск №1-2 (242-243) / Дистилляция знаний, как метод сжатия сверточных нейронных сетей в задаче классификации

Рубрика: Наука и технологии /  Раздел для научных публикаций

Колесникова А.С.,
магистр института информационных технологий, Челябинский государственный университет, alexandrashel@list.ru

 

Дистилляция знаний,
как метод сжатия сверточных нейронных сетей в задаче классификации

Данная статья посвящена исследованию метода дистилляции знаний в задаче классификации с использованием сверточных нейронных сетей. Основная тема работы – разработка метода сжатия модели с помощью дистилляции знаний, что позволяет уменьшить количество параметров модели без значительного ухудшения качества классификации. Цель работы – исследовать эффективность метода сжатия моделей для решения задачи классификации.
Результаты работы показывают, что метод дистилляции знаний эффективен в уменьшении количества параметров модели без существенного ухудшения качества классификации.

 

Введение

Дистилляция знаний – это метод переноса знаний из одной нейронной сети в другую. Он используется для улучшения производительности и уменьшения ресурсов, необходимых для обучения модели. В данной статье мы рассматриваем применение дистилляции знаний для сжатия сверточных нейронных сетей в задаче классификации.

Дистилляция знаний является актуальной проблемой в области машинного обучения, так как большие модели требуют большого количества ресурсов, что может быть затруднительно на мобильных устройствах или устройствах с ограниченной памятью. Дистилляция знаний позволяет снизить размер модели без существенного снижения качества распознавания.

 

<...>

Ключевые слова: дистилляция знаний, распознавание знаний, сверточные нейронные сети, глубокое обучение


Полную версию статьи читайте в журнале
Подпишитесь на журнал
Купите в Интернет-магазине

Комментарии отсутствуют

Добавить комментарий

Комментарии могут оставлять только зарегистрированные пользователи

               Copyright © Системный администратор

Яндекс.Метрика
Tel.: (499) 277-12-41
Fax: (499) 277-12-45
E-mail: sa@samag.ru