Дистилляция знаний, как метод сжатия сверточных нейронных сетей в задаче классификации::Журнал СА
www.samag.ru
     
Поиск   
              
 www.samag.ru    Web  0 товаров , сумма 0 руб.
E-mail
Пароль  
 Запомнить меня
Регистрация | Забыли пароль?
Журнал "Системный администратор"
Журнал «БИТ»
Наука и технологии
Подписка
Где купить
Авторам
Рекламодателям
Архив номеров
Контакты
   

  Опросы
  Статьи

Электронный документооборот  

5 способов повысить безопасность электронной подписи

Область применения технологий электронной подписи с каждым годом расширяется. Все больше задач

 Читать далее...

Рынок труда  

Системные администраторы по-прежнему востребованы и незаменимы

Системные администраторы, практически, есть везде. Порой их не видно и не слышно,

 Читать далее...

Учебные центры  

Карьерные мечты нужно воплощать! А мы поможем

Школа Bell Integrator открывает свои двери для всех, кто хочет освоить перспективную

 Читать далее...

Гость номера  

Дмитрий Галов: «Нельзя сказать, что люди становятся доверчивее, скорее эволюционирует ландшафт киберугроз»

Использование мобильных устройств растет. А вместе с ними быстро растет количество мобильных

 Читать далее...

Прошу слова  

Твердая рука в бархатной перчатке: принципы soft skills

Лауреат Нобелевской премии, специалист по рынку труда, профессор Лондонской школы экономики Кристофер

 Читать далее...

1001 и 1 книга  
19.03.2018г.
Просмотров: 9956
Комментарии: 0
Потоковая обработка данных

 Читать далее...

19.03.2018г.
Просмотров: 8163
Комментарии: 0
Релевантный поиск с использованием Elasticsearch и Solr

 Читать далее...

19.03.2018г.
Просмотров: 8264
Комментарии: 0
Конкурентное программирование на SCALA

 Читать далее...

19.03.2018г.
Просмотров: 5233
Комментарии: 0
Машинное обучение с использованием библиотеки Н2О

 Читать далее...

12.03.2018г.
Просмотров: 5919
Комментарии: 0
Особенности киберпреступлений в России: инструменты нападения и защита информации

 Читать далее...

Друзья сайта  

 Дистилляция знаний, как метод сжатия сверточных нейронных сетей в задаче классификации

Архив номеров / 2023 / Выпуск №1-2 (242-243) / Дистилляция знаний, как метод сжатия сверточных нейронных сетей в задаче классификации

Рубрика: Наука и технологии /  Раздел для научных публикаций

Колесникова А.С.,
магистр института информационных технологий, Челябинский государственный университет, alexandrashel@list.ru

 

Дистилляция знаний,
как метод сжатия сверточных нейронных сетей в задаче классификации

Данная статья посвящена исследованию метода дистилляции знаний в задаче классификации с использованием сверточных нейронных сетей. Основная тема работы – разработка метода сжатия модели с помощью дистилляции знаний, что позволяет уменьшить количество параметров модели без значительного ухудшения качества классификации. Цель работы – исследовать эффективность метода сжатия моделей для решения задачи классификации.
Результаты работы показывают, что метод дистилляции знаний эффективен в уменьшении количества параметров модели без существенного ухудшения качества классификации.

 

Введение

Дистилляция знаний – это метод переноса знаний из одной нейронной сети в другую. Он используется для улучшения производительности и уменьшения ресурсов, необходимых для обучения модели. В данной статье мы рассматриваем применение дистилляции знаний для сжатия сверточных нейронных сетей в задаче классификации.

Дистилляция знаний является актуальной проблемой в области машинного обучения, так как большие модели требуют большого количества ресурсов, что может быть затруднительно на мобильных устройствах или устройствах с ограниченной памятью. Дистилляция знаний позволяет снизить размер модели без существенного снижения качества распознавания.

 

<...>

Ключевые слова: дистилляция знаний, распознавание знаний, сверточные нейронные сети, глубокое обучение


Полную версию статьи читайте в журнале
Подпишитесь на журнал
Купите в Интернет-магазине

Комментарии отсутствуют

Добавить комментарий

Комментарии могут оставлять только зарегистрированные пользователи

               Copyright © Системный администратор

Яндекс.Метрика
Tel.: (499) 277-12-41
Fax: (499) 277-12-45
E-mail: sa@samag.ru