Дистилляция знаний, как метод сжатия сверточных нейронных сетей в задаче классификации::Журнал СА
www.samag.ru
Журнал «БИТ. Бизнес&Информационные технологии»      
Поиск   
              
 www.samag.ru    Web  0 товаров , сумма 0 руб.
E-mail
Пароль  
 Запомнить меня
Регистрация | Забыли пароль?
Журнал "Системный администратор"
Журнал «БИТ»
Подписка
Архив номеров
Где купить
Наука и технологии
Авторам
Рекламодателям
Контакты
   

  Опросы
1001 и 1 книга  
19.03.2018г.
Просмотров: 7050
Комментарии: 0
Машинное обучение с использованием библиотеки Н2О

 Читать далее...

12.03.2018г.
Просмотров: 7475
Комментарии: 0
Особенности киберпреступлений в России: инструменты нападения и защита информации

 Читать далее...

12.03.2018г.
Просмотров: 4871
Комментарии: 0
Глубокое обучение с точки зрения практика

 Читать далее...

12.03.2018г.
Просмотров: 3201
Комментарии: 0
Изучаем pandas

 Читать далее...

12.03.2018г.
Просмотров: 4000
Комментарии: 0
Программирование на языке Rust (Цветное издание)

 Читать далее...

19.12.2017г.
Просмотров: 3999
Комментарии: 0
Глубокое обучение

 Читать далее...

19.12.2017г.
Просмотров: 6498
Комментарии: 0
Анализ социальных медиа на Python

 Читать далее...

19.12.2017г.
Просмотров: 3350
Комментарии: 0
Основы блокчейна

 Читать далее...

19.12.2017г.
Просмотров: 3625
Комментарии: 0
Java 9. Полный обзор нововведений

 Читать далее...

16.02.2017г.
Просмотров: 7488
Комментарии: 0
Опоздавших не бывает, или книга о стеке

 Читать далее...

17.05.2016г.
Просмотров: 10856
Комментарии: 0
Теория вычислений для программистов

 Читать далее...

30.03.2015г.
Просмотров: 12561
Комментарии: 0
От математики к обобщенному программированию

 Читать далее...

18.02.2014г.
Просмотров: 14285
Комментарии: 0
Рецензия на книгу «Читаем Тьюринга»

 Читать далее...

13.02.2014г.
Просмотров: 9298
Комментарии: 0
Читайте, размышляйте, действуйте

 Читать далее...

12.02.2014г.
Просмотров: 7254
Комментарии: 0
Рисуем наши мысли

 Читать далее...

10.02.2014г.
Просмотров: 5549
Комментарии: 3
Страна в цифрах

 Читать далее...

18.12.2013г.
Просмотров: 4778
Комментарии: 0
Большие данные меняют нашу жизнь

 Читать далее...

18.12.2013г.
Просмотров: 3600
Комментарии: 0
Компьютерные технологии – корень зла для точки роста

 Читать далее...

04.12.2013г.
Просмотров: 3304
Комментарии: 0
Паутина в облаках

 Читать далее...

03.12.2013г.
Просмотров: 3533
Комментарии: 1
Рецензия на книгу «MongoDB в действии»

 Читать далее...

02.12.2013г.
Просмотров: 3194
Комментарии: 0
Не думай о минутах свысока

 Читать далее...

Друзья сайта  

 Дистилляция знаний, как метод сжатия сверточных нейронных сетей в задаче классификации

Архив номеров / 2023 / Выпуск №1-2 (242-243) / Дистилляция знаний, как метод сжатия сверточных нейронных сетей в задаче классификации

Рубрика: Наука и технологии /  Раздел для научных публикаций

Колесникова А.С.,
магистр института информационных технологий, Челябинский государственный университет, alexandrashel@list.ru

 

Дистилляция знаний,
как метод сжатия сверточных нейронных сетей в задаче классификации

Данная статья посвящена исследованию метода дистилляции знаний в задаче классификации с использованием сверточных нейронных сетей. Основная тема работы – разработка метода сжатия модели с помощью дистилляции знаний, что позволяет уменьшить количество параметров модели без значительного ухудшения качества классификации. Цель работы – исследовать эффективность метода сжатия моделей для решения задачи классификации.
Результаты работы показывают, что метод дистилляции знаний эффективен в уменьшении количества параметров модели без существенного ухудшения качества классификации.

 

Введение

Дистилляция знаний – это метод переноса знаний из одной нейронной сети в другую. Он используется для улучшения производительности и уменьшения ресурсов, необходимых для обучения модели. В данной статье мы рассматриваем применение дистилляции знаний для сжатия сверточных нейронных сетей в задаче классификации.

Дистилляция знаний является актуальной проблемой в области машинного обучения, так как большие модели требуют большого количества ресурсов, что может быть затруднительно на мобильных устройствах или устройствах с ограниченной памятью. Дистилляция знаний позволяет снизить размер модели без существенного снижения качества распознавания.

 

<...>

Ключевые слова: дистилляция знаний, распознавание знаний, сверточные нейронные сети, глубокое обучение


Полную версию статьи читайте в журнале
Подпишитесь на журнал
Купите в Интернет-магазине

Комментарии отсутствуют

Добавить комментарий

Комментарии могут оставлять только зарегистрированные пользователи

               Copyright © Системный администратор

Яндекс.Метрика
Tel.: (499) 277-12-45
E-mail: sa@samag.ru