Дистилляция знаний, как метод сжатия сверточных нейронных сетей в задаче классификации::Журнал СА
www.samag.ru
     
Поиск   
              
 www.samag.ru    Web  0 товаров , сумма 0 руб.
E-mail
Пароль  
 Запомнить меня
Регистрация | Забыли пароль?
Журнал "Системный администратор"
Журнал «БИТ»
Подписка
Архив номеров
Где купить
Наука и технологии
Авторам
Рекламодателям
Контакты
   

  Опросы
  Статьи

День сисадмина  

Учите матчасть! Или как стать системным администратором

Лето – время не только отпусков, но и хорошая возможность определиться с профессией

 Читать далее...

День сисадмина  

Живой айтишник – это всегда движение. Остановка смерти подобна

Наши авторы рассказывают о своем опыте и дают советы начинающим системным администраторам.

 Читать далее...

Виртуализация  

Рынок решений для виртуализации

По данным «Обзора российского рынка инфраструктурного ПО и перспектив его развития», сделанного

 Читать далее...

Книжная полка  

Как стать креативным и востребованным

Издательский дом «Питер» предлагает новинки компьютерной литературы, а также книги по бизнесу

 Читать далее...

Книжная полка  

От создания сайтов до разработки и реализации API

В издательстве «БХВ» недавно вышли книги, которые будут интересны системным администраторам, создателям

 Читать далее...

Разбор полетов  

Ошибок опыт трудный

Как часто мы легко повторяем, что не надо бояться совершать ошибки, мол,

 Читать далее...

Принципы проектирования  

Dependency Inversion Principle. Принцип инверсии зависимостей в разработке

Мы подошли к последнему принципу проектирования приложений из серии SOLID – Dependency

 Читать далее...

Рынок труда  

Вакансия: Администратор 1С

Администратор 1С – это специалист, который необходим любой организации, где установлены программы

 Читать далее...

Книжная полка  

Книги для профессионалов, студентов и пользователей

Книги издательства «БХВ» вышли книги для тех, кто хочет овладеть самыми востребованными

 Читать далее...

Принципы проектирования  

Interface Segregation Principle. Принцип разделения интерфейсов в проектировании приложений

Эта статья из серии «SOLID» посвящена четвертому принципу проектирования приложений – Interface

 Читать далее...

1001 и 1 книга  
19.03.2018г.
Просмотров: 10797
Комментарии: 0
Потоковая обработка данных

 Читать далее...

19.03.2018г.
Просмотров: 9043
Комментарии: 0
Релевантный поиск с использованием Elasticsearch и Solr

 Читать далее...

19.03.2018г.
Просмотров: 9093
Комментарии: 0
Конкурентное программирование на SCALA

 Читать далее...

19.03.2018г.
Просмотров: 5736
Комментарии: 0
Машинное обучение с использованием библиотеки Н2О

 Читать далее...

12.03.2018г.
Просмотров: 6431
Комментарии: 0
Особенности киберпреступлений в России: инструменты нападения и защита информации

 Читать далее...

12.03.2018г.
Просмотров: 3736
Комментарии: 0
Глубокое обучение с точки зрения практика

 Читать далее...

12.03.2018г.
Просмотров: 2732
Комментарии: 0
Изучаем pandas

 Читать далее...

12.03.2018г.
Просмотров: 3531
Комментарии: 0
Программирование на языке Rust (Цветное издание)

 Читать далее...

19.12.2017г.
Просмотров: 3521
Комментарии: 0
Глубокое обучение

 Читать далее...

19.12.2017г.
Просмотров: 6017
Комментарии: 0
Анализ социальных медиа на Python

 Читать далее...

Друзья сайта  

 Дистилляция знаний, как метод сжатия сверточных нейронных сетей в задаче классификации

Архив номеров / 2023 / Выпуск №1-2 (242-243) / Дистилляция знаний, как метод сжатия сверточных нейронных сетей в задаче классификации

Рубрика: Наука и технологии /  Раздел для научных публикаций

Колесникова А.С.,
магистр института информационных технологий, Челябинский государственный университет, alexandrashel@list.ru

 

Дистилляция знаний,
как метод сжатия сверточных нейронных сетей в задаче классификации

Данная статья посвящена исследованию метода дистилляции знаний в задаче классификации с использованием сверточных нейронных сетей. Основная тема работы – разработка метода сжатия модели с помощью дистилляции знаний, что позволяет уменьшить количество параметров модели без значительного ухудшения качества классификации. Цель работы – исследовать эффективность метода сжатия моделей для решения задачи классификации.
Результаты работы показывают, что метод дистилляции знаний эффективен в уменьшении количества параметров модели без существенного ухудшения качества классификации.

 

Введение

Дистилляция знаний – это метод переноса знаний из одной нейронной сети в другую. Он используется для улучшения производительности и уменьшения ресурсов, необходимых для обучения модели. В данной статье мы рассматриваем применение дистилляции знаний для сжатия сверточных нейронных сетей в задаче классификации.

Дистилляция знаний является актуальной проблемой в области машинного обучения, так как большие модели требуют большого количества ресурсов, что может быть затруднительно на мобильных устройствах или устройствах с ограниченной памятью. Дистилляция знаний позволяет снизить размер модели без существенного снижения качества распознавания.

 

<...>

Ключевые слова: дистилляция знаний, распознавание знаний, сверточные нейронные сети, глубокое обучение


Полную версию статьи читайте в журнале
Подпишитесь на журнал
Купите в Интернет-магазине

Комментарии отсутствуют

Добавить комментарий

Комментарии могут оставлять только зарегистрированные пользователи

               Copyright © Системный администратор

Яндекс.Метрика
Tel.: (499) 277-12-41
Fax: (499) 277-12-45
E-mail: sa@samag.ru