Оптимизация моделей глубокого обучения на основе GPU::
www.samag.ru
     
Поиск   
              
 www.samag.ru    Web  0 товаров , сумма 0 руб.
E-mail
Пароль  
 Запомнить меня
Регистрация | Забыли пароль?
Журнал "Системный администратор"
Журнал «БИТ»
Наука и технологии
Подписка
Где купить
Авторам
Рекламодателям
Магазин
Архив номеров
Вакансии
Контакты
   

Вебинар

Jobsora


  Опросы
1001 и 1 книга  
20.12.2019г.
Просмотров: 6491
Комментарии: 0
Dr.Web: всё под контролем

 Читать далее...

04.12.2019г.
Просмотров: 7609
Комментарии: 1
Особенности сертификаций по этичному хакингу

 Читать далее...

28.05.2019г.
Просмотров: 8836
Комментарии: 2
Анализ вредоносных программ

 Читать далее...

28.05.2019г.
Просмотров: 9039
Комментарии: 2
Микросервисы и контейнеры Docker

 Читать далее...

28.05.2019г.
Просмотров: 7985
Комментарии: 0
Django 2 в примерах

 Читать далее...

Друзья сайта  

Форум системных администраторов  

sysadmins.ru

 Оптимизация моделей глубокого обучения на основе GPU

Архив номеров / 2020 / Выпуск №12 (217) / Оптимизация моделей глубокого обучения на основе GPU

Рубрика: Наука и технологии /  Раздел для научных публикаций

Петрин Д.А.,
магистр кафедры «Программное обеспечение ЭВМ, информационные технологии», Калужский филиал федерального государственного бюджетного образовательного учреждения высшего образования «Московский государственный технический университет имени Н.Э. Баумана (национальный исследовательский университет)», Калуга, dapetrin98@yandex.ru

Белов Ю.С.,
кандидат физико-математических наук, доцент кафедры «Программное обеспечение ЭВМ, информационные технологии», Калужский филиал федерального государственного бюджетного образовательного учреждения высшего образования «Московский государственный технический университет имени Н.Э. Баумана (национальный исследовательский университет)», Калуга, iu4-kf@mail.rux

Козина А.В.,
аспирант кафедры «Программное обеспечение ЭВМ, информационные технологии», Калужский филиал федерального государственного бюджетного образовательного учреждения высшего образования «Московский государственный технический университет имени Н.Э. Баумана (национальный исследовательский университет)», Калуга, anastasiya_kozin@list.ru

 

Оптимизация
моделей глубокого обучения на основе GPU

В данной статье рассматриваются оптимизации логического вывода обученных моделей на GPU, а также сравнительные характеристики производительности без и с использованием TensorRT

 

Введение

В наши дни ускорение моделей глубокого обучения похоже на погоню за движущейся целью [1]. По мере того как модели становятся все более универсальными и точными, их требования к вычислительным ресурсам и памяти стремительно растут [2, 3] и, вполне возможно, опередят улучшения в ресурсах и производительности графических процессоров. Так, например, 100 эпох обучения ResNet50 на наборе данных ImageNet на одном графическом процессоре NVIDIA Tesla M40 занимают 14 дней. Чтобы сократить время обучения, исследователи используют кластеры с сотнями подобных графических процессоров [4, 5]. Точно так же во время логического вывода (inference) серьезной проблемой является достижение целевых значений задержки (особенно для приложений, работающих в реальном времени) при высокой степени повторного использования, пропускной способности и точности.

<...>


Полную версию статьи читайте в журнале
Подпишитесь на журнал
Купите в Интернет-магазине

Комментарии отсутствуют

Добавить комментарий

Комментарии могут оставлять только зарегистрированные пользователи

               Copyright © Системный администратор

Яндекс.Метрика
Tel.: (499) 277-12-41
Fax: (499) 277-12-45
E-mail: sa@samag.ru