Методика поєднання псевдорозмітки та стискання моделей для оптимізації самонавчання в задачах ідентифікації об’єктів
Анотація
У даній науковій роботі розглядається комбінований підхід до оптимізації навчання за допомогою самонавчання моделей ідентифікації об’єктів, що інтегрує механізм псевдорозмітки з технікою стискання моделей шляхом дистиляції знань (knowledge distillation). Основна мета даного методу полягає в покращенні точності класифікації обʼєктів за умов обмеженої кількості маркованих даних та одночасному зниженні обчислювальних витрат, що пов’язані із навчанням глибоких нейронних мереж. Методика підходу передбачає автоматичне включення до навчального набору немаркованих зразків, для яких модель-вчитель демонструє високий рівень впевненості, з подальшим використанням цих зразків для навчання компактнішої моделі-студент. Навчання здійснюється із застосуванням «м’яких» ймовірнісних міток, що дозволяє моделі-вчителю краще засвоїти узагальнені знання. Експериментальні дослідження, проведені на наборах CIFAR-100 та ImageNet, показали, що даний запропонований підхід перевершує традиційні методи самонавчання за ключовими метриками, таким як accuracy, precision, recall, F1-score, та демонструє вищу стабільність і ефективність. Результати дослідження підтверджують потенціал комбінованого підходу для масштабованого застосування в реальних задачах комп’ютерного зору, зокрема в умовах нестачі маркованих даних або при розгортанні моделей на обмежених обчислювальних ресурсах. Додатковою перевагою є можливість зменшення частки помилкових псевдоміток завдяки застосуванню порогового контролю впевненості. Запропонована архітектура навчання також забезпечує кращу процес узагальнення результатів на нові вибірки. Отримані висновки можуть бути використані у наступних дослідженнях для подальшого вдосконалення методів навчання з частковою або нульовою анотацією.
Посилання
2. Caesar H., Bankiti V., Lang A. та ін. nuScenes: A Multimodal Dataset for Autonomous Driving // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020. P. 11621–11631.
3. Lee D.-H. Pseudo-label: The Simple and Efficient Semi-Supervised Learning Method for Deep Neural Networks // ICML Workshop. 2013.
4. Xie Q., Luong M.-T., Hovy E., Le Q. V. Self-training with Noisy Student Improves ImageNet Classification // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020. P. 10687–10698.
5. Hinton G., Vinyals O., Dean J. Distilling the Knowledge in a Neural Network. 2015.


