Метод побудови нейромережевих засобів розпізнавання емоційного забарвлення текстів в універсальних комп'ютерних засобах
Анотація
У статті запропоновано метод побудови нейромережевих засобів для розпізнавання емоційного забарвлення українськомовних текстів в умовах «універсальних» обчислювальних засобів (CPU/мобільні пристрої/GPU). Метод уніфікує етапи кодування вхідних даних і декодування вихідних даних нейроморежі у ймовірнісні оцінки та формалізує алгоритм вибору архітектури залежно від ресурсних обмежень і вимог до точності. Передбачено три гілки: легковагові моделі для обмежень обчислювальних ресурсів, послідовні рекурентні моделі для помірних ресурсів і моделі на основі архітектури трансформер для сценаріїв з пріоритетом якості. Показано уніфікований конвеєр обробки текстових фрагментів: токенізація/векторизація, нейромережеве перетворення, нормування і вибір домінантної емоції. Експериментальна перевірка двох прототипів підтверджує компроміс «якість–ефективність»: RoBERTa перевершує FastText за точністю, однак вимагає більше параметрів і має вищу затримку інференсу (мілісекунди проти мікросекунд). Метод орієнтовано на українську мову та змішаний контент соціальних мереж, підтримує оптимізації для ресурс-обмежених платформ. Практична цінність полягає у керованому виборі архітектури і відтворюваному процесі розроблення, що забезпечує баланс точності, швидкодії та енергозатрат. Перспективи включають ансамблі/гібриди, роботу з сарказмом та розширення переліку емоцій. Результати демонструють, що систематизований підхід дає можливість створювати адаптивні рішення для моніторингу настроїв у реальному часі та інтеграції в мобільні й вбудовані системи. Запропонована методика сумісна з існуючими корпусами, метриками та стандартами відтворюваності і відкритої наукової практики
Посилання
2. Mohammad, S. M., & Turney, P. D. (2013). Crowdsourcing a Word-Emotion Association Lexicon. Computational Intelligence, 29(3), 436-465.
3. Demszky, D., Movshovitz-Attias, D., Ko, J., Cowen, A., Nemade, G., & Ravi, S. (2020). GoEmotions: A Dataset of Fine-Grained Emotions. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL) (pp. 4040-4054). Online: Association for Computational Linguistics.
4. Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers) (pp. 4171-4186). Minneapolis, Minnesota: Association for Computational Linguistics.
5. Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., Levy, O., Lewis, M., Zettlemoyer, L., & Stoyanov, V. (2019). RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv preprint arXiv:1907.11692.


