arxiv.org


Abstract

Multimodal Sentiment Analysis (MSA)는 사용자의 감성을 추론하기 위해 멀티모달 데이터를 활용하는 태스크다. 기존 연구들은 각 모달리티 데이터의 기여도를 동일하게 취급하거나 텍스트 모달리티 데이터를 지배적인 모달리티로 하여 다른 모달리티와의 상호작용을 학습하는 방법론을 제안하였지만, 이런 연구들은 지배적인 모달리티가 다양하게 변화하는 상황은 고려하지 못하는 한계점이 존재한다. 본 연구에서는, MSA를 해결하기 위한 Knowledge-Guided Dynamic Modality Attention Fusion Framework (KuDA) 프레임워크를 제안한다. KuDA는 모델이 동적으로 지배적인 모달리티를 선택하고 각 모달리티의 기여도를 조절하기 위해 감성 지식(sentiment knowledge)를 사용한다. 게다가, 얻어진 멀티모달 표현을 활용하여, correlation evaluation loss를 통해 지배적인 모달리티의 기여도를 더욱 강조할 수 있도록 학습한다.


Introduction


Methodology

Overall Architecture

image.png