멀티 도메인 상의 확장성있는 대화상태 트래킹 연구
- Alternative Title
- A Study For Scalable Dialog State Tracking in Multi-Domain
- Abstract
- 목적 지향 대화 시스템에서 대화 상태 트래킹은 사용자의 의도를 모니터링하고 대화 상태라는 정보를 추출하여 시스템의 액션을 결정하는데 관여하는 모듈이다. 목적 지향 대화 시스템을 이용한 서비스가 점점 다방면에서 제공되면서 대화 상태 트래킹도 멀티 도메인을 지원하는 것이 필수적인 것이 되었다.
기존의 모든 슬롯과 값을 담은 온톨로지에 의존하는 상태 트래킹은 여러 도메인으로 확장할 경우 학습 데이터를 구축하는데 많은 비용이 들며 복잡도가 증가하는 문제가 있다. 따라서 멀티 도메인 상태 트래킹을 구축하기 위해서는 온톨로지에 의존하지 않고 대화 데이터 자체를 학습하는 방법을 적용하는 것이 중요하다. 대화 데이터와 같은 텍스트 데이터는 머신러닝에서 시퀀스 모델링 문제로 여겨진다. 따라서 데이터에서 시퀀스 정보를 잘 추출하는 모델을 구축하는 것이 중요하다.
텍스트 데이터에 사용되는 주된 신경망은 순환신경망과 합성곱 신경망이지만 최근에는 셀프 어텐션 메커니즘을 이용한 트랜스포머와 BERT가 기계 독해와 기계 번역에서 좋은 성능을 보여주었다. 본 논문에서는 셀프 어텐션 메커니즘과 순환신경망을 이용한 모델을 구축하여 대화 데이터로부터 대화 상태를 트래킹하는 실험을 진행하고 기존의 순환신경망만을 이용한 모델과 정확도를 비교하여 셀프 어텐션의 효과를 알아본다. 그리고 대화 상태 트래킹에서 문제로 지적되는 Out-of-Vocabulary 문제를 해결하기 위해 사전 훈련된 단어 임베딩과 복사 메커니즘을 사용한다. 모델은 자연어 이해(Natural Language Understanding) 모듈을 거치지 않고 대화에서 바로 슬롯을 트래킹하는 end-to-end 방식으로 개발된다. 실험에서는 기본 구조인 인코더-디코더 모델부터 제안 모델까지 여러 버전의 모델에 대한 테스트를 진행하고 실험을 통해 성능을 측정해본다. |In a Goal-oriented dialogue systems, dialog state tracking is a module involved in determining the action of a system by monitoring the user's intentions and extracting the conversation information called dialog states. As services using a goal-oriented dialogue system have become increasingly available in many ways, it has also become essential for dialog states tracking to support multi-domain applications.
Ontology-dependent state tracking, which includes all existing slots and values, has a high cost and increased complexity in building learning data increases the complexity of the model when extended to multiple domains. Therefore, it is important to apply a method of learning the conversation data itself without relying ontologies to build multi-domain state tracking. Text data, such as dialogue data, is considered a sequence modeling problem in machine learning. Therefore, it is important to build a model that extracts information well within the data for each step of the sequence.
The recurrent neural network and convolution neural network are considered as main techniques for processing text data. Recently the Transformer and BERT using self-attention mechanism have shown good performance in machine reading and machine translation. In this paper, we conduct an experiment of tracking the state of conversation from conversation data by building a model using self-attention mechanism and recurrent neural network, and compare the accuracy with the model using only the recurrent neural network to find out the effect of self-attention. And the model uses pre-trained word embedding and copy mechanisms to mitigate Out-of-Vocabulary problems pointed out as problems in dialog state tracking. The model is developed in an end-to-end manner that tracks slots directly in conversations without going through the Natural Language Understanding (NLU) module. Experiments conduct tests on different versions of the model, from a basic structure encoder-decoder model to the proposed model, and measure performance through the experiment. Finally, in conclusion we provide analysis of the experimental results and suggest follow-up researches.
- Author(s)
- 이민주
- Issued Date
- 2020
- Awarded Date
- 2020-08
- Type
- Dissertation
- URI
- https://repository.sungshin.ac.kr/handle/2025.oak/3266
http://dcollection.sungshin.ac.kr/common/orgView/000000013899
- Affiliation
- 성신여자대학교 일반대학원
- Department
- 일반대학원 컴퓨터학과
- Advisor
- 서동수
- Table Of Contents
- 논문개요
Ⅰ. 서론 1
1. 연구의 배경 및 목적 1
2. 논문의 구성 3
Ⅱ. 관련 연구 4
Ⅲ. 대화 처리 모델 7
1. 인코더-디코더 구조 7
2. 셀프 어텐션 메커니즘(Self-Attention Mechanism) 9
2-1. 어텐션 메커니즘 9
2-2. 셀프 어텐션 11
2-3. 멀티 헤드 어텐션 16
2-4. 문장 내 위치정보 17
Ⅳ. 대화 상태 트래킹(Dialog State Tracking, DST) 22
1. 목적 지향 대화 시스템 22
2. 대화 상태 트래킹 25
Ⅴ. 실험 28
1. 제안 모델 28
2. 실험 개요 33
3. 실험 데이터 설정 34
4. 실험 설정 32
Ⅵ. 실험 결과 38
1. 제안모델을 이용한 대화상태 트래킹 결과
2. 모델의 구조별 실험 결과
Ⅶ. 결론 및 향후 연구 44
참고문헌
영문초록
- Degree
- Master
- Publisher
- 성신여자대학교 대학원
-
Appears in Collections:
- 컴퓨터학과 > 학위논문
- 공개 및 라이선스
-
- 파일 목록
-
Items in Repository are protected by copyright, with all rights reserved, unless otherwise indicated.