대규모 언어 모델과 QLoRA 미세 조정 기반 보완대체의사소통 상징 시퀀스의 한국어 문장 변환
- Alternative Title
- Transformation of AAC Symbol Sequences into Korean Sentences Based on Large Language Model and QLoRA Fine-Tuning
- Abstract
- 현대 사회에서의 의사소통의 중요성은 갈수록 높아지고 있으며, 대면 의사소통뿐만 아니라 비대면 의사소통 또한 매우 중요해졌다. 그러나 지적장애, 자폐스펙트럼장애 등 언어 표현과 이해에 어려움을 겪는 사람들의 대면 및 비대면 의사소통은 아직 보장받지 못하고 있다. 보완대체의사소통(Augmentative and Alternative Communication, AAC)은 구어를 통한 의사소통에 어려움이 있는 사람들의 의사소통을 지원하기 위한 도구나 방식으로 그들의 소통 창구로서 언어 장애인 간, 혹은 비장애인과의 의사소통과 사회적 상호 작용을 지원한다. 보완대체의사소통 상징은 표현하고자 하는 개념이나 의미를 직관적으로 표현하는 상징 이미지와, 상징 식별 및 관리를 위한 상징 이름(identifier), 전달하고자 하는 개념이나 의미를 나타내는 표현 어휘(expression)으로 구성되어 있다. AAC 사용자는 AAC 상징을 나열하여 의사나 감정을 상대방에게 전달할 수 있다. 그러나 비장애인의 AAC 상징에 대한 이해도가 낮아 AAC 상징만을 활용한 의사소통에는 제한이 있다. 따라서 AAC 사용자의 원활한 의사소통을 위해서는 AAC 상징 시퀀스를 자연스러운 한국어 문장으로 변환하는 것이 필요하다.
본 연구는 AAC 사용자의 원활한 의사소통을 지원하기 위하여 대규모 언어 모델을 기반으로 AAC 상징 시퀀스를 자연스러운 한국어 문장으로 변환하도록 하며, 제한된 연산 자원 환경에서 AAC 사용자로부터 수집된 추가 데이터에 대한 효율적인 학습을 목적으로 한다. 대규모 언어 모델(Large Language Model, LLM)의 사전 학습 모델을 활용하여 적은 데이터만으로도 준수한 변환 성능을 기대할 수 있으며, 학습 데이터에 존재하지 않는 시퀀스 데이터 및 숫자 데이터 또한 유연하게 처리할 수 있다. 대규모 언어 모델의 성능 향상과 함께 파라미터 수가 기하급수적으로 증가하고 있어 특정 도메인에 대한 학습을 위해서는 GPU와 같은 물리적 연산 자원에 의존할 수밖에 없다. 제한된 연산 자원 환경에서도 충분한 학습이 가능하도록 지원하는 PEFT(Parameter Efficient Fine-Tuning) 방식 중 하나인 QLoRA(Quantized Low-Rank Adaptation) 미세 조정 방식을 활용하여 물리적 연산 자원의 사용량을 줄이면서도 준수한 성능을 갖추도록 하였다.
또한, 주기적인 모델 업데이트는 모델의 성능을 정기적으로 평가하고, 개선하는 과정으로서 서비스 품질과 사용자 경험 개선에 중요한 역할을 한다. 사용자로부터 수집되는 데이터는 모델 업데이트에 있어 모델이 사용자의 요구에 더욱 잘 적응하도록 한다. 따라서, AAC 사용자로부터 수집되는 추가 학습 데이터셋을 모델에 반영할 수 있는 효율적인 학습 시스템이 필요하다. 초기 데이터셋을 학습한 초기 모델만을 고려한 기존 연구에서 더 나아가 AAC 사용자가 모델을 활용하면서 축적되는 데이터에 대한 추가 학습 모델을 고려하였다. 따라서 본 연구에서 수행한 실험 내용은 다음과 같다.
첫째, 대규모 언어 모델인 GPT-2와 T5의 한국어 모델을 활용한 AAC 상징 시퀀스의 한국어 문장 변환 모델을 설계하고 성능을 비교 실험하였다. 첫 번째 실험을 위하여 한국어 대규모 언어 모델의 사전 학습 토크나이저와 사전 학습 모델을 활용하였다. 성능 지표 산출 결과, GPT-2와 T5 모델 모두 준수한 성능을 보였으며 GPT-2 모델이 BLEU 0.6519, ROUGE-1 0.7930, ROUGE-2 0.6976, 코사인 유사도 0.7403으로 T5 모델에 비하여 우수한 성능을 보였다.
둘째, 추가 학습 데이터에 대한 미세 조정 방식에 따른 성능을 비교 실험하였다. 1) 기존 학습 데이터와 추가 학습 데이터를 합쳐 전체 미세 조정한 모델, 2) 초기 모델을 추가 학습 데이터만으로 전체 미세 조정한 모델, 3) 초기 모델을 추가 학습 데이터만으로 QLoRA 미세 조정한 모델로 구분하여 성능 및 GPU 메모리 사용량을 비교하였다. 그 결과, GPT-2의 경우 기존 학습 데이터와 추가 학습 데이터를 합친 데이터셋으로 전체 미세 조정한 모델의 성능이 가장 높았으며, 추가 훈련 데이터셋으로만 QLoRA 미세 조정한 모델은 50% 적은 GPU 사용량만으로도 준수한 성능을 보였다. T5 모델에서는 추가 훈련 데이터셋으로만 전체 미세 조정한 모델의 성능이 가장 우수하였으며, QLoRA 미세 조정을 수행한 모델은 30% 미만의 GPU 메모리를 사용하면서도 준수한 성능을 보였다.
셋째, 기존 학습 데이터와 추가 학습 데이터의 비율별 미세 조정의 성능을 비교 실험하였다. 실험 결과, 모든 비율에 대하여 GPT-2와 T5 기반으로 전체 미세 조정 및 QLoRA 미세 조정한 모델이 모두 준수한 성능을 보였으며, 특히 GPT-2 모델 기반 실험에서는 추가 데이터셋의 비율이 전체 데이터셋의 30%, 40%, 50%일 때, 전체 미세 조정한 모델보다 QLoRA 미세 조정한 모델이 좋은 성능을 보임을 확인하였다. |In modern society, communication is becoming increasingly important, however, communication for individuals with speech disabilities remains limited. Augmentative and Alternative Communication(AAC) is a supplementary tool or method that supports their communication more effectively. AAC users use AAC symbols to represent their intended messages. AAC symbols consist of intuitive symbolic images and their textual expressions. AAC users can arrange these AAC symbols to convey their intentions or emotions. However, since non-disabled people have a low understanding of AAC symbols, translation models from the AAC symbol sequences into natural Korean sentences are essential for smooth communication. For the continuous improvement of service quality and user experience of the translation models, periodic model updates based on data accumulated from AAC users using the models are required. This study aims to transform AAC symbol sequences into Korean sentences using large language models(LLMs). The study also aims to use QLoRA fine-tuning to efficiently update the model periodically, even in environments with limited computational resources.
We used pre-trained models of transformer-based LLMs with high performance in the field of natural language processing, to ensure competitive performance with limited data while handling new data flexibly. As LLMs grow rapidly, they require lots of computational resources like GPUs for training. To overcome this limitation, this study uses QLoRA fine-tuning, a Parameter Efficient Fine-Tuning(PEFT) method, to reduce the usage of resources while maintaining competitive performance.
We conducted three experiments to evaluate model performance. First, we evaluated models converting AAC symbol sequences into Korean sentences using GPT-2 and T5 Korean models, and compared their performance. Both models showed competitive performance, GPT-2 shows BLEU 0.6519, ROUGE-1 0.7930, ROUGE-2 0.6976, and cosine similarity 0.7403 and is better than T5. Second, we performed the additional training using full fine-tuning and QLoRA fine-tuning with the additional training data, and compared the performances of the two fine-tuning methods. For GPT-2, the full fine-tuned model using both existing and additional training data achieved the highest performance, while the QLoRA fine-tuned model demonstrated similar performance with 50% less GPU memory usage. For T5, the full fine-tuned model achieved the best performance on additional training data, and the QLoRA fine-tuned model demonstrated competitive performance while utilizing less than 30% of GPU memory. Third, we compared the performance of fine-tuning based on the ratio of additional training data. Results showed that both fully fine-tuned and QLoRA fine-tuned models using GPT-2 and T5 achieved strong performance across all ratios. In experiments using the GPT-2 model, the QLoRA fine-tuned model performed better than the full fine-tuned model when the additional dataset was 30%, 40%, or 50% of the total training dataset.
In conclusion, this study successfully converted AAC symbol sequences into natural Korean sentences using LLMs, achieving better performance compared to previous studies. Furthermore, we also suggested a way to keep adding new data to the model, even in environments with limited resources.
- Author(s)
- 서지우
- Issued Date
- 2025
- Awarded Date
- 2025-02
- Type
- Dissertation
- URI
- https://repository.sungshin.ac.kr/handle/2025.oak/2876
http://dcollection.sungshin.ac.kr/common/orgView/000000015306
- Alternative Author(s)
- Seo Jiwoo
- Affiliation
- 성신여자대학교 일반대학원
- Department
- 일반대학원 미래융합기술공학과
- Advisor
- 홍기형
- Table Of Contents
- I. 서 론 1
II. 관련 연구 및 이론적 배경 4
1. 한국형 보완대체의사소통 상징 4
2. 보완대체의사소통 상징 시퀀스의 한국어 문장 변환 7
3. 대규모 언어 모델 11
1) GPT-2 15
2) T5 15
4. QLoRA(Quantized Low-Rank Adaptation) 미세 조정 16
III. 대규모 언어 모델 기반 상징 시퀀스의 한국어 문장 변환 19
1. 데이터 전처리 19
2. 대규모 언어 모델 기반 상징 시퀀스의 한국어 문장 변환 모델 20
IV. QLoRA 방식 기반 상징 시퀀스의 한국어 문장 변환 모델 미세 조정 24
V. 모델 실험 및 평가 29
1. 실험 설계 29
2. 실험 결과 33
3. 실험 평가 48
1) BLEU (Bilingual Evaluation Understudy) 48
2) ROUGE (Recall Oriented Understudy for Gisting Evaluation) 50
3) 코사인 유사도 52
4) 평가 결과 53
VI. 결론 및 향후 연구 60
- Degree
- Master
- Publisher
- 성신여자대학교 일반대학원
-
Appears in Collections:
- 미래융합기술공학과 > 학위논문
- 공개 및 라이선스
-
- 파일 목록
-
Items in Repository are protected by copyright, with all rights reserved, unless otherwise indicated.