단어 임베딩 벡터와 양방향 순환 신경망을 이용한 동형이의어 중의성 해소 [韩语论文]

资料分类免费韩语论文 责任编辑:金一助教更新时间:2017-04-27
提示:本资料为网络收集免费论文,存在不完整性。建议下载本站其它完整的收费论文。使用可通过查重系统的论文,才是您毕业的保障。

하나의 형태에 여러개의 뜻을 가지는 동형이의어의 의미를 파악하는 과정을 동형이의어 중의성 해소라고 하며, 한국어는 전체 단어 대비 동형이의어의 비중이 매우 크므로, 한국어 텍스트...

하나의 형태에 여러개의 뜻을 가지는 동형이의어의 의미를 파악하는 과정을 동형이의어 중의성 해소라고 하며, 한국어는 전체 단어 대비 동형이의어의 비중이 매우 크므로, 한국어 텍스트의 의미를 정확하게 파악하기 위해 정확한 동형이의어 중의성 해소가 필요하다. 최근에 제안된 동형이의어 중의성 해소 연구들은 신경망으로 단어 임베딩 벡터를 계산하고 이를 의미 판정 기준으로 활용하는 신경망 언어 모델(Neural work Language Model: NNLM)을 활용하는 방법을 많이 이용하고 있다. NNLM을 활용한 동형이의어 중의성 해소 연구는 문장을 표현하는 벡터인 맥락 벡터를 계산하는 방법에 따라 CBOW(Continuous Bag-of-Words) 모델과 순환 신경망(Recurrent Neural work: RNN) 모델로 구분 할 수 있다. 이들 중 단어의 출현 정보만을 고려한 CBOW 모델에 비해 단어의 출현 순서 정보까지 반영한 순환 신경망 모델이 좀 더 좋은 성능을 나타내는 것으로 알려져 있으나, 순환 신경망 모델도 단어순서의 순방향 정보만 사용하기 때문에 뒤의 단어가 앞의 단어의 해석에 영향을 미칠 수 있는 자연어의 특징을 제대로 반영하지 못한다는 문제가 있다. 본 논문에서는 순방향 정보 뿐 아니라 역방향 정보도 반영하는 신경망인 양방향 순환 신경망을 사용한 한국어 동형이의어 중의성 해소 모델을 제안한다. 제안한 모델을 검증하기 위한 실험 결과 양방향 순환 신경망을 사용한 동형이의어 중의성 해소 모델의 중의성 해소 정확도가 기존의 CBOW 모델, 순환 신경망 기반 모델들의 정확도보다 더 높아, 단어 출현 순서의 양방향 정보를 반영하는 것이 중의성 해소에도 유효함을 확인 할 수 있었다.

韩语论文范文韩语论文网站
免费论文题目: