2020 NeurIPS - 이유경

NIPS
작성자
Yukyung Lee
작성일
2021-01-05 22:46
조회
91

2020 NeurlPS 학회에 참여하여 수준 높은 연구를 합리적인 가격에 볼 수 있는 좋은 기회를 가졌습니다. 다양한 연구분야의 발표를 시간에 구애받지 않고 들을 수 있어 좋았습니다. 좋은 기회를 제공해주신 교수님께 감사드립니다. 최근 몇몇 기회로 인해 Dialogue system을 공부하고있는데, 마침 제게 필요한 tutorial이 있어 재미있게 들을 수 있었습니다.

[ Tutorial : Deeper Conversational AI ]

<PART 1 : Conversational AI Overview>


  1. Introduction

자연어 처리분야에서 추구하는 궁극적인 목표는 사람이 언어를 이해하는 것처럼 ''언어의 맥락을 파악하는것" 이라 생각합니다. 이를 위해 representation learning방법론 , NLP task를 훌륭하게 수행하는 여러 언어모델들이 개발되어왔습니다. 대학원 입학 이후 자연어 처리를 공부하기 시작하면서 크게 1) 모든 task를 통합하여 좋은 성능을 내는 모델 생성 2) 특정 task를 훌륭하게 만들어내는 모델 생성 두가지로 나누어 연구가 활발히 진행되고 있음을 알게되었습니다. 사실 1번과 같은 연구는 대규모의 자원을 보유한 기업에서 진행하고있으며, 대부분의 연구자들은 1번의 연구 흐름을 따라 2번과 같은 연구를 진행한다고 생각합니다.

이 튜토리얼에서 다루는 'Conversational AI' 또한 Conversation에 특화된 nlp task로 general한 모델을 finetuning하여 사용하기엔 성능의 한계가 존재하는 영역입니다. 더불어 이 주제는 굉장히 challenging한 task로 현재 대화의 맥락을 정확히 추론함과 동시에 올바른 해답을 주어야합니다.


  1. Modularized Task-Oriented Dialogue Systems

Task-Oriented Dialogue Systems 이란 미리 정의된 goal과 task하에서 이루어집니다. 즉 closed domain data를 활용하여 모델을 학습한다고 볼 수 있는데, 이 분야에서는 'Task-Oriented Dialogue Systems' 라는 용어를 사용하여 정의를 내렸습니다. 아래의 그림에서 알 수 있듯 Dialogue system에서 양질의 답변을 도출하기위해서는 NLU, DST, DP, NLG의 과정을 거쳐야합니다.

1) NLU : Natural Language Understanding

이 분야는 raw setence가 주어졌을 때 언어의 의미를 해석하는 파트입니다. input은 text 형태로 주어질 수도 있고 (chatbot),음성으로 주어질 수도 있습니다. 이때 문장에서 핵심이 되는 단어 혹은 구절을 캐치해내는것이 중요하며 Slot, Domain, intent를 정확하게 인식 할 수 있어야합니다. 세가지 내용을 모두 detect하는 완벽한 모델을 찾는것은 현실적으로 불가능합니다. 하지만 최근 Intent와 slot을 함께 예측하거나 (task specific model), domain간, 언어간 의미를 확장 시킬 수 있는 연구들을 알게되었습니다.

2) DST : Dialogue State Tracking

DST는 Dialogue level의 task로 partial dialogue들을 dialogue state와 mapping 시켜주는 역할을 합니다. 즉 dialogue가 주어졌을 때 dialogue state를 정확히 캐치하는 역할을 수행합니다. 아직 BERT기반의 모델이 제안되고 있으며 최근엔 Graph를 이용하여 state representation을 진행하는 연구도 진행되고있습니다.

3) DP : Dialogue Policy Learning

D는 dialogue state와 KB를 결합하여 정보를 제공하는 파트입니다. 여기서의 정보는 'system action'이라는 용어를 사용하여 정의합니다. 이 분야의 이름을 보는 순간 강화학습에서 잘 작동 될것이라는 느낌을 받았는데 역시나 RL을 이용하여 DP를 진행하는 연구가 많이 진행되고있었습니다. BERT가 등장한 후 부터 강화학습은 NLP에 자주 사용되지 않는다고 착각하고있었지만, 최근까지도 자주 사용되는 방법론임을 알 수 있었습니다. policy를 정의하고 어떤 상황에서 reward를 주는지 정확하게 그려지지않아 추후 이 분야 논문을 읽어봐야겠다는 생각을 하게되었습니다.


4) NLG : Natural Language Generation

DP를 통해 system action이 정해졌다면 이를 자연스럽게 생성해내는 분야입니다. ( Output은 Natural language response로 정의함) 이 분야는 현재 Transformer계열의 모델을 사용하여 좋은 성능을 내고있습니다.


  1. Retrieval Based Chit-Chat Dialogue Systems

위 분야는 dialogue history와 response candidate 사이에 scoring function을 정의한 후 학습하는 분야입니다. 구체적으로 dialogue history vector와 response candidate vector 사이에서 score를 도출합니다. 이 과정은 safer response를 만들어내지만 확장성이 낮은 단점이 있습니다. generated based model을 사용할 경우 개선될 수 있지만 다양한 연구가 진행되지 않은 분야임을 알 수 있었습니다.

<PART 2 : Generation Based Deep Conversational AI>

앞서 Retrieval based dialogue system은 확장성이 낮은 단점을 가졌으며 이를 Generation based model을 통해 해결할 수 있음을 확인하였습니다. 따라서 이 파트에서는 Vanilla convAI와 Deeper convAI를 통해 연구의 흐름을 살펴볼 수 있었습니다.


  1. Vanilla Seq2Seq ConvAI

    ConvAI도 언어모델의 흐름에 따라 발전해왔습니다. 따라서 대부분의 NLP task 처럼 pretrained model(generation model)에 따라 성능이 향상되었음을 알 수 있었습니다. conversation data를 활용하여 pretrained model로 supervised learning를 진행하는 전형적인 절차를 따릅니다. 하지만 다른 task와 차별되는점은 성능지표 계산 시 metric만 사용하지않고 human evaluation 과정을 필수적으로 거친다는것을 알 수 있었습니다.

  2. Limitations in Vanilla Seq2Seq ConvAI

    기존 모델을 활용할 경우 Diversity, Consistency, Knowledge, Empathy, Controllability, Versatility 의 결함이 가장 큰 한계임을 주장합니다. 하지만 되짚어보면 기존의 ConvAI는 Conversation 능력이 현저히 떨어진다는 말과 동일합니다. 단순히 더 큰 사이즈의 언어모델을 사용하는게 정답이 아님을 알 수 있었습니다. 저는 이 부분이 가장 중요하다 생각했는데, 대용량의 언어모델을 학습시키는것은 상상할 수 없을 만큼의 자원이 소요되는 일이므로 연구자들이 쉽게 진행하기 어렵습니다. 따라서 대용량의 모델을 사용하여 성능을 개선하는 방법 외에 다양한 개선점이 존재한다는 것이 반갑게 느껴졌고 어떤 연구의 스탠스를 가져야할지 고민해볼 수 있는 기회였습니다.

  3. Deeper ConvAI Solution

    6가지 결함을 해결할 수 있는 다양한 방법들이 튜토리얼에서 제안되었습니다. 그중에서 개인적으로 가장 재미있었던 포인트는 Conditional Training을 다룬 'What makes a good conversation? How controllable attributes affect human judgement', 'Controlling style in generated dialogue'라는 논문이었습니다. 간단히 두 논문을 정리해보자면 결국 conversation에서 대화의 맥락을 상황에 맞게 생성해주어야하는데, 이때 controllable style과 attributes를 정확히 캐치하기위해 candidate를 형성하여 적절한 표현을 filtering하는 과정을 거칩니다. 다양한 chatbot 모델로 candidate를 생성한 다음 annotation을 진행했습니다 (human labeling) 그 후 다시 Roberta model을 활용하여 annotation의 품질을 평가하고 filtering을 진행합니다. 전반적인 자연어 처리 task의 품질을 높이기위해서는 끊임없이 사람과 model 사이의 interaction이 존재해야한다는 점이 인상깊었고, filtering을 위해 필요한 방법론을 연구하는것도 유의미하지 않을까 생각하게되었습니다 (지금은 여러가지 모델로 데이터를 대량 생산한 후 학습을 지속하는 형태)

 본 튜토리얼은 전반적인 ConvAI의 흐름을 정리할 수 있도록 구성되어있었으며, 막연하게 느껴지던 분야를 조금이나마 쉽게 알 수 있는 기회가 되었습니다. 연구적으로 고민이 많았던 시기에 본 튜토리얼을 통해 어떤 방향으로 공부를 해야할지, 어떤 논문을 읽어가야할지 방향을 다질 수 있는 발판이 되었습니다. 부지런히 논문을 읽고, 훌륭한 연구자분들의 연구를 보는것 만으로도 사고를 확장 할 수 있었으며 앞으로도 좋은 학회를 오프라인으로 자주 참여하고싶다는 생각을 하게 되었습니다.

이상으로 2020 Neurips 참가 후기를 마치겠습니다. 감사합니다.

전체 0

전체 181
번호 제목 작성자 작성일 추천 조회
181
2020 NeurIPS - 김혜연
Hyeyeon Kim | 2021.01.18 | 추천 0 | 조회 113
Hyeyeon Kim 2021.01.18 0 113
180
2020 NeurIPS - 김형석
Hyungseok Kim | 2021.01.15 | 추천 0 | 조회 74
Hyungseok Kim 2021.01.15 0 74
179
2020 NeurIPS - 김명섭
Myeongsup Kim | 2021.01.14 | 추천 0 | 조회 62
Myeongsup Kim 2021.01.14 0 62
178
2020 대한산업공학회 추계학술대회 - 김명섭
Myeongsup Kim | 2021.01.14 | 추천 0 | 조회 52
Myeongsup Kim 2021.01.14 0 52
177
2020 NeurIPS - 이정호
Jungho Lee | 2021.01.06 | 추천 0 | 조회 93
Jungho Lee 2021.01.06 0 93
176
2020 NeurIPS - 이유경
Yukyung Lee | 2021.01.05 | 추천 0 | 조회 91
Yukyung Lee 2021.01.05 0 91
175
2020 NeurIPS - 최희정
Heejeong Choi | 2021.01.05 | 추천 0 | 조회 75
Heejeong Choi 2021.01.05 0 75
174
2020 대한산업공학회 춘계학술대회 - 이유경
Yukyung Lee | 2021.01.05 | 추천 0 | 조회 56
Yukyung Lee 2021.01.05 0 56
173
2020 대한산업공학회 추계학술대회 - 최희정
Heejeong Choi | 2021.01.05 | 추천 0 | 조회 55
Heejeong Choi 2021.01.05 0 55
172
2020 NeurIPS - 김탁영
Takyoung Kim | 2021.01.04 | 추천 0 | 조회 89
Takyoung Kim 2021.01.04 0 89

Data Science & Business Analytics Lab.
School of Industrial Management Engineering
College of Engineering, Korea University

Contact Us

  • 강필성 교수 (pilsung_kang@korea.ac.kr)
    서울특별시 성북구 안암로 145 고려대학교 자연계캠퍼스 창의관 801A호 
  • 대학원 연구실 (총무 이유경: yukyung_lee@korea.ac.kr)
    서울특별시 성북구 안암로 145 고려대학교 자연계캠퍼스 신공학관 220호, 221호, 213호
© 2020 DSBA Lab.