(9강) Closed-book QA with T5
retriever-reader 방법론 이외에 ODQA를 푸는 방법
T5모델을 활용한 closed-book QA
text-to-text format이란?
[Reference & Further Reading]
1. Closed-book Question Answering
1.1. Idea of Closed QA
모델이 이미 사전학습으로 대량의 지식을 학습 했다면, 사전학습 언어 모델 자체가 이미 하나의 knowledge storage라고 볼 수 있지 않을까?
지식을 찾을 수 있는 Corpus를 제공할 지 말지에 대한 고민이 Open/Closed Book 의 차이이다. 오픈북 시험과 일반적인 시험의 차이라고 보면 되지않을까
zero shot QA performance of GPT-2
사전 학습시 전혀 보지 않은 Natural Question Dataset에도 어느정도 대답을 하는 것을 볼 수 있었다.
1.2. Open book vs Closed book
Open-book QA
대량의 지식소스를 특정 문서 단위로 나누어 Dense/Sparse 형태로 표현한 후, query가 들어오면 가장 그와 관련된 문서를 search
지식 소스를 저장하기 어렵고, 검색에 소요되는 시간이 크다.
Closed-book QA
대량의 지식 소스(위키피디아)를 기반으로 사전학습된 언어 모델이 그 지식을 기억하고 있을 것이라 가정함. Search 과정 없이 바로 정답을 생성함
사전 학습된 언어 모델이 얼마나 지식을 잘 기억하고 있는지가 매우 중요함.
2. Text-to-Text Format
2.1. Closed-book QA as Text-to-Text Format
Closed-book QA에 사용된 방법은 Generation-based MRC와 유사하다.
단, 입력에 지문(context)가 없이 질문만 들어간다는 것이 차이점
사전 학습된 언어 모델은 BART와 같은 seq-to-seq 형태의 transformer 모델을 사용함
Text-to-Text format에서는 각 입력값(질문)과 출력값(답변)에 대한 설명을 맨 앞에 추가함.
2.2. Example
Task-specific prefix를 추가 -> 특정 task에 알맞은 output text를 생성하도록 함 (위 이미지)
MNLI: 두개의 sentence의 관계를 예측하는 task
2.3. Model
2.4. T5
Text-to-Text Format이라는 형태로 데이터의 입출력을 만들어 거의 모든 자연어처리 문제를 해결하도록 학습된 seq-to-seq 형태의 Transformer 모델
Pre-Training T5
3. Experiment Result & Analysis
3.1. Experiment Setting
Dataset
Open-domain QA 데이터셋 또는 MRC 데이터셋에서 지문을 제거하고 질문과 답변만 남긴 데이터셋을 활용
Salient Span Masking
고유명사, 날짜 등 의미를 갖는 위에 속하는 토큰 범위를 마스킹한 뒤 학습
Pre-trained 체크포인트에서 추가로 pre-training함
Fine-Tuining
Pre-Trained T5 체크포인트를 Open-domain QA 학습 데이터셋으로 추가 학습
3.2. Quantitative Example
대부분의 Open-book 스타일 모델(문서 검색 후 기계 독해) 뛰어난 성능을 보여줌
모델 크기가 커질 수록 성능이 증가함
🤷♂️모델 크기가 작다면 과연 일반 Open-book 모델보다 좋은성능을 낼 수 있을까?
Salient Span Masking이 성능을 크게 끌어올림
3.3. False negatives
Exact match 기준으로 오답으로 채점된 결과를 사람이 평가한 결과 오답이 아닌경우
Phrasing Mismatch: 정답에 대한 표현이 다른 경우
Imcomplete Annotation: 정답이 여러개일수 있으나 하나만 정답으로 처리되는 경우
Unanswerable: 질문을 한 시간이나 문맥에 따라서 정답이 달라지는 경우
3.4. 한계
모델의 크기가 커서 계산량이 많고 속도가 느림
더 효율적인 모델 필요
모델이 어떤 데이터로 답을 내는지 알 수 없음
결과의 해석 가능성을 높이는 연구 필요
모델이 참조하는 지식을 추가하거나 제거하기 어려움
Last updated