[논문 리뷰] GPT-1 : Improving Language Understanding by Generative Pre-Training (OpenAI)

GPT: Generative Pre-Training of a Language Model

1. Introduction

Untitled

Untitled

  1. 대량의 unlabeled text dataset이 존재
  2. generative pre-training language model을 통해서 대량의 unlabeled text dataset을 사전학습 시킴
  3. 그 후 우리가 알고자 하는 도메인의 labeled text 데이터를 이용하여 fine-tuning시킴

<주장하는 바>

3번을 바로 하는 것이 아니라 1→2→3을 하는 것이 더 도움이 되지 않겠냐는 말

Unlabeled text의 challenging(문제점)