<
Text Classification using label names Only : A Language Model Self-Training Approach
>
上一篇

TransGAN : Two Transformers Can Make One Strong GAN
下一篇

Image Generation from Scene Graphs

Abstract

2. Related Work

3. Method

4. Experiments

  1. Datasets : 4가지 데이터셋을 사용
    • AG News
    • DBPedia
    • IMDB
    • Amazon
  2. Compared Methods : 기존의 많은 방식들과 비교
    • supervised : 전체 데이터를 훈련에 사용
      • char-CNN : 그냥 character-level CNN (6층짜리 사용)
      • BERT : pre-trained 모델로 fine-tuning 실행
    • semi-supervised : 클래스당 10개의 레이블 문서, 나머지는 label 없이 사용
      • UDA (Unsupervised data augmentation) : 현재 SOTA 방식으로 back translation 과 TF-IDF 를 사용해 단어를 대체하여 augmentation을 수행하여 모델이 augmentation을 넘어 일관된 예측을 하게 만듬
    • weakly supervised : 모두 unlabeled 데이터 사용하고 평가시엔 test set 사용
      • Dataless : Label 이름과 문서를 Wikipedia 컨셉과 같은 의미공간에 맵핑하고 문서와 클래스간의 벡터 유사도를 기반으로 수행
      • WeSTClass : CNN 분류기를 pre-train 하기위해 pseudo 문서를 생성하고 bootstrap함 ?????
      • Bert w simple match : label namae이 포함된 문서를 해당 클래스 label로 취급하고 BERT 훈련
      • LOTClass w/o. self train : 제안한 방식에서 self train 유무를 달리하여 훈련
  3. Experiment Settings
    • 다른건 생략하고 Adam 2e-5를 사용했고 self-training 에는 1e-6 사용
    • 4개의 1080 Ti GPU 사용
  4. Result 1

5. Discussions

6. Conclusion

Top
Foot