자연어처리
Natural Language Processing
언어모델, 번역, QA, 요약, 토크나이저 등 텍스트 이해와 생성에 관한 연구
10개 논문
20222편
20202편
ACL 202010,000+
BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension
BART: 자연어 생성, 번역, 이해를 위한 디노이징 시퀀스-투-시퀀스 사전학습
Mike Lewis, Yinhan Liu, Naman Goyal et al. (2020)
ICLR 20214,000+
DeBERTa: Decoding-enhanced BERT with Disentangled Attention
DeBERTa: 분리된 어텐션을 활용한 디코딩 강화 BERT
Pengcheng He, Xiaodong Liu, Jianfeng Gao et al. (2020)
20193편
JMLR 202018,000+
Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer
통합 텍스트-투-텍스트 트랜스포머를 통한 전이학습의 한계 탐구
Colin Raffel, Noam Shazeer, Adam Roberts et al. (2019)
NeurIPS 20198,000+
XLNet: Generalized Autoregressive Pretraining for Language Understanding
XLNet: 언어 이해를 위한 일반화된 자기회귀 사전학습
Zhilin Yang, Zihang Dai, Yiming Yang et al. (2019)
arXiv18,000+
RoBERTa: A Robustly Optimized BERT Pretraining Approach
RoBERTa: 강건하게 최적화된 BERT 사전학습 접근법
Yinhan Liu, Myle Ott, Naman Goyal et al. (2019)