목록ai - paper (15)
cb
보호되어 있는 글입니다.

BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingJacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanovahttps://arxiv.org/abs/1810.04805 BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingWe introduce a new language representation model called BERT, which stands for Bidirectional Encoder Representations from Transformers. Unlike re..

Generative Adversarial NetsIan J. Goodfellow, Jean Pouget-Abadie∗ , Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair† , Aaron Courville, Yoshua Bengiohttps://arxiv.org/pdf/1406.2661.pdf Abstract 본 논문에서는 두 가지 모델을 동시에 훈련시키는 adversarial process(적대적 과정)를 통해 생성 모델을 추정하는 새로운 프레임워크를 제안한다: 생성 모델 G는 데이터 분포를 파악하고 분별 모델 D는 훈련 데이터에서 온 샘플의 확률을 추정한다. G를 훈련시키는 과정은 D가 틀릴 확률을 최대화하는 것이다. G와 D 각각에게는 고유한 해가 ..

Activating More Pixels in Image Super-Resolution TransformerXiangyu Chen, Xintao Wang, Jiantao Zhou, Yu Qiao, Chao Donghttps://arxiv.org/abs/2205.04437 Activating More Pixels in Image Super-Resolution TransformerTransformer-based methods have shown impressive performance in low-level vision tasks, such as image super-resolution. However, we find that these networks can only utilize a limited spa..

ImageNet Classification with Deep Convolutional Neural NetworksAlex Krizhevsky, Ilya Sutskever, Geoffrey E. Hintonhttps://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf Abstract 본 모델은 ImageNet LSVRC-2010 콘테스트에서 120만 개의 데이터를 분류하기 위해 large, deep neural network를 훈련시켰다. 이는 당시의 최신 기술에 비해 상당히 향상된 오류율을 보인다. 6천만 개의 매개변수와 65만 개의 뉴런으로 두성된 신경망은 5개의 Convolutional layer를 갖고..