Encode-Decode

  • 홈
  • 태그
  • 방명록

Attention is All you need 1

Transformer 논문 review (Attention is all you need)

* 2022 데이터청년캠퍼스 한국외대 자연어처리과정 논문세미나 진행하며 사용했던 발표 자료입니다. model architecture설명부분의 모든 이미지 자료들을 직접 제작했습니다. 자연어처리 분야에서 상당히 중요한 논문인 에서 제안된 Transformer model 을 리뷰해보자 2017년 구글이 발표한 논문인 에서 제안된 Transformer는 기존의 seq2seq구조의 인코더 디코더 포맷을 따르면서도 어텐션만으로 구현된 모델 구조를 갖는다. 기존에 널리 사용되던 RNN을 사용하지 않고 더 좋은 성능을 보여주었다는 점에서 NLP분야에서 일종의 game changer가 되었다. 논문이 발표되기 전까지 기존의 언어모델들은 RNN기반의 혹은 CNN기반의 seq2seq모델을 채택해왔다. 이러한 모델은 seq..

카테고리 없음 2022.07.19
이전
1
다음
더보기
프로필사진

Encode-Decode

따뜻한 기계

  • 분류 전체보기 (31)

Tag

달리기경주, 코딩테스트, TaBERT, nlp, Table Representation Learning, Table-to-Text-Generation, 신고당한사람, LLM as AGENT, 구현, 알고리즘, 챔피언부문, 크기가 작은 부분 문자열, 수상후기, 2022 빅콘테스트, 추억점수, 데이터분석리그, Datascience Pipeline, 이코테, FullyConnectedLayer, 프로그래머스,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

  • Git

티스토리툴바