반응형 attention2 [NLP][파이토치] seq2seq - Attention(어텐션) 김기현 강사님의 '자연어처리 딥러닝 캠프(파이토치편)' 책을 공부하면서 정리한 글입니다. http://www.kyobobook.co.kr/product/detailViewKor.laf?ejkGb=KOR&mallGb=KOR&barcode=9791162241974&orderClick=LAG&Kc= 김기현의 자연어 처리 딥러닝 캠프: 파이토치 편 - 교보문고 딥러닝 기반의 자연어 처리 기초부터 심화까지 | 저자의 현장 경험과 인사이트를 녹여낸 본격적인 활용 가이드 이 책은 저자가 현장에서 실제로 시스템을 구축하며 얻은 경험과 그로부터 얻은 www.kyobobook.co.kr * 수식으로 확인하는 Attention > 지난 글 2021.05.12 - [자연어처리(NLP)] - [NLP] Attention Mec.. 2021. 8. 30. [NLP] Attention Mechanism(어텐션) 이 글은 아래 사이트의 글과 udemy의 'deep learning advanced nlp(Lazy Programmer)의 강의를 정리한 내용입니다. https://www.udemy.com/course/deep-learning-advanced-nlp/ towardsdatascience.com/attn-illustrated-attention-5ec4ad276ee3 Attn: Illustrated Attention Attention in GIFs and how it is used in machine translation like Google Translate towardsdatascience.com 1. Attention 등장 배경 - 수십년간 통계적 기계번역(Statistical Machine Transl.. 2021. 5. 12. 이전 1 다음 반응형