[Pytorch][BERT] 버트 소스코드 이해 목차 |
||||
BERT 👀 | 📑 BERT Config | |||
📑 BERT Tokenizer | ||||
📑 BERT Model | 📑 BERT Input | |||
📑 BERT Output | ||||
📑 BERT Embedding | ||||
📑 BERT Pooler | ||||
📑 BERT Enocder | 📑 BERT Layer | 📑 BERT SelfAttention | ||
📑 BERT SelfOtput |
✅ 기본적인 Bert 모델의 사용은 아래 코드와 같다
: Tokenizer로 BertModel의 입력값을 만든 후, 넣어서 출력값 생성
from transformers import BertTokenizer, BertModel
import torch
tokenizer = BertTokenizer.from_pretrained("bert-base-uncased")
model = BertModel.from_pretrained("bert-base-uncased")
inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
outputs = model(**inputs)
last_hidden_states = outputs.last_hidden_state
✅ BERT의 메인 3가지 클래스 이해
1. BertConfig
2022.07.05 - [파이토치(Pytorch)] - [Pytorch][BERT] 소스 코드 이해_BertConfig(configuration_bert.py)
2. BertTokenizer
2022.07.05 - [파이토치(Pytorch)] - [Pytorch][BERT] 소스 코드 이해_BertTokenizer (tokenization_bert.py)
3. BertModel
2022.07.05 - [파이토치(Pytorch)] - [Pytorch][BERT] 소스 코드 이해_ BertModel (modeling_bert.py)
<source code>
transformers/modeling_bert.py at v4.20.1 · huggingface/transformers
'AI > 파이토치(Pytorch)' 카테고리의 다른 글
[Pytorch][BERT] 버트 소스코드 이해_③ BertTokenizer (0) | 2022.07.05 |
---|---|
[Pytorch][BERT] 버트 소스코드 이해_② BertConfig (0) | 2022.07.05 |
[파이토치] 미니배치와 데이터 로드 하기 (0) | 2021.09.16 |
[파이토치] Autograd (0) | 2021.09.08 |
[파이토치] 텐서 기초 (0) | 2021.09.08 |
댓글