[Pytorch][BERT] 버트 소스코드 이해 목차 |
||||
BERT | 📑 BERT Config | |||
📑 BERT Tokenizer | ||||
📑 BERT Model | 📑 BERT Input | |||
📑 BERT Output | ||||
📑 BERT Embedding | ||||
📑 BERT Pooler | ||||
📑 BERT Enocder 👀 | 📑 BERT Layer | 📑 BERT SelfAttention | ||
📑 BERT SelfOtput |
BertEncoder
- init 함수를 보니 많은 BertLayer 로 이루어져있다
- ⇒ BertEncoder → BertLayer → BertAttention→ BertSelfAttention
class BertEncoder(nn.Module):
def __init__(self, config):
super().__init__()
self.config = config
self.layer = nn.ModuleList([**BertLayer**(config) for _ in range(config.num_hidden_layers)])
self.gradient_checkpointing = False
✅ BertLayer 의 이해
2022.10.28 - [자연어처리(NLP)] - [Pytorch][BERT] 버트 소스코드 이해_⑩ BERT Layer
'AI > 파이토치(Pytorch)' 카테고리의 다른 글
[Pytorch][Error] ’BertTokenizerFast' object has no attribute '_in_target_context_manager' (0) | 2022.12.12 |
---|---|
[Pytorch][BERT] 버트 소스코드 이해_⑤ BertEmbedding (0) | 2022.07.06 |
[Pytorch][BERT] 버트 소스코드 이해_④ BertModel (0) | 2022.07.05 |
[Pytorch][BERT] 버트 소스코드 이해_③ BertTokenizer (0) | 2022.07.05 |
[Pytorch][BERT] 버트 소스코드 이해_② BertConfig (0) | 2022.07.05 |
댓글