cch8ii 님의 블로그

  • 홈
  • 태그
  • 방명록

Bert 1

BERT(2019.05.V5): Pre-training of Deep Bidirectional Transformers for Language Understanding

논문 링크: [1810.04805] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding  BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingWe introduce a new language representation model called BERT, which stands for Bidirectional Encoder Representations from Transformers. Unlike recent language representation models, BERT is designed to pre-train deep..

논문 리뷰 2025.01.30
이전
1
다음
더보기
프로필사진

cch8ii 님의 블로그

cch8ii 님의 블로그 입니다.

  • 분류 전체보기 (86)
    • TIL (32)
      • Coding Study - python (22)
      • Coding Study - SQL (10)
    • 논문 리뷰 (21)
    • ICT 인턴십 (0)
    • 헷개정 - 헷갈리는 개념 정리 (25)
      • 더 탐구해보쟛! (6)
    • Naver Boostcamp AI Tech 8기 (8)
      • 주간 비밀 회고 (7)

Tag

Bert, object detection, Transformer, seq2seq, CV, RetinaNet, ai, U-Net, 논문, nlp, 논문 리뷰, SPPNet, roberta, YOLO, faster-rcnn, mobilenet, image matting, inception, Elmo, EfficientNet,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/05   »
일 월 화 수 목 금 토
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바