세션 27 상세
동영상
세션 정보
BERT보다 10배 빠른 BERT 모델 구축
- 김민석 marko카카오추천팀
BERT는 NLP 분야에서 SOTA 모델이지만 학습하는데 많은 시간과 컴퓨팅 리소스가 필요합니다. 기존 BERT 대비 10배 더 빠르게 학습시키고 성능도 더 좋은 모델을 구축할 수 있었던 이유와 실제 서빙까지의 경험을 공유하고자 합니다.
#딥러닝 #머신러닝 #NLP #Serving #TensorFlow
목록보기