DeBERTa is a large scale pre-trained language models which surpass T5 11B models with 1.5 parameters and achieve human performance on SuperGLUE.
microsoft/DeBERTa: The implementation of DeBERTa (github.com) (opens in new tab)
Research
DeBERTa is a large scale pre-trained language models which surpass T5 11B models with 1.5 parameters and achieve human performance on SuperGLUE.
microsoft/DeBERTa: The implementation of DeBERTa (github.com) (opens in new tab)
한국마이크로소프트(유)
대표이사: 조원우
주소: (우)110-150 서울 종로구 종로1길 50 더 케이트윈타워 A동 12층
전화번호: 02-531-4500, 메일: ms-korea@microsoft.com
사업자등록번호: 120-81-05948 사업자정보확인
호스팅서비스 제공자: Microsoft Corporation
통신판매신고: 제2013-서울종로-1009호
사이버몰의 이용약관: Microsoft Store 판매 약관