BERT_(mô_hình_ngôn_ngữ)

Biểu diễn Thể hiện Mã hóa Hai chiều từ Transformer (tiếng Anh: Bidirectional Encoder Representations from Transformers hay viết tắt là BERT) là một kỹ thuật học máy dựa trên các transformer được dùng cho việc huấn luyện trước xử lý ngôn ngữ tự nhiên (NLP) được phát triển bởi Google. Jacob Devlin và cộng sự từ Google đã tạo ra và công bố BERT vào năm 2018.[1][2] Tính đến năm 2019[cập nhật], Google đã tận dụng BERT để hiểu rõ hơn các tìm kiếm của người dùng.[3]Mô hình BERT bằng tiếng Anh ban đầu đi kèm với hai dạng tổng quát được đào tạo trước:[1]: (1) mô hình the BERTBASE, kiến trúc mạng thần kinh chứa 12-lớp, 768-lớp ẩn, 12-đầu, 110M tham số, và (2) mô hình BERTLARGE model, kiến trúc mạng thần kinh chứa 24-lớp, 1024-lớp ẩn, 16-đầu, 340M tham số. Cả hai đều được huấn luyện từ BooksCorpus[4] với 800M từ, và một phiên bản của Wikipedia tiếng Anh với 2,500M từ.

Tài liệu tham khảo

WikiPedia: BERT_(mô_hình_ngôn_ngữ) http://ai.googleblog.com/2018/11/open-sourcing-ber... http://www.arxiv.org/abs/1506.06724 http://www.arxiv.org/abs/1511.01432 http://www.arxiv.org/abs/1801.06146v5 http://www.arxiv.org/abs/1802.05365v2 http://www.arxiv.org/abs/1810.04805v2 https://github.com/google-research/bert https://www.searchenginejournal.com/google-bert-ro... https://blog.google/products/search/search-languag... https://www.blog.google/products/search/search-lan...