Word2vec

Bách khoa toàn thư mở Wikipedia

Word2vec là một kỹ thuật xử lý ngôn ngữ tự nhiên. Thuật toán Word2vec sử dụng một mô hình mạng thần kinh để học các liên kết từ (sự liên quan của từ) từ một kho ngữ liệu văn bản có dung lượng lớn [1]. Sau khi được huấn luyện, mô hình có thể phát hiện các từ đồng nghĩa hoặc gợi ý các từ bổ sung cho một phần của câu. Với cái tên nói lên tất cả, word2vec thể hiện cho mỗi từ riêng biệt với một danh sách cụ thể của các số được gọi là vectơ. Các vectơ được lựa chọn cẩn thận sao cho một hàm toán học đơn giản sẽ (độ tương tự cosin giữa các vectơ) cho biết mức độ của độ tương tự ngữ nghĩa giữa các từ được biểu diễn bằng các vectơ đó.[2]

Phương pháp tiếp cận[sửa | sửa mã nguồn]

Word2vec là một nhóm các mô hình có quan hệ với nhau được dùng để sản sinh các nhúng từ (word embedding). Các mô hình này là các mạng thần kinh nông hai lớp, được huấn luyện để tái tạo lại ngữ cảnh ngữ nghĩa của các từ vựng. Word2vec có dữ liệu đầu vào là một ngữ liệu văn bản lớn và đầu ra là một không gian vectơ, điển hình vài trăm chiều, với mỗi từ duy nhất trong ngôn ngữ học khối liệu (corpus linguistics) được gán cho một vectơ tương ứng trong không gian vectơ. Các vectơ từ được đặt trong không gian vectơ sao cho những từ chia sẻ chung ngữ cảnh trong kho ngữ liệu có vị trí gần nhau (tính theo độ tương tự ngữ nghĩa) trong không gian.[3]

Lịch sử[sửa | sửa mã nguồn]

Word2vec được tạo ra, cấp bằng sáng chế[4] và xuất bản năm 2013 bởi một nhóm nhà nghiên cứu dẫn đầu bởi Tomas Mikolov tại Google với 2 bài báo.[3][5] Hai kiến trúc mô hình điển hình được đề cập là CBOWSkip-gram.

Các nhà nghiên cứu khác giúp ích với việc phân tích và giải thích thuật toán.[6] Các vectơ nhúng tạo ra cách dùng thuật toán Word2vec với nhiều lợi ích so với các thuật toán trước đó[3] chẳng hạn phân tích ngữ nghĩa tiềm ẩn.

Xem thêm[sửa | sửa mã nguồn]

Tham khảo[sửa | sửa mã nguồn]

  1. ^ Word2Vec, TensorFlow]
  2. ^ Word2Vec and GloVe Vectors, APS360 Artificial Intelligence Fundamentals, Toronto University.
  3. ^ a b c Mikolov, Tomas (2013). "Efficient Estimation of Word Representations in Vector Space". arΧiv:1301.3781 [cs.CL]. 
  4. ^ Đăng ký phát minh {{{country}}} {{{number}}}, "Computing numeric representations of words in a high-dimensional space", trao vào [[{{{gdate}}}]] 
  5. ^ Mikolov, Tomas (2013). “Distributed representations of words and phrases and their compositionality”. Advances in Neural Information Processing Systems. arXiv:1310.4546.
  6. ^ Goldberg, Yoav; Levy, Omer (2014). "word2vec Explained: Deriving Mikolov et al.'s Negative-Sampling Word-Embedding Method". arΧiv:1402.3722 [cs.CL]. 

Liên kết ngoài[sửa | sửa mã nguồn]