[...] atlamak gram bağlamları ve hedefleri tersine çevirir ve hedef kelimesinden her bağlam kelimeyi tahmin etmeye çalışır [...]
:
(quick, brown), (brown, quick)
Ancak üreten bir eğitim veri kümesi bakarak, X ve Y çiftinin içeriği (X, Y), bu iki çifti gibi, interexchangeable görünmektedir 10
Peki, neden sonunda aynı şey varsa, bağlam ve hedefler arasında bu kadar çok neden ayırdediniz? Eğer bu iki yaklaşım arasındaki farkı yapmak gibi neden acaba Udacity's Deep Learning course exercise on word2vec yapıyor Ayrıca
, bu problemde bu kadar:alternatif atlamak gram ila CBOW (Sürekli Çanta adlı başka Word2Vec modelidir Kelimeler). CBOW modelinde, bir sözcük vektöründen bir bağlam kelimesini tahmin etmek yerine, tüm kelime vektörlerinin bağlamındaki bir kelimeden bir kelime tahmin edersiniz. Metin8 veri kümesinde eğitilmiş bir CBOW modelini uygulayın ve değerlendirin.
Bu, aynı sonuçları vermiyor mu?
Bu quora [https://www.quora.com/ Ne-are-sürekli-çanta-of-kelime-ve-atla-gram-mimarileri] diyor skip-gram eğitmek için daha az veri gerekir, sadece yorumunuzu karşıt görüş. Eğer yardım ile cevabınızı haklıyorum yayınlanan herhangi bir kağıdın veya benzeri. – 0xF
Bunu işaretlediğiniz için teşekkürler! Bu makalede verilen açıklama mantıklı, dolayısıyla cevabımı güncelledim. – Serhiy