Təsnifatına görə dilləri iki qrupa bölsək:
Təbii dillər və Sünii dillər
Gündəlik həyatımızda istifadə etdiyimiz dillər(İngilis,İspan,Azərbaycan,Rus dilləri) təbii dil olaraq adlanır.Bir-birimizə fikrimizi dil vasitəsilə çatdırırıq.Süni dillərə misal olaraq Türing maşınları üzərində çalışan xüsusi dillərdir(Pascal,Fortan,C/C++,Python,Java və s).Bəhs etdiyimiz "təbii dil işləmə(NLP)" bir dildəki cümləni oxuması və başqa bir dildə uyğun bir cümləyə uyğunluğunun təşkili maşın çevirmələridir.NLP -nin çalışma prinspi,təbii bir dil üzərində-daxilində ifadə olunan hər bir kəlimə-xarakterlərdən və ya bayt array-dən təşkil olunan modellərdir(https://www.deeplearningbook.org/)
Bir dil modeli,təbii dildə token vektoru üzərində təxmini dağılım təyin edir.Modelin hazırlanmasına bağlı olaraq,tokenlər - bir kəlimə,xarakter və ya bayt ola bilirlər.İlk olaraq dil modelləri n-gram adlandırılan sabit uzunluqdakı token vektorlarının modellərindən təşkil olunmuşdur(Bundan başqa skip-gram,cbow).
İfadələri rəqəmsal ifadə etdiyimiz zaman həmin kəlimələr üzərində riyazi əməliyyatlar aparmaq daha rahatdır. Hər bir ifadəni one-hot vektor olaraq təsvir etsək
Yuxarıdakı rəsimdə göstərilən ilk Fəlsəfə ifadəsi vektor olaraq uyğunluq indeksi -0, İnsan kəliməsi vektor daxilində birinci indeksdə dayanır.
Yuxarıdakı təsvirə əsaslansaq,ifadə sayı çoxaldıqca kəlimələri tanımlamaq çətinləşəcəq.Bunun üçün alternativ olaraq one-hot vektoru deyil,hər bir kəliməni vektor ilə təşkil edib(word2vec) hər bir vektor kəlimə üçün həqiqi ədəd tipində göstərəcəyik.
Embedding Matrix(word vector,word embedding)
Insan([ 3.26409712e-02, -1.11495465e-01, -1.09878801e-01, -1.61514040e-02, 6.24946095e-02, -5.53264767e-02, 1.88343860e-02, -3.00338143e-03, -1.54164627e-01, -6.94016367e-02, 1.75558016e-01, 8.69417936e-02..................] size=200
Fəlsəfə ([ 0.03672487, -0.11063578, -0.09298438, -0.01961881, 0.05883814, -0.05005358, 0.01460049, -0.00244978, -0.15134725, -0.07507091, 0.1764792 , 0.08856005, -0.11544561, 0.13122901, 0.02955697, -0.08000021, -0.10689594, 0.00531672, -0.07659401, -0.01527801, -0.27507988, 0.04865298, 0.01300979, -0.1417728 , -0.03595459.........................] size=200
Vektorları təşkil etmək ,üçün cümlə daxilində seçilən söz(ifadə) ətrafındakı sözlərlə əlaqəsini təyin edərək hazırlayacağıq.(Qeyd edimki sağ və sol kəlimə uyğunluğunu təsadüfi deyil,window-parametri ilə biz seçirik)
Az sayda kəlimələrdən təşkil olunmuş korpus,bizə istədiyimiz modelin nəticəsini verməyəcək.Bunun ucun daha prespektiv wikimedia layihələri kimi söz datasetlərindən ibarət olan datalara ehtiyyacımız var.Yuxarıda qeyd olunan korpus sadəcə nümunə üçün hazırlanılmışdır.Nəticə etibarı ilə modelə verdiyimiz söz,həmin kəliməyə uyğun ifadələr yaxınlılığ hesabı ilə göstərilmişdir.
word2vec vasitəsilə vektor hazırlamaq üçün iki fərqli alqoritmdən istifadə olunur
skip-gram cbow alqoritması
kodlarımızda skip-gram alqoritmasından istifadə olunmuşdur.Alqoritmanın işləmə prinsipinə nəzər yetirək(Qeyd vektorların hazırlanılmasında alqoritmanı qeyd etməsəniz, normal halda cbow-alqoritmi əlavə olunur-DEFAULT:CBOW)
$ git clone https://github.com/RashadGarayev/word2vec
$ cd word2vec
$ pip install -r requirements.txt