[ Skip to the content ]

Institute of Formal and Applied Linguistics Wiki


[ Back to the navigation ]

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
user:zeman:dz-parser:icon [2012/12/10 17:42]
zeman Neprojektivní 2. řádu.
user:zeman:dz-parser:icon [2012/12/11 12:37] (current)
zeman training-k:5
Line 6: Line 6:
  
   * Natrénovat McDonaldův MST parser. Pokud možno s pořádnými rysy, neprojektivně a druhý řád. Ale na druhou stranu, aby to taky někdy doběhlo.   * Natrénovat McDonaldův MST parser. Pokud možno s pořádnými rysy, neprojektivně a druhý řád. Ale na druhou stranu, aby to taky někdy doběhlo.
-    * Ambati et al. použili 2. řád a training-k:5. +    * Zkusit jinou kombinaci rysů ze sloupce FEATA zkusit ponechat všechny rysy (žádná redukce).
-    * Zkusit mu dát značky z jiného zdrojeTeď je to POS. Nabízí se CPOS, kombinace CPOS-POS, FEAT, nějaký výběr z FEAT (vibhakti a tamnebo složitější kombinace výše uvedeného.+
   * Natrénovat Malt parser a mezi rysy mu přidat hypotézu od MST (parser MST-Malt podle Joakimova a Ryanova článku).   * Natrénovat Malt parser a mezi rysy mu přidat hypotézu od MST (parser MST-Malt podle Joakimova a Ryanova článku).
     * To znamená, že musím vybrat nejlepší parametry trénování MST, rozdělit trénovací data na 10 dílů, opakovaně natrénovat MST na devíti dílech a pustit ho na ten desátý. Pak musím rozhodnout, jakým způsobem se názor MST předloží Maltu. Musí to být rys položky na vstupu nebo na zásobníku. Asi nejjednodušší by bylo zavést rys, který pro každé slovo řekne značku jeho rodiče. V mnoha větách to bude ukazovat na více než jedno slovo, ale někde to snad pomůže. A pokud místo značky dáme slovo, mohla by být příliš řídká data. (Můžeme ale zavést dva rysy a dát tam obojí.) Index rodiče je jako rys k ničemu, protože hodnota má v každé větě jiný význam. Nejlepší by zřejmě bylo, kdybychom dokázali posuzovat dvě položky najednou (např. dvě horní položky v zásobníku) a říct, zda si MST parser myslí, že mezi nimi vede hrana. Ale to zase neumím popsat a je otázka, jestli to vůbec umí Malt parser, resp. ten jeho SVM rádce.     * To znamená, že musím vybrat nejlepší parametry trénování MST, rozdělit trénovací data na 10 dílů, opakovaně natrénovat MST na devíti dílech a pustit ho na ten desátý. Pak musím rozhodnout, jakým způsobem se názor MST předloží Maltu. Musí to být rys položky na vstupu nebo na zásobníku. Asi nejjednodušší by bylo zavést rys, který pro každé slovo řekne značku jeho rodiče. V mnoha větách to bude ukazovat na více než jedno slovo, ale někde to snad pomůže. A pokud místo značky dáme slovo, mohla by být příliš řídká data. (Můžeme ale zavést dva rysy a dát tam obojí.) Index rodiče je jako rys k ničemu, protože hodnota má v každé větě jiný význam. Nejlepší by zřejmě bylo, kdybychom dokázali posuzovat dvě položky najednou (např. dvě horní položky v zásobníku) a říct, zda si MST parser myslí, že mezi nimi vede hrana. Ale to zase neumím popsat a je otázka, jestli to vůbec umí Malt parser, resp. ten jeho SVM rádce.
Line 25: Line 24:
  
 ===== Výsledky ===== ===== Výsledky =====
- 
-  * Na malých hindských datech (1000 vět) hlásí, že našel 397875 rysů (je to stejné pro projektivní i neprojektivní model). 
-  * Projektivní trénování trvalo 12 minut a model má necelých 6 MB. 
-  * Neprojektivní trénování trvalo 18 minut a velikost modelu je podobná. 
-  * Na velkých hindských datech (všechny věty) hlásí, že našel 2180868 rysů. 
-  * Neprojektivní trénování trvalo 4 hodiny a model má necelých 35 MB. 
-  * Přepracováno: MST parser 0.4.3b z /home/zeman/nastroje, 2. řád neprojektivně, 1000 trénovacích vět, CoNLL formát, zatím si nejsem stoprocentně jist, které rysy si z něj bere. 
-    * Auto: trénování 9 minut, 641112 rysů, model 32 MB. 
-    * Gold: trénování 20 minut, 2334346 rysů, model 131 MB. 
- 
-mst nonproj o2 full 
-  Labeled   attachment score: 15503 / 26416 * 100 = 58.69 % 
-  Unlabeled attachment score: 20408 / 26416 * 100 = 77.26 % 
-  Label accuracy score:       16637 / 26416 * 100 = 62.98 % 
- 
-mst nonproj o2 1000 
-  Labeled   attachment score: 15624 / 26416 * 100 = 59.15 % 
-  Unlabeled attachment score: 20335 / 26416 * 100 = 76.98 % 
-  Label accuracy score:       16741 / 26416 * 100 = 63.37 % 
- 
-Parser zřejmě použil jako part of speech sloupec CoNLL POS (nikoli CPOS nebo FEAT). 
- 
-Přepracováno auto 
-  Labeled   attachment score: 17003 / 26416 * 100 = 64.37 % 
-  Unlabeled attachment score: 22848 / 26416 * 100 = 86.49 % 
-  Label accuracy score:       17663 / 26416 * 100 = 66.86 % 
- 
-Přepracováno gold 
-  Labeled   attachment score: 19154 / 26416 * 100 = 72.51 % 
-  Unlabeled attachment score: 22568 / 26416 * 100 = 85.43 % 
-  Label accuracy score:       19832 / 26416 * 100 = 75.08 % 
  
 ==== Různé redukce značek ==== ==== Různé redukce značek ====
Line 68: Line 36:
 | ano | ne | vibhakti + tam | 90.47 | 68.65 | 66.64 | 128 MB 10.12.2012 9:10:05 | 2 246 768 | 11 min | | ano | ne | vibhakti + tam | 90.47 | 68.65 | 66.64 | 128 MB 10.12.2012 9:10:05 | 2 246 768 | 11 min |
 | ne | ano | vibhakti + tam | 88.11 | 77.83 | 74.62 | 127 MB 10.12.2012 9:13:08 | 2 234 096 | 14 min | | ne | ano | vibhakti + tam | 88.11 | 77.83 | 74.62 | 127 MB 10.12.2012 9:13:08 | 2 234 096 | 14 min |
 +
 +==== training-k ====
 +
 +Ambati et al. použili 2. řád a training-k:5. Zkoušel jsem porovnat training-k:5 a výchozí nastavení (neřeknu nic, čili podle souboru README platí training-k:1). Výstup na dtestu se nelišil ani v jediné závislosti. Parametr training-k jsem ovšem předával pouze při učení, předpokládám, že při použití modelu to nemá smysl. Možná by to chtělo ještě prozkoumat trochu pečlivěji, než to úplně vyhodím.
  
 ====== ICON 2009 NLP Tools Contest ====== ====== ICON 2009 NLP Tools Contest ======

[ Back to the navigation ] [ Back to the content ]