Differences
This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision Next revision Both sides next revision | ||
user:zeman:dz-parser:icon [2012/12/07 13:50] zeman Mumbaī |
user:zeman:dz-parser:icon [2012/12/09 11:56] zeman Verze MST parseru. |
||
---|---|---|---|
Line 3: | Line 3: | ||
http:// | http:// | ||
- | Zkontrolovat normalizaci UTF-8 (dévanágarí). | + | ===== Udělat ===== |
+ | |||
+ | * Natrénovat McDonaldův MST parser. Pokud možno s pořádnými rysy, neprojektivně a druhý řád. Ale na druhou stranu, aby to taky někdy doběhlo. | ||
+ | * Ambati et al. použili 2. řád a training-k: | ||
+ | * Zkusit mu dát značky z jiného zdroje. Teď je to POS. Nabízí se CPOS, kombinace CPOS-POS, FEAT, nějaký výběr z FEAT (vibhakti a tam) nebo složitější kombinace výše uvedeného. | ||
+ | * Natrénovat Malt parser a mezi rysy mu přidat hypotézu od MST (parser MST-Malt podle Joakimova a Ryanova článku). | ||
+ | * To znamená, že musím vybrat nejlepší parametry trénování MST, rozdělit trénovací data na 10 dílů, opakovaně natrénovat MST na devíti dílech a pustit ho na ten desátý. Pak musím rozhodnout, jakým způsobem se názor MST předloží Maltu. Musí to být rys položky na vstupu nebo na zásobníku. Asi nejjednodušší by bylo zavést rys, který pro každé slovo řekne značku jeho rodiče. V mnoha větách to bude ukazovat na více než jedno slovo, ale někde to snad pomůže. A pokud místo značky dáme slovo, mohla by být příliš řídká data. (Můžeme ale zavést dva rysy a dát tam obojí.) Index rodiče je jako rys k ničemu, protože hodnota má v každé větě jiný význam. Nejlepší by zřejmě bylo, kdybychom dokázali posuzovat dvě položky najednou (např. dvě horní položky v zásobníku) a říct, zda si MST parser myslí, že mezi nimi vede hrana. Ale to zase neumím popsat a je otázka, jestli to vůbec umí Malt parser, resp. ten jeho SVM rádce. | ||
+ | * Zkontrolovat normalizaci UTF-8 (dévanágarí). | ||
+ | * Natrénovat samostatný značkovač syntaktických značek. Ambati et al.: MST labeler je blbej, použili maxent (http...lzhang, | ||
+ | * Potřebuju nějaké vyhledávadlo a zvýrazňovadlo chyb. | ||
+ | * Opravit normalizaci pro HamleDT. Normalizace hindštiny prý dělá na nových datech mnohem více chyb (uzel pod Coord nemá is_member apod.) Mohly by mi pomoct Martinovy transformace koordinací? | ||
HTB verze 0,51: train 12041 sent, 268093 tok? (words), dev 1233 / 26416 | HTB verze 0,51: train 12041 sent, 268093 tok? (words), dev 1233 / 26416 | ||
+ | |||
+ | **MST parser:** V& | ||
Vyhodnotit samostatně | Vyhodnotit samostatně | ||
Line 11: | Line 24: | ||
* pro jednotlivé s-značky | * pro jednotlivé s-značky | ||
- | McDonald? | + | ===== Výsledky ===== |
- | + | ||
- | Ambati et al.: MST labeler je blbej, použili maxent (http...lzhang, | + | |
- | + | ||
- | A co MST druhého řádu? Ambati et al. použili 2. řád a training-k | + | |
- | + | ||
- | MST jako vstupní featura pro Malt? | + | |
- | Potřebuju nějaké vyhledávadlo a zvýrazňovadlo chyb. | + | mst nonproj o2 full |
+ | Labeled | ||
+ | Unlabeled attachment score: 20408 / 26416 * 100 = 77.26 % | ||
+ | Label accuracy score: | ||
- | Mohly by pomoct Martinovy transformace? | + | mst nonproj o2 1000 |
+ | Labeled | ||
+ | Unlabeled attachment score: 20335 / 26416 * 100 = 76.98 % | ||
+ | Label accuracy score: | ||
- | Co ten neoznačkovaný text? TreeTagger? | + | Parser zřejmě použil jako part of speech sloupec CoNLL POS (nikoli CPOS nebo FEAT). |
====== ICON 2009 NLP Tools Contest ====== | ====== ICON 2009 NLP Tools Contest ====== |