[ Skip to the content ]

Institute of Formal and Applied Linguistics Wiki


[ Back to the navigation ]

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
Next revision Both sides next revision
user:zeman:wmt [2012/01/24 22:07]
zeman
user:zeman:wmt [2012/01/26 09:01]
zeman obo-max
Line 17: Line 17:
   * Pro všechny jazykové páry používat všechna dostupná data, tedy i Europarl, neomezovat se na News Commentary. To mj. znamená, že musím pro všechny páry získat nové baseliny.   * Pro všechny jazykové páry používat všechna dostupná data, tedy i Europarl, neomezovat se na News Commentary. To mj. znamená, že musím pro všechny páry získat nové baseliny.
  
-===== Srovnávací testy mezi Joshuou 1.1 a 1.3 =====+===== Srovnávací testy mezi Joshuou 1.1 a 1.3: Je třeba otestovat nastavení maximální délky fráze 5 =====
  
-21.1.2012 se vracím k pokusu ''wmt/experiments/en-cs/josh11/obo-max''. Pustím ho znova. Starý ''test.log'', který jsem něm našel, má BLEU = 0.1300 datum 8.3.2010. Jeho kopie korpusu zabírá 3 GBpřekladový model zabírá 5 GBAle jeho současný skript ''setexp.pl'' odkazuje na složku s Joshuou 1.3, nikoli 1.1, jak by se zdálo z ''josh11'' v cestě! Dnešní verze ''joshua.pl'' si zase stěžuje, že tu není skript ''aligntest.pl''. Pustím tedy ''resetex'' a aktualizuju rovnou všechno. Pozor! Tento pokus využívá Ondrovy ''augmented_corpora'' (''/home/bojar/diplomka/granty/emplus/wmt10/playground/augmented_corpora''). V mých vlastních možná ani nejsou k dispozici zdrojové korpusy. Kromě toho by to mohlo mít i tu výhodu, že Ondrovy věci leží kde na merkuru, kde možná nemám kvótu na místo na disku.+Po přechodu z Joshuy 1.1 na 1.3 u téměř ech pokusů pokleslo BLEU skóreJe to sice malý pokles pravděpodobně není statisticky významnýale stejně mě to zarážíSrovnání u češtiny ukázalo, že se liší extrahovaná gramatika. V konfiguraci se už teď nezadává, že maximální délka fráze má být 5. Hraje to jakou roli?
  
-22.1.2012 obdobně pouštím také ''obo-max3''. Zkoušel jsem diff na ''setexp.pl'' u ''obo-max'' a ''obo-max3''. Kromě odkazu na jiný Makefile pro ''augment.pl'', který jsem u ''obo-max'' včera opravoval, se liší pouze v jedné další věci, a to je testovací soubor: u ''obo-max'' je to wmt102.test09, u ''obo-max3'' je to wmt102.test10.+===== obo-max =====
  
-22.1.2012 ''obo-max-final'' (edchozí aktivita 7.3.2010, podle názvu to bylo to, co jsem tehdy nakonec odeslal). I tohle se od ''obo-max'' liší zřejmě jen použitým Makefilem testovacími daty 2010. Od ''obo-max3'' se tozdá seneliší becalespoň pokud jde o konfigurační skript ''setexp.pl''Pro jistotu to pouštím také, po porovnání výsledků dva z nich asi smažu.+Nejúspěšnější nastavení z roku 2010 (více méně recyklované v roce 2011) bylo ''obo-max'', nyní ejmenované na ''obo-max-test2009''a ''obo-max3'', nyní přejmenované na ''obo-max-test2010''. Oba tyto pokusy nyní používají Joshuu 1.3 (stará skóre byla naměřena s Joshuou 1.1 a jinými skripty). Oba používají Ondřejova velká datatj. 7 miliónů párů vět z Czengu 0.92 na trénování, 13 miliónů českých vět (210 miliónů slov) pro český jazykový model (hexagram)nějaké tokenizační a technické úpravy (jazyky csNm a enNa2). Oba využívají Ondrovy ''augmented_corpora'' (''/home/bojar/diplomka/granty/emplus/wmt10/playground/augmented_corpora'')V mých vlastních možná ani nejsou k dispozici zdrojové korpusy. Testovací korpus má Ondry název ''wmt102.test09'', resp. ''wmt102.test10''.
  
-==== Staré záznamy ====+^ Výsledek ^ Test 2009 ^ Test 2010 ^ 
 +| Starý (Joshua 1.1)           | 0.1300 | 0.1402 | 
 +| Nový (25.1.2012, Joshua 1.3) | 0.1381 | 0.1477 |
  
-Po přechodu z Joshuy 1.1 na 1.3 u téměř všech pokusů pokleslo BLEU skóreJe to sice malý pokles a pravděpodobně není statisticky významnýale stejně mě to zarážíSrovnání u češtiny ukázalože se liší extrahovaná gramatikaV konfiguraci se už teď nezadává, že maximální délka fráze má být 5Hraje to nějakou roli?+22.1.2012 ''obo-max-final'' (předchozí aktivita 7.3.2010, podle názvu to bylo to, co jsem tehdy nakonec odeslal). I tohle se od ''obo-max'' liší zřejmě jen použitým Makefilem a testovacími daty 2010Od ''obo-max3'' se tozdá se, neliší vůbec, alespoň pokud jde o konfigurační skript ''setexp.pl''. Pro jistotu to pouštím taképo porovnání výsledků dva z nich asi smažu.
  
-| **Pokus** | **Dev WMT08** | **Test WMT09** | **Test WMT10** | **Poznámka** | **Datum** | +Výhledově chci pustit analogické ''obo-max-test2011''.
-| obo-base1 (encs) | 0.1084 | 0.0990 | | | 3.3.2010 | +
-| obo-base3 (encs) | 0.1064 | 0.0990 | | Na rozdíl od obo-base1 použit šestigramový jazykový model místo třígramového. Výsledek je velmi podezřelý (velmi podezřele podobný tomu třígramovému), ale zdá se, že jsem zapomněl dekodéru říct, že teď to bude šestigram. Tak to pouštím znova. | 5.3.2010 | +
-| obo-base3 (encs) | 0.1103 | 0.1012 | | Opravný pokus, tentokrát už dekodér snad ví, že máme šestigram. | 5.3.2010 | +
-| obo-max(-final) (encs) | 0.1344 | 0.1300 | 0.1357 (13.4/12.6) | Ondrův maximální paralelní korpus a třígramový jazykový model. | 7.3.2010 | +
-| obo-max3 (encs) | 0.1387 | | 0.1402 | Ondrův maximální paralelní korpus a šestigramový jazykový model. | 8.3.2010 | +
- +
-Na konci srpna 2010 oživuju pokusy s Joshuou 1.1. Začínám s Czengem 092-ne, alignment a překlad z ''enNa2+stc'' do ''csN[ma]+stc'', jak je napsáno výše, trigramový LM jen na jeho cílové straně. Až na ten jazykový model by to mělo odpovídat některému obo-base pokusu z února nebo března. +
- +
-| **Pokus** | **Dev WMT08** | **Test WMT09** | **Test WMT10** | **Poznámka** | **Datum** | +
-| encs:tmtrain-czeng092ne-lmtrain-czeng092ne-lm3 | 0.1053 | 0.0962 | | Ondrovo párování na lematech, trigram LM pouze z cílové strany paralelního korpusu. | 29.8.2010 | +
-| encs:tmtrain-czeng092ne-lmtrain-wmt10mono2-lm3 | 0.1266 | 0.1150 | | Jako předchozí, ale LM trigram na ''wmt10mono2''. | 29.8.2010 | +
-| encs:tmtrain-czeng092ne-lmtrain-wmt10mono2-lm4 | 0.1278 | 0.1198 | | Jako předchozí, ale LM je tetragram. | 29.8.2010 | +
-| encs:tmtrain-czeng092ne-lmtrain-wmt10mono2-lm5 | 0.1286 | 0.1179 | | Jako předchozí, ale LM je pentagram. | 29.8.2010 | +
-| encs:tmtrain-czeng092ne-lmtrain-wmt10mono2-lm6 | 0.1299 | 0.1176 | | Jako předchozí, ale LM je hexagram. | 29.8.2010 | +
-| encs:tmtrain-czengemea-lmtrain-wmt10mono2-lm3 | 0.1399 | 0.1346 | | Velký paralelní korpus (Czeng+Emea). | 6.9.2010 | +
-| encs:tmtrain-czengemea-lmtrain-wmt10mono2-lm4 | 0.1425 | 0.1372 | | Jako předchozí, ale LM je tetragram. | 6.9.2010 | +
-| encs:tmtrain-czengemea-lmtrain-wmt10mono2-lm5 | 0.1437 | 0.1368 | | Jako předchozí, ale LM je pentagram. | 6.9.2010 | +
-| encs:tmtrain-czengemea-lmtrain-wmt10mono2-lm6 | 0.1435 | 0.1368 | | Jako předchozí, ale LM je hexagram. | 7.9.2010 |+
  
 ===== Data ===== ===== Data =====
Line 71: Line 55:
  
 Testovací data by měl mít stejná jako já, tj. ''wmt102.test08'' pro MERT a ''wmt102.test09'' pro testování. Testovací data by měl mít stejná jako já, tj. ''wmt102.test08'' pro MERT a ''wmt102.test09'' pro testování.
- 
-===== Náročnost ===== 
- 
-==== obo-max ==== 
- 
-Binarizace ve verzi 1.3 zahrnuje počítání tabulky lexikálních pravděpodobností a trvá asi 1:20 hodiny. Paměťová náročnost: až do počítání lexikálních pravděpodobností včetně vystačil s 9,8 GB. Pak se ale pustil do předpočítávání indexů nejčastějších frází a s pamětí vyletěl na 22 GB, což je strop, který jsem mu dal, takže je otázka, jestli by nedokázal využít i větší množství paměti. Podle Lanova vyjádření by mohl být problém s větami o 100 a více slovech, proto jsem z korpusu takové věty odstranil. Můj čistící skript vybral z 7 544 465 řádků 7 543 152 takových, které měly 1-99 tokenů. 
- 
-Extrakce gramatiky nabíhala přes 20 minut, vyčerpala 11 GB. Teď už běží vlastní extrakce, ale je hodně pomalá, jedna věta trvá třeba i 10 minut. Průměrný čas je zatím 3 minuty na 1 větu, takže 2500 vět by trvalo 5 dní. Paměť stoupla zatím na 15 GB. Chtělo by to paralelizovat minimálně na 20 procesů! 
  
 ===== Výsledky ===== ===== Výsledky =====
Line 150: Line 126:
 | en-cs | FAILED | 0.1267 | 0.1246 | | en-cs | FAILED | 0.1267 | 0.1246 |
 | cs-en | 0.1748 | 0.1748 | 0.1792 | | cs-en | 0.1748 | 0.1748 | 0.1792 |
-| en-de | 0.1268 | 0.1268 | | +| en-de | 0.1268 | 0.1268 | 0.1274 
-| de-en | 0.1869 | 0.1869 | | +| de-en | 0.1869 | 0.1869 | 0.1859 
-| en-es | 0.2542 | 0.2542 | | +| en-es | 0.2542 | 0.2542 | 0.2531 
-| es-en | 0.2428 | FAILED | | +| es-en | 0.2428 | FAILED | 0.2375 
-| en-fr | 0.2586 | | |+| en-fr | 0.2586 | 0.2628 | |
 | fr-en | 0.2294 | 0.2294 | | | fr-en | 0.2294 | 0.2294 | |
  

[ Back to the navigation ] [ Back to the content ]