This is an old revision of the document!
Table of Contents
Danovy pokusy s Joshuou na WMT 2010
http://matrix.statmt.org/
http://www.statmt.org/wmt10/translation-task.html
http://svn.ms.mff.cuni.cz/projects/statmt/wiki/enhi/joshua
/net/work/people/zeman/wmt
Aktuální úkoly
- Převést všechny pokusy pod Joshuu 1.3.
- Převést všechny pokusy na nové zacházení s velkými písmeny (viz Ondřej a čeština).
- Dotáhnout do konce obo-max.
- Při klonování experimentu se musí kopírovat mert/decoder-config.txt.ZMERT.final a změnit v něm cesty! Pozor, mohla se změnit i cesta ke glue gramatice, pokud se změnila cesta k Joshuovi.
- Upravit test.pl, aby před počítáním BLEU skóre odstraňoval přípony “_OOV”. Otázka je, zda nemá totéž dělat i mert.pl (resp. zda se to odstraňování nemá zabudovat do parcoderu.pl).
- Vyrobit end-to-end skript, abych mohl pouštět pokusy s menšími nároky na babysitting.
Příprava korpusů
Vývojová data (news-test
) jsou k dispozici ve formátu SGML. Obsahují pouze jeden referenční překlad, takže stačí vykopat obsah prvků <seg>
. Výsledek strčit do augmented_corpora
.
Náročnost
obo-base1
První pokus s Ondřejovými daty 3.3.2010, ale jen trigramový jazykový model. Proběhlo celkem bez potíží.
obo-base2
Snažím se vyrobit větší jazykové modely. Zatím (5.3.2010 dopoledne) doběhl čtyřgram, běží pentagram.
Trénování 4gramového jazykového modelu trvalo půl hodiny a spotřebovalo něco mezi 10 a 15 GB. Trénování pentagramu trvalo asi 40 minut a spotřebovalo něco přes 18 GB. Hexagram trval hodinu a spotřeboval nejméně 23 GB (to byl poslední údaj, který jsem viděl, než jsem odešel).
obo-base3
Klon obo-base2. Používám Ondřejův hotový šestigramový model a pouštím rovnou MERT.
obo-max
Binarizace ve verzi 1.3 zahrnuje počítání tabulky lexikálních pravděpodobností a trvá asi 1:20 hodiny. Paměťová náročnost: až do počítání lexikálních pravděpodobností včetně vystačil s 9,8 GB. Pak se ale pustil do předpočítávání indexů nejčastějších frází a s pamětí vyletěl na 22 GB, což je strop, který jsem mu dal, takže je otázka, jestli by nedokázal využít i větší množství paměti. Podle Lanova vyjádření by mohl být problém s větami o 100 a více slovech, proto jsem z korpusu takové věty odstranil. Můj čistící skript vybral z 7 544 465 řádků 7 543 152 takových, které měly 1-99 tokenů.
Extrakce gramatiky nabíhala přes 20 minut, vyčerpala 11 GB. Teď už běží vlastní extrakce, ale je hodně pomalá, jedna věta trvá třeba i 10 minut. Průměrný čas je zatím 3 minuty na 1 větu, takže 2500 vět by trvalo 5 dní. Paměť stoupla zatím na 15 GB. Chtělo by to paralelizovat minimálně na 20 procesů!
Výsledky
Není-li řečeno jinak, váhy se ladí na newstest2008 a testuje se na newstest2009. Trénuje se zatím na news-commentary, a to jak překladový, tak jazykový model. U testu WMT 2010 se jako základní uvádí BLEU skóre, které mi spočítal Joshua, v závorce pak skóre, které mi spočítali organizátoři, lowercase / truecase. Hodnoty se někdy výrazně liší, zřejmě kvůli odlišné tokenizaci.
Pokus | Dev WMT08 | Test WMT09 | Test WMT10 | Poznámka | Datum |
encs-allcstem4-tmnews-lmnews | 0.0918 | 0.0905 | 24.2.2010 | ||
encs-clean | 0.0913 | 0.0897 | Joshua 1.1, z trénovacích dat odstraněny věty o 100 a více slovech. | 21.3.2010 | |
encs-josh13 | 0.0878 | 0.0869 | 9.3.2010 | ||
encs-the | 0.0901 | 0.0863 | Pokus: ze zdrojové (anglické) strany trénovacích dat byly odstraněny všechny výskyty slova “the”. Jinak je tento běh identický s encs-josh13. | 10.3.2010 | |
decs-josh13 | 0.0935 | 0.0886 | 15.3.2010 | ||
escs-josh13 | 0.0922 | 0.0872 | 15.3.2010 | ||
frcs-josh13 | 0.0885 | 0.0818 | Zřetelně menší trénovací data než pro encs, decs a escs. | 15.3.2010 | |
csen-allcstem4-tmnews-lmnews | 0.1439 | 0.1471 | 0.1518 (14.2/10.5) | 26.2.2010 | |
csen-clean | 0.1441 | 0.1458 | 21.3.2010 | ||
csen-josh13 | 0.1420 | 0.1455 | 9.3.2010 | ||
ende-allcstem4-tmnews-lmnews | 0.1168 | 0.1114 | 0.1199 (11.5/4.3) | 26.2.2010 | |
ende-clean | 0.1162 | 0.1118 | 21.3.2010 | ||
ende-josh13 | 0.1161 | 0.1096 | 9.3.2010 | ||
deen-allcstem4-tmnews-lmnews | 0.1725 | 0.1617 | 0.1728 (16.1/11.4) | 26.2.2010 | |
deen-clean | 0.1718 | 0.1624 | 21.3.2010 | ||
deen-josh13 | 0.1703 | 0.1616 | 9.3.2010 | ||
enes-allcstem4-tmnews-lmnews | 0.1954 | 0.1966 | 0.2150 (21.1/16.5) | Pokus s WMT 2010 bez úspěšného MERTu, váhy jsem si vypůjčil z en-fr. | 6.3.2010 |
enes-clean | 0.1953 | 0.1979 | 21.3.2010 | ||
enes-josh13 | 0.1969 | 0.1978 | 9.3.2010 | ||
esen-allcstem4-tmnews-lmnews | 0.1945 | 0.2025 | 0.2268 (21.7/16.1) | 8.3.2010 | |
esen-clean | 0.1945 | 0.2023 | 21.3.2010 | ||
esen-josh13 | 0.1335 | 0.1411 | Tady je pokles při přechodu na Joshuu 1.3 výraznější než jinde. | 10.3.2010 | |
enfr-allcstem4-tmnews-lmnews | 0.1991 | 0.2001 | 0.2034 (15.7/12.2) | 26.2.2010 | |
enfr-clean | 0.1979 | 0.1990 | 21.3.2010 | ||
enfr-josh13 | 0.1982 | 0.1999 | 9.3.2010 | ||
fren-allcstem4-tmnews-lmnews | 0.1869 | 0.2020 | 0.1991 (18.9/13.7) | 26.2.2010 | |
fren-clean | 0.1873 | 0.2008 | 21.3.2010 | ||
fren-josh13 | 0.1861 | 0.2036 | 9.3.2010 |
Po přechodu z Joshuy 1.1 na 1.3 u téměř všech pokusů pokleslo BLEU skóre. Je to sice malý pokles a pravděpodobně není statisticky významný, ale stejně mě to zaráží. Srovnání u češtiny ukázalo, že se liší extrahovaná gramatika. V konfiguraci se už teď nezadává, že maximální délka fráze má být 5. Hraje to nějakou roli?
Pokus | Dev WMT08 | Test WMT09 | Test WMT10 | Poznámka | Datum |
obo-base1 (encs) | 0.1084 | 0.0990 | 3.3.2010 | ||
obo-base3 (encs) | 0.1064 | 0.0990 | Na rozdíl od obo-base1 použit šestigramový jazykový model místo třígramového. Výsledek je velmi podezřelý (velmi podezřele podobný tomu třígramovému), ale zdá se, že jsem zapomněl dekodéru říct, že teď to bude šestigram. Tak to pouštím znova. | 5.3.2010 | |
obo-base3 (encs) | 0.1103 | 0.1012 | Opravný pokus, tentokrát už dekodér snad ví, že máme šestigram. | 5.3.2010 | |
obo-max(-final) (encs) | 0.1344 | 0.1300 | 0.1357 (13.4/12.6) | Ondrův maximální paralelní korpus a třígramový jazykový model. | 7.3.2010 |
obo-max3 (encs) | 0.1387 | 0.1402 | Ondrův maximální paralelní korpus a šestigramový jazykový model. | 8.3.2010 |
Ondřej
Ahoj.
S podobnymi podminkami souhlasim, aspon se dozvime vic.
Cili do WMT by mohl jit:
- muj moses
- Tvuj joshua
- TectoMT
Moje augmented corpora jsou ~bojar/diplomka/granty/emplus/wmt10/playground/augmented_corpora/
baseline korpus je
czeng092-ne
(alignment enNa-lemma-csNa-lemma-gdfa)
maximalni paralelni korpus je
czeng092-ne+czeng092-eu+czeng092-fi+czeng092-te+czeng092-su+czeng092-we+emea2
(alignment csNm-lemma-enNm-lemma-gdfa)
korpusy pro LM mam zatim rozhrabane a pouzivam zejmena:
wmt10mono2
pozdeji budou pouzitelne wmt09mono, webcoll a syn200x
development korpus je wmt102.test08
test korpus je wmt102.test09
Zdrojovy jazyk je pro mne enNa2+stc.
Cilovy jazyk je pro mne csN[ma]+stc (jsou identicke, ne pro kazdy korpus mam vyrobeno vsechno)
'stc' obecne znamena supervised truecasing, cili truecasovano podle lemmatu.
O.