This is an old revision of the document!
Table of Contents
Danovy pokusy s Joshuou na WMT 2010
http://matrix.statmt.org/
http://www.statmt.org/wmt10/translation-task.html
http://svn.ms.mff.cuni.cz/projects/statmt/wiki/enhi/joshua
/net/work/people/zeman/wmt
Aktuální úkoly
- Přeložit ostrá testovací data všeho kromě
encs
a odeslat je. Stav: běží opravaextract-t.pl
proesen
, ostatní odesláno. - Přeložit ostrá testovací data
encs
a odeslat je. Stav: odesláno. - Paralelizovat extrakci gramatiky, abych měl šanci se jí u obo-max někdy dočkat.
- Dotáhnout do konce obo-max.
- Při klonování experimentu se musí kopírovat mert/decoder-config.txt.ZMERT.final a změnit v něm cesty! Pozor, mohla se změnit i cesta ke glue gramatice, pokud se změnila cesta k Joshuovi.
Příprava korpusů
Vývojová data (news-test
) jsou k dispozici ve formátu SGML. Obsahují pouze jeden referenční překlad, takže stačí vykopat obsah prvků <seg>
. Výsledek strčit do augmented_corpora
.
Náročnost
obo-base1
První pokus s Ondřejovými daty 3.3.2010, ale jen trigramový jazykový model. Proběhlo celkem bez potíží.
obo-base2
Snažím se vyrobit větší jazykové modely. Zatím (5.3.2010 dopoledne) doběhl čtyřgram, běží pentagram.
Trénování 4gramového jazykového modelu trvalo půl hodiny a spotřebovalo něco mezi 10 a 15 GB. Trénování pentagramu trvalo asi 40 minut a spotřebovalo něco přes 18 GB. Hexagram trval hodinu a spotřeboval nejméně 23 GB (to byl poslední údaj, který jsem viděl, než jsem odešel).
obo-base3
Klon obo-base2. Používám Ondřejův hotový šestigramový model a pouštím rovnou MERT.
obo-max
Binarizace ve verzi 1.3 zahrnuje počítání tabulky lexikálních pravděpodobností a trvá asi 1:20 hodiny. Paměťová náročnost: až do počítání lexikálních pravděpodobností včetně vystačil s 9,8 GB. Pak se ale pustil do předpočítávání indexů nejčastějších frází a s pamětí vyletěl na 22 GB, což je strop, který jsem mu dal, takže je otázka, jestli by nedokázal využít i větší množství paměti. Podle Lanova vyjádření by mohl být problém s větami o 100 a více slovech, proto jsem z korpusu takové věty odstranil. Můj čistící skript vybral z 7 544 465 řádků 7 543 152 takových, které měly 1-99 tokenů.
Extrakce gramatiky nabíhala přes 20 minut, vyčerpala 11 GB. Teď už běží vlastní extrakce, ale je hodně pomalá, jedna věta trvá třeba i 10 minut. Průměrný čas je zatím 3 minuty na 1 větu, takže 2500 vět by trvalo 5 dní. Paměť stoupla zatím na 15 GB. Chtělo by to paralelizovat minimálně na 20 procesů!
Výsledky
Není-li řečeno jinak, váhy se ladí na newstest2008 a testuje se na newstest2009. Trénuje se zatím na news-commentary, a to jak překladový, tak jazykový model.
Pokus | Dev WMT08 | Test WMT09 | Test WMT10 | Poznámka | Datum |
encs-allcstem4-tmnews-lmnews | 0.0918 | 0.0905 | 24.2.2010 | ||
csen-allcstem4-tmnews-lmnews | 0.1439 | 0.1471 | 26.2.2010 | ||
ende-allcstem4-tmnews-lmnews | 0.1168 | 0.1114 | 26.2.2010 | ||
deen-allcstem4-tmnews-lmnews | 0.1725 | 0.1617 | 26.2.2010 | ||
enes-allcstem4-tmnews-lmnews | 0.1945 | (0.2268) | Původně 26.2. kvůli vadnému alignmentu havaroval MERT, tohle je opravný pokus. Testovací data nejsou WMT 2009 jako u ostatních jazyků, ale WMT 2010. | 6.3.2010 | |
esen-allcstem4-tmnews-lmnews | extrakce havarovala | 26.2.2010 | |||
enfr-allcstem4-tmnews-lmnews | 0.1991 | test havaroval | 26.2.2010 | ||
fren-allcstem4-tmnews-lmnews | 0.1869 | 0.2020 | 26.2.2010 |
ende test havaroval, protože jsem ho pustil dřív, než doběhla extrakce gramatiky pro testovací data. enfr ale padá i poté, a to proto, že některým částem (15 a 18) nestačí paměť.
Pokus | Dev WMT08 | Test WMT09 | Test WMT10 | Poznámka | Datum |
obo-base1 (encs) | 0.1084 | 0.0990 | 3.3.2010 | ||
obo-base3 (encs) | 0.1064 | 0.0990 | Na rozdíl od obo-base1 použit šestigramový jazykový model místo třígramového. Výsledek je velmi podezřelý (velmi podezřele podobný tomu třígramovému), ale zdá se, že jsem zapomněl dekodéru říct, že teď to bude šestigram. Tak to pouštím znova. | 5.3.2010 | |
obo-base3 (encs) | 0.1103 | 0.1012 | Opravný pokus, tentokrát už dekodér snad ví, že máme šestigram. | 5.3.2010 | |
obo-max (encs) | 0.1344 | 0.1300 | Ondrův maximální paralelní korpus a třígramový jazykový model. | 8.3.2010 | |
obo-max3 (encs) | 0.1387 | 0.1402 | Ondrův maximální paralelní korpus a šestigramový jazykový model. | 8.3.2010 |
Ondřej
Ahoj.
S podobnymi podminkami souhlasim, aspon se dozvime vic.
Cili do WMT by mohl jit:
- muj moses
- Tvuj joshua
- TectoMT
Moje augmented corpora jsou ~bojar/diplomka/granty/emplus/wmt10/playground/augmented_corpora/
baseline korpus je
czeng092-ne
(alignment enNa-lemma-csNa-lemma-gdfa)
maximalni paralelni korpus je
czeng092-ne+czeng092-eu+czeng092-fi+czeng092-te+czeng092-su+czeng092-we+emea2
(alignment csNm-lemma-enNm-lemma-gdfa)
korpusy pro LM mam zatim rozhrabane a pouzivam zejmena:
wmt10mono2
pozdeji budou pouzitelne wmt09mono, webcoll a syn200x
development korpus je wmt102.test08
test korpus je wmt102.test09
Zdrojovy jazyk je pro mne enNa2+stc.
Cilovy jazyk je pro mne csN[ma]+stc (jsou identicke, ne pro kazdy korpus mam vyrobeno vsechno)
'stc' obecne znamena supervised truecasing, cili truecasovano podle lemmatu.
O.