[ Skip to the content ]

Institute of Formal and Applied Linguistics Wiki


[ Back to the navigation ]

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
Next revision Both sides next revision
user:zeman:wmt [2012/02/28 13:10]
zeman První výsledky na testovacích datech 2012.
user:zeman:wmt [2013/03/19 17:43]
zeman
Line 1: Line 1:
-====== Danovy pokusy s Joshuou na WMT 2012 ======+====== Danovy pokusy na WMT 2013, Sofija ======
  
 http://matrix.statmt.org/ http://matrix.statmt.org/
-http://www.statmt.org/wmt12/translation-task.html +http://www.statmt.org/wmt13/translation-task.html
-http://svn.ms.mff.cuni.cz/projects/statmt/wiki/enhi/joshua+
 <code>/net/work/people/zeman/wmt</code> <code>/net/work/people/zeman/wmt</code>
 +
 +===== 19.3.2013 =====
 +
 +Dočasné poznámky o překladu
 +
 +Kdysi havaroval s.mert.f2a85415.20130126-2300 (cs-en na Czengu). Havaroval někde uvnitř dekódování, nevím proč přesně. Zkusím ho teď prostě pustit znova.
 +Jinak ještě mám ve stavu FAILED kroky translate a evaluator, které na něm závisí.
 +Kromě toho FAILED:
 +s.tag anglického Gigawordu. Víme, musíme zcela vyměnit tagger.
 +s.tm na gigafren oběma směry. Zjistit proč.
 +A to je momentálně všechno.
 +Řada jiných pokusů v lednu doběhla, takže je možná na čase osvěžit si paměť puštěním sklizně.
 +
 +Sklizeň zatím zahrnuje spoustu pokusů, které se prováděly na korpusech připravených starým způsobem. To by chtělo nahradit a staré kroky s korpusy postupně vyřadit.
 +Pro některé jazykové páry zatím nemám ani jeden výsledek nad novými daty:
 +de-en
 +en-cs
 +en-de
 +en-es
 +en-fr
 +es-cs
 +es-en
 +fr-cs
 +fr-en
 +Takže to v podstatě chybí od určitého místa až do konce :-(
 +Opravdu, asi někdy havaroval danmake.pl a už nikdy jsem ho nedotlačil do cíle. Kroky s.model pro korpus newseuro existují pro všechny páry z češtiny ven a pro de-cs, dál už pro nic. Takže to je asi to první, co bych měl teď rozchodit, klidně bez Gigawordů, ale aspoň nějak.
 +
 +Teď jsem pustil danmake.pl -t model -f od de-en. Některé kroky se inicializovaly, ale nespustily. Celý danmake pak spadl v průběhu spouštění en-fr, zřejmě newseuro (část logu viz níže). Další páry se nespustily vůbec.
 +U těch nespuštěných je problém v tom, že danmake jim našel jazykový model OUTDATED un korpusu. Správně by danmake měl poznat, že tento krok je mimo hru, a hledat jiný. Příslušný krok jsem teď úplně smazal, ale bude se to muset celé pustit znova (pro modely, které využívají korpus un).
 +
 +Inited: s.model.5a6227c2.20130319-1704
 +Executing: eval $(cat eman.vars) EMAN_READONLY=yes ./eman.seed >&2
 +Step s.model.5a6227c2.20130319-1704 prepared.
 +Executing: ( qsub -C ''  -N odel.5a6227c2 -o log.o\$JOB_ID -hard -j y -cwd -S /bin/bash -p -100 -hard -l mf=30g -hard -l h_vmem=30g ./eman.command 2>&1 ) >> log
 +Step s.model.5a6227c2.20130319-1704 submitted as job 7086079
 +Cached:    ( eman select t tm v SRCCORP=newseuro.fr-en v SRCAUG=en+stc v TGTAUG=fr+stc ) => s.tm.039cb3b2.20120806-1258
 +Cached:    ( eman select t lm v CORP=newseuro v CORPAUG=fr+stc ) => s.lm.fd06b8ba.20121020-1355
 +Cached:    ( eman select t lm v CORP=newsall v CORPAUG=fr+stc ) => s.lm.95058f4e.20121020-1627
 +Cached:    ( eman select t lm v CORP=gigaword v CORPAUG=fr+stc ) => s.lm.07856d34.20130124-0331
 +[19.3.2013 17:04:38] Executing: ( eman select t model v TMS=s.tm.039cb3b2.20120806-1258 v LMS="0:s.lm.fd06b8ba.20121020-1355:::0:s.lm.95058f4e.20121020-1627:::0:s.lm.07856d34.20130124-0331" ) > safeticks.500/stdout.txt
 +[19.3.2013 17:04:41] Executing: GRIDFLAGS="-p -99 -hard -l mf=15g -l act_mem_free=15g -l h_vmem=15g" MODELSTEP=s.model.5a6227c2.20130319-1704 DEVCORP=wmt10v6b eman init mert --start --mem 30g
 +Executing: INIT_ONLY=yes  EMAN_READONLY=yes ./eman.seed >&2
 +Inited: s.mert.d3fcee87.20130319-1704
 +Executing: eval $(cat eman.vars) EMAN_READONLY=yes ./eman.seed >&2
 +Checking tuning corp size
 +Step s.mert.d3fcee87.20130319-1704 prepared.
 +Executing: ( qsub -C ''  -N mert.d3fcee87 -o log.o\$JOB_ID -hard -j y -cwd -S /bin/bash -p -100 -hard -l mf=30g -hard -l h_vmem=30g ./eman.command 2>&1 ) >> log
 +Step s.mert.d3fcee87.20130319-1704 submitted as job 7086081
 +Cached:    ( eman select t tm v SRCCORP=newseuro.fr-en v SRCAUG=en+stc v TGTAUG=fr+stc ) => s.tm.039cb3b2.20120806-1258
 +Cached:    ( eman select t lm v CORP=newseuro v CORPAUG=fr+stc ) => s.lm.fd06b8ba.20121020-1355
 +Cached:    ( eman select t lm v CORP=newsall v CORPAUG=fr+stc ) => s.lm.95058f4e.20121020-1627
 +Cached:    ( eman select t lm v CORP=gigaword v CORPAUG=fr+stc ) => s.lm.07856d34.20130124-0331
 +Cached:    ( eman select t model v TMS=s.tm.039cb3b2.20120806-1258 v LMS="0:s.lm.fd06b8ba.20121020-1355:::0:s.lm.95058f4e.20121020-1627:::0:s.lm.07856d34.20130124-0331" ) => s.model.5a6227c2.20130319-1704
 +[19.3.2013 17:04:48] Executing: ( eman select t mert v MODELSTEP=s.model.5a6227c2.20130319-1704 ) > safeticks.500/stdout.txt
 +No mert step found for v MODELSTEP=s.model.5a6227c2.20130319-1704 at ./danmake.pl line 764.
 +
  
 ===== Aktuální úkoly ===== ===== Aktuální úkoly =====
  
 +  * Data pro rok 2013 budou zveřejněna v lednu!
 +  * Nějak tu chybí pořádná tabulka loňských výsledků. To je mám opisovat z&nbsp;článku na WMT?
 +    * Jazykové modely gigaword/czeng + newseuro + newsall
 +    * Velká paralelní data un, gigafren, czeng
   * Rozpracované: es-en a fr-en UN. Značkování Gigawordu. Chcíplý giga.fr-en a news.2007.de.   * Rozpracované: es-en a fr-en UN. Značkování Gigawordu. Chcíplý giga.fr-en a news.2007.de.
     * Ještě by to chtělo zopakovat celý proces se značkováním korpusů OSN. Nejdřív se ale pokusím nechat alespoň jednou doběhnout současnou verzi. Původní korpus se nechtěl nechat označkovat a zdá se, že problém by mohl být v tom, že některé věty jsou příliš dlouhé. Pustil jsem tedy nejdřív čištění (pouze věty délky 1 až 99 slov), ale kvůli nějaké chybě má označkovaný korpus stejně původní počet vět. Zdá se, že poslední dávku jsem omylem nakopíroval tolikrát, abych se dostal na původní počet řádků. Mělo by to ale být striktně paralelní, takže by to výsledek snad nemuselo nějak zásadně poškodit.     * Ještě by to chtělo zopakovat celý proces se značkováním korpusů OSN. Nejdřív se ale pokusím nechat alespoň jednou doběhnout současnou verzi. Původní korpus se nechtěl nechat označkovat a zdá se, že problém by mohl být v tom, že některé věty jsou příliš dlouhé. Pustil jsem tedy nejdřív čištění (pouze věty délky 1 až 99 slov), ale kvůli nějaké chybě má označkovaný korpus stejně původní počet vět. Zdá se, že poslední dávku jsem omylem nakopíroval tolikrát, abych se dostal na původní počet řádků. Mělo by to ale být striktně paralelní, takže by to výsledek snad nemuselo nějak zásadně poškodit.
-  * Stáhnout a otestovat nová testovací data (WMT 2012)+  * Pokusit se napodobit Ondrův nejlepší výsledek
-  Všechny ípravy korpusů zarovnání zopakovat i pod Emanem. Naučit se registrovat korpusy Corpmanem+    Použít stejná data jako on nebo lepší (to znamená inejmenším celý Czeng velká jednojazyčná data; Ondra ale prý vynechal Europarl, ten já vynechat nechci)
-  * Připravit data pro cs-de, cs-es a cs-fr (news-commentary+europarl.v7). +    Natrénovat stejné modely jako on. inejmenším mi zatím chybí lexical reordering modelOndra navíc prováděl ještě nějaké čachry se značkami (jazykový model na morfologických značkách). 
-    Data už jsou připravenaale zatím se rozeběhla jen polovina pokusů (běží cs-de, cs-es, cs-fr, neběží de-cs, es-cs, fr-cs).+  Srovnat supervised truecasing, který používám teďs něčím méně sofistikovaným. Nezmenšovat první písmeno slova uprostřed věty jen proto, že moje lematizace nezná dané slovo jako vlastní jméno (např. "doktor Chaloupka" by se neměl změnit na "doktor chaloupka").
   * Prohnat všechna data Morfessorem a vyhodnotit překlad s ním.   * Prohnat všechna data Morfessorem a vyhodnotit překlad s ním.
   * Otestovat vliv omezení délky fráze na 5 tokenů (zkusit i default a 10).   * Otestovat vliv omezení délky fráze na 5 tokenů (zkusit i default a 10).
Line 111: Line 170:
 Nový průběh všech osmi starých pokusů (supervised truecasing, žádná normalizace uvozovek, nové je na nich paralelní počítání alignmentu, ale výsledek by měl být identický – nekontroloval jsem): ''$SRC$TGT-stc-allcstem4-tmnews+parl-lmnews+parl-lm6-test2011'', v&nbsp;tabulce uvedeno jako "v6". Varianta, ve které byly uvozovky upraveny pouze v&nbsp;trénovacích datech (''$SRC$TGT-stc-allemma-tmv6b-lmv6b-lm6-test2011''), je označena "v6b-tr". Varianta, ve které úpravou uvozovek prošla i vývojová a testovací data (''$SRC$TGT-stc-allemma-tmv6b-lmv6b-lm6-test2011v6b''), je označena "v6b". Varianta "v7": nová trénovací data (verze 7 News Commentary a Europarlu pro WMT 2012) už jsou defaultně s&nbsp;upravenými uvozovkami; vývojová a testovací data jsou v tomto případě shodná s&nbsp;v6b. Verze wmt12 se od v7 liší tím, že netestujeme na newstest2011, ale newstest2012. Nový průběh všech osmi starých pokusů (supervised truecasing, žádná normalizace uvozovek, nové je na nich paralelní počítání alignmentu, ale výsledek by měl být identický – nekontroloval jsem): ''$SRC$TGT-stc-allcstem4-tmnews+parl-lmnews+parl-lm6-test2011'', v&nbsp;tabulce uvedeno jako "v6". Varianta, ve které byly uvozovky upraveny pouze v&nbsp;trénovacích datech (''$SRC$TGT-stc-allemma-tmv6b-lmv6b-lm6-test2011''), je označena "v6b-tr". Varianta, ve které úpravou uvozovek prošla i vývojová a testovací data (''$SRC$TGT-stc-allemma-tmv6b-lmv6b-lm6-test2011v6b''), je označena "v6b". Varianta "v7": nová trénovací data (verze 7 News Commentary a Europarlu pro WMT 2012) už jsou defaultně s&nbsp;upravenými uvozovkami; vývojová a testovací data jsou v tomto případě shodná s&nbsp;v6b. Verze wmt12 se od v7 liší tím, že netestujeme na newstest2011, ale newstest2012.
  
-^ Jazyky ^ v6 ^ v6b-tr ^ v6b ^ v7 ^ wmt12 ^ +**Šest přídavných jazykových párů: čeština s němčinou, španělštinou a francouzštinou.** Tyto jazykové páry nejsou součástí shared task. Organizátoři pro ně ani neposkytují trénovací data, ale ta je možné získat hledáním shodných vět v&nbsp;dotyčných jazycích v&nbsp;páru s&nbsp;angličtinou. Ve všech případech jsem dostal kolem 690 tisíc párů vět. 
-| en-cs | 0.1191 | 0.1246 | 0.1257 | 0.1299 | 0.1161 | + 
-| cs-en | 0.1692 | 0.1792 | 0.1801 | 0.1814 | 0.1661 | +Sloupec Moses je první odpovídající pokus s&nbsp;Mosesem, už nad wmt12 (dev wmt10) a s&nbsp;jednojazyčným sjednocením news-europarl pro jazykový model. 
-| en-de | 0.1337 | 0.1274 | 0.1334 | 0.1350 | 0.1359 | + 
-| de-en | 0.1885 | 0.1859 | 0.1896 | 0.1915 | 0.1880 | +^ Jazyky ^ v6 ^ v6b-tr ^ v6b ^ v7 ^ wmt12 ^ Moses ^ +NewsAll ^ +Gigaword ^ Czeng 
-| en-es | 0.2573 | 0.2531 | 0.2627 | 0.2756 | | +| en-cs | 0.1191 | 0.1246 | 0.1257 | 0.1299 | 0.1161 | 11.96±0.50 
-| es-en | 0.2446 | 0.2375 | 0.2497 | 0.2562 | | +| cs-en | 0.1692 | 0.1792 | 0.1801 | 0.1814 | 0.1661 | 17.96±0.50 | 0.2022 | | 0.2225 
-| en-fr | 0.2591 | 0.2619 | 0.2526 | 0.2729 | | +| en-de | 0.1337 | 0.1274 | 0.1334 | 0.1350 | 0.1359 | 14.26±0.52 
-| fr-en | 0.2243 | 0.2285 | 0.2384 | 0.2448 | 0.2391 |+| de-en | 0.1885 | 0.1859 | 0.1896 | 0.1915 | 0.1880 | 18.77±0.53 
 +| en-es | 0.2573 | 0.2531 | 0.2627 | 0.2756 | 0.2757 | 27.78±0.65 
 +| es-en | 0.2446 | 0.2375 | 0.2497 | 0.2562 | 0.2699 | **22.19±0.58** 
 +| en-fr | 0.2591 | 0.2619 | 0.2526 | 0.2729 | 0.2572 | 25.99±0.63 
 +| fr-en | 0.2243 | 0.2285 | 0.2384 | 0.2448 | 0.2391 | 24.59±0.68 | 
 +| cs-de |        |        |        |        | 0.1304 | 13.65±0.54 | 0.1529 | 
 +| de-cs |        |        |        |        | 0.1186 | 12.12±0.52 | 
 +| cs-es |        |        |        |        | 0.1848 | 19.52±0.52 | 0.2214 | 0.2243 | 
 +| es-cs |        |        |        |        | 0.1220 | 12.81±0.54 | 
 +| cs-fr |        |        |        |        | 0.1822 | 19.53±0.55 | 0.2169 | 
 +| fr-cs |        |        |        |        | 0.1175 | 12.53±0.57 |
  
 ===== Pokusy s Emanem ===== ===== Pokusy s Emanem =====
Line 165: Line 234:
 (Ondřej měl s Mosesem asi 0.1230.) (Ondřej měl s Mosesem asi 0.1230.)
 Ještě je potřeba to testovat stejným skriptem jako Ondřej, abychom použili stejnou tokenizaci a taky abychom dostali rozptyl skóre. Ještě je potřeba to testovat stejným skriptem jako Ondřej, abychom použili stejnou tokenizaci a taky abychom dostali rozptyl skóre.
- 
-===== Čeština s němčinou, španělštinou a francouzštinou ===== 
- 
-Tyto jazykové páry nejsou součástí shared task. Organizátoři pro ně ani neposkytují trénovací data, ale ta je možné získat hledáním shodných vět v&nbsp;dotyčných jazycích v&nbsp;páru s&nbsp;angličtinou. 
- 
-Není-li řečeno jinak, váhy se ladí na newstest2008 a testuje se na newstest2009. Trénuje se zatím na news-commentary, a to jak překladový, tak jazykový model. U testu WMT 2010 se jako základní uvádí BLEU skóre, které mi spočítal Joshua, v závorce pak skóre, které mi spočítali organizátoři, lowercase / truecase. Hodnoty se někdy výrazně liší, zřejmě kvůli odlišné tokenizaci. 
- 
-| **Pokus** | **Dev WMT08** | **Test WMT09** | **Test WMT10** | **Poznámka** | **Datum** | 
-| decs-josh13 | 0.0935 | 0.0886 | | | 15.3.2010 | 
-| escs-josh13 | 0.0922 | 0.0872 | | | 15.3.2010 | 
-| frcs-josh13 | 0.0885 | 0.0818 | | Zřetelně menší trénovací data než pro encs, decs a escs. | 15.3.2010 | 
  

[ Back to the navigation ] [ Back to the content ]