[ Skip to the content ]

Institute of Formal and Applied Linguistics Wiki


[ Back to the navigation ]

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
Next revision Both sides next revision
user:zeman:wmt [2012/02/04 16:34]
zeman Úklid.
user:zeman:wmt [2012/02/04 18:16]
zeman Čeština s němčinou, španělštinou a francouzštinou.
Line 2: Line 2:
  
 http://matrix.statmt.org/ http://matrix.statmt.org/
-http://www.statmt.org/wmt11/translation-task.html+http://www.statmt.org/wmt12/translation-task.html
 http://svn.ms.mff.cuni.cz/projects/statmt/wiki/enhi/joshua http://svn.ms.mff.cuni.cz/projects/statmt/wiki/enhi/joshua
 <code>/net/work/people/zeman/wmt</code> <code>/net/work/people/zeman/wmt</code>
Line 54: Line 54:
  
 Testovací data by měl mít stejná jako já, tj. ''wmt102.test08'' pro MERT a ''wmt102.test09'' pro testování. Testovací data by měl mít stejná jako já, tj. ''wmt102.test08'' pro MERT a ''wmt102.test09'' pro testování.
- 
-===== Výsledky ===== 
- 
-Není-li řečeno jinak, váhy se ladí na newstest2008 a testuje se na newstest2009. Trénuje se zatím na news-commentary, a to jak překladový, tak jazykový model. U testu WMT 2010 se jako základní uvádí BLEU skóre, které mi spočítal Joshua, v závorce pak skóre, které mi spočítali organizátoři, lowercase / truecase. Hodnoty se někdy výrazně liší, zřejmě kvůli odlišné tokenizaci. 
- 
-| **Pokus** | **Dev WMT08** | **Test WMT09** | **Test WMT10** | **Poznámka** | **Datum** | 
-| decs-josh13 | 0.0935 | 0.0886 | | | 15.3.2010 | 
-| escs-josh13 | 0.0922 | 0.0872 | | | 15.3.2010 | 
-| frcs-josh13 | 0.0885 | 0.0818 | | Zřetelně menší trénovací data než pro encs, decs a escs. | 15.3.2010 | 
  
 ===== Pokusy s uvozovkami ===== ===== Pokusy s uvozovkami =====
Line 99: Line 90:
 $ac_tmtrain     = 'news-commentary-v6b.fr-en+europarl-v6b.fr-en';</code> $ac_tmtrain     = 'news-commentary-v6b.fr-en+europarl-v6b.fr-en';</code>
  
-Podle časových značek u korpusů v ''augmented_corpora'' se zdá, že poslední "v6b" jsem vytvořil 21.4.2011. Vypadá to, že mám news-commentary+europarl ve verzi v6b pro všechny čtyři jazykové páry (cs-en, de-en, es-en, fr-en)Výsledky: Skóre "dříve" znamená ed úpravou trénovacích dattedy -stc-allemma-tmnews+parl-lmnews+parl-lm6-test2011Skóre "nyní" znamená po úpravě trénovacích dattedy -stc-allemma-tmv6b-lmv6b-lm6-test2011. Vylaďovací ani testovací data zatím nijak upravována nebyla. Jejich úpravu bychom ale měli taky otestovat, protože např. teď obsahují samé ASCII uvozovky, které jsou pro Joshuu neznámým tokenem.+Dotažení do konce: i vývojová a testovací data musí být ve verzi v6b. Můžeme eskočit alignment a trénování jazykového modeluale musíme pustit ''prepare.pl''abychom získali upravená data!
  
-es-en: dříve 0.2452, nyní 0.2428 +<code bash>$STATMT/joshua-scripts/clonex.pl encs-stc-allemma-tmv6b-lmv6b-lm6-test2011 encs-stc-allemma-tmv6b-lmv6b-lm6-test2011v6b 
-en-es: dříve 0.2590, nyní 0.2542 +cd encs-stc-allemma-tmv6b-lmv6b-lm6-test2011v6b 
- +$STATMT/joshua-scripts/resetex_scripts.pl 
-===== Inventura 16.1.2012 ===== +vim scripts/setexp.pl 
- +$ac_dev         = 'newstest2008-v6b'; 
-16.1.2012 21:12: Pouštím znova pokus ''encs-stc-allcstem4-tmnews+parl-lmnews+parl-lm6-test2011''. Zřejmě to neobsahuje opravené uvozovky (v6b), ale potřebuju zjistit, zda se to vůbec rozběhne. +$ac_test        = 'newstest2011-v6b'; 
- +(qsub.plscripts/prepare.pl 
-Nový průběh všech osmi starých pokusů (supervised truecasing, žádná normalizace uvozovek, nové je na nich paralelní počítání alignmentu, ale výsledek by měl být identický – nekontroloval jsem): ''$SRC$TGT-stc-allcstem4-tmnews+parl-lmnews+parl-lm6-test2011'' +nohup nice $STATMT/joshua-scripts/joshua.pl extract > & joshua.log &</code>
- +
-^ Jazyky ^ BLEU ^ +
-| en-cs | 0.1191 | +
-| cs-en | 0.1692 | +
-| en-de | 0.1337 | +
-| de-en | 0.1885 | +
-| en-es | 0.2573 | +
-| es-en | 0.2446 | +
-| en-fr | 0.2591 | +
-| fr-en | 0.2243 | +
- +
-Od jara mám vytvořené také pokusy s korpusy, ve kterých jsou upravené uvozovky (verze 6b), takže je teď taky pustímJe to spíš na oprášení starého kódu, ale bude se to muset pustit ještě jednou, protože momentálně se uvozovky opravují pouze v trénovacích datech, ale ne ve vývojových a testovacích. (Opravu testovacích dat bych si mohl ospravedlnit např. budoucím hodnocením lidmi. A nebo alespoň normalizovat testovací data tím brutálnějším skriptem od Philippa.) +
- +
-''$SRC$TGT-stc-allemma-tmv6b-lmv6b-lm6-test2011''+
  
-První výsledky jsou zatím bez záruky, protože v průběhu Gizy jsem narazil na kvótuProcesy sice nespadly, ale nejsem si jistý, co prováděly těch několik hodin, kdy nemohly psát na diskTakže raději pustit ještě jednou (ostatně jeden z nich dokonce nedoběhl).+Pokusy s&nbsp;uvozovkami začaly na jař2011. Tehdy jsem upravil pouze trénovací data (Europarl a News-Commentary) pro všechny čtyři jazykové páryK&nbsp;poslední úpravě došlo 21.4.2011Vracím se k&nbsp;tomu 16.1.2012. Nejdříve pouštím všechny tehdejší pokusy znova, potom přidám i úpravu vývojových a testovacích dat.
  
-24.1.2012 už mám i skoro echny kontrolní výsledky druhého běhuale mezitím jsem zjistil chybu v počítání alignmentu, takže pouštím potřetí (zatím šest pokusů pro češtinuněmčinu a španělštinu, později pustím francouzštinuaž i u ní skončí druhý běh).+Nový průběh ech osmi starých pokusů (supervised truecasingžádná normalizace uvozovek, nové je na nich paralelní počítání alignmentu, ale výsledek by měl být identický – nekontroloval jsem): ''$SRC$TGT-stc-allcstem4-tmnews+parl-lmnews+parl-lm6-test2011'', v&nbsp;tabulce uvedeno jako "v6". Varianta, ve které byly uvozovky upraveny pouze v&nbsp;trénovacích datech (''$SRC$TGT-stc-allemma-tmv6b-lmv6b-lm6-test2011''), je označena "v6b-tr". Variantave které úpravou uvozovek prošla vývojová a testovací data (''$SRC$TGT-stc-allemma-tmv6b-lmv6b-lm6-test2011v6b'')je označena "v6b".
  
-^ Jazyky ^ BLEU Kontrolní běh Třetí běh +^ Jazyky ^ v6 v6b-tr v6b 
-| en-cs | FAILED | 0.1267 | 0.1246 | +| en-cs | 0.1191 | 0.1246 
-| cs-en | 0.1748 | 0.1748 | 0.1792 | +| cs-en | 0.1692 | 0.1792 
-| en-de | 0.1268 | 0.1268 | 0.1274 | +| en-de | 0.1337 | 0.1274 
-| de-en | 0.1869 | 0.1869 | 0.1859 | +| de-en | 0.1885 | 0.1859 
-| en-es | 0.2542 | 0.2542 | 0.2531 | +| en-es | 0.2573 | 0.2531 
-| es-en | 0.2428 | FAILED | 0.2375 | +| es-en | 0.2446 | 0.2375 
-| en-fr | 0.2586 | 0.2628 | 0.2619 | +| en-fr | 0.2591 | 0.2619 
-| fr-en | 0.2294 | 0.2294 0.2285 |+| fr-en | 0.2243 | 0.2285 | |
  
 ===== Pokusy s Emanem ===== ===== Pokusy s Emanem =====
Line 182: Line 159:
 (Ondřej měl s Mosesem asi 0.1230.) (Ondřej měl s Mosesem asi 0.1230.)
 Ještě je potřeba to testovat stejným skriptem jako Ondřej, abychom použili stejnou tokenizaci a taky abychom dostali rozptyl skóre. Ještě je potřeba to testovat stejným skriptem jako Ondřej, abychom použili stejnou tokenizaci a taky abychom dostali rozptyl skóre.
 +
 +===== Čeština s němčinou, španělštinou a francouzštinou =====
 +
 +Tyto jazykové páry nejsou součástí shared task. Organizátoři pro ně ani neposkytují trénovací data, ale ta je možné získat hledáním shodných vět v&nbsp;dotyčných jazycích v&nbsp;páru s&nbsp;angličtinou.
 +
 +Není-li řečeno jinak, váhy se ladí na newstest2008 a testuje se na newstest2009. Trénuje se zatím na news-commentary, a to jak překladový, tak jazykový model. U testu WMT 2010 se jako základní uvádí BLEU skóre, které mi spočítal Joshua, v závorce pak skóre, které mi spočítali organizátoři, lowercase / truecase. Hodnoty se někdy výrazně liší, zřejmě kvůli odlišné tokenizaci.
 +
 +| **Pokus** | **Dev WMT08** | **Test WMT09** | **Test WMT10** | **Poznámka** | **Datum** |
 +| decs-josh13 | 0.0935 | 0.0886 | | | 15.3.2010 |
 +| escs-josh13 | 0.0922 | 0.0872 | | | 15.3.2010 |
 +| frcs-josh13 | 0.0885 | 0.0818 | | Zřetelně menší trénovací data než pro encs, decs a escs. | 15.3.2010 |
  

[ Back to the navigation ] [ Back to the content ]