[ Skip to the content ]

Institute of Formal and Applied Linguistics Wiki


[ Back to the navigation ]

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
user:zeman:wmt [2012/02/09 21:10]
zeman Doběhlo de-en v7.
user:zeman:wmt [2013/06/11 18:46] (current)
zeman Appraise.
Line 1: Line 1:
-====== Danovy pokusy s Joshuou na WMT 2012 ======+====== Danovy pokusy na WMT 2013, Sofija ======
  
 http://matrix.statmt.org/ http://matrix.statmt.org/
-http://www.statmt.org/wmt12/translation-task.html +http://www.statmt.org/wmt13/translation-task.html 
-http://svn.ms.mff.cuni.cz/projects/statmt/wiki/enhi/joshua+http://www.dfki.de/appraise/wmt13/
 <code>/net/work/people/zeman/wmt</code> <code>/net/work/people/zeman/wmt</code>
  
 ===== Aktuální úkoly ===== ===== Aktuální úkoly =====
  
-  * V Emanovi zaříditabych počítal BLEU skóre esně stejným způsobem jako Ondra.+  * Binarizace a prořezání jazykových modelů. Nějak prořezávat lze i paralelní trénovací dataEdinburgh loni něco takového použil a citoval. 
 +  * Proč mi letos vyšly tak špatně jazykové páry s češtinou bez angličtiny? Udělal jsem nějakou chybu i vyrábění průniku trénovacích dat? Jsou menší nebo špatně spárovaná? 
 +  * Proč při překladu odkudkoliv do angličtiny to s jazykovým modelem na newsall (tj. starý, nevím jak je to s&nbsp;novým news8all) dopadne malinko hůř než bez něj? Nemělo by to spíš dopadnout zřetelně líp? Co je s ním? Jak je velký? Jakou dostal váhu? Jak se po jeho přidání změnil výstup překladu? 
 +  * danmake.pl na rozdíl od emana nerozlišuje kroky, které jsou OUTDATED nebo FAILED. Když mu eman select pro nějakou sadu požadavků najde několik kroků, z nichž první je nějak vadný a druhý je DONE, danmake klidně použije ten první a pak se diví. 
 +  * Nějak tu chybí pořádná tabulka loňských výsledků. To je mám opisovat z&nbsp;článku na WMT? 
 +    * Jazykové modely gigaword/czeng + newseuro + newsall 
 +    * Velká paralelní data un, gigafren, czeng 
 +  * Pokusit se napodobit Ondrův nejlepší výsledek. 
 +    * Použít stejná data jako on nebo lepší (to znamená přinejmenším celý Czeng a velká jednojazyčná data; Ondra ale prý vynechal Europarl, ten já vynechat nechci). 
 +    * Natrénovat stejné modely jako on. Přinejmenším mi zatím chybí lexical reordering model. Ondra navíc prováděl ještě nějaké čachry se značkami (jazykový model na morfologických značkách). 
 +  * Srovnat supervised truecasing, který používám teď, s něčím méně sofistikovaným. Nezmenšovat první písmeno slova uprostřed věty jen proto, že moje lematizace nezná dané slovo jako vlastní jméno (např. "doktor Chaloupka" by se neměl změnit na "doktor chaloupka"). 
 +  * Prohnat všechna data Morfessorem a vyhodnotit překlad s ním.
   * Otestovat vliv omezení délky fráze na 5 tokenů (zkusit i default a 10).   * Otestovat vliv omezení délky fráze na 5 tokenů (zkusit i default a 10).
-  * Otestovat jiná vývojová data (k dispozici je newstest 2008, 2009 a 2010, nebo všechny dohromady). 
-  * Otestovat morfematickou segmentaci (ale musí se doimplementovat závěrečné slepování). 
-  * Zopakovat tytéž pokusy, ale nad letos distribuovanými daty (v7). 
   * Pro všechny jazykové páry používat všechna dostupná data. Například velký Czeng pro češtinu, velké korpusy UN pro francouzštinu a španělštinu, gigawordy pro jazykové modely atd.   * Pro všechny jazykové páry používat všechna dostupná data. Například velký Czeng pro češtinu, velké korpusy UN pro francouzštinu a španělštinu, gigawordy pro jazykové modely atd.
   * Převést všechny pokusy pod aktuální verzi Joshuy (ale bacha, možná bude hodně jiná).   * Převést všechny pokusy pod aktuální verzi Joshuy (ale bacha, možná bude hodně jiná).
 +  * Dohnat pokusy s anglickým Gigawordem.
 +    * Merty běží (1.5.2013), ale většina těchto modelů je příliš velkých (dekodérům nestačilo 120 GB paměti), takže se budou ještě dlouho přetahovat o ''iridium'' a termín určitě nestihnou.
 +  * Pokračovat v práci na gigafren. Překladový model je natrénovaný, je potřeba vyrobit kroky model, mert, translate a evaluator.
 +    * Běží 4 obří merty... (přelom dubna a května 2013). Pokud nespadnou, budou se ještě řadu týdnů přetahovat o iridium, protože nikam jinam se nevejdou, ani jejich dekodéry ne.
 +  * Nová data pro rok 2013.
 +    * Modely s&nbsp;Gigawordem (zejména tím anglickým) ještě asi poběží několik týdnů, jsou příliš veliké. Ostatní je snad hotovo.
 +    * Jsou tu nicméně data, která jsem zatím nepoužil vůbec (viz níže). Výhledově se podívat i na ně. Jde zejména korpus Common Crawl a přídavná ruská data (Yandex).
 +    * Vývojová a testovací data:
 +      * Kvůli ruštině musím pro nové pokusy (nad news8) přepnout DEV z 2010 na 2012.
 +      * Od pondělního odpoledne 29.4.2013 všechny nové pokusy testovat na wmt2013.
 +    * Inventura trénovacích dat:
 +      * Europarl je stejný jako loni, tedy verze 7.
 +      * News Commentary jsou nové a trochu větší, navíc s ruštinou, verze 8.
 +      * Newsall je nové, protože přibyl rok 2012 a ruština.
 +      * Korpus UN bude asi stejný, i když to na stránkách WMT výslovně nepíšou. Totéž gigafren.
 +      * Gigawordy používám správné (ověřeno): en 5, es 3, fr 3.
 +      * Navíc je úplně nový korpus Common Crawl (prý je ale špinavý). Ten zatím nepoužívám a do termínu už to nestihnu.
  
 ===== Srovnávací testy mezi Joshuou 1.1 a 1.3: Je třeba otestovat nastavení maximální délky fráze 5 ===== ===== Srovnávací testy mezi Joshuou 1.1 a 1.3: Je třeba otestovat nastavení maximální délky fráze 5 =====
Line 106: Line 131:
 Pokusy s&nbsp;uvozovkami začaly na jaře 2011. Tehdy jsem upravil pouze trénovací data (Europarl a News-Commentary) pro všechny čtyři jazykové páry. K&nbsp;poslední úpravě došlo 21.4.2011. Vracím se k&nbsp;tomu 16.1.2012. Nejdříve pouštím všechny tehdejší pokusy znova, potom přidám i úpravu vývojových a testovacích dat. Pokusy s&nbsp;uvozovkami začaly na jaře 2011. Tehdy jsem upravil pouze trénovací data (Europarl a News-Commentary) pro všechny čtyři jazykové páry. K&nbsp;poslední úpravě došlo 21.4.2011. Vracím se k&nbsp;tomu 16.1.2012. Nejdříve pouštím všechny tehdejší pokusy znova, potom přidám i úpravu vývojových a testovacích dat.
  
-Nový průběh všech osmi starých pokusů (supervised truecasing, žádná normalizace uvozovek, nové je na nich paralelní počítání alignmentu, ale výsledek by měl být identický – nekontroloval jsem): ''$SRC$TGT-stc-allcstem4-tmnews+parl-lmnews+parl-lm6-test2011'', v&nbsp;tabulce uvedeno jako "v6". Varianta, ve které byly uvozovky upraveny pouze v&nbsp;trénovacích datech (''$SRC$TGT-stc-allemma-tmv6b-lmv6b-lm6-test2011''), je označena "v6b-tr". Varianta, ve které úpravou uvozovek prošla i vývojová a testovací data (''$SRC$TGT-stc-allemma-tmv6b-lmv6b-lm6-test2011v6b''), je označena "v6b". Varianta "v7": nová trénovací data (verze 7 News Commentary a Europarlu pro WMT 2012) už jsou defaultně s&nbsp;upravenými uvozovkami; vývojová a testovací data jsou v tomto případě shodná s&nbsp;v6b.+Nový průběh všech osmi starých pokusů (supervised truecasing, žádná normalizace uvozovek, nové je na nich paralelní počítání alignmentu, ale výsledek by měl být identický – nekontroloval jsem): ''$SRC$TGT-stc-allcstem4-tmnews+parl-lmnews+parl-lm6-test2011'', v&nbsp;tabulce uvedeno jako "v6". Varianta, ve které byly uvozovky upraveny pouze v&nbsp;trénovacích datech (''$SRC$TGT-stc-allemma-tmv6b-lmv6b-lm6-test2011''), je označena "v6b-tr". Varianta, ve které úpravou uvozovek prošla i vývojová a testovací data (''$SRC$TGT-stc-allemma-tmv6b-lmv6b-lm6-test2011v6b''), je označena "v6b". Varianta "v7": nová trénovací data (verze 7 News Commentary a Europarlu pro WMT 2012) už jsou defaultně s&nbsp;upravenými uvozovkami; vývojová a testovací data jsou v tomto případě shodná s&nbsp;v6b. Verze wmt12 se od v7 liší tím, že netestujeme na newstest2011, ale newstest2012.
  
-^ Jazyky ^ v6 ^ v6b-tr ^ v6b ^ v7 ^ +**Šest přídavných jazykových párů: čeština s němčinou, španělštinou a francouzštinou.** Tyto jazykové páry nejsou součástí shared task. Organizátoři pro ně ani neposkytují trénovací data, ale ta je možné získat hledáním shodných vět v&nbsp;dotyčných jazycích v&nbsp;páru s&nbsp;angličtinou. Ve všech případech jsem dostal kolem 690 tisíc párů vět. 
-| en-cs | 0.1191 | 0.1246 | 0.1257 | 0.1299 | + 
-| cs-en | 0.1692 | 0.1792 | 0.1801 | 0.1814 | +Sloupec Moses je první odpovídající pokus s&nbsp;Mosesem, už nad wmt12 (dev wmt10) a s&nbsp;jednojazyčným sjednocením news-europarl pro jazykový model. 
-| en-de | 0.1337 | 0.1274 | 0.1334 | 0.1350 | + 
-| de-en | 0.1885 | 0.1859 | 0.1896 | 0.1915 | +^ Jazyky ^ v6 ^ v6b-tr ^ v6b ^ v7 ^ wmt12 ^ Moses ^ +NewsAll ^ +Gigaword ^ Czeng 
-| en-es | 0.2573 | 0.2531 | 0.2627 | | +| en-cs | 0.1191 | 0.1246 | 0.1257 | 0.1299 | 0.1161 | 11.96±0.50 
-| es-en | 0.2446 | 0.2375 | 0.2497 | | +| cs-en | 0.1692 | 0.1792 | 0.1801 | 0.1814 | 0.1661 | 17.96±0.50 | 0.2022 | | 0.2225 
-| en-fr | 0.2591 | 0.2619 | 0.2526 | | +| en-de | 0.1337 | 0.1274 | 0.1334 | 0.1350 | 0.1359 | 14.26±0.52 
-| fr-en | 0.2243 | 0.2285 | 0.2384 | |+| de-en | 0.1885 | 0.1859 | 0.1896 | 0.1915 | 0.1880 | 18.77±0.53 
 +| en-es | 0.2573 | 0.2531 | 0.2627 | 0.2756 | 0.2757 | 27.78±0.65 
 +| es-en | 0.2446 | 0.2375 | 0.2497 | 0.2562 | 0.2699 | **22.19±0.58** 
 +| en-fr | 0.2591 | 0.2619 | 0.2526 | 0.2729 | 0.2572 | 25.99±0.63 
 +| fr-en | 0.2243 | 0.2285 | 0.2384 | 0.2448 | 0.2391 | 24.59±0.68 | 
 +| cs-de |        |        |        |        | 0.1304 | 13.65±0.54 | 0.1529 | 
 +| de-cs |        |        |        |        | 0.1186 | 12.12±0.52 | 
 +| cs-es |        |        |        |        | 0.1848 | 19.52±0.52 | 0.2214 | 0.2243 | 
 +| es-cs |        |        |        |        | 0.1220 | 12.81±0.54 | 
 +| cs-fr |        |        |        |        | 0.1822 | 19.53±0.55 | 0.2169 | 
 +| fr-cs |        |        |        |        | 0.1175 | 12.53±0.57 |
  
 ===== Pokusy s Emanem ===== ===== Pokusy s Emanem =====
Line 163: Line 198:
 Ještě je potřeba to testovat stejným skriptem jako Ondřej, abychom použili stejnou tokenizaci a taky abychom dostali rozptyl skóre. Ještě je potřeba to testovat stejným skriptem jako Ondřej, abychom použili stejnou tokenizaci a taky abychom dostali rozptyl skóre.
  
-===== Čeština s němčinou, španělštinou a francouzštinou ===== +===== Jak zpracovat obří korpus Treexem, třeba označkovat Gigaword? =====
- +
-Tyto jazykové páry nejsou součástí shared task. Organizátoři pro ně ani neposkytují trénovací data, ale ta je možné získat hledáním shodných vět v&nbsp;dotyčných jazycích v&nbsp;páru s&nbsp;angličtinou.+
  
-Není-li řečeno jinakváhy se ladí na newstest2008 a testuje se na newstest2009. Trénuje se zatím na news-commentary, a to jak ekladový, tak jazykový modelU testu WMT 2010 se jako základní uvádí BLEU skóre, které mi spočítal Joshua, v závorce pak skóre, které mi spočítali organizátoři, lowercase / truecase. Hodnoty se někdy výrazně liší, zřejmě kvůli odlišné tokenizaci.+Dosud jsem používal obyčejné treex -pkde se přesměrovává standardní výstup do nějakého souboruPro velké korpusy, které se zpracovávají kolik dní na půlce clusteru, tohle není ten nejvhodnější způsob. Vždy je pravděpodobnéže pár strojů umře a pro pár dokumentů nám bude výstup chybět. Potom se obtížně dohledává, které dokumenty to byly a jak je opravit.
  
-| **Pokus** | **Dev WMT08** | **Test WMT09** | **Test WMT10** | **Poznámka** | **Datum** | +Martin preferuje jiný způsobTisíce vstupních souborů leží v nějaké adresářové struktuře, někdy i vícepatrové, aby se předešlo jedné složcekterá obsahuje třeba 100000 souborůParalelní Treex nepíše na standardní výstup, který by se beztak musel ukládat do nějakých souborů s číslovanými jményMísto toho Treex vytváří výstupní adresářovou strukturu, která odpovídá té vstupní, ale vedle kopií vstupních souborů tam navíc leží i ty výstupní. Snadno se pak zjistí, který výstupní soubor chybí nebo je v nepořádku a který skript se má pustit znova.
-| decs-josh13 | 0.0935 | 0.0886 | | | 15.3.2010 | +
-| escs-josh13 | 0.0922 | 0.0872 | | | 15.3.2010 | +
-| frcs-josh13 | 0.0885 | 0.0818 | | Zřetelně menší trénovací data než pro encsdecs a escs| 15.3.2010 |+
  
 +Martinův postup lze vykoukat z ''treex/devel/en2cs/mononews/Makefile''.

[ Back to the navigation ] [ Back to the content ]