Differences
This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision Next revision Both sides next revision | ||
user:zeman:wmt [2012/02/28 13:30] zeman Doběhly zbývající pokusy s novými testovacími daty. |
user:zeman:wmt [2013/03/21 13:40] zeman Aktualizace. |
||
---|---|---|---|
Line 1: | Line 1: | ||
- | ====== Danovy pokusy | + | ====== Danovy pokusy na WMT 2013, Sofija |
http:// | http:// | ||
- | http:// | + | http:// |
- | http:// | + | |
< | < | ||
===== Aktuální úkoly ===== | ===== Aktuální úkoly ===== | ||
+ | * Dořešit s Ondřejem, proč mu vadí to mazání nepořádku po předchozích neúspěšných pokusech v eman.seeds/ | ||
+ | * Znova označkovat anglický Gigaword, tentokrát Featuramou. | ||
+ | * Dokončit pokusy s korpusy un.es-en a un.fr-en. Běží merty, pak translate a evaluator. Pak kombinace un s jinými korpusy (newseuro a newsall). | ||
+ | * Zkontrolovat data pro rok 2013. | ||
+ | * Nejsou náhodou letos nové verze korpusů newseuro a newsall? | ||
+ | * Používám správné verze Gigawordů? | ||
+ | * O ruštině nemluvě... | ||
+ | * Proč při překladu odkudkoliv do angličtiny to s jazykovým modelem na newsall dopadne malinko hůř než bez něj? Nemělo by to spíš dopadnout zřetelně líp? Co je s ním? Jak je velký? Jakou dostal váhu? Jak se po jeho přidání změnil výstup překladu? | ||
+ | * danmake.pl na rozdíl od emana nerozlišuje kroky, které jsou OUTDATED nebo FAILED. Když mu eman select pro nějakou sadu požadavků najde několik kroků, z nichž první je nějak vadný a druhý je DONE, danmake klidně použije ten první a pak se diví. | ||
+ | * Nějak tu chybí pořádná tabulka loňských výsledků. To je mám opisovat z& | ||
+ | * Jazykové modely gigaword/ | ||
+ | * Velká paralelní data un, gigafren, czeng | ||
* Rozpracované: | * Rozpracované: | ||
* Ještě by to chtělo zopakovat celý proces se značkováním korpusů OSN. Nejdřív se ale pokusím nechat alespoň jednou doběhnout současnou verzi. Původní korpus se nechtěl nechat označkovat a zdá se, že problém by mohl být v tom, že některé věty jsou příliš dlouhé. Pustil jsem tedy nejdřív čištění (pouze věty délky 1 až 99 slov), ale kvůli nějaké chybě má označkovaný korpus stejně původní počet vět. Zdá se, že poslední dávku jsem omylem nakopíroval tolikrát, abych se dostal na původní počet řádků. Mělo by to ale být striktně paralelní, takže by to výsledek snad nemuselo nějak zásadně poškodit. | * Ještě by to chtělo zopakovat celý proces se značkováním korpusů OSN. Nejdřív se ale pokusím nechat alespoň jednou doběhnout současnou verzi. Původní korpus se nechtěl nechat označkovat a zdá se, že problém by mohl být v tom, že některé věty jsou příliš dlouhé. Pustil jsem tedy nejdřív čištění (pouze věty délky 1 až 99 slov), ale kvůli nějaké chybě má označkovaný korpus stejně původní počet vět. Zdá se, že poslední dávku jsem omylem nakopíroval tolikrát, abych se dostal na původní počet řádků. Mělo by to ale být striktně paralelní, takže by to výsledek snad nemuselo nějak zásadně poškodit. | ||
- | * Stáhnout a otestovat nová testovací data (WMT 2012). | + | * Pokusit se napodobit Ondrův nejlepší výsledek. |
- | * Všechny přípravy korpusů | + | * Použít stejná data jako on nebo lepší (to znamená |
- | * Připravit data pro cs-de, cs-es a cs-fr (news-commentary+europarl.v7). | + | * Natrénovat stejné modely jako on. Přinejmenším mi zatím chybí lexical reordering model. Ondra navíc prováděl ještě nějaké čachry se značkami (jazykový model na morfologických značkách). |
- | * Data už jsou připravena, ale zatím se rozeběhla jen polovina pokusů | + | * Srovnat supervised truecasing, který používám teď, s něčím méně sofistikovaným. Nezmenšovat první písmeno slova uprostřed věty jen proto, že moje lematizace nezná dané slovo jako vlastní jméno |
* Prohnat všechna data Morfessorem a vyhodnotit překlad s ním. | * Prohnat všechna data Morfessorem a vyhodnotit překlad s ním. | ||
* Otestovat vliv omezení délky fráze na 5 tokenů (zkusit i default a 10). | * Otestovat vliv omezení délky fráze na 5 tokenů (zkusit i default a 10). | ||
Line 111: | Line 122: | ||
Nový průběh všech osmi starých pokusů (supervised truecasing, žádná normalizace uvozovek, nové je na nich paralelní počítání alignmentu, ale výsledek by měl být identický – nekontroloval jsem): '' | Nový průběh všech osmi starých pokusů (supervised truecasing, žádná normalizace uvozovek, nové je na nich paralelní počítání alignmentu, ale výsledek by měl být identický – nekontroloval jsem): '' | ||
- | ^ Jazyky ^ v6 ^ v6b-tr ^ v6b ^ v7 ^ wmt12 ^ | + | **Šest přídavných jazykových párů: čeština s němčinou, španělštinou a francouzštinou.** Tyto jazykové páry nejsou součástí shared task. Organizátoři pro ně ani neposkytují trénovací data, ale ta je možné získat hledáním shodných vět v& |
- | | en-cs | 0.1191 | 0.1246 | 0.1257 | 0.1299 | 0.1161 | | + | |
- | | cs-en | 0.1692 | 0.1792 | 0.1801 | 0.1814 | 0.1661 | | + | Sloupec Moses je první odpovídající pokus s& |
- | | en-de | 0.1337 | 0.1274 | 0.1334 | 0.1350 | 0.1359 | | + | |
- | | de-en | 0.1885 | 0.1859 | 0.1896 | 0.1915 | 0.1880 | | + | ^ Jazyky ^ v6 ^ v6b-tr ^ v6b ^ v7 ^ wmt12 ^ Moses ^ +NewsAll ^ +Gigaword ^ Czeng ^ |
- | | en-es | 0.2573 | 0.2531 | 0.2627 | 0.2756 | 0.2757 | | + | | en-cs | 0.1191 | 0.1246 | 0.1257 | 0.1299 | 0.1161 |
- | | es-en | 0.2446 | 0.2375 | 0.2497 | 0.2562 | 0.2699 | | + | | cs-en | 0.1692 | 0.1792 | 0.1801 | 0.1814 | 0.1661 |
- | | en-fr | 0.2591 | 0.2619 | 0.2526 | 0.2729 | 0.2572 | | + | | en-de | 0.1337 | 0.1274 | 0.1334 | 0.1350 | 0.1359 |
- | | fr-en | 0.2243 | 0.2285 | 0.2384 | 0.2448 | 0.2391 | | + | | de-en | 0.1885 | 0.1859 | 0.1896 | 0.1915 | 0.1880 |
+ | | en-es | 0.2573 | 0.2531 | 0.2627 | 0.2756 | 0.2757 | ||
+ | | es-en | 0.2446 | 0.2375 | 0.2497 | 0.2562 | 0.2699 | ||
+ | | en-fr | 0.2591 | 0.2619 | 0.2526 | 0.2729 | 0.2572 | ||
+ | | fr-en | 0.2243 | 0.2285 | 0.2384 | 0.2448 | 0.2391 | ||
+ | | cs-de | | | | | 0.1304 | 13.65±0.54 | 0.1529 | | ||
+ | | de-cs | | | | | 0.1186 | 12.12±0.52 | | ||
+ | | cs-es | | | | | 0.1848 | 19.52±0.52 | 0.2214 | 0.2243 | | ||
+ | | es-cs | | | | | 0.1220 | 12.81±0.54 | | ||
+ | | cs-fr | | | | | 0.1822 | 19.53±0.55 | 0.2169 | | ||
+ | | fr-cs | | | | | 0.1175 | 12.53±0.57 | ||
===== Pokusy s Emanem ===== | ===== Pokusy s Emanem ===== | ||
Line 165: | Line 186: | ||
(Ondřej měl s Mosesem asi 0.1230.) | (Ondřej měl s Mosesem asi 0.1230.) | ||
Ještě je potřeba to testovat stejným skriptem jako Ondřej, abychom použili stejnou tokenizaci a taky abychom dostali rozptyl skóre. | Ještě je potřeba to testovat stejným skriptem jako Ondřej, abychom použili stejnou tokenizaci a taky abychom dostali rozptyl skóre. | ||
- | |||
- | ===== Čeština s němčinou, španělštinou a francouzštinou ===== | ||
- | |||
- | Tyto jazykové páry nejsou součástí shared task. Organizátoři pro ně ani neposkytují trénovací data, ale ta je možné získat hledáním shodných vět v& | ||
- | |||
- | Není-li řečeno jinak, váhy se ladí na newstest2008 a testuje se na newstest2009. Trénuje se zatím na news-commentary, | ||
- | |||
- | | **Pokus** | **Dev WMT08** | **Test WMT09** | **Test WMT10** | **Poznámka** | **Datum** | | ||
- | | decs-josh13 | 0.0935 | 0.0886 | | | 15.3.2010 | | ||
- | | escs-josh13 | 0.0922 | 0.0872 | | | 15.3.2010 | | ||
- | | frcs-josh13 | 0.0885 | 0.0818 | | Zřetelně menší trénovací data než pro encs, decs a escs. | 15.3.2010 | | ||