Differences
This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision Next revision Both sides next revision | ||
user:zeman:wmt [2012/02/27 14:58] zeman Doběhlo en-es a en-fr v7. |
user:zeman:wmt [2013/04/15 12:39] zeman Plány s gigafren. |
||
---|---|---|---|
Line 1: | Line 1: | ||
- | ====== Danovy pokusy | + | ====== Danovy pokusy na WMT 2013, Sofija |
http:// | http:// | ||
- | http:// | + | http:// |
- | http:// | + | |
< | < | ||
===== Aktuální úkoly ===== | ===== Aktuální úkoly ===== | ||
- | * Rozpracované: | + | * Znova označkovat anglický Gigaword, tentokrát Featuramou. |
- | * Stáhnout a otestovat nová testovací | + | * Označkováno už je, dva dílčí dokumenty se musely značkovat dodatečně. Nyní (pondělí 15.4.2013) běží slévání výstupu. |
- | * Všechny přípravy korpusů a zarovnání zopakovat i pod Emanem. Naučit | + | * Vyrobit jazykový model z anglického Gigawordu (předtím se ještě bude sto let vyrábět faktor stc, tak bacha, zablokuje to konzoli). |
- | * Připravit | + | * Všechny překlady do angličtiny zopakovat s Gigawordem. |
+ | * Pokračovat v práci na gigafren. Překladový model je natrénovaný, | ||
+ | * Pro oba směry (en-fr a fr-en) chci překlad s Gigawordem i bez něj, tj. TM: | ||
+ | * Pak chci ještě totéž, ale překladový model je kombinovaný s newseuro, případně i s un (ale un to asi moc nevylepší | ||
+ | * Dokončit pokusy s korpusy un.es-en a un.fr-en. Běží merty, pak translate | ||
+ | * Pokusy s překladovým modelem pouze na UN doběhly a moc se nevyznamenaly. Bez ohledu na to, že jazykový model obsahoval newsall i gigaword. | ||
+ | * Ještě je ale potřeba vyzkoušet kombinovaný překladový model (newseuro+un). Ten byl na minulém hřišti úspěšný. | ||
+ | * Zkontrolovat | ||
+ | * Nejsou náhodou letos nové verze korpusů newseuro a newsall? | ||
+ | * Europarl je stejný jako loni, tedy verze 7. | ||
+ | * U News Commentary to není jisté, spíš asi budou nové. | ||
+ | * Korpus UN bude asi stejný, i když to na stránkách | ||
+ | * Navíc je úplně nový korpus Common Crawl (prý je ale špinavý). | ||
+ | * Nové by mělo být i newsall, protože přibyl rok 2012. | ||
+ | * Používám správné verze Gigawordů? | ||
+ | * O ruštině nemluvě... | ||
+ | * Proč při překladu odkudkoliv do angličtiny to s jazykovým modelem na newsall dopadne malinko hůř než bez něj? Nemělo by to spíš dopadnout zřetelně líp? Co je s ním? Jak je velký? Jakou dostal váhu? Jak se po jeho přidání změnil výstup překladu? | ||
+ | * danmake.pl na rozdíl od emana nerozlišuje kroky, které jsou OUTDATED nebo FAILED. Když mu eman select pro nějakou sadu požadavků najde několik kroků, z nichž první je nějak vadný | ||
+ | * Nějak tu chybí pořádná tabulka loňských výsledků. To je mám opisovat z& | ||
+ | * Jazykové modely gigaword/ | ||
+ | * Velká paralelní | ||
+ | * Pokusit se napodobit Ondrův nejlepší výsledek. | ||
+ | * Použít stejná data jako on nebo lepší (to znamená přinejmenším celý Czeng a velká jednojazyčná data; Ondra ale prý vynechal Europarl, ten já vynechat nechci). | ||
+ | * Natrénovat stejné modely jako on. Přinejmenším mi zatím chybí lexical reordering model. Ondra navíc prováděl ještě nějaké čachry se značkami | ||
+ | * Srovnat supervised truecasing, který používám teď, s něčím méně sofistikovaným. Nezmenšovat první písmeno slova uprostřed věty jen proto, že moje lematizace nezná dané slovo jako vlastní jméno (např. " | ||
* Prohnat všechna data Morfessorem a vyhodnotit překlad s ním. | * Prohnat všechna data Morfessorem a vyhodnotit překlad s ním. | ||
* Otestovat vliv omezení délky fráze na 5 tokenů (zkusit i default a 10). | * Otestovat vliv omezení délky fráze na 5 tokenů (zkusit i default a 10). | ||
Line 107: | Line 130: | ||
Pokusy s& | Pokusy s& | ||
- | Nový průběh všech osmi starých pokusů (supervised truecasing, žádná normalizace uvozovek, nové je na nich paralelní počítání alignmentu, ale výsledek by měl být identický – nekontroloval jsem): '' | + | Nový průběh všech osmi starých pokusů (supervised truecasing, žádná normalizace uvozovek, nové je na nich paralelní počítání alignmentu, ale výsledek by měl být identický – nekontroloval jsem): '' |
- | ^ Jazyky ^ v6 ^ v6b-tr ^ v6b ^ v7 ^ | + | **Šest přídavných jazykových párů: čeština s němčinou, španělštinou a francouzštinou.** Tyto jazykové páry nejsou součástí shared task. Organizátoři pro ně ani neposkytují trénovací data, ale ta je možné získat hledáním shodných vět v& |
- | | en-cs | 0.1191 | 0.1246 | 0.1257 | 0.1299 | | + | |
- | | cs-en | 0.1692 | 0.1792 | 0.1801 | 0.1814 | | + | Sloupec Moses je první odpovídající pokus s& |
- | | en-de | 0.1337 | 0.1274 | 0.1334 | 0.1350 | | + | |
- | | de-en | 0.1885 | 0.1859 | 0.1896 | 0.1915 | | + | ^ Jazyky ^ v6 ^ v6b-tr ^ v6b ^ v7 ^ wmt12 ^ Moses ^ +NewsAll ^ +Gigaword ^ Czeng ^ |
- | | en-es | 0.2573 | 0.2531 | 0.2627 | 0.2756 | | + | | en-cs | 0.1191 | 0.1246 | 0.1257 | 0.1299 |
- | | es-en | 0.2446 | 0.2375 | 0.2497 | 0.2562 | | + | | cs-en | 0.1692 | 0.1792 | 0.1801 | 0.1814 |
- | | en-fr | 0.2591 | 0.2619 | 0.2526 | 0.2729 | | + | | en-de | 0.1337 | 0.1274 | 0.1334 | 0.1350 |
- | | fr-en | 0.2243 | 0.2285 | 0.2384 | 0.2448 | | + | | de-en | 0.1885 | 0.1859 | 0.1896 | 0.1915 |
+ | | en-es | 0.2573 | 0.2531 | 0.2627 | 0.2756 | ||
+ | | es-en | 0.2446 | 0.2375 | 0.2497 | 0.2562 | ||
+ | | en-fr | 0.2591 | 0.2619 | 0.2526 | 0.2729 | ||
+ | | fr-en | 0.2243 | 0.2285 | 0.2384 | 0.2448 | ||
+ | | cs-de | | | | | 0.1304 | 13.65±0.54 | 0.1529 | | ||
+ | | de-cs | | | | | 0.1186 | 12.12±0.52 | | ||
+ | | cs-es | | | | | 0.1848 | 19.52±0.52 | 0.2214 | 0.2243 | | ||
+ | | es-cs | | | | | 0.1220 | 12.81±0.54 | | ||
+ | | cs-fr | | | | | 0.1822 | 19.53±0.55 | 0.2169 | | ||
+ | | fr-cs | | | | | 0.1175 | 12.53±0.57 | ||
===== Pokusy s Emanem ===== | ===== Pokusy s Emanem ===== | ||
Line 164: | Line 197: | ||
Ještě je potřeba to testovat stejným skriptem jako Ondřej, abychom použili stejnou tokenizaci a taky abychom dostali rozptyl skóre. | Ještě je potřeba to testovat stejným skriptem jako Ondřej, abychom použili stejnou tokenizaci a taky abychom dostali rozptyl skóre. | ||
- | ===== Čeština s němčinou, španělštinou a francouzštinou | + | ===== Jak zpracovat obří korpus Treexem, třeba označkovat Gigaword? |
- | + | ||
- | Tyto jazykové páry nejsou součástí shared task. Organizátoři pro ně ani neposkytují trénovací data, ale ta je možné získat hledáním shodných vět v& | + | |
- | Není-li řečeno jinak, váhy se ladí na newstest2008 a testuje se na newstest2009. Trénuje se zatím na news-commentary, | + | Dosud jsem používal obyčejné treex -p, kde se přesměrovává standardní výstup do nějakého souboru. Pro velké korpusy, které se zpracovávají |
- | | **Pokus** | **Dev WMT08** | **Test WMT09** | **Test WMT10** | **Poznámka** | **Datum** | | + | Martin preferuje jiný způsob. Tisíce vstupních souborů leží v nějaké adresářové struktuře, někdy i vícepatrové, |
- | | decs-josh13 | 0.0935 | 0.0886 | | | 15.3.2010 | | + | |
- | | escs-josh13 | 0.0922 | 0.0872 | | | 15.3.2010 | | + | |
- | | frcs-josh13 | 0.0885 | 0.0818 | | Zřetelně menší trénovací data než pro encs, decs a escs. | 15.3.2010 | | + | |
+ | Martinův postup lze vykoukat z '' |