[ Skip to the content ]

Institute of Formal and Applied Linguistics Wiki


[ Back to the navigation ]

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
Next revision Both sides next revision
user:zeman:joshua [2009/06/01 21:25]
zeman Kompilace Joshuy.
user:zeman:joshua [2009/06/04 09:46]
zeman Jiný odkaz na Sourceforge.
Line 1: Line 1:
 ====== Joshua ====== ====== Joshua ======
  
-Toto jsou Danovy poznámky k práci s hierarchickým překladovým dekodérem Joshuou (reimplementace Hiera (David Chiang) v Javě od lidí z JHU).+Toto jsou Danovy poznámky k práci s hierarchickým překladovým dekodérem Joshuou (reimplementace Hiera (David Chiang) v Javě od lidí z JHU (Zhifei Li)).
  
 Zdroje informací: Zdroje informací:
   * Soubory ''INSTALL'' a ''README'' přímo v balíčku s Joshuou.   * Soubory ''INSTALL'' a ''README'' přímo v balíčku s Joshuou.
 +  * http://www.clsp.jhu.edu/wiki2/JosHUa_-_JHU_Open_Source_Architecture - wiki Joshuy na JHU, jenže jak sami říkají, zastaralá
 +  * http://www.clsp.jhu.edu/wiki2/Joshua_Lab - cvičení s Joshuou na JHU, všechno už mají nainstalováno, ale u nich. Nicméně z toho vyplývá, že to pouštějí na clusteru 64bitových strojů (dokonce něco mají zkompilováno pro ně a nepoběží to jinde) se Sun Grid Engine
 +  * http://joshua.sourceforge.net/ - download, trocha dokumentace (hlavně té automaticky vygenerované, javadoc)
 +  * http://sourceforge.net/projects/joshua - kupodivu ne totéž jako nahoře. Download (ale viz též níže), jinak toho tu moc není
  
 ===== Instalace ===== ===== Instalace =====
Line 17: Line 21:
 <code>setenv JAVA_HOME /opt/jdk1.6 <code>setenv JAVA_HOME /opt/jdk1.6
 setenv SRILM /home/zeman/nastroje/srilm setenv SRILM /home/zeman/nastroje/srilm
-setenv JOSHUA_HOME /net/work/people/zeman/joshua</code>+setenv JOSHUA /net/work/people/zeman/joshua</code>
  
 Stáhnout aktuální verzi Joshuy: Stáhnout aktuální verzi Joshuy:
  
-<code>cd $JOSHUA_HOME+<code>cd $JOSHUA
 svn co https://joshua.svn.sourceforge.net/svnroot/joshua/trunk joshua</code> svn co https://joshua.svn.sourceforge.net/svnroot/joshua/trunk joshua</code>
  
 Přeložit Joshuu: Přeložit Joshuu:
  
-<code>cd $JOSHUA_HOME+<code>cd $JOSHUA
 ant compile</code> ant compile</code>
  
 +Kdyby bylo potřeba v budoucnosti překompilovat Joshuu načisto, již zkompilované moduly se dají odstranit pomocí
 +
 +<code>ant clean</code>
 +
 +Otestujeme, že je Joshua funkční:
 +
 +<code>ant test
 +./example/decode_example_javalm.sh
 +./example/decode_example_srilm.sh</code>
 +
 +Joshuu jsem překládal na zenu. Teď je ještě potřeba otestovat, že funguje i na clusteru, třeba na počítači sol1. A ejhle, na 64 bitech přestala fungovat spolupráce se SRILM.
 +
 +<code>21:35 sol1:/ha/work/people/zeman/joshua> ./example/decode_example_srilm.sh
 +Jun 1, 2009 9:35:43 PM joshua.decoder.JoshuaConfiguration readConfigFile
 +INFO: you use a LM feature function, so make sure you have a LM grammar
 +Exception in thread "main" java.lang.UnsatisfiedLinkError: /ha/work/people/zeman/joshua/lib/libsrilm.so: /ha/work/people/zeman/joshua/lib/libsrilm.so: wrong ELF class: ELFCLASS32 (Possible cause: architecture word width mismatch)
 +        at java.lang.ClassLoader$NativeLibrary.load(Native Method)
 +        at java.lang.ClassLoader.loadLibrary0(ClassLoader.java:1767)
 +        at java.lang.ClassLoader.loadLibrary(ClassLoader.java:1692)
 +        at java.lang.Runtime.loadLibrary0(Runtime.java:840)
 +        at java.lang.System.loadLibrary(System.java:1047)
 +        at joshua.corpus.vocab.SrilmSymbol.<init>(SrilmSymbol.java:46)
 +        at joshua.decoder.JoshuaDecoder.initializeSymbolTable(JoshuaDecoder.java:322)
 +        at joshua.decoder.JoshuaDecoder.initialize(JoshuaDecoder.java:259)
 +        at joshua.decoder.JoshuaDecoder.<init>(JoshuaDecoder.java:108)
 +        at joshua.decoder.JoshuaDecoder.main(JoshuaDecoder.java:684)</code>
 +
 +Přestože SRILM, který nebyl přeložen na 64 bitech, běží jak na 32, tak na 64 bitech, s Joshuou na 64 bitech spolupracovat neumí (na 32 ano). Nepomůže ani když překlad Joshuy pustím až na 64 bitech (při spolupráci s 32bitovým SRILM).
 +
 +**Nicméně se zdá, že pomohlo následující:**
 +  * Nalogoval jsem se na sol1 (aby kompilace probíhala na clusterové 64bitové architektuře).
 +  * Upravil jsem $SRILM/sbin/machine-type tak, aby vracel i686-m64 (teď byl upravený, aby i zde dával jen i686).
 +  * Vlezl jsem do $SRILM/common/Makefile.machine.i686-m64. TCL proměnné tam byly v pořádku, ale přidal jsem do voleb překladu (ADDITIONAL_CFLAGS i ADDITIONAL_CXXFLAGS) volbu -fPIC. Pokud by se to přeložilo bez ní, knihovny SRILM by pak nešly slinkovat přes Swig s Joshuou.
 +  * make clean, pak make World
 +  * Vrátil jsem se do $JOSHUA_HOME a pustil ant clean, pak ant compile, nakonec ant test a hlavně ten ./example/decode_example_srilm.sh.
 +
 +==== Cluster ====
 +
 +Ke spuštění Joshuy na clusteru se hodí např. Ondrova obálka (nebo i ta moje vlastní, ale tu bych neměl nutit např. Gauravovi, když jako jeden z mála pořád pracuju s tcsh).
 +
 +<code>kinit
 +ssh lrc-two
 +cd $JOSHUA
 +~bojar/tools/shell/qsubmit ./example/decode_example_srilm.sh
 +qstat -u '*'</code>
 +
 +===== Použití =====
 +
 +Joshua je nainstalován a funguje. Nyní se musíme naučit, jak ho trénovat a jak ho použít k překladu.
 +
 +Nejdříve potřebujeme získat paralelní data, to je úkol mimo Joshuu.
 +  * Tokenizovaný a segmentovaný text ve zdrojovém jazyce (en).
 +  * Tokenizovaný a segmentovaný text v cílovém jazyce (hi).
 +  * Párování vyrobíme [[Giza++|Gizou++]].
 +
 +Správný soubor s párováním vypadá nějak takhle:
 +
 +<code>2-0 2-1 2-2 2-3 1-4 2-5 14-8 13-10 8-11 9-11 8-12 8-13 8-14 8-15 5-16 7-16 6-17 4-18 15-19
 +0-3 7-4 8-5 9-6 10-7 11-8 12-9 13-10 14-11 15-12 16-13 4-15 2-17 3-18 20-19 18-21 21-22 22-23 22-24 22-25 19-26 23-27
 +0-0 1-1 2-1 3-2 4-4 5-5 7-9 8-16 9-17 10-17 12-17 13-17 14-17 15-17 17-17 18-17 11-18 18-19 18-20 19-21
 +1-0 4-2 6-4 7-5 7-6 5-7 7-7 6-8 8-9 7-10 8-11 8-12 8-13 11-14 12-17
 +0-0 1-1 2-1 3-1 7-2 8-3 9-4 6-5 11-6 11-7 12-10 13-11 14-12 15-13 16-14 22-15 23-15 21-16 26-17 17-20 28-22 29-23 27-26 25-28 30-29 31-30 32-30 33-30 33-31 33
 +-32 34-33</code>
 +
 +A takhle pustíme Joshuu, aby z trénovacích dat extrahoval gramatiku. Joshua z nějakého důvodu vyžaduje také testovací soubor se zdrojovým jazykem. Soudě podle příkladu, který dodali, stačí zkopírovat první větu ze zdrojových trénovacích dat. Gramatiku je pak ještě třeba seřadit, vyházet duplicitní pravidla a zagzipovat.
 +
 +<code>cd /net/work/people/zeman/hindstina
 +setenv SRC corpus/train.clean.en
 +setenv TGT corpus/train.clean.hi
 +setenv ALI model/aligned.grow-diag-final-and
 +setenv TST corpus/train.clean.en.1
 +setenv GRM en-hi.grammar
 +head -1 $SRC > $TST
 +java -cp $JOSHUA/bin joshua.prefix_tree.ExtractRules --source=$SRC --target=$TGT --alignments=$ALI --test=$TST --output=$GRM.unsorted --maxPhraseLength=5
 +sort -u $GRM.unsorted > $GRM
 +gzip $GRM</code>
 +
 +V příkladu v INSTALL.txt měli navíc ještě volbu ''--print-rules=false'', nevím proč. Výsledná gramatika totiž byla prázdná, a když jsem tuto volbu odstranil, gramatika se vygenerovala.
 +
 +Pozor, je poměrně snadné vyčerpat paměť. Tomu se dá čelit jednak tím, že se přesuneme na stroj, který má více paměti, jednak že zvolíme postup, který je složitější, ale k paměti šetrnější.
 +
 +Binarizovat zdrojovou část korpusu.
 +
 +<code>java -cp bin joshua.corpus.suffix_array.SuffixArray $WORK/corpus/train.clean.en $WORK/model/vocab.en.bin $WORK/model/corpus.en.bin $WORK/model/suffixes.en.bin</code>
 +
 +Takto se extrahuje gramatika pro konkrétní testovací data s pomocí binarizovaného korpusu:
 +
 +<code bash>java -Xmx2000m -Xms2000m -cp $JOSHUA/bin joshua.prefix_tree.ExtractRules --binary-source=true --binary-target=true --source=model/corpus.en.bin --target=model/corpus.hi.bin --source-vocab=model/vocab.en.bin --target-vocab=model/vocab.hi.bin --source-suffixes=model/suffixes.en.bin --target-suffixes=model/suffixes.hi.bin --alignmentsType=MemoryMappedAlignmentGrids --alignments=model/alignments.bin --test=corpus/test.lowercased.en --output=model/en-hi.grammar.unsorted --maxPhraseLength=5</code>
 +
 +
 +===== Decoding =====
 +
 +Jakmile máme gramatiku (tj. překladový model), můžeme dekódovat neboli překládat. Bývá sice zvykem ještě nejdříve vyladit váhy jednotlivých komponent pomocí MERTu, ale MERT sám už dekódování používá a teoreticky se můžeme spokojit s dekódováním pomocí odhadnutých, nevyladěných vah.
 +
 +Parametry dekódování se zadávají prostřednictvím konfiguračního souboru. Vytvoříme si ho třeba tak, že zkopírujeme a upravíme konfigurační soubor, který byl přibalen k Joshuovi v jednom z příkladů (example2). Konfigurační soubor obsahuje následující parametry:
 +
 +Cesta k souboru s jazykovým modelem. Zatím předpokládám, že to má být soubor ve formátu SRILM, i když SRILM nepoužijeme a místo něj použijeme javovské jazykové modelování, které je součástí Joshuy. Jazykový model může být zagzipován. Cesta k souboru může být relativní.
 +
 +<code>lm_file=$WORK/lm/train.lowercased.hi.lm</code>
 +
 +Cesta k souboru s překladovým modelem, tedy s gramatikou vyextrahovanou pro daný testovací soubor. Formát má být stejný, jako produkuje Hiero. Předpokládám, že je to i defaultní formát, který produkuje Joshua, po setřídění s odstraněním duplicit a po zagzipování.
 +
 +<code>tm_file=$WORK/model/en-hi-dev.grammar.gz
 +tm_format=hiero</code>
 +
 +Jakýsi spojovací soubor, glue_file. Vůbec nevím, co to je. Joshua ale jeden obsahuje a vypadá dost obecně, takže možná nezávisí na konkrétních trénovacích datech.
 +
 +<code>glue_file=$JOSHUA/grammars/hiero.glue
 +glue_format=hiero</code>
 +
 +Konfigurace jazykového modelu. Kopíruju ji z example2, akorát měním order na 3, protože jsem trénoval trigramy, nikoli čtyřgramy.
 +
 +<code>#lm config
 +use_srilm=false
 +lm_ceiling_cost=100
 +use_left_euqivalent_state=false
 +use_right_euqivalent_state=false
 +order=3</code>
 +
 +Konfigurace překladového modelu. Kopíruju ji z example2, aniž bych tušil, co znamená.
 +
 +<code>#tm config
 +span_limit=10
 +phrase_owner=pt
 +mono_owner=mono
 +begin_mono_owner=begin_mono
 +default_non_terminal=X
 +
 +#pruning config
 +fuzz1=0.1
 +fuzz2=0.1
 +max_n_items=30
 +relative_threshold=10.0
 +max_n_rules=50
 +rule_relative_threshold=10.0</code>
 +
 +Konfigurace N-best listu (dekodér vrací N překladových hypotéz, které se mu jeví jako nejlepší, seřazených podle skóre, které jim přiřadil). Pro MERT potřebujeme N nejlepších hypotéz, abychom mohli každou z nich porovnat s referenčními překlady, spočítat BLEU skóre a případně upravit váhy, pokud má nejlepší BLEU skóre hypotéza, která se celkovým skóre nedostala na začátek seznamu, ale při jiném vyvážení komponent by se tam mohla dostat. Pro závěrečný překlad testovacích dat obvykle N nejlepších hypotéz nepotřebujeme, chceme znát rovnou tu, kterou systém považuje za úplně nejlepší.
 +
 +<code>#nbest config
 +use_unique_nbest=true
 +use_tree_nbest=false
 +add_combined_cost=true
 +top_n=300</code>
 +
 +Další sekce se týkají vzdáleného serveru pro jazykové modelování a paralelního dekodéru. Tyto sekce vynechávám, protože se nezdá, že bychom je v současné době využili.
 +
 +Následují váhy jednotlivých komponent ("features"), tedy jazykového modelu, frázového modelu a případně dalších.
 +
 +<code>###### model weights
 +#lm order weight
 +lm 1.000000
 +
 +#phrasemodel owner column(0-indexed) weight
 +phrasemodel pt 0 1.066893
 +phrasemodel pt 1 0.752247
 +phrasemodel pt 2 0.589793
 +
 +#arityphrasepenalty owner start_arity end_arity weight
 +#arityphrasepenalty pt 0 0 1.0
 +#arityphrasepenalty pt 1 2 -1.0
 +
 +#phrasemodel mono 0 0.5
 +
 +#wordpenalty weight
 +wordpenalty -2.844814</code>
 +
 +No a nakonec příkaz, kterým pustíme Joshuu s naším konfiguračním souborem (na clusteru):
 +
 +<code>qsub.csh \
 +    "java -Xmx1200m -Xms1200m -cp $JOSHUA/bin joshua.decoder.JoshuaDecoder \
 +     ~zeman/projekty/hindstina/joshua-config-tides-dev.txt \
 +     $HINDI/corpus/dev.lowercased.en \
 +     $HINDI/dev.nbest.out"</code>
 +
 +I když si v konfiguračním souboru řekneme, že chceme N-best výstup pro N=1, dostaneme ho ve formátu, který je připraven na více hypotéz (každý překlad např. obsahuje skóre a váhy). Abychom z toho dostali obyčejný 1-best překlad, můžeme použít Zhifeiův skript, který je k Joshuovi přibalen ve složce example2:
 +
 +<code>$JOSHUA/example2/get_1best_from_Nbest.pl $HINDI/output/dev.nbest.out $HINDI/output/dev.1best.out</code>

[ Back to the navigation ] [ Back to the content ]