[ Skip to the content ]

Institute of Formal and Applied Linguistics Wiki


[ Back to the navigation ]

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
diskurz_doporucena_literatura [2012/03/12 08:28]
hladka
diskurz_doporucena_literatura [2012/06/11 15:30] (current)
hladka
Line 1: Line 1:
 ===== Doporučená literatura ===== ===== Doporučená literatura =====
  
-Sem si můžeme psát odkazy na články (především) o diskurzu, které nás zaujaly a které doporučujeme k přečtení i ostatním, např. takto: +   * **Rodger Kibble, Richard Power. 2004. Optimizing referential coherence in text generation. //Computational linguistics//Vol. 30, No. 4, pp. 401-416[[http://acl.ldc.upenn.edu/J/J04/J04-4001.pdf|pdf]]**  
-   * Rodger Kibble, Richard Power. 2004. Optimizing referential coherence in text generation. //Computational linguistics,vol. 30, No. 4, pp. 401-416[[http://acl.ldc.upenn.edu/J/J04/J04-4001.pdf|pdf]] + 
-   *Florian Wolf, Edward Gibson. 2005. Representing Discourse Coherence: A Corpus-Based Study. Computational Linguistics, vol. 31, No. 2, pp. 249--287. [[http://acl.ldc.upenn.edu/J/J05/J05-2005.pdf|pdf]]+**Abstract** 
 +This article describes an implemented system which uses centering theory for planning of coherent texts and choice of referring expressions. We argue that text and sentence planning need to be driven in part by the goal of maintaining referential continuity and thereby facilitating pronoun resolution: Obtaining a favorable ordering of clauses, and of arguments within clauses, is likely to increase opportunities for nonambiguous pronoun use. Centering theory provides the basis for such an integrated approach. Generating coherent texts according to centering theory is treated as a constraint satisfaction problem. The well-known Rule 2 of centering theory is reformulated in terms of a set of constraints—cohesion, salience, cheapness, and continuity—and we show sample outputs obtained under a particular weighting of these constraints. This framework facilitates detailed research into evaluation metrics and will therefore provide a productive research tool in addition to the immediate practical benefit of improving the fluency and readability of generated texts. The technique is generally applicable to natural language generation systems, which perform hierarchical text structuring based on a theory of coherence relations with certain additional assumptions. 
 + 
 + 
 +Článek se týká generování (koherentního) textu – snaží se nalézt a popsat pravidla, podle kterých lze automaticky generovat koherentní text. Vychází přitom z tzv. pravidlového přístupu (ne ze statistického).  
 + 
 +Teoretickým základem je tzv. teorie center („centering theory“). „Centering theory“ je spojena zejm. se jmény Grosz, Joshi a Weinstein a dále např. McCoy, Strube, Henschel, Cheng a Poesio.  
 + 
 +K //centering theory// (CT)   
 + 
 +Týká se určování vztahů mezi anaforicky provázanými elementy – srov. věty: 
 + 
 +(1) Petra má ráda Pavlu. Často ji navštěvuje. Ráda se dívá na filmy, a proto obě často chodí do kina. 
 + 
 +Gramatický rod už nestačí k tomu, abychom ve druhé větě správně identifikovali zájmeno //ji// (resp. kdo koho navštěvuje). Přesto víme, že //ji// se s velkou pravděpodobností vztahuje na Pavlu a že podmětem k přísudku //navštěvuje je// spíše Petra. CT se snaží charakterizovat právě tento druh diskurzní koherence. K tomu slouží mj. pojem **SALIENCE** (= stupeň aktivovanosti urč. prvku v textu). Petra je aktivovanějším prvkem (má vyšší stupeň salience) než Pavla, protože je v roli podmětu v první větě.  
 + 
 +(2) S Radkem není něco v pořádku. Chová se divně. Včera volal ve tři ráno Kubovi. (#Radek ho chtěl…) Chtěl ho za každou cenu vidět.   
 + 
 +Na druhou stranu v příkladu (2) v poslední větě užijeme spíše nevyjádřeného podmětu, než abychom opakovali slovo //Radek//. Je to proto, že prvek //Radek// je stále vysoce aktivovaný, a tudíž není problém spojit si jej při čtení s nevyjádřeným podmětem poslední věty.  
 + 
 +Každý text se skládá ze sekvencí několika vět U1, U2, U3 … Un. Každý diskurzní referent v nich má určitý stupeň salience. Stupeň aktivovanosti jednoho diskurzního referentu se přitom v „průběhu“ textu mění.   
 + 
 +Pro každou větnou jednotku Ui existuje seznam diskurzních referentů s dosahem „dopředu“, což je tzv. **Forward-looking Center**, značí se CF (Ui, D). Každý prvek z tohoto CF musí být jazykově realizován (týká se angličtiny).  
 + 
 +V seznamu existuje určité pořadí. To je spojeno se syntaktickou rolí diskurzních referentů: **podmět > přímý předmět > nepřímý předmět > ostatní**. 
 + 
 +Nejvýše řazený prvek z CF je tzv. preferované centrum („**Preferred Center**“), značí se CP (Ui, D) – podle výše zmíněné stupnice je jím tedy podmět.  
 + 
 +Pro věty Ui diskurzu D, kterými text nezačíná, existuje tzv. **Backward-looking Center**, značí se CB (Ui, D). Tím je nejvýše řazený prvek v CF (Ui-1, D), který se vyskytuje také v CF (Ui, D).  
 + 
 +Příklady 
 + 
 +1. Honza1 má rád Adama2.  
 +CB: 0; CF: <Honza, Adam> 
 + 
 +2. Navštěvuje (on1) ho2 často. 
 +CB: Honza; CF: <Honza, Adam> 
 + 
 +3. Rád (on1) se s ním2 dívá na filmy3. 
 +CB: Honza; CF: <Honza, Adam, filmy> 
 + 
 +4. Adam2 má filmy3 rád. 
 +CB: Adam; CF: <Adam, filmy> 
 + 
 +**Jazyková realizace diskurzních referentů** (vsuvka) (srov. http://amor.cms.hu-berlin.de/~h2816i3x/Lehre/2006_VL_Text/VL_Text_02_Centering.pdf) 
 + 
 +Pokud jsou prvky v CF realizovány zájmeny, pak je také CB vyjádřeno zájmenem. 
 + 
 +1. Lenka1 má ráda Jitku2. 
 +CB: 0; CF: <Lenka, Jitka> 
 + 
 +2. (Ona1) Navštěvuje ji2 často. 
 +**CB: Lenka**; CF: <Lenka, Jitka> 
 + 
 +2.‘ (**Ona1**) Navštěvuje Jitku2 často. 
 + 
 +2.# **Lenka1** navštěvuje Jitku2 často. 
 + 
 +CB je realizováno zájmenem. 
 + 
 +1. Lenka1 má ráda Jitku2. 
 +CB: 0; CF: <Lenka, Jitka> 
 + 
 +2. (**Ona1**) Navštěvuje Jitku2 často. 
 +**CB: Lenka**; CF: <Jitka, Lenka> 
 + 
 +2.# **Lenka1** navštěvuje Jitku2 často. 
 + 
 +Pokud je CB aktuální věty totožný diskurzní referent s CB poslední věty, pak je realizováno zájmenem. 
 + 
 +1. Lenka1 má ráda Jitku2. 
 +CB: 0; CF: <Lenka, Jitka> 
 + 
 +2. (**Ona1**) Často ji2 navštěvuje. 
 +**CB: Lenka**; CF: <Lenka, Jitka> 
 + 
 +3. (**Ona1**) Ráda se dívá s Jitkou2 na filmy3. 
 +**CB: Lenka**; CF: <Lenka, Jitka, filmy> 
 + 
 +3.# Lenka1 se ráda dívá s Jitkou2 na filmy3. 
 + 
 +Pokud je prvek z CF (Ui–1, D) již v Ui realizován zájmenem, pak je také v CB (Ui, D) realizován zájmenem. 
 + 
 +1. Lenka1 má ráda Jitku2. 
 +CB: 0; CF: <Lenka, Jitka> 
 + 
 +2. **Lenka1 ji2** často navštěvuje. 
 +CB: Lenka; CF: <Lenka, Jitka> 
 + 
 +3. (**Ona1**) Ráda se dívá s Jitkou2 na filmy3. 
 +**CB: Lenka**; CF: <Lenka, Jitka, filmy> 
 + 
 +3.# **Lenka1** se ráda dívá s Jitkou2 na filmy3. 
 + 
 +**Důležité textové rysy** 
 + 
 +**koheze** 
 +CB (Un – 1) = CB (Un) 
 + 
 +**salience** 
 +CP (Un) = CB (Un) 
 + 
 +**„cheapness“** 
 +CP (Un – 1) = CB (Un) 
 + 
 +**kontinuita** 
 +CFs (Un-1) ∩ CFs (Un) ≠ 0  
 +(„v každé nové větě se říká něco starého“) 
 + 
 +**Realizace textových vzorců s využitím koheze, salience, „cheapness“, kontinuity** 
 + 
 +Viz tabulka v textu článku, s. 414. 
 + 
 + 
 +   ***Florian Wolf, Edward Gibson. 2005. Representing Discourse Coherence: A Corpus-Based Study. //Computational Linguistics//Vol. 31, No. 2, pp. 249--287. [[http://acl.ldc.upenn.edu/J/J05/J05-2005.pdf|pdf]]** 
 + 
 +**Abstract** 
 +This article aims to present a set of discourse structure relations that are easy to code and to develop criteria for an appropriate data structure for representing these relations. Discourse structure here refers to informational relations that hold between sentences in a discourse. The set of discourse relations introduced here is based on Hobbs (1985). We present a method for annotating discourse coherence structures that we used to manually annotate a database of 135 texts from theWall Street Journal and the AP Newswire. All texts were independently annotated by two annotators. Kappa values of greater than 0.8 indicated good interannotator agreement. We furthermore present evidence that trees are not a descriptively adequate data structure for representing discourse structure: In coherence structures of naturally occurring texts, we found many different kinds of crossed dependencies, as well as many nodes with multiple parents. The claims are supported by statistical results from our hand-annotated database of 135 texts. 
 + 
    *Rashmi Prasad, Nikhil Dinesh, Alan Lee, Eleni Miltsakaki, Livio Robaldo, Aravind Joshi, Bonnie Webber. 2008. The Penn Discourse TreeBank 2.0. In //Proceedings of the 6th International Conference on Language Resources and Evaluation (LREC 2008)// [[http://www.seas.upenn.edu/~pdtb/papers/pdtb-lrec08.pdf]]    *Rashmi Prasad, Nikhil Dinesh, Alan Lee, Eleni Miltsakaki, Livio Robaldo, Aravind Joshi, Bonnie Webber. 2008. The Penn Discourse TreeBank 2.0. In //Proceedings of the 6th International Conference on Language Resources and Evaluation (LREC 2008)// [[http://www.seas.upenn.edu/~pdtb/papers/pdtb-lrec08.pdf]]
 **Abstract** **Abstract**
-We present the second version of the Penn Discourse Treebank, PDTB-2.0, describing its lexically-grounded annotations of discourse +We present the second version of the Penn Discourse Treebank, PDTB-2.0, describing its lexically-grounded annotations of discourse relations and their two abstract object arguments over the 1 million word Wall Street Journal corpus. We describe all aspects of the annotation, including (a) the argument structure of discourse relations, (b) the sense annotation of the relations, and (c) the attribution of discourse relations and each of their arguments. We list the differences between PDTB-1.0 and PDTB-2.0. We present representative statistics for several aspects of the annotation in the corpus.
-relations and their two abstract object arguments over the 1 million word Wall Street Journal corpus. We describe all aspects of the +
-annotation, including (a) the argument structure of discourse relations, (b) the sense annotation of the relations, and (c) the attribution +
-of discourse relations and each of their arguments. We list the differences between PDTB-1.0 and PDTB-2.0. We present representative +
-statistics for several aspects of the annotation in the corpus.+

[ Back to the navigation ] [ Back to the content ]