projet:pos

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
projet:pos [2016/10/11 22:53] – [Ajout de traits] fabien.ricoprojet:pos [2017/02/15 15:38] (Version actuelle) – [Ajout de traits] fabien.rico
Ligne 30: Ligne 30:
   * le mot 'schtroumpf' précédé d'un adverbe ($h_2, h_4, h_5$)   * le mot 'schtroumpf' précédé d'un adverbe ($h_2, h_4, h_5$)
  
-L'ensemble des classes possibles est $\mathcal{A} = \{NOM, ADJ\}$. Donc l'ensemble des évènements possibles est $\epsilon = \mathcal{A}\times \mathcal{B} = \{x = [t, h] t. q. t\in \mathcal{A} et h \in \mathcal{B}\}$. Cet ensemble à 4 élément :+L'ensemble des classes possibles est $\mathcal{A} = \{NOM, ADJ\}$. Donc l'ensemble des évènements possibles est $\epsilon = \mathcal{A}\times \mathcal{B} = \{x = [t, h] \mbox{ t.q. t\in\mathcal{A} \mbox{ et h \in \mathcal{B}\}$. Cet ensemble à 4 élément :
 \begin{eqnarray*} \begin{eqnarray*}
   x_1 & = & \left[ t:NOM, h:(DET, 'schtroumpf')\right]\\   x_1 & = & \left[ t:NOM, h:(DET, 'schtroumpf')\right]\\
Ligne 38: Ligne 38:
 \end{eqnarray*} \end{eqnarray*}
    
-On peut voir que le mot 'schtroumpf' est utilisé dans 3 cas sur 5 en tant que nom et dans 2 cas sur 5 en tant qu'adjectif. Mais si on tien  compte du label précédant, le mot schroumpf précédé d'un déterminant est utilisé dans 2 cas sur 2 en tant que nom, 1 cas sur 3 en tant que nom s'il est précédé d'un adverbe  ... Il nous faut trouver un modèle permettant de calculer ces probabilités en fonction du contexte.+On peut voir que le mot 'schtroumpf' est utilisé dans 3 cas sur 5 en tant que nom et dans 2 cas sur 5 en tant qu'adjectif. Mais si on tient compte du label précédant, le mot schtroumpf précédé d'un déterminant est utilisé dans 2 cas sur 2 en tant que nom et jamais en tant qu'adjectif. S'il est précédé d'un adverbe, il est utilisé dans 1 cas sur 3 en tant que nom... Il nous faut trouver un modèle permettant de calculer ces probabilités en fonction du contexte.
  
-pour commencer on peu facilement calculer la fréquence de chaque evennement dans le jeu d'exemple :+pour commencer on peut facilement calculer la fréquence de chaque evennement dans le jeu d'exemple :
 \begin{eqnarray*} \begin{eqnarray*}
 \bar{p}(x_1) & = & \frac{2}{5}\\ \bar{p}(x_1) & = & \frac{2}{5}\\
Ligne 95: Ligne 95:
 \end{eqnarray*} \end{eqnarray*}
  
-C'est à dire que l’événement ne dépent que des traits (les $f_i$) et de coéfficients qui leur sont associé+C'est à dire que l’événement ne dépent que des traits (les $f_i$) et de coéfficients qui leur sont associés
 Attention, le paramètre $\pi$ est une normalisation, sachant que $p(x_1) + p(x_2)+p(x_3)+p(x_4) = 1$, il faut que $\pi = \frac{1}{2(\alpha_{NOM}+\alpha_{ADJ})}$. Attention, le paramètre $\pi$ est une normalisation, sachant que $p(x_1) + p(x_2)+p(x_3)+p(x_4) = 1$, il faut que $\pi = \frac{1}{2(\alpha_{NOM}+\alpha_{ADJ})}$.
  
Ligne 106: Ligne 106:
    
 Pour cela on va utiliser l'algorithme de GIS. Pour cela on va utiliser l'algorithme de GIS.
-==Estimation des parametre du modèle== +==Estimation des paramètres du modèle== 
-Dans [1] chapitre 7 on demande de vérifier que $\forall x \in \epsilon$ $\displaystyle \sum_{j=1}^k f(x) = C$ où $C$ est une constante. Dans notre cas, c'est facile car le mot est soit un nom soit un adjectif (donc $C = 1$).+Dans [1] chapitre 7 on demande de vérifier que $\forall x \in \epsilon$,  $\displaystyle \sum_{j=1}^k f(x) = C$ où $C$ est une constante. Dans notre cas, c'est facile car le mot est soit un nom soit un adjectif (donc $C = 1$).
  
 Pour trouver un modèle où $\forall i$ : $Ef_i = \hat{E}f_i$, on utilise une méthode itérative : Pour trouver un modèle où $\forall i$ : $Ef_i = \hat{E}f_i$, on utilise une méthode itérative :
Ligne 141: Ligne 141:
 L'intéret de la méthode est qu'il suffit d'ajouter des traits et de relancer la méthode pour modifier l'apprentissage. Par exemple, on peut supposer que le label précédant le mot est important, cela conduit à ajouter 2 traits : L'intéret de la méthode est qu'il suffit d'ajouter des traits et de relancer la méthode pour modifier l'apprentissage. Par exemple, on peut supposer que le label précédant le mot est important, cela conduit à ajouter 2 traits :
 \begin{eqnarray*} \begin{eqnarray*}
-f_{DET}(t, h) & = & \left\{+f_{DET+NOM}(t, h) & = & \left\{
 \begin{array}{rl} \begin{array}{rl}
-1 & \mbox{si } h = (DET, *)\\+1 & \mbox{si } h = (DET, *) \mbox{ et } t = NOM\\
 0 & \mbox{sinon}  0 & \mbox{sinon} 
 \end{array} \end{array}
 \right.\\ \right.\\
-f_{ADV}(t, h) & = & \left\{+f_{DET+ADJ}(t, h) & = & \left\{
 \begin{array}{rl} \begin{array}{rl}
-1 & \mbox{si } h = (ADV, *)\\+1 & \mbox{si } h = (DET, *) \mbox{ et } t = ADJ\\ 
 +0 & \mbox{sinon}  
 +\end{array} 
 +\right.\\ 
 +f_{ADV+NOM}(t, h) & = & \left\{ 
 +\begin{array}{rl} 
 +1 & \mbox{si } h = (ADV, *) \mbox{ et } t = NOM\\ 
 +0 & \mbox{sinon}  
 +\end{array} 
 +\right.\\ 
 +f_{ADV+ADJ}(t, h) & = & \left\{ 
 +\begin{array}{rl} 
 +1 & \mbox{si } h = (ADV, *) \mbox{ et } t = ADJ\\
 0 & \mbox{sinon}  0 & \mbox{sinon} 
 \end{array} \end{array}
Ligne 159: Ligne 171:
 \hat{E}f_{NOM} & = & 0.6\\ \hat{E}f_{NOM} & = & 0.6\\
 \hat{E}f_{ADJ} & = & 0.4\\ \hat{E}f_{ADJ} & = & 0.4\\
-\hat{E}f_{DET} & = & \frac{2}{5}\times 1 + \frac{1}{5}\times 0 + \frac{0}{5}\times 1 + \frac{2}{5} \times 0\\+\hat{E}f_{DET+NOM} & = & \frac{2}{5}\times 1 + \frac{1}{5}\times 0 + \frac{0}{5}\times 0 + \frac{2}{5} \times 0\\ 
 +                        & = & 0.4\\ 
 +\hat{E}f_{ADV+NOM} & = & \frac{2}{5}\times 0 + \frac{1}{5}\times 1 + \frac{0}{5}\times 0 + \frac{2}{5} \times 0\\ 
 +                        & = & 0.2\\ 
 +\hat{E}f_{DET+ADJ} & = & \frac{2}{5}\times 0 + \frac{1}{5}\times 0 + \frac{0}{5}\times 1 + \frac{2}{5} \times 0\\ 
 +                        & = & 0\\ 
 +\hat{E}f_{ADV+ADJ} & = & \frac{2}{5}\times 0 + \frac{1}{5}\times 0 + \frac{0}{5}\times 0 + \frac{2}{5} \times 1\\
                         & = & 0.4\\                         & = & 0.4\\
-\hat{E}f_{ADV} & = & \frac{2}{5}\times 0 + \frac{1}{5}\times 1 + \frac{0}{5}\times 0 + \frac{2}{5} \times 1\\ 
-                        & = & 0.6\\ 
 \end{eqnarray*} \end{eqnarray*}
  
 Si on considère le modèle : Si on considère le modèle :
 \begin{eqnarray*} \begin{eqnarray*}
-p(x_1) & = &\pi \times \left((\alpha_{NOM})^1\right)\times\left((\alpha_{ADJ})^0\right)\times\left((\alpha_{DET})^1\right)\times\left((\alpha_{ADV})^0\right)\\ +p(x_1) & = &\pi \times (\alpha_{NOM})^1\times(\alpha_{ADJ})^0\times(\alpha_{DET+NOM})^1\times(\alpha_{ADV+NOM})^0\times(\alpha_{DET+ADJ})^0\times(\alpha_{ADV+ADJ})^0\\ 
-& = & \pi\alpha_{NOM}\alpha_{DET}\\ +& = & \pi\alpha_{NOM}\alpha_{DET+NOM}\\ 
-p(x_2) & = &\pi \times \left((\alpha_{NOM})^1\right)\times\left((\alpha_{ADJ})^0\right)\times\left((\alpha_{DET})^0\right)\times\left((\alpha_{ADV})^1\right)\\ +p(x_2) & = &\pi \times (\alpha_{NOM})^1\times(\alpha_{ADJ})^0\times(\alpha_{DET+NOM})^0\times(\alpha_{ADV+NOM})^1\times(\alpha_{DET+ADJ})^0\times(\alpha_{ADV+ADJ})^0\\ 
-& = & \pi\alpha_{NOM}\alpha_{ADV}\\ +& = & \pi\alpha_{NOM}\alpha_{ADV+NOM}\\ 
-p(x_3) & = & \pi \times\left((\alpha_{NOM})^0\right)\times\left((\alpha_{ADJ})^1\right)\times\left((\alpha_{DET})^1\right)\times\left((\alpha_{ADV})^0\right)\\ +p(x_3) & = &\pi \times (\alpha_{NOM})^0\times(\alpha_{ADJ})^1\times(\alpha_{DET+NOM})^0\times(\alpha_{ADV+NOM})^0\times(\alpha_{DET+ADJ})^1\times(\alpha_{ADV+ADJ})^0\\ 
-& = & \pi\alpha_{ADJ}\alpha_{DET}\\ +& = & \pi\alpha_{ADJ}\alpha_{DET+ADJ}\\ 
-p(x_4) & = & \pi \times\left((\alpha_{NOM})^0\right)\times\left((\alpha_{ADJ})^1\right)\times\left((\alpha_{DET})^0\right)\times\left((\alpha_{ADV})^1\right)\\ +p(x_4) & = &\pi \times (\alpha_{NOM})^0\times(\alpha_{ADJ})^1\times(\alpha_{DET+NOM})^0\times(\alpha_{ADV+NOM})^0\times(\alpha_{DET+ADJ})^0\times(\alpha_{ADV+ADJ})^1\\ 
-& = & \pi\alpha_{ADJ}\alpha_{ADV}\\ +& = & \pi\alpha_{ADJ}\alpha_{ADV+ADJ}\\ 
-\pi & = & \frac{1}{\alpha_{NOM}\alpha_{DET}+\alpha_{NOM}\alpha_{ADV}+\alpha_{ADJ}\alpha_{DET}+\alpha_{ADJ}\alpha_{ADV}}+\pi & = & \frac{1}{\alpha_{NOM}\alpha_{DET+NOM}+\alpha_{NOM}\alpha_{ADV+NOM}+\alpha_{ADJ}\alpha_{DET+ADJ}+\alpha_{ADJ}\alpha_{ADV+ADJ}}
 \end{eqnarray*} \end{eqnarray*}
  
-Si on lance l'algorithme :+On vérifie bien qu'il existe une constante $C$ telle que  $\forall x \in \epsilon$,  $\displaystyle \sum f_i(x) = C$. C'est la cas avec $C=2$ car dans tout les exemples 2 traits sont actifs (le mot peut être un nom ou un adjectif, le mot peut être un nom précédé d'un article ou précédé d'un adverbe, ou un adjectif précédé d'un adverbe). 
 + 
 +Si on lance l'algorithme avec $C=2$ :
 $$ $$
 \begin{array}{rl} \begin{array}{rl}
-\alpha_{NOM} & = \quad \alpha_{ADJ} \quad = \quad \alpha_{DET} \quad = \quad \alpha_{ADV} \quad = \quad 1\\+\alpha_{NOM} & = \quad \alpha_{ADJ} \quad = \quad \alpha_{DET+NOM} \\ 
 +& = \quad \alpha_{ADV+NOM} \quad = \quad \alpha_{ADV+NOM} \quad = \quad  \alpha_{ADV+ADJ} \quad = \quad 1\\
 \pi & = \quad 0.25\\ \pi & = \quad 0.25\\
 +p^0(x_1) & = \quad p^0(x_2) \quad = \quad p^0(x_3) \quad = \quad p^0(x_4) \quad = \quad 0.25 \\
  E^0f_{NOM} & = \quad 0.25 + 0.25 + 0 + 0 \quad = \quad 0.5\\  E^0f_{NOM} & = \quad 0.25 + 0.25 + 0 + 0 \quad = \quad 0.5\\
  E^0f_{ADJ} & = \quad 0.5\\  E^0f_{ADJ} & = \quad 0.5\\
- E^0f_{DET} & = \quad 0.5\\ + E^0f_{DET+NOM} & = \quad 0.25\\ 
- E^0f_{ADV} & = \quad 0.5\\ + E^0f_{ADV+NOM} & = \quad 0.25\\ 
- \alpha^1_{NOM} & = \quad 1.2\\ + E^0f_{DET+ADJ} & = \quad 0.25\\ 
- \alpha^1_{ADJ} & = \quad 0.8\\ + E^0f_{ADV+ADJ} & = \quad 0.25\\ 
- \alpha^1_{DET} & = \quad 1.2\\ + \alpha^1_{NOM} & = \quad 1 \times \sqrt{\frac{0.6}{0.5}}\\ 
- \alpha^1_{ADJ} & = \quad 0.8\\ + & = \quad 1.095 \\ 
- \pi & = & 4\\ + \alpha^1_{ADJ} & = \quad 0.894\\ 
- E^1f_{NOM} & = \quad (1.2*1.2 + 1.2*0.8 + 0 + 0)/4 \quad = \quad 0.36\\ + \alpha^1_{DET+NOM} & = \quad 1.265\\ 
- E^1f_{ADJ} & = \quad 0.24\\ + \alpha^1_{ADV+NOM} & = \quad 0.894\\ 
- E^1f_{DET} & = \quad 0.24\\ + \alpha^1_{DET+ADJ} & = \quad 0 \mbox{ Attention dans ce calcul } \frac{\hat{E}f}{Ef}= \frac{0}{0} = 1\\ 
- E^1f_{ADV} & = \quad 0.16\\+ \alpha^1_{ADV+ADV} & = \quad 1.264\\ 
 + \pi & = \quad 3.497\\ 
 +p^1(x_1= \quad 0.396 \\ 
 +p^1(x_2) & = \quad 0.280\\ 
 +p^1(x_3) & = \quad 0\\ 
 +p^1(x_4) & = \quad 0.324\\
  ... \\  ... \\
 +p^{17}(x_1) &  = \quad 0.3999986 \\ 
 +p^{17}(x_2) &  = \quad 0.2000014 \\
 +p^{17}(x_3) &  = \quad 0.0000000 \\
 +p^{17}(x_4) &  = \quad 0.4000000 \\
 +Ef^{17}_{NOM}          &  = \quad 0.6000000 \\
 +Ef^{17}_{ADJ}            &  = \quad 0.4000000 \\ 
 +Ef^{17}_{DET+NOM} &  = \quad 0.3999986 \\
 +Ef^{17}_{ADV+NOM} &  = \quad 0.2000014 \\
 +Ef^{17}_{DET+ADJ}   &  = \quad 0.0000000 \\
 +Ef^{17}_{ADV+ADJ}  &  = \quad 0.4000000 \\
 +\alpha^{17}_{NOM} & = \quad 1.0326433 \\
 +\alpha^{17}_{ADJ}   & = \quad 0.9931238 \\
 +\alpha^{17}_{DET+NOM} & = \quad 1.3507368 \\
 +\alpha^{17}_{ADV+NOM} & = \quad 0.6753720 \\
 +\alpha^{17}_{DET+ADJ}   & = \quad 0.0000000 \\
 +\alpha^{17}_{ADV+ADJ}   & = \quad 1.4044892
 \end{array} \end{array}
 $$ $$
  • projet/pos.1476219225.txt.gz
  • Dernière modification : 2016/10/11 22:53
  • de fabien.rico