Logique Floue

Logique Floue

Logique Floue 150 150 Prim'Act

Développée à partir de 1965 par le professeur Lofti Zadeh de l’université de Berkeley dans un article fondateur qui en définit les principes (ZADEH, 1965) , elle constitue une généralisation des ensembles classiques. Elle commence à être utilisée dans l’industrie, la médecine, la mise en place de système experts dans le milieu des années 70 puis verra son utilisation généralisée dans les années 90 (autofocus, autocuiseurs, systèmes autonomes mobiles, systèmes de décision, de diagnostic, de reconnaissance).

La logique floue est un type de modélisation qui s’intéresse à la prédiction d’une variable catégorielle Y « subjective » au sens où elle n’est pas objectivable : elle dépend de l’observateur (l’individu est « grand », « moyen » ou « petit »). Ce cadre sort de la statistique classique dans lequel la valeur de la variable Y est objectivable (« l’individu mesure 176 cm »). En effet, l’application de la logique floue revient à tenter d’appliquer un raisonnement proche de la pensée humaine :

  • Les variables prédictives (comme la variable à prédire) sont catégorielles avec des modalités subjectives (« grand », « petit ») et non pas de données objectivables (176 cm). Ces variables catégorielles sont appelées « variables linguistiques ». Dans le cadre statistique usuel, la variable continue initiale (ici la taille en cm) peut être discrétisée pour donner des intervalles distincts, par exemple : « petit < 170cm < moyen < 180cm <grand ». La logique floue vise à prendre en compte les incertitudes qui existent au voisinage des seuils (due en partie à des principes de subjectivité).
  • Une donnée peut appartenir à plusieurs modalités d’une même variable (un individu de 165 cm peut être considéré comme petit mais aussi comme moyen). Les classes définies ne partitionnent donc pas l’ensemble des possibles car elles peuvent se recouper.
  • La logique floue intègre un ensemble de règles permettant d’attribuer (d’une manière logique) une sortie à une entrée.

La logique floue permet donc d’intégrer des systèmes experts dans des processus automatisés. Ce point constitue à la fois une force et une faiblesse de la logique floue (le graphique de véracité suivant montre qu’un individu de 162 cm peut être considéré en logique floue comme étant petit à 60% et moyen à 40%) :

Tab 1

Au-delà de cette différence de principe, elle intègre également une prise en compte des interactions différentes de celle du monde probabiliste en redéfinissant les opérateurs logiques.

  Tab 2

Ou μ désigne la fonction de véracité pour les opérateurs flous qui est l’analogue de la mesure de probabilité en théorie des probabilités classiques.

On pourra noter que :

(A ET B)Probabiliste≤ (A ET B)Floue ≤ (A OU B)Floue≤ (A OU B)Probabiliste 

In fine, la le fonctionnement de la logique floue peut se résumer en 3 grandes étapes : 

  • La fuzzification : transformation des variables en variables floues (aussi appelées variables linguistiques) en leur associant des lois de véracité (la variable taille est divisée en modalités « un individu de taille 162 cm est « petit » à 60%, « moyen » à 40% et « grand » à 0% »). Ce procédé s’apparente à la définition de lois a priori en statistiques bayésiennes, avec dans cette exemple une loi a priori (0,6 ; 0,4 ; 0). La différence dans ce cadre est que la somme des véracités n’est pas tenue de valoir 1.
  • L’inférence floue : construction de règles (et de résultats) basées sur les variables linguistiques, attribution d’une véracité à chaque règle, puis agrégation des règles pour obtenir un résultat (linguistique) unique
  • La defuzzification : passage d’un résultat linguistique à un résultat chiffré.

Ces différentes étapes sont reprises en détail ci-après.

 

————————————————————————————————————-

1 – LA FUZZIFICATION

Cette première étape consiste à transformer les variables (d’entrée et de sortie) en variables linguistiques :

  • Pour chaque variable, on définit dans un premier temps l’univers du discours (i.e. la plage de valeurs que peut prendre la variable).
  • La variable est ensuite découpée en catégories appelées variables linguistiques.
  • Une fonction (allant de 0% à 100%) permettant de définir pour chaque variable son pourcentage de véracité à l’affirmation : « l’observation est dans telle catégorie » est affectée à chaque catégorie.

Cette étape est principalement réalisée sur la base d’observations statistiques (ou par apprentissage, supervisé ou non, pour regrouper les valeurs d’une variable en catégories homogènes) ou à dire d’expert. Les graphiques ci-après sont tracés en prenant l’exemple de la taille.

Tab 4

Ainsi, dire que la sortie est dans la catégorie 1 si la variable en sortie vaut 75% a une véracité de 70% et une véracité de 30% pour la catégorie 2.

  • Univers du discours : taille en cm comprise entre 156cm et 194cm
  • Variable linguistique : nom de la variable de sortie (par exemple la taille)
  • Valeurs linguistiques : « Cat1 » (petit), « Cat2 » (moyen).

 

————————————————————————————————————-

2 – L’INFERENCE FLOUE

Cette étape peut se décomposer en quatre sous-parties.

a) Construction d’un ensemble de règles

Sur la base des catégories précédemment réalisées, un ensemble de règles sont construites. Par exemple : « Variable 1 Catégorie 1 et Variable 2 Catégorie 1 ».Une véracité pour chacune des règles est alors calculée. La construction de ces règles, principalement basée sur des « ET », des « OU » et des « SANS ».

 

b) Matrice de décision

Chaque règle se voit attribuer une réponse au travers d’une matrice de décision.

Tab 5
Ceci pouvant se réécrire :

Tab 6

A cette étape, une observation suit donc le parcours suivant :

Tab 7

c) Implication : calcul de la règle d’activation

Il reste à définir une règle d’activation afin d’obtenir une réponse unique. Cette étape s’appelle l’implication. Elle peut être effectuée au travers de deux règles :

 

  • Larsen : μ_ConclusionRi’ : y → μRi(x0) x  μ_ConclusionRi(y)
  • Mamdani : μ_ConclusionRi’ : y → Min[μRi(x0) , μ_ConclusionRi(y)]

Avec x0 = (Variable1, Variable2) les caractéristiques de l’individu.

Aussi, calculer la règle d’activation revient à croiser la probabilité de la règle et la probabilité de la sortie associée à la règle. Il est possible de poursuivre l’analogie avec les méthodes bayésiennes du cadre probabiliste classique : la probabilité de la règle peut s’apparenter à une probabilité a priori, et la probabilité de la sortie à une probabilité a posteriori.

Tab 9

On obtient :

Tab 10

Remarque : l’implication donne naissance à une courbe dans le sens où :

  • La variable d’entrée donne naissance à des véracités (en traversant les différentes règles)
  • La variable de sortie (associée à chaque règle) est également une fonction de véracité pour chaque modalité.

 

d) L’agrégation

Cette quatrième étape de l’inférence consiste à regrouper toutes les règles. Ce regroupement est donc effectué à base de « Ou » logiques, ce qui se traduit (cf. Tableau 1) par des « Max. La Figure 2 devenant : 

Tab 11

————————————————————————————————————-

 

3- LA DEFUZZIFICATION

Dernière étape de la logique floue, elle a pour objectif de transformer la courbe d’activation finale obtenue lors de l’étape d’agrégation en une valeur réelle. Deux méthodes sont alors applicables pour obtenir la valeur retenue de la variable à prédire :

  • La méthode de la moyenne des maxima : correspond à la moyenne des valeurs de sortie les plus vraisemblables.
  • La méthode des centres de gravité : abscisse du centre de gravité de la surface de la courbe de résultats.

a) Méthode de la moyenne des maxima

Tab 12

Tab 13

Cette méthode présente l’inconvénient de fournir des résultats très volatiles (une modification de l’input peut conduire à changer la zone de maxima et entraîner une modification brutale de la variable de sortie). Elle est principalement utilisée pour de la reconnaissance de forme.

b) Méthode des centres de gravité

Tab 14

 

Cette méthode semble préférable (et plus cohérente avec les principes de la logique floue) dans le sens ou elle intègre le fait qu’un individu peut appartenir à deux catégorie en même temps. On notera l’analogie avec un calcul d’espérance probabiliste (le dénominateur est un facteur de normalisation permettant de prendre en compte le fait que la véracité est supérieur à 100%).

In fine, la logique floue peut se comparer à la statistique classique faisant intervenir des mélanges de lois. Y suit une loi dont la densité dépend de la valeur prise par une variable X de Bernouilli.

Tab 15

Tab 16

————————————————————————————————————-

3- CONCLUSION

La logique floue peut s’appliquer dès lors qu’une problématique se base sur une modélisation comportementale ou intègre un raisonnement subjectif (comme par exemple un niveau de satisfaction ou un a priori). Elle ouvre donc la possibilité à de nombreuses applications actuarielles, notamment :

  • la modélisation de comportements associés à un sentiment de satisfaction : rachat conjoncturel, arbitrage Euro/UC.
  • la modélisation de décisions liées, en partie, à une intuition : analyse d’un dossier pour sentiment de fraude.

 Un exemple d’application est présentée sous ce lien :  Téléchargement Principe de la logique floue


Source: Primact

Subscribe for free resources and news updates.

    Your Name *

    Your Email *

    Nous sommes à votre disposition...

    Contactez-nous

    Suivez-nous

    Société d’actuaires polyvalents et réactifs à votre service. Nous intervenons principalement auprès des Organismes Assureurs et de réassurance.

    42 avenue de la Grande Armée, 75017 Paris

    ® Prim’Act 2022 | Une création TamentoMentions légales – Politique de confidentialité