Groupe de Travail de l'équipe “Probabilités & Statistiques de l'Institut Élie Cartan (Nancy)
17 & 24 octobre 2013 : Paul Charton
Contrôle stochastique optimal & Solutions de viscosité

Nous commencerons par introduire une classe de problèmes de contrôle stochastique en temps continu. Il s'agit de problèmes dans lesquels on peut influer à tout instant sur la diffusion ou la dérive d'un processus stochastique, d'où l'appellation “problèmes de contrôle”. On associe ensuite aux trajectoires de ce processus un gain ; l'objectif est alors de maximiser en espérance ce gain.

Nous présenterons ensuite le principe de programmation dynamique (ou “principe de Bellman”) vérifié par ces problèmes. Dans un premier temps, par un raisonnement formel, nous montrerons que ce principe a un équivalent en termes d'ÉDP : l'équation de Hamilton-Jacobi-Bellman (HJB). Comme il s'agit d'une équation non linéaire, il est souvent nécessaire d'étendre la notion de solution aux fonctions non dérivables ; pour ce faire nous introduirons la notion de solutions “de viscosité”. Enfin, nous prouverons que notre problème de contrôle stochastique optimal est effectivement équivalent à la résolution de l'équation de HJB.