Contributions to decomposition methods in stochastic optimization

june, 2014
Type de publication :
Thèse
Editeur :
Mathématiques et STIC (MSTIC)
HAL :
tel-01148466
Mots clés :
Time-Consistency; Stochastic; Optimization; Risks;
Résumé :
Stochastic optimal control addresses sequential decision-making under uncertainty. As applications leads to large-size optimization problems, we count on decomposition methods to tackle their mathematical analysis and their numerical resolution. We distinguish two forms of decomposition. In chained decomposition, like Dynamic Programming, the original problemis solved by means of successive smaller subproblems, solved one after theother. In parallel decomposition, like Progressive Hedging, the original problemis solved by means of parallel smaller subproblems, coordinated and updated by amaster algorithm. In the first part of this manuscript, Dynamic Programming: Risk and Convexity, we focus on chained decomposition; we address the well known time decomposition that constitutes Dynamic Programming with two questions. In Chapter 2, we extend the traditional additive in time and risk neutral setting to more general ones for which we establish time-consistency. In Chapter 3, we prove a convergence result for the Stochastic Dual Dynamic Programming Algorithm in the case where (convex) cost functions are no longer polyhedral. Then, we turn to parallel decomposition, especially decomposition methods obtained by dualizing constraints (spatial or non-anticipative). In the second part of this manuscript, Duality in Stochastic Optimization, we first point out that such constraints lead to delicate duality issues (Chapter 4).We establish a duality result in the pairing $Bp{mathrm{L}^infty,mathrm{L}^1}$ in Chapter 5. Finally, in Chapter 6, we prove the convergence of the Uzawa Algorithm in~$mathrm{L}^inftyp{Omega,cF,PP;RR^n}$.The third part of this manuscript, Stochastic Spatial Decomposition Methods, is devoted to the so-called Dual Approximate Dynamic Programming Algorithm. In Chapter 7, we prove that a sequence of relaxed optimization problems epiconverges to the original one, where almost sure constraints are replaced by weaker conditional expectation ones and that corresponding $sigma$-fields converge. In Chapter 8, we give theoretical foundations and interpretations to the Dual Approximate Dynamic Programming Algorithm
Titre (traduction) :
Contribution aux méthodes de décomposition en optimisation stochastique
Mots clés (traduction) :
Optimisation; Risques; Stochastique; Décomposition; Consistence temporelle;
Résumé (traduction) :
Le contrôle optimal stochastique (en temps discret) s'intéresse aux problèmes de décisions séquentielles sous incertitude. Les applications conduisent à des problèmes d'optimisation degrande taille. En réduisant leur taille, les méthodes de décomposition permettent le calcul numérique des solutions. Nous distinguons ici deux formes de décomposition. La emph{décomposition chaînée}, comme la Programmation Dynamique, résout successivement, des sous-problèmes de petite taille. La décomposition parallèle, comme le Progressive Hedging, consiste à résoudre itérativement et parallèlement les sous-problèmes, coordonnés par un algorithme maître. Dans la première partie de ce manuscrit, Dynamic Programming: Risk and Convexity, nous nous intéressons à la décomposition chaînée, en particulier temporelle, connue sous le nom de Programmation Dynamique. Dans le chapitre 2, nous étendons le cas traditionnel, risque-neutre, de la somme en temps des coûts, à un cadre plus général pour lequel nous établissons des résultats de cohérence temporelle. Dans le chapitre 3, nous étendons le résultat de convergence de l'algorithme SDDP (Stochastic Dual Dynamic Programming Algorithm) au cas où les fonctions de coûts (convexes) ne sont plus polyhédrales. Puis, nous nous tournons vers la décomposition parallèle, en particulier autour des méthodes de décomposition obtenues en dualisant les contraintes (contraintes spatiales presque sûres, ou de non-anticipativité). Dans la seconde partie de ce manuscrit, Duality in Stochastic Optimization, nous commençons par souligner que de telles contraintes peuvent soulever des problèmes de dualité délicats (chapitre 4).Nous établissons un résultat de dualité dans les espaces pairés $Bp{mathrm{L}^infty,mathrm{L}^1}$ au chapitre 5. Finalement, au chapitre 6, nous montrons un résultat de convergence de l'algorithme d'Uzawa dans $mathrm{L}^inftyp{Omega,cF,PP;RR^n}$, qui requière l'existence d'un multiplicateur optimal. La troisième partie de ce manuscrit, Stochastic Spatial Decomposition Methods, est consacrée à l'algorithme connu sous le nom de DADP (Dual Approximate Dynamic Programming Algorithm). Au chapitre 7, nous montrons qu'une suite de problèmes d'optimisation où une contrainte presque sûre est relaxée en une contrainte en espérance conditionnelle épi-converge vers le problème original si la suite des tribus converge vers la tribu globale. Finalement, au chapitre 8, nous présentons l'algorithme DADP, des interprétations, et des résultats de convergence basés sur la seconde partie du manuscrit
BibTeX :
@phdthesis{Lec-2014,
    author={Vincent Leclère },
    title={Contributions to decomposition methods in stochastic 
           optimization },
    address={Mathématiques et STIC (MSTIC) },
    year={2014 },
    month={6},
}