Minimum d’une forme quadratique

Publié le 13/03/17

(cet exercice est issu de l’oral X-Cachan Psi 2015)
On se donne {n\ge 3}, et {h = \dfrac{1}{n}}.
Dans \mathcal{M}_n(\mathbb{R}), on définit {D_{1}=\dfrac{1}{h}\begin{pmatrix}1&0&\cdots&\cdots&0\\-1&1&0&\cdots&0\\0&\ddots&\ddots&\ddots&\vdots\\\vdots&\ddots&-1&1&0\\0&\cdots&0&-1&1\end{pmatrix}}

On pose également : {D_{2}=\dfrac{1}{h^{2}}\begin{pmatrix}-2&1&0&\cdots&0\\1&-2&1&\ddots&\vdots\\0&\ddots&\ddots&\ddots&0\\\vdots&\ddots&\ddots&-2&1\\0&\cdots&0&1&-1\end{pmatrix}}

Dans {\mathbb{R}^{n}}, soit {\left({X}\mid{Y}\right)_{h} = h\displaystyle\sum_{k=1}^{n}X_{k}Y_{k}}. On note {\left\|\cdot\right\|_{h}} la norme associée.

Soient {V\in\mathbb{R}^{n}} et {f\colon \mathbb{R}^{n}\rightarrow\mathbb{R},\;X\mapsto \dfrac{1}{2}\left\|{D_{1}X}\right\|_{h}^{2}-\left({V}\mid{X}\right)_{h}}.

On se propose de démontrer que {f} possède un minimum.

  1. Vérifier que : {D^\top_{1}\,D_{1} = -D_{2}}.

    Montrer que {f} est de classe {{\mathcal C}^{1}} et calculer son gradient en X.

  2. On pose {Y = D_{1}X}. Montrer que : {\forall k \in[\![1,n]\!],\;X_{k} = h\displaystyle\sum_{\ell=1}^{k}Y_{\ell}}.

    En déduire {\left|{X_{k}}\right|\le \left\|{Y}\right\|_{h}} pour tout {k}, puis {\left\|{X}\right\|_{h}\le\left\|D_{1}X\right\|_{h}}.

  3. Montrer que {\forall\, X \in\mathbb{R}^{n},\;f(X)\ge-\dfrac{1}{2}\left\|V\right\|_{h}^{2}} et {\displaystyle\lim_{\left\|{X}\right\|_{h}\rightarrow+\infty} f(X) = +\infty}.
  4. En déduire que {f} possède un minimum que l’on déterminera.

  1. La vérification de l’égalité {D^\top_{1}\,D_{1} = -D_{2}} est facile.

    La fonction {f} est {\mathcal{C}^{1}} car polynomiale en les coordonnées de {X}.

    Pour tous vecteurs {X_{0}} et {H} de {\mathbb{R}^{n}}, on a :
    {\begin{array}{l}f(X_{0}+H)=\dfrac{1}{2}\left\|{D_{1}X_{0}+D_{1}H}\right\|_{h}^{2}-\left({V}\mid{X_{0}+H}\right)_{h}\\\\\quad=f(X_{0})+\left({D_{1}X_{0}}\mid{D_{1}H}\right)_{h}+\dfrac{1}{2}\left\|{D_{1}H}\right\|^{2}-\left({V}\mid{H}\right)_{h}\\\\\quad=f(X_{0})+\left({{D^\top}_{1}D_{1}X_{0}}\mid{H}\right)_{h}-\left({V}\mid{H}\right)_{h}+\dfrac{1}{2}\left\|{D_{1}H}\right\|^{2}\\\\\quad=f(X_{0})-\left({D_{2}X_{0}+V}\mid{H}\right)_{h}+{\text{o}}\bigl(\left\|{H}\right\|\bigr)\end{array}}On compare avec le développement limité : {f(X_{0}+H)=f(X_{0})+\left({\text{grad}_{X_{0}}(f)}\mid{H}\right)_{h}+\text{o}\bigl(\left\|{H}\right\|\bigr)}La fonction gradient de {f} est donc définie par {\text{grad}_{X}(f)=-D_{2}X+V}.

  2. On convient que {X_{0}=0}.

    L’égalité {Y=D_{1}X} s’écrit : {\forall\, \ell\in[[ 1,n]],\;hY_{\ell}=X_{\ell}-X_{\ell-1}} .
    Par télescopage, il vient : {\forall\, k \in[[ 1,n]],\;X_{k}=h\displaystyle\sum_{\ell=1}^{k}Y_{\ell}}.

    Le résultat précédent donne, par Cauchy-Schwarz : {\begin{array}{rl}\left|{X_{k}}\right|^{2}\le h^{2}\,k\displaystyle\sum_{\ell=1}^{k}Y_{\ell}^{2}\le h^{2}\,k\displaystyle\sum_{\ell=1}^{n}Y_{\ell}^{2}=h\,k\left\|{Y}\right\|_{h}^{2}\le \left\|{Y}\right\|_{h}^{2}\end{array}}Ainsi {X_{k}^{2}\le \left\|{Y}\right\|_{h}^{2}}, donc : {\left\|{X}\right\|_{h}^{2}=h\displaystyle\sum_{k=1}^{n}X_{k}^{2}\le h\,n\left\|{Y}\right\|_{h}^{2}=\left\|{Y}\right\|_{h}^{2}}.

  3. La question 2) donne : {\forall\, X\in\mathbb{R}^{n},\;f(X)\ge \dfrac{1}{2}\left\|{X}\right\|_{h}^{2}-\left({V}\mid{X}\right)_{h}}.

    Or {\left({V}\mid{X}\right)_{h}\le \left\|{V}\right\|_{h}\left\|{X}\right\|_{h}} par Cauchy-Schwarz.

    Ainsi {f(X)\ge\dfrac{1}{2}\left\|{X}\right\|_{h}^{2}-\left\|{V}\right\|_{h}\left\|{X}\right\|_{h}}, donc {\displaystyle\lim_{\left\|{X}\right\|_{h}\rightarrow+\infty} f(X) = +\infty}.

    Les inégalités {\left|{V_{k}X_{k}}\right|\le \dfrac{1}{2}(V_{k}^{2}+X_{k}^{2})} donnent : {\left|{\left({V}\mid{X}\right)}\right|_{h}=h\Big|\displaystyle\sum_{k=1}^{n}V_{k}X_{k}\Big|\le \dfrac{h}{2}\Bigl(\displaystyle\sum_{k=1}^{n}V_{k}^{2}+\displaystyle\sum_{k=1}^{n}X_{k}^{2}\Bigr)}Ainsi {\left|{\left({V}\mid{X}\right)}\right|_{h}\le \dfrac{1}{2}\Bigl(\left\|{V}\right\|_{h}^{2}+\left\|{X}\right\|_{h}^{2}\Bigr)}.

    Il en résulte {f(X)\ge \dfrac{1}{2}\left\|{X}\right\|_{h}^{2}-\left({V}\mid{X}\right)_{h}\ge -\dfrac{1}{2}\left\|{V}\right\|_{h}^{2}}.

  4. On sait que {\displaystyle\lim_{\left\|{X}\right\|_{h}\rightarrow+\infty} f(X) = +\infty}.

    Ainsi : {\exists R>0,\;\left\|{X}\right\|_{h}>R\Rightarrow \left\|{f(X)}\right\|_{h}>f(0)=0}.

    Il en résulte que {\displaystyle\inf_{X\in\mathbb{R}^{n}}f(X)=\inf_{\left\|{X_{h}}\right\|\le R}f(X)}.

    Pour rechercher un minimum de {f}, on peut donc se limiter à la boule fermée centrée à l’origine et de rayon {R}. Mais celle-ci est un fermé borné de {\mathbb{R}^{n}}, donc {f} possède sur cette boule fermée un minimum absolu (qui devient donc le minimum absolu de {f} sur {\mathbb{R}^{n}}).

    Soit {X_{0}} un point où {f} atteint ce minimum absolu.

    C’est en un point critique de {f}, donc le gradient y est nul.

    Ainsi {\text{grad}_{X_{0}}(f)=0} donc {-D_{2}X_{0}+V=0} donc {X_{0}=D_{2}^{-1}V}.

    On a {D_{2}=-D^\top_{1}D_{1}} donc {X_{0}=-D_{1}^{-1}(D^\top_{1})^{-1}V} et {D_{1}X_{0}=-(D^\top_{1})^{-1}V}.

    D’autre part : {\begin{array}{rl}\left({V}\mid{X_{0}}\right)_{h}&=-\left({V}\mid{D_{1}^{-1}(D^\top_{1})^{-1}V}\right)_{h}\\\\&=-\left({(D^\top_{1})^{-1}V}\mid{(D^\top_{1})^{-1}V}\right)_{h}=-\left\|{(D^\top_{1})^{-1}V}\right\|_{h}^{2}\end{array}}On en déduit la valeur du minimu absolu de {f} : {\begin{array}{rl}\min f&=f(X_{0})=\dfrac{1}{2}\left\|{D_{1}X_{0}}\right\|_{h}^{2}-\left({V}\mid{X_{0}}\right)_{h}\\\\&=-\dfrac{1}{2}\left\|{(D^\top_{1})^{-1}V}\right\|_{h}^{2}\end{array}}D’après (2), {D_{1}^{-1}=h\begin{pmatrix}1&0&\cdots&0\\1&1&\ddots&0\\\vdots&\ddots&\ddots&0\\1&\cdots&1&1\end{pmatrix}} donc {(D^\top_{1})^{-1}=h\begin{pmatrix}1&1&\cdots&1\\0&1&\ddots&1\\\vdots&\ddots&\ddots&1\\0&\cdots&0&1\end{pmatrix}}