5  Estabilidad media cuadrática

Consideremos la ecuación diferencial estocástica con saltos

\[ dX(t)=aX(t-)dt+bX(t-)dW(t)+cX(t-)dN(t),\qquad t\geq 0, \tag{5.1}\]

con condición inicial \(X(0)=X_0\), donde \(a,b,c\in \mathbb{R}\) son constantes, \(W(t)\) es un movimiento browniano estándar y \(N(t)\) es un proceso de Poisson con intensidad \(\lambda >0\), definido sobre un espacio de probabilidad filtrado \((\Omega, \mathcal{F}, \{\mathcal{F}_t\}_{t \geq 0}, \mathbb{P})\).

Nuestro objetivo es presentar el proceso de deducción de la solución explícita de la Ecuación 5.1. La herramienta que usaremos para el análisis de la ecuación diferencial estocástica con saltos será el lema de Itô para procesos de difusión con saltos. Con esto, consideremos un proceso estocástico \(\{Y_n\}_{n\geq 0}\) de la forma

\[ dY(t)=\mu(t)dt+\sigma(t)dW(t)+\gamma(t)dN(t), \]

donde \(\mu(t), \sigma(t), \gamma(t)\) son procesos adaptados, \(W(t)\) es un movimiento browniano y \(N(t)\) es un proceso de Poisson. Para una función \(f\in C^2\{\mathbb{R}^{+}\times\mathbb{R}^{+}\}\) el diferencial estocástico de \(f(t,Y(t))\) está dado por

\[ \begin{aligned} df(t,Y(t)) & = \frac{\partial f}{\partial t}(t,Y(t-))dt \\ & \qquad +\frac{\partial f}{\partial y}(t,Y(t-))[\mu(t)dt+\sigma(t)dW(t)]\\ & \qquad + \frac{1}{2}\frac{\partial^2 f}{\partial y^2}(t,Y(t-))\sigma(t)^2dt\\ & \qquad +[f(t,Y(t-)+\gamma(t))-f(t,Y(t-))]dN(t). \end{aligned} \]

Notemos que el último término representa el cambio finito en \(f\) cuando ocurre unn salto de tamaño \(\gamma(t)\) en \(Y\).

Para nuestro caso, para facilitar el tratamiento de los saltos, vamos a introducir el proceso de Poisson compensado definido por

\[ \widetilde{N}(t):=N(t)-\lambda t,\qquad t\geq 0. \]

Sabemos que este preceso es una martingala con esperanza \(\mathbb{E}[\widetilde{N}(t)]=0\), varianza \(\mathbb{E}[|\widetilde{N}(t)|^2]=\lambda t\), además los incrementos en dicho proceso son independientes.

Teorema 5.1 Consideremos la ecuación diferencial estocástica lineal con saltos

\[ dX(t)=aX(t-)dt+bX(t-)dW(t)+cX(t-)dN(t), \ \ \ t\geq 0, \tag{5.2}\]

donde \(a,b,c\in \mathbb{R}\) son constantes, \(W(t)\) es un movimiento browiniano y \(N(t)\) es un proceso de Poisson con intensidad \(\lambda>0\). Definimos el siguiente parámetro de estabilidad

\[ l:= 2a+b^2+\lambda c(2+c), \]

y se sabe que la solución análitica es estable en media cuadrática, es decir

\[ \lim\limits_{t\rightarrow\infty} \mathbb{E}[|X(t)|^2]=0, \]

si y solo si \(l<0\).

Sea \(\Delta t>0\) un tamaño de paso fijo y \(\theta\in [0,1]\) el paramétro del método theta compensado estocástico (CSTM). Al aplicar dicho método a Ecuación 5.2, si \(\displaystyle \frac{1}{2}\leq \theta\leq 1\), entonces el método es estable en media cuadrática, es decir, para todo \(\Delta t>0\) se cumple que las aproximaciones numéricas heredan la estabilidad de la solución análitica siempre que \(l<0\).

Si \(\displaystyle 0\leq \theta<\frac{1}{2}\), el método es estable en media cuadrática si y solo si el tamaño del paso satisface

\[ \Delta t<\frac{-l}{(1-2\theta)(a+\lambda c)^2}. \]

Demostración. Cómo primer paso, comenzaremos aplicando el método theta compensado estocástico a la Ecuación 5.2, con condición inicial \(X(0)=X_0\). Para aplicar dicho método (CSTM) definimos el proceso de Poisson compensado de la forma \(\widetilde{N}(t):=N(t)-\lambda t\), el cuál es una martingala y satiisface \(\mathbb{E}[\widetilde{N}(t)]=0\) y \(\mathbb{E}[|\widetilde{N}(t)|^2]=\lambda t\). Por lo tanto, esto nos permite reescribir la Ecuación 5.2 de la forma equivalente

\[ \begin{aligned} dX(t) & = aX(t-)dt+bX(t-)dW(t)+cX(t-)dN(t)\\ & = aX(t-)dt+bX(t-)dW(t)+cX(t-)d(\widetilde{N}(t)+\lambda t)\\ & = aX(t-)dt+bX(t-)dW(t)+cX(t-)d\widetilde{N}(t)+ \lambda cX(t-)dt\\ & = (a+\lambda c)X(t)dt +bX(t-)dW(t)+cX(t-)d\widetilde{N}(t). \end{aligned} \tag{5.3}\]

Para un tamaño de paso constante \(\Delta t>0\), definimos la malla \(t_n=n\Delta t\) con \(n\in \mathbb{N}\). El método (CSTM) aplicado a la Ecuación 5.3 genera un sucesión de aproximaciones \(Y_n\approx X(t_n)\) mediante la ecuación de diferencias implícita dada por

\[ \begin{aligned} Y_{n+1}= & Y_n+(1-\theta)\Delta t(a+\lambda c)Y_n \\ & \qquad +\theta \Delta t(a+\lambda c)Y_{n+1}+bY_n\Delta W_n+cY_n\Delta \widetilde{N}_n, \end{aligned} \tag{5.4}\]

donde \(\theta\in [0,1]\) es un parámetro del método, los incrementos estocásticos se definen de la forma

\[ \begin{aligned} \Delta W_n : & = W(t_{n+1})-W(t_n) \\ \Delta \widetilde{N}_n : & = \widetilde{N}(t_{n+1})-\widetilde{N}(t_n). \end{aligned} \]

Notemos que, dichos incrementos son independientes entre sí, además satifacen que \(\mathbb{E}[\Delta W_n]=\mathbb{E}[\Delta\widetilde{N}_n]=0\), \(\mathbb{E}[|\Delta W_n|^2]=\Delta t\) y \(\mathbb{E}[|\Delta \widetilde{N}_n|^2]=\lambda \Delta t\).

Reorganizando la Ecuación 5.4 de tal forma que podamos expresar de forma explícita el término \(Y_{n+1}\) en términos de \(Y_n\), obtenemos

\[ \begin{aligned} Y_{n+1}-\theta \Delta t(a+\lambda c)Y_{n+1} & = Y_n +(1-\theta)\Delta t(a+\lambda c)Y_n\\ & \qquad\quad+bY_n\Delta W_n+cY_n\Delta \widetilde{N}_n. \end{aligned} \]

De aquí, factorizando el término \(Y_{n+1}\) del lado izquierdo y el término \(Y_n\) del lado derecho

\[ \begin{aligned} (1-\theta\Delta t(a+\lambda c))Y_{n+1} & = Y_n +(1-\theta)\Delta t(a+\lambda c)Y_n\\ & \qquad\quad +bY_n\Delta W_n+cY_n\Delta \widetilde{N}_n\\ & = [1+(1-\theta)\Delta t(a+\lambda c)+b\Delta W_n+c\Delta\widetilde{N}_n]Y_n. \end{aligned} \tag{5.5}\]

Dado que por hipótesis sabemos que \(l=2a+b^2+\lambda c(2+c)<0\), podemos notar

\[ \begin{aligned} 2a+b^2+\lambda c(2+c) & =2a+2\lambda c+b^2+\lambda c^2\\ & =2(a+\lambda c)+b^2+\lambda c^2<0, \end{aligned} \]

es claro que \(b^2+\lambda c^2>0\), esto implica que \((a+\lambda c)<0\). Con esto, podemos afirmar que para \(\Delta t\) lo suficientemente pequeño, el término \(1-\theta\Delta t(a+\lambda c)\) no se anula y es positivo.

Por otro lado, veamos la esperanza del segundo momento de Ecuación 5.5. Elevando al cuadrado y obteniendo el valor esperado, tenemos

\[ \begin{aligned} (1-\theta\Delta t(a+\lambda c))^2\mathbb{E}[|Y_{n+1}|^2] & = \mathbb{E}\Bigg[\Bigg|1+(1-\theta)\Delta t(a+\lambda c)\\ & \qquad\quad+b\Delta W_n+c\Delta \widetilde{N}_n\Bigg|^2\Bigg]\mathbb{E}[|Y_n|^2]. \end{aligned} \tag{5.6}\]

Vamos a desarrollar la esperanza del término estocástico. Para faciliatr el proceso, definimos la siguiente notación

\[ \begin{aligned} A & := 1+(1-\theta)\Delta t(a+\lambda c)\\ B & := b\Delta W_n\\ C & := c\Delta \widetilde{N}_n. \end{aligned} \]

Notemos que \(A\) es una constante determinista, mientras que \(B\) y \(C\) son variables aleatorias. Por tanto, aplicando la linealidad de la esperanza, el término estocástico de la Ecuación 5.6 queda de la forma

\[ \begin{aligned} \mathbb{E}[|A+B+C|^2] & = \mathbb{E}[A^2+B^2+C^2\\ & \qquad +2AB+2AC+2BC]\\ & = \mathbb{E}[A^2]+\mathbb{E}[B^2]+\mathbb{E}[C^2]\\ & \qquad +\mathbb{E}[2AB]+\mathbb{E}[2AC]+\mathbb{E}[2BC]. \end{aligned} \tag{5.7}\]

Utilizando las propiedades de los incrementos independientes, podemos afirmar que \(\mathbb{E}[B]=b\mathbb{E}[\Delta W_n]=0\) y \(\mathbb{E}[C]=c\mathbb{E}[\Delta \widetilde{N}_n]=0\). Además, \(\mathbb{E}[2AB]=2Ab\mathbb{E}[\Delta W_n]=0\) y \(\mathbb{E}[2AC]=2Ac\mathbb{E}[\Delta\widetilde{N}_n]=0\). Luego, por la independiencia entre el movimiento browniano y el proceso de Poisson compensado, se cumple \(\mathbb{E}[BC]=bc\mathbb{E}[\Delta W_n\Delta\widetilde{N}_n]=bc\mathbb{E}[\Delta W_n]\mathbb{E}[\Delta\widetilde{N}_n]=0\).

Por otro lado, \(\mathbb{E}[B^2]=b^2\mathbb{E}[(W_n)^2]=b^2\Delta t\) y \(\mathbb{E}[C^2]=c^2\mathbb{E}[(\widetilde{N}_n)^2]=c^2\lambda\Delta t\). Por lo tanto, de la Ecuación 5.7 tenemos

\[ \begin{aligned} \mathbb{E}[|A+B+C|^2] & = A^2+b^2\Delta t +\lambda c^2\Delta t\\ & = (1+(1-\theta)\Delta t(a+\lambda c))^2 \\ & \qquad +b^2\Delta t +\lambda c^2\Delta t. \end{aligned} \]

Sustituyendo esto en Ecuación 5.6 tenemos

\[ \begin{aligned} (1-\theta\Delta t(a+\lambda c))^2\mathbb{E}[|Y_{n+1}|^2] & = \Bigg[(1+(1-\theta)\Delta t(a+\lambda c))^2 \\ & \qquad + b^2\Delta t +\lambda c^2\Delta t\Bigg]\mathbb{E}[|Y_n|^2]. \end{aligned} \tag{5.8}\]

Notemos que la Ecuación 5.8 describe el cambio del segundo momento de la solución numérica. Ahora bien, para que el método sea estable en media cuadrática, es necesario que la sucesión \(\mathbb{E}[|Y_n|^2]\) sea decreciente y tienda a cero cuando \(n\) tiende a infinito. Esto ocurre si y solo si

\[ \frac{(1+(1-\theta)\Delta t(a+\lambda c))^2+b^2\Delta t +\lambda c^2\Delta t}{(1-\theta\Delta t(a+\lambda c))^2}<1 \tag{5.9}\]

Recordemos que anteriormente ya se mencionó que el término \(1-\theta\Delta t(a+\lambda c)\) es no nulo y positivo, por lo que es posible multiplicar la Ecuación 5.9 por el denominador y seguir conservando la desigualdad, es decir

\[ (1+(1-\theta)\Delta t(a+\lambda c))^2+b^2\Delta t +\lambda c^2\Delta t<(1-\theta\Delta t(a+\lambda c))^2 \tag{5.10}\]

Para facilitar la notación, definimos la variable \(K:=a+\lambda c\). Además, expandiendo la expresión del lado derecho de la desigualdad de la forma

\[ \begin{aligned} (1-\theta\Delta t(a+\lambda c))^2 & =(1-\theta\Delta tK)^2\\ & = 1-2\theta\Delta t k+\theta^2\Delta t^2K^2. \end{aligned} \]

De igual forma, al extender el término al cuadrado del lado izquierdo de la Ecuación 5.10

\[ \begin{aligned} (1+(1-\theta)\Delta t (a+\lambda c))^2 & = (1+(1-\theta)\Delta t K)^2\\ & = 1+2(1-\theta)\Delta t K+(1-\theta)^2\Delta t^2 K^2. \end{aligned} \]

De esta manera, ordenando los terminos, la Ecuación 5.10 se expresa como se sigue

\[ \begin{aligned} 1 & +2(1-\theta)\Delta t K +b^2\Delta t \\ & \qquad +\lambda c^2\Delta t+(1-\theta)^2\Delta t^2 K^2<1-2\theta\Delta t K+\theta^2\Delta t^2 K^2. \end{aligned} \tag{5.11}\]

Restando el termino \(1\) en ambos lados de la desigualdad, además reordenando adecuadamente y agrupando los términos con factores \(\Delta t\) y \(\Delta t^2\), tenemos

\[ \begin{aligned} & -2\theta K\Delta t -2(1-\theta)K\Delta t-b^2\Delta t \\ & \qquad\quad-\lambda c^2\Delta t+\theta^2 K^2\Delta t^2-(1-\theta)^2 K^2\Delta t^2>0\\ & (-2\theta K-2(1-\theta)K-b^2-\lambda c^2)\Delta t\\ & \qquad\quad+ (\theta^2-(1-\theta)^2)K^2\Delta t^2>0\\ & (-2\theta K-2K+2\theta K-b^2-\lambda c^2)\Delta t \\ & \qquad\quad+(\theta^2-(1-2\theta+\theta^2))K^2\Delta t^2>0\\ &(-2K-b^2-\lambda c^2)\Delta t +(2\theta-1)K^2\Delta t^2>0\\ & (2\theta-1)\Delta t^2 K^2-(2K+b^2+\lambda c^2)\Delta t>0. \end{aligned} \tag{5.12}\]

Del parámetro de establilidad \(l\), notemos

\[ \begin{aligned} l & = 2a+b^2+\lambda c(2+c) \\ & = 2a+b^2+2\lambda c+\lambda c^2\\ & = 2a+2\lambda c+b^2+\lambda c^2\\ & = 2(a+\lambda c)+b^2+\lambda c^2\\ & = 2K +b^2+\lambda c^2. \end{aligned} \]

Por lo tanto, sustituyendo \(l\) en Ecuación 5.11 se tiene

\[ (2\theta-1)\Delta t^2 K^2-l\Delta t>0 \]

Dado que \(\Delta t>0\), es posible factorizar un término de la forma

\[ \Delta t[(2\theta-1)\Delta t K^2-l]>0, \]

más aún

\[ (2\theta-1)\Delta t K^2-l>0. \]

Despejando de tal forma que podamos expresar la desigualdad anterior en términos de \(-l\) tenemos

\[ -l >-(2\theta-1)(a+\lambda c)^2\Delta t= (1-2\theta)(a+\lambda c)^2\Delta t \tag{5.13}\]

Cuando \(\displaystyle\theta=\frac{1}{2}\), esto implica \(1-2\theta=0\), así

\[ 0= (1-2\theta)(a+\lambda c)^2\Delta t<-l \]

Por hipotesis \(l<0\), de aqui \(0<-l\). Por lo tanto, el método es estable cuando \(\displaystyle\theta=\frac{1}{2}\).

Luego, cuando \(\displaystyle \frac{1}{2}<\theta\leq 1\), esto implica que \(1-2\theta<0\). Para este caso \((1-2\theta)(a+\lambda c)^2\Delta t<0\), de igual forma \(-l>0\), entonces

\[ (1-2\theta)(a+\lambda c)^2\Delta t<0<-l, \]

en consecuencia, el método sigue siendo estable bajo las condiciones de la solución análitica.

Por último, para el caso \(\displaystyle 0\leq \theta<\frac{1}{2}\), esto implica, \((1-2\theta)(a+\lambda c)^2>0\), por lo que la Ecuación 5.13 se cumple si y solo si

\[ \Delta t <\frac{-l}{(1-2\theta)(a+\lambda c)^2}. \]