Métodos de Tikhonov

Vamos motivar a definição de métodos do tipo Tikhonov e apresentar alguns resultados importantes. Esse é um desenvolvimento relativamente técnico e conhecimentos prévios de análise são necessários para a sua compreensão.

Estamos interessados em resolver o problema inverso

$$Ax = b, \ \ \ \ \| b - b^\delta\| \leq \delta.$$

Vamos supor que A:X→Y seja um operador linear contínuo agindo entre espaços de Hilbert reais. Para facilitar a compreensão, vamos supor ainda que exista uma única solução x = x* para o problema inverso Ax = b.

Para resolver esse problema, podemos pensar em determinar o minimizador do funcional do resíduo

$$\varphi(x) = \frac{1}{2}\|Ax - b^\delta\|^2.$$

Porém, se o problema inverso em questão for mal-posto, pode existir uma sequencia (xk)⊂X tal que

$$Ax_k \longrightarrow b, \ \ \ \ \ \text{ao mesmo tempo que} \ \ \ \ \ \|x_k\| \longrightarrow \infty,$$

conforme ilustra o exemplo apresentado aqui. Isso significa que, mesma que o nível de ruídos δ > 0 seja muito pequeno, os minimizadores de φ podem estar arbitrariamente distantes da solução exata x* do problema inverso. Uma maneira de contornar essa dificuldade é penalizar a norma do minimizador para evitar que este tenha uma norma muito grande. Assim, substituímos φ pelo funcional de Tikhonov

$$T_\alpha (x) = \frac{1}{2}\|Ax - b^\delta\|^2 + \frac{\alpha}{2}\|x\|^2, \ \ \ \ \ \ \alpha >0,$$

e usamos o minimizador desse funcional como aproximação para a solução do problema inverso, isto é,

$$x_\alpha \approx x^*, \ \ \ \ \ \ \text{em que} \ \ \ \ \ \ x_\alpha = argmin_{x \in X} T_\alpha(x).$$

O número real positivo α é chamado de parâmetro de regularização e desempenha um papel fundamental na qualidade da aproximação para a solução do problema inverso. Esse parâmetro busca um equilíbrio entre precisão e estabilidade. Por um lado, se esse parâmetro for muito pequeno, então estamos penalizando pouco a norma do minimizador xα, e como resultado, esse vetor terá uma norma muito grande, ficando normalmente distante da solução exata x* do problema inverso. Por outro lado, se α é grande, então há grande estabilidade na minimização do funcional de Tikhonov e o minimizador xα terá uma norma pequena, porém nesse caso, está se dando pouca atenção para o minimizador do funcional do resíduo φ, e por consequência, xα não representará bem a solução x*.

Minimizador do funcional de Tikhonov

Para qualquer α > 0, o funcional de Tikhonov Tα é coercivo e estritamente convexo. Portanto  Tα admite um único minimizador xα. Além disso, esse funcional é Fréchet-diferenciável, o que implica que o seu minimizador deve satisfazer a condição de otimalidade ∇Tα(xα) = 0.

A partir de agora, vamos determinar uma expressão explícita para ∇Tα(x). Para isso, sejam x,v∈X. Pela definição de derivada direcional e derivada de Gâuteux, temos que

$$\langle \nabla T_\alpha(x),v\rangle = \lim_{t \rightarrow 0} \frac{T_\alpha (x + tv) - T_\alpha (x)}{t}.$$

Mas, como A é linear,

$$T_\alpha (x + tv) = \frac{1}{2}\|(Ax - b^\delta) + tAv\|^2 + \frac{\alpha}{2}\|x + tv\|^2.$$

Usando agora a identidade

$$\|u +w\|^2 = \|u \|^2 + 2\langle u,w\rangle + \|w\|^2, \ \ \ \ u,w \in X,$$

juntamente com as propriedades do produto interno, obtemos

$$\frac{T_\alpha (x + tv) - T_\alpha (x)}{t}= \langle Ax - b^\delta,Av\rangle + \frac{t}{2}\|Av\|^2 + \alpha\langle x,v\rangle + \frac{\alpha t}{2}\|v\|^2.$$

Logo,

$$\langle \nabla T_\alpha(x),v\rangle =\lim_{t \rightarrow 0} \frac{T_\alpha (x + tv) - T_\alpha (x)}{t} = \langle A^*(Ax - b^\delta) + \alpha x, v\rangle,$$

em que A*:Y→X é a adjunta de A. Daí,

$$\nabla T_\alpha(x) = A^*(Ax - b^\delta) + \alpha x = (A^*A + \alpha I)x - A^*b^\delta,$$

onde I:X→X é o operador identidade. Por fim, como ∇Tα(xα) = 0, segue que

$$x_\alpha = (A^*A + \alpha I)^{-1}A^*b^\delta.$$

Escolha do parâmetro de regularização

O parâmetro α deve ser escolhido em função do nível de ruídos δ e pode ou não depender também do vetor de dados perturbados bδ. Caso não dependa do vetor de dados perturbados, a escolha é dita ser a priori, e caso contrário, ela é chamada de escolha a posteriori.

Uma escolha bastante conhecida é dada pela regra a priori

$$\alpha = \alpha (\delta) \longrightarrow 0 \ \ \ \ \text{e} \ \ \ \ \frac{\delta^2}{\alpha(\delta)} \longrightarrow 0, \ \ \ \ \text{quando} \ \ \ \ \delta \longrightarrow 0.$$

Uma escolha a posteriori igualmente bem conhecida consiste em pré fixar constantes 1 < c1 < c2 e então determinar α = α(δ,bδ) tal que o minimizador correspondente xα do funcional de Tikhonov satisfaz

$$c_1\delta \leq \|Ax_\alpha - b^\delta\| \leq c_2\delta.$$

Ambas as escolhas implicam na propriedade de regularização:

$$x_\alpha \longrightarrow x^*, \ \ \ \ \text{quando} \ \ \ \ \delta \longrightarrow 0.$$

Método de Tikhonov iterado

Os métodos apresentados acima são chamados de métodos de um passo, porque o minimizador do funcional de Tikhonov é utilizado como aproximação para a solução do problema inverso x*. Em contraste, o método de Tikhonov iterado utiliza os minimizadores de vários funcionais para produzir uma sequencia que converge a x*. Mais precisamente, fixe um chute inicial x0, o parâmetro α > 0, e defina o funcional

$$T_0(x) = \frac{1}{2}\|Ax - b^\delta\|^2 + \frac{\alpha}{2}\|x - x_0\|^2.$$

Defina agora o vetor x1 como sendo o minimizador desse funcional. Em seguida, substitua x0 por x1 e repita o processo para obter x2 e assim por diante. Assim temos

$$x_{k + 1} = argmin_{x \in X} T_k (x),$$

onde

$$T_k(x) = \frac{1}{2}\|Ax - b^\delta\|^2 + \frac{\alpha}{2}\|x - x_k\|^2.$$

Usando um desenvolvimento similar àquele apresentado acima, obtemos que

$$x_{k + 1} = (A^*A + \alpha I)^{-1}(A^*b^\delta + \alpha x_k).$$

Esse método é chamado de Tikhonov iterado estacionário, uma vez que o parâmetro α mantém-se fixo durante a iteração.

Prova-se que no caso sem ruídos (δ = 0), a sequencia gerada pelo método converge para a solução do problema inverso, isto é,

$$x_k \longrightarrow x^*, \ \ \ \ \text{quando} \ \ \ \ k \longrightarrow \infty.$$

No caso de dados com ruídos (δ > 0), um critério de parada adequado precisa ser implementado para evitar a amplificação de ruídos. O critério mais comum é o chamado Princípio da Discrepância, onde se fixa τ > 1 e se pára a iteração no índice k = kδ definido por

$$k_\delta = \min \{k \in \mathbb{N}: \|Ax_k - b^\delta\| < \tau\delta\}.$$

Com essa regra, tem-se a propriedade de regularização

$$x_{k_\delta} \longrightarrow x^*, \ \ \ \ \text{quando} \ \ \ \ \delta \longrightarrow 0.$$

Quando o parâmetro α muda em cada iteração, isto é, α = αk, então temos o chamado método de Tikhonov iterado não-estacionário. Nesse caso, a escolha de αk pode se dar a priori ou a posteriori.

Uma escolha a priori bem conhecida é dada escolhendo-se a sequencia (αk) através da regra

$$\sum_{k = 0}^{\infty}\frac{1}{\alpha_k} = \infty,$$

a qual inclui a famosa escolha geométrica

$$\alpha_{k+1} = r \alpha_k,$$

onde α0 > 0 e 0 < r < 1.

Método das projeções relaxadas

Existem  diversas escolhas a posteriori conhecidas para o método de Tikhonov iterado não-estacionário. Entre elas, destaca-se o chamado método das projeções relaxadas (range relaxed method), segundo o qual, o parâmetro αk é definido de modo que o minimizador correspondente xk+1 satisfaz

$$(1 - \eta_0) \delta +  \eta_0\|Ax_k - b^\delta\| \leq \|Ax_{k + 1} - b^\delta\| \leq (1 - \eta) \delta + \eta\|Ax_k - b^\delta\|,$$

onde 0 < η0 < η < 1 são constantes pré-fixadas. Com esse critério obtemos uma taxa geométrica para o decréscimo do resíduo

$$\|Ax_k - b^\delta\| - \delta \leq \eta \big{(}\|Ax_{k - 1} - b^\delta\| - \delta\big{)} \leq \dots \leq \eta^k \big{(}\|Ax_0 - b^\delta\| - \delta\big{)}. $$

Portanto, se o Princípio da Discrepância é usado como critério de parada, tem-se

$$\tau\delta -\delta\leq \|Ax_{k_\delta -1} - b^\delta\| - \delta \leq \eta^{k_\delta - 1} \big{(}\|Ax_0 - b^\delta\| - \delta\big{)},$$

o que implica que o número de iterações pode ser estimado por

$$k_\delta \leq \log_\eta \Big{(}\frac{(\tau - 1)\delta}{\|Ax_0 - b^\delta\| - \delta}\Big{)} + 1.$$

Existem também versões desse método em espaços de Banach mais gerais e versões com minimizações inexatas.