O método de bissecção – recompensa wikiversum com Bitcoin

Na primeira etapa, definimos o novo valor da sequência: o novo ponto médio. No segundo estágio, controlamos a tolerância: Se o erro for menor que a tolerância dada, considere xk {\ display x_ {k}} como a raiz de F {\ display f}. O terceiro passo é a função de k x {\ x_ exibição {k}} se f (x k) = 0 {\ Display F (x_ {k}) = 0} encontrámos a solução para avaliar; desde que nós dividimos o intervalo em dois de outra forma, precisamos saber de que lado está a raiz. Para isso, use a adoção do conjunto de raízes, ou seja, nós olhamos para o novo intervalo em função do signo oposto aos limites e definimos o intervalo novamente por {mudou \ exibição} um ou {b \ displaystyle b } de {xk \ display x_ {k}}.


Finalmente, se não tivermos chegado a uma boa aproximação com a solução, voltaremos ao ponto de partida.

Para cada iteração = o intervalo Ik [ak, bk] {\ display {\ mathcal {I}} _ {k} = [a_ {k}, B_ {k}]} é dividido em duas metades, onde ak {\ displaymath a_ {k}} e {bk \ display B_ {k}} mostramos os extremos do intervalo na iteração k ≥ 0 {\ display k \ GEQ 0}. Obviamente eu 0 = [a, b] {\ display {\ mathcal {I}} _ {0} = [a, b]}.

| Eu k | = | Eu k – 1 | 2 = | Eu k – 2 | 2 2 =. , , = | Eu 0 | 2 k = b – a 2 k. {\ displaystyle | {\ mathcal {I}} {{k} | = {\ frac {| {\ mathcal {I}} _ {k-1} |} {2}} = {\ frac {| {\ mathcal {I}} _ {k-2} |} {2 ^ {2}}} = … = {\ frac {| {\ mathcal {I}} _ {0} |} {2 ^ {k}}} = {\ frac {ba} {2 ^ {k}}}}

A convergência do método da metade é muito lenta. Embora o erro geralmente não diminua monotonicamente, a taxa média de convergência é 1/2, e assim, se modificarmos ligeiramente a definição da ordem de convergência, pode-se dizer que o método converge linearmente com a taxa 1/2.

Não se incomode com o fato de que em alguns livros ou outras referências, às vezes o erro é escrito como ek ba = 2k + 1 {\ display a_ {k} = {\ frac {ba} {2 ^ {k + 1 }}}}. Isso se deve ao fato de que a sequência é definida para k ≥ 0 {\ display k \ GEQ 0} em vez de {k ≥ 1 \ display k \ GEQ 1}.

Considere a função f (x) = cos ⁡ {x \ display \ display f (x) = \ cos x} em [0, π 3] {\ display \ display [0,3 \ pi]}. Dentro desta gama, a função tem três raízes α 1 = π 2 {\ exibição \ alfa _ {1} = {\ frac {\ pi} {2}}}, um 2 = 3 π 2 {\ exibição \ alfa _ {2 } = {\ frac {3 \ pi} {2}}} e agr; 3 = 5 π 2 {\ display \ alpha _ {3} = {\ frac {5 \ pi} {2}}}.

Teoricamente, o método de bissecção converge para uma única iteração agr; 2 {\ display \ display \ alpha _ {2}}. Na prática, no entanto, o processo converge para agr; 1 {\ display \ display \ alpha _ {1}} ou {α em 3 \ display \ display \ alpha _ {3}}. De fato, desde a representação finita dos números reais na calculadora, 3 x 1 ≠ π 2 {\ display x_ {1} \ NEQ {\ frac {3 \ pi} {2}}} e, portanto, a aproximação da calculadora f (x 1) {\ display \ display f (x_ {1})} pode ser positivo ou negativo, mas nunca zero. Desta forma, o algoritmo de bissecção, neste caso, fecha automaticamente a raiz α 2 {\ display \ display \ alpha _ {2}} para a primeira iteração, pois o erro ainda é grande (e 1 = α 2 {\ display \ display e_ {1} = \ alpha _ {2}}).