Тема 19

Методи за локализиране на корените на алгебрични уравнения - теорема на Коши, правило на Лагранж, теореми на Будан-Фурие и Декарт.


страницата се нуждае от дописване/преглеждане


Имаме функцията $f(z) = a_0z^n+a_{1}z^{n-1}+...+a_{n-1}z+a_n \qquad(\heartsuit)$ и алгебричното уравнение $f(z)=0$, където $\{a_k\}^n_{k=0}$ - дадени комплексни числа, $a_0 \neq 0$
Знаем, че уравнението има $n$ комплексни корена.

Теорема на Коши

Корените на алгебричното уравнения се намират в кръга $\{z \in \mathbb{C} : |z| \leq R \}$, където $R$ е единственият положителен корен на уравнението $|a_0|t^{n}-|a_1|t^{n-1}-\dots-|a_{n-1}|t-|a_n| = 0$ за поне едно $a_i > 0,\ i=\overline{1,n}$ тоест
$\overset{n}{\underset{k=1}{|a_k|}} > 0$
горното правило означава че не сме в случая когато уравнението няма положителен корен.

Доказателство:

Първо ще докажем, че горното уравнение има единствен положителен корен.
При $t>0$ уравнението е еквивалентно на $|a_0| = |a_1|\frac{1}{t}+|a_2|\frac{1}{t^2}+\dots+|a_n|\frac{1}{t^n} \spadesuit$. Дясната страна на ур-ето е строго монотонно намаляваща функция на $t$ при $t > 0$. При $t \rightarrow 0$ клони към $+\infty$, при $t \rightarrow +\infty$ клони към $0$.
картинка
При пресичане на графиката на $\spadesuit$ и на $g(t) = |a_0|$ има само една пресечна точка надясно от нулата(едната графика върви само надолу, другата е права линия).
Така имаме че графиката на $\varphi(t) = |a_0|t^n - |a_1|t^{n-1}-\dots-|a_{n-1}|t-|a_n|$ е от вида
картинка
ако $\varphi(t_0) < 0$ за някое $t_0 > 0$ тогава $t_0 < R$.
Нека $z_0$ е корен на $\heartsuit$.
$z_0 \in \mathbb{C}$, тогава $a_0z_0^n+a_1z_0^{n-1}+\dots+a_{n-1}z_0+a_n = 0$ тоест
$|a_0||z_0|^n = |a_1z^{n-1}+\dots+a_n| \leq |a_1||z_0^{n-1}|+\dots+|a_n|$
$\Rightarrow \varphi(|z_0|) \leq 0$
$\Rightarrow |z_0| \leq R$

Теорема (Правило на Лагранж)

Нека $x_0$ е положителен корен на уравнението $a_0x^n+a_1x^{n-1}+\dots+a_{n-1}x+a_n = 0$, където $\{a_j\}_{j=0}^{n}$ са реални числа, $a_0>0, a_n \neq 0$.
Тогава $x_0 < 1+ \sqrt[k]{\frac{A}{a_0}}$, където $K$ е най-малкият индекс, за който $a_k < 0$(ако няма такъв, уравнението няма положителен корен), а $A$ е модулът на най-малкият отрицателен коефициент измежду $\{a_j\}_{j=0}^{n}$

Доказателство:
Нека имаме корен $x_0$ на уравнението и допуснем, че $x_0 \geq 1+ \sqrt[k]{\frac{A}{a_0}}$
$0 = a_0x_0^n + a_1x_0^{n-1}+..+a_{n-1}x_0+a_n \geq$
сега изпускаме малко коефициенти и останалите заместваме с $A$
$\geq a_0x_0^n - A(x_0^{n-k}+x_0^{n-k-1}+\dots+x_0+1) =$
имаме геометрична прогресия, заместваме я със сумата й

(1)
\begin{eqnarray} \geq a_0x_0^n - A(x_0^{n-k}+x_0^{n-k-1}+\dots+x_0+1) &=& a_0x_0^n - A.\dfrac{x_0^{n-k}-1}{x_0-1} \geq a_0x_0^n - A.\dfrac{x_0^{n-k}}{x_0-1} \\ &=& \dfrac{1}{x_0-1}\big(a_0x_0^n(x_0-1) - Ax_0^{n-k+1}\big) \\ &=& \dfrac{x_0^{n-k-1}}{x_0-1}\big(a_0x_0^{k-1}(x_0-1) - A\big) \\ &>& \dfrac{x_0^{n-k-1}}{x_0-1}\big(a_0(x_0-1)^k - A\big) \\ \end{eqnarray}

и така получаваме, чe $0 > 0$ - противоречие.

Можем да използваме това правило за да намерим
1. долна граница за положителни корени на алгебрично уравнение(разбира се нетривиална долна граница, като примерно 0)
Как става това намиране:
$g(x)= x^nf(\frac{1}{x}) = 0$. Ако $x_0$ е положителен корен на $g(x)$, следва че $\frac{1}{x_0}$ е положителен корен на $f(x)$.
Ако $L$ е горна граница за положителни корени на $f$, то $\frac{1}{x_0} < L \Rightarrow x_0 > \frac{1}{L}$ - долна граница за положителни корени на $g$.
Може да вземем $f(-x)$ и да обърнем нещата.

Дефиниция (брой корени на алгебричен полином)

$Z(f;(a,b))$ - борят на корените на алгебричен полином с реални коефициенти, $f(x)= a_0x^n+..+a_n, a_0 \neq 0$ в интервала $(a,b)$, отчетени с техните кратности(тоест троен корен се брой като три корена).

Дефиниция(брой смени на знака)

Ако имаме редица от реални числа $\{\alpha_1,...,\alpha_n\}$
$S^{-}(\alpha_1,...,\alpha_n)$ - брой на силните смени на знака(тоест гледаме дали знака между $\alpha_i,\alpha_{i+1}$ с сменя, ако има $0$ ги игнорираме)

$S^{+}(\alpha_1,...,\alpha_n)$ - максималният брой смени на знака(тоест гледаме дали знака между $\alpha_i,\alpha_{i+1}$ с сменя, ако има $0$ си нагласяме $+0$ или $-0$, за да достигнем максимален брой)

Пример:
$S^{-}(-2,3,-1,0,0,0,-5,1)= s^{-}(-2,3,-1,,-5,1) = 3$
$S^{+}(-2,3,-1,+0,-0,+0,-5,1) = 7$

Теорема на Бюдан-Фурие

Нека $f(x)= a_0x^n+a_1x^{n-1}+\dots+a_n$ е полином от степен $n, (a_0\neq 0)$ с реални коефициенти, тогава $Z(f;(a,b)) \leq S^{-}(f(a),f'(a),f''(a),\dots,f^{(n)}(a)) - S^{+}(f(b),f'(b),f''(b),...,f^{(n)}(b))$ и разликата между дясната и лявата страна е четно число.

Лема:
Нека функцията $f(x)$ има непрекъсната производна до ред $k$ включително в околност на точката $c$, като е изпълнено $f(c)=f'(c)=...= f^{(k-1)}(c)=0, f^{(k)}(c) \neq 0$. Тогава за достатъчно малко $\epsilon > 0$ е изпълнено:

(2)
\begin{eqnarray} f(c+\epsilon)f'(c+\epsilon) &>& 0 \\ f(c-\epsilon)f'(c-\epsilon) &<& 0 \\ \end{eqnarray}

Доказателство:
По формулата на Тейлор имаме
$f(c+h) = f(c)+\dfrac{f'(c)h}{1!}+..+\dfrac{f^{(k-1)}(c)h^{k-1}}{(k-1)!}+\dfrac{f^{(k)}(c+\theta h )h^k}{k!}, 0\leq \theta \leq 1$
$f'(c+h) = f'(c)+\dfrac{f''(c)h}{1!}+..+\dfrac{f^{(k-1)}(c)h^{k-2}}{(k-2)!}+\dfrac{f^{(k)}(c+\theta_1 h )h^{k-1}}{(k-1)!},$$0\leq \theta_1 \leq 1$

и така понеже имаме много нули стигаме до следното уравнение(като разделим горните 2 уравнения)
$\dfrac{f(c+h)}{f'(c+h)} = \dfrac{1}{k}\dfrac{f^{(k)}(c+\theta h)}{f^{(k)}(c+\theta_1 h)}h$

При достатъчно малко $h$, $c+\theta h$ и $c+ \theta_1 h$ са достатъчно близо до $c$ и знаците на $f^{(k)}$ в този случай съвпадат(съвпадат с $f^{(k)}(c)$) и така
$sign\dfrac{f(c+h)}{f'(c+h)} = sign \ h$ (при достатъчно малко $h$)

Сега доказателство на теоремата:
Нека $V(x) = S(f(x),f'(x),f''(x),...,f^{(n)}(x))$ където $S= S^{+}$ или $S^{-}$
(1) Нека $x_0$ е нула на $f$ с кратност $k$, $f(x_0)=f'(x_0)=...=f^{(k-1)}(x_0) = 0, f^{(k-1)}(x_0) \neq 0$
картинка
$S(f(x_0+\epsilon),f'(x_0+\epsilon),f''(x_0+\epsilon),..,f^{k}(x_0+\epsilon)) = 0$
$S(f(x_0-\epsilon),f'(x_0-\epsilon),f''(x_0-\epsilon),..,f^{k}(x_0-\epsilon)) = k$
При преминаване през нула на $f$ с кратност $k$, броят на смените на знака във $V(x)$ намалява с $k$.
(2) Нека $x_0$ е нула на $f^{(i)}$ с кратност $k$. Т.е $f^{(i-1)}(x_0) \ne 0, f^{(i)}(x_0) = f^{(i+1)}(x_0) = \cdots = f^{(i+k-1)}(x_0) = 0,\ f^{(i+k)}(x_0) \ne 0$.
Имаме:

(3)
\begin{eqnarray} V(f^{(i-1)}(x_0 + \varepsilon), \dots, f^{(i+k-1)}(x_0 + \varepsilon), f^{(i+k)}(x_0 + \varepsilon)) &=& S(f^{(i-1)}(x_0), f^{(i+k)}(x_0)) \\ V(f^{(i-1)}(x_0 - \varepsilon), \dots, f^{(i+k-1)}(x_0 - \varepsilon), f^{(i+k)}(x_0 - \varepsilon)) &=& k + S(f^{(i-1)}(x_0), (-1)^k f^{(i+k)}(x_0)) \\ \end{eqnarray}

Следователно при преминаване през $k$кратна нула на $i$тата производна намалява с $k + S(f^{(i-1)}(x_0), (-1)^k f^{(i+k)}(x_0)) - S(f^(i-1)(x_0), f^{(i+k)}(x_0))$
(2.1) Ако $k$ е четно намалява с $k$;
(2.2) Ако $k$ е нечетно намалява или с $k-1$ или с $k + 1$ (т.е с четно число);

Следователно и в двата случая намалява с четно.
Забележка: Само намалянията от първи случай ни дават самите корени, тези от втория случай са по-скоро шум (четен), но не може без него.

Теорема на Декарт

Ако $f(x) = a_0 x^n + \dots + a_n$ е полином с реални коефициенти, тогава

(4)
\begin{align} Z(f, (0, +\infty)) \le S^-(a_0, a_1, \dots, a_n) \end{align}

И разликата между лявата и дясната страна е четно число.
Формулата е точна, ако дясната страна е равна на 1.

Доказателство: Разглеждаме всички производни до $n$тата. Съществува число $M > 0$, такова че за всяко $x \ge M$ всички производни нямат корени, т.е $f^{(i)}(x) \ne 0 \quad \forall i = \overline{0,n}$. Това е така, защото всички производни са полиноми, и те имат краен брой корени,следователно имат и максимален. Взимаме просто число, по-голямо от всички максимуми.
Сега остава а се уверим, че знака на всяка производна в точката $M$ съвпада със знака в безкрайност (защото няма как да си смени знака след $M$) и всъщност съвпада със знака на $a_0$ - от това зависи дали полинома клони към плюс/минус безкрайност. Сега използваме формулата на Бюдан-Фурие (предната):

(5)
\begin{eqnarray} Z(f, (0, +\infty)) &=& Z(f, (0, M)) \\ &\le& S^-(f(0), \dots, f^{(n)}(0)) - \underbrace{S^+(f(M), \dots, f^{(n)}(M))}_{0} \\ &=& S^-(a_n, 1! a_{n-1}, 2! a_{n-2}, \dots, n!a_0) \\ &=& S^-(a_n, \dots, a_0) \\ &=& S^-(a_0, \dots, a_n) \\ \end{eqnarray}
Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-NonCommercial-ShareAlike 3.0 License