Тема 06

Непрекъснатост на функция - дефиниция, локални свойства.
Непрекъснатост на основните елементарни функции.

Непрекъснатост на функция

За всички дефиниции ще приемаме за дадено следното:
Функцията $f(x)$ е дефинирана върху множеството $X$ $(X \subset R)$, а точката $x_0$ е точка на сгъстяване за $X$.

Дефиниция
Казваме, че Функцията $f(x)$ е непрекъсната в точката $x_0$ когато тя притежава граница в тази точка и освен това е изпълнено:

(1)
\begin{align} \underset{x \to x_0}\lim f(x) = f(x_0) \end{align}

Освен това, за изолирани точки $x_1$ от $X$ (такива, които не са точки на сгъстяване) по дефиниция приемаме, че $f(x)$ е непрекъсната.

Разликата между дефинициите за граница на функция в точка и за непрекъснатост на функция в точка е съвсем малка. Понятието непрекъснатост е по-силно, защото всяка непрекъсната в $x_0$ функция има граница в $x_0$ но обратното невинаги е вярно.

Естествено, можем да конструираме дефиниции за непрекъснатост много подобни на тези за граница. Забележете, че основната разлика е, че ако досега доказвахме, че функцията се "приближава" на произволно малко разстояние от някаква граница $L$, то сега ще доказваме същото, но точно за стойността $f(x_0)$.


Дефиниция на Коши

Казваме, че $f(x)$ е непрекъсната в $x_0$, ако:
за произволно малко число $\epsilon$ можем да намерим такова число $\delta$, че от $| x - x_0 | < \delta$ да следва $| f(x) - f(x_0) | < \epsilon$:

(2)
\begin{align} \forall \epsilon > 0,\ \exists \delta = \delta(\epsilon) > 0,\ \forall x \in \mathrm M,\ |x - x_0| < \delta \Longrightarrow |f(x) - f(x_0)| < \epsilon \end{align}

Единствената разлика между тази дефиниция, и дефиницията за граница, е че тук липсва условието $x \ne x_0$. Тъй като изразът $|f(x) - f(x_0)|$ при $x_0$ приема стойност 0, то той ще бъде изпълнен за всяко епсилон, ето защо няма проблем да включим $x_0$ в 'списъка' със стойности, които може да заема $x$.

Дефиницията важи и в двете посоки.
Тоест, можем да твърдим и, че ако за всяко $\epsilon$ можем да намерим $\delta$ изпълняващо условието, то $f(x)$ е непрекъсната в $x_0$


Дефиниция на Хайне

Казваме, че $f(x)$ е непрекъсната в $x_0$ ако при произволен избор на редицата:

(3)
\begin{eqnarray} & &X = \{ x_i \}_{i=1}^{+\infty} : X \subset M. \{x_i \}_{i=1}^{+\infty} \longrightarrow x_0 \\ & &\Longrightarrow\\ & & F = \{ f(x_i) \}_{i=1}^{+\infty} \longrightarrow f(x_0) \end{eqnarray}

Т.е при произволна безкрайна редица, клоняща към $x_0$ трябва съответната редица от функционални стойности да клони към $f(x_0)$

Забележете, че и тук липсва изискването $x_i \ne x_0$, по същата причина, поради която липсва и в дефиницията на Коши.
Дефиницията отново важи и в двете посоки. Ако $f(x)$ е непрекъсната, за коя да е редица $X$ отговаряща на условията можем да твърдим, че съответстващата на нея редица $F$ клони към $f(x_0)$.


Свойства на непрекъснатостта

Естествено, можем да се позоваваме на свойствата за граници и когато работим с непрекъснати функции, защото, за да е непрекъсната функцията в една точка, трябва да съществува нейната граница в нея.
Също така, можем да говорим за непрекъснатост отляво и непрекъснатост отдясно по същия начин, както и за леви и десни граници.
Освен тях, ще докажем и следните свойства:

Свойство 1

Ако $f(x_0) \ne 0$, следва че за някое $\delta$ функцията $f(x)$ си запазва знака върху $(x_0-\delta,x_0+\delta)$ .

(4)
\begin{array} {l} f(x_0) \ne 0 \\ \Rightarrow \exists \delta > 0 : \forall x \in \mathrm X,\ |x - x_0| < \delta : f(x) > 0\ (< 0)\\ \end{array}

Доказателство:


Важно е да отбележи, това е свойство на непрекъснатост на функция, но не на граница на функция.
Следният пример илюстрира точно това:

Свойство 2

Можем да извършваме аритметични действия с две функции непрекъснати в точката $x_0$ и получената функция отново ще бъде непрекъсната в $x_0$.
Формална дефиниция:
$f(x),\ g(x)$ - функции, непрекъснати в точката $x_0$
$h(x) = (f+g)(x) = f(x) + g(x)$ е непрекъсната в $x_0$
$h(x) = (f-g)(x) = f(g) - g(x)$ е непрекъсната в $x_0$
$h(x) = (fg)(x) = f(x)*g(x)$ е непрекъсната в $x_0$
$h(x) = \left(\dfrac{f}{g}\right)(x) = \dfrac{f(x)}{g(x)}$ е непрекъсната в $x_0$ когато $g(x_0) \ne 0$.

Доказателството на това свойство е изключително елементарно, тъй като първо трябва да докажем, че границите на новополучените функции съществуват в $x_0$ (но това е свойство на граница на функция, което беше доказано в предишната глава), а след това - че са равни на стойността на $h(x)$ в точката $x_0$, което отново следва по очевиден път от свойствата на граница.


Свойство 3

Това свойство поставя условия, при които можем да твърдим, че една съставна функция е непрекъсната в дадена точка.

Съставна функция (или още "функция от функция") ще наричаме функция от следния вид:

(7)
\begin{equation} h(x) = g(f(x)). \end{equation}

Ако имаме съставна функция $h(x) = g( f(x) )$ и е изпълнено, че:
g(y) е непрекъсната в точката $y_0$
f(x) е непрекъсната в точката $x_0$
$f(x_0) = y_0$
То тогава h(x) ще е непрекъсната в точката $x_0$.

Доказателство


Непрекъснатост на елементарните функции

Ще докажем, че всички елементарни функции са непрекъснати.
Това включва

  • константните функции
  • идентитетът(f(x) = x)
  • полиномите $( P(x) = a_{n}x^n + a_{n-1}x^{n-1} + \cdots + a_{1}x + a_0 )$
  • рационалните функции ( $\frac{P(x)}{Q(x)}$, P(x), Q(x) - полиноми)
  • експоненциалните функции $(a^x)$
  • степенната функция $(x^a), a \in R$
  • логаритмите
  • тригонометричните функции $(\sin(x), \tg(x) \cdots)$
  • обратните на тригонометричните функции $(\arcsin(x), \arctan(x), \cdots)$

Константни функции

За всяка константна функция свойството е тривиално. За всяка стойност на $\epsilon$ всяка стойност на $\delta$ ще удовлетворява дефиницията на Коши.

(11)
\begin{array} {l} f(x) = C, & C \in R, x \in R \\ \forall \epsilon,\ \forall \delta: \\ \forall x \in X, | x - x_0 | < \delta \\ \Rightarrow | f(x) - f(x_0) | = 0 < \epsilon \\ \end{array}

Идентитет

За функцията f(x) = x, дефинирана за всяко $x \in R$ при дадено $\epsilon$ можем да изберем произволно $\delta < \epsilon$ и за него дефиницията на Коши ще е изпълнена.

(12)
\begin{array} {l} f(x) = x, & x \in R \\ \forall \epsilon,\ \forall \delta < \epsilon \Rightarrow \\ \forall x \in X, | x - x_0 | < \delta \\ \Rightarrow | f(x) - f(x_0) | <\delta < \epsilon \\ \Rightarrow | f(x) - f(x_0) | < \epsilon \\ \end{array}

Полиноми

Сега ще докажем непрекъснатостта на полиномиалните функции. Всеки полином има следния вид:

(13)
\begin{align} f(x) = a_{n}x^n + a_{n-1}x^{n-1}, \cdots, a_{1}x^1, a_{0} \end{align}

Можем обаче да го представим и в следния вид:

(14)
\begin{align} f(x) = ( ( \cdots ((a_{n})*x + a_{n-1})*x + \cdots )*x + a_1)*x + a_0 \end{align}

В тази му форма става очевидно, че можем да представим f(x) като краен брой събирания и умножения на двете функции:
f(x) = x и f(x) = C
Но за тях вече сме доказали свойство, както и сме доказали, че ако извършваме аритметични действия с непрекъснати функции получаваме отново непрекъсната функция ([[anal106#toc5 | свойство 2]]).
Следователно всеки полином е непрекъснат във всяка точка от дефиниционното си множество(цялата реална права).


Рационални функции

Рационалните функции се дефинират като частно на два полинома:
r(x) = f(x)/g(x), където f(x), g(x) са полиноми.
Следователно, поради свойство 2 можем веднага да заключим, че всички рационални функции са непрекъснати в дефиниционната си област(всички реални числа x, при които $g(x) \ne 0$).


Експоненциална функция

Ще докажем, че $\underset{x \to x_0}\lim a^x = a^{x_0}$ За всяко a и всяко x.
За целта първо ще ограничим a > 1. Ще докажем непрекъснатостта в този случай и ще сведем останалите случаи до него.

(15)
\begin{align} \underset{x \to x_0}\lim a^x = a^{x_0}a^{x - x_0} = a^{x_0} \underset{x \to x_0}\lim a^{x - x_0} \end{align}

Както е известно, $a^0 = 1$, така че за да бъде изпълнено равенството, трябва да докажем, че $\underset{x \to 0}\lim a^{x} = 1$.
Ще направим това по добре познатия начин - вземаме произволно $\epsilon$ и намираме такава стойност $\delta_1$, че при $|x - 0| < \delta_1$, да следва: $|a^x - 1| < \epsilon$

Нека първо да докажем, че функцията е непрекъсната отдясно. Вземаме $\delta = | \log_a(1+\epsilon) |$.
Знаем, че $a^x > 1$, трябва да докажем, че $a^x < 1 + \epsilon$ Тогава имаме:

(16)
\begin{array} {l} | x | < \delta_1, & x > 0 \\ \Rightarrow x < \delta_1 \\ \Rightarrow |a^x - a^0 | < | a^{\delta_1} - a^0 | = | a^{\log_a(1+\epsilon) - 1 | = | 1 + \epsilon - 1 | = \epsilon \\ \Rightarrow |a^x - 1 | < \epsilon \Rightarrow a^x - 1 < \epsilon \Rightarrow 1< a^x < 1 + \epsilon \end{array}

Което търсехме да докажем.
Сега по същия начин доказваме твърдението от лявата страна. Този път вземаме $\delta_2 = | \log_{a}(1-\epsilon) |$. Гарантирано имаме $a^x < 1$, но трябва да докажем, че $a^x > 1 - \epsilon$:

(17)
\begin{array} {l} \log_{a}(1-\epsilon) < 0 \Rightarrow |\delta_2| = - (\log_{a}(1-\epsilon)) \\ | x | < \delta_2, & x < 0 \\ \Rightarrow x > \log_{a}(1-\epsilon) = -\delta_2 \\ \Rightarrow |a^x - a^0 | > | a^{- \delta_2} - a^0 | = | a^{\log_a(1-\epsilon) - 1 | = | 1 - \epsilon - 1 | = |- \epsilon| \\ \Rightarrow |a^x - 1 | > \epsilon \\ \Rightarrow 1 - a^x > \epsilon \Rightarrow 1 - \epsilon > a^x > 1 \end{array}

След като доказахме, че $a^x$ е непрекъсната както отляво, така и отдясно в 0(а и лявата и дясната нейни граници в 0 са равни), можем да заключим, че ако вземем $\delta = min(\delta_1, \delta_2)$, то $a^x$ ще бъде непрекъсната в 0 при а > 1.
Използвайки, че:

(18)
\begin{align} \underset{x \to x_0}\lim a^x = a^{x_0}a^{x - x_0} = a^{x_0} \underset{x \to x_0}\lim a^{x - x_0} \end{align}

стигаме до извода, че $a^x$ е непрекъсната при всяко x когато a>1.

Когато a = 1 изводът е тривиален, защото при всяко x $a^x = 1$).
Когато a < 1 Можем бързо да сведем случая до вече решена задача:

(19)
\begin{array} {l} a^x = a^{(-1)*(-1)*x} \\ a^x = \frac{1}{a^{-x}} \\ \end{array}

$b = \frac{1}{a} > 1$ следователно $b^x$ е непрекъснато за всяко x и твърдението е доказано

Отново, $a^x$ е непрекъсната при всяко реално a и при всяко реално x.

Тригонометрични

Ето как се случват нещата за синус.
Ще използвам директно определението за непрекъснатост. Разглеждаме

(20)
\begin{align} |\sin(x) - \sin(x_0)| \overset{?}< \epsilon\\ \end{align}
(21)
\begin{eqnarray} |\sin(x) - \sin(x_0)| &=& |2\sin(\frac{x-x_0}{2})\cos(\frac{x+x_0}{2})|\\ &=& |2\sin(\frac{x-x_0}{2})| |\cos(\frac{x+x_0}{2})|\\ &<& |2\sin(\frac{x-x_0}{2})| . 1\\ \end{eqnarray}

т.е за да си гарантираме, че горния израз е по-малък от $\epsilon$ трябва да използваме $\arcsin$:

(22)
\begin{eqnarray} |2\sin(\frac{x-x_0}{2})| &<& \epsilon\\ |\sin(\frac{x-x_0}{2})| &<& \dfrac{\epsilon}{2}\\ \left|\dfrac{x-x_0}{2}\right| &<& \arcsin(\frac{\epsilon}{2})\\ \dfrac{|x-x_0|}{|2|} &<& \arcsin(\frac{\epsilon}{2})\\ |x-x_0| &<& 2\arcsin(\frac{\epsilon}{2}) = \delta(\epsilon)\\ \end{eqnarray}

Ето как с анализ достигнахме до функцията $\delta$, сега който иска за упражнение да си направи доказателството в правата посока (т.е като вече знае колко е $\delta$, да се пробва да докаже, че $|sin(x) - sin(x_0)| < \epsilon,\hspace{3 mm} \forall x : |x - x_0| < \delta$

Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-NonCommercial-ShareAlike 3.0 License