\[ \def\P{\mathbf{P}} \def\O{\emptyset} \def\R{\mathbb{R}} \def\E{\mathbf{E}} \def\D{\mathbf{D}} \def\cov{\rm{cov}} \def\corr{\rm{corr}} \]
$\Omega$: összes kimenetel, eseménytér, nemüres halmaz
itt még nincsen valség, csak részhalmazok
$\omega \in \Omega$: elemi események,
$A\subset \Omega$: esemény
ezt pontosítani kellene mert általában nem tekintünk minden részhalmazt eseménynek
biztos esemény: $\Omega$
lehetetlen esemény: $\O$, üreshalmaz
$A+B$: valamelyik bekövetkezik
$A\cdot B$: mindegyik bekövetkezik
$\overline{A}$: $A$ nem következik be
$A-B=A\cdot \overline{B}$: $A$ bekövetkezik és/de $B$ nem
$A\subset B$: $A$ maga után vonja $B$-t
de Morgan
nem igaz hogy valamelyik $\equiv$ egyik sem: $\overline{A+B} = \overline{A}\cdot\overline{B}$
nem igaz hogy mindegyik $\equiv$ egyik sem: $\overline{A\cdot B} = \overline{A}+\overline{B}$
ezek tetszőleges számú eseményre igazak
ha $A\cdot B=\O$, akkor azt mondjuk hogy $A$ és $B$ kizáró események (diszjunktak)
a valószínűség egy függvény, $\P:\cal{A}\to {\rm [0,1]}$
$\cal{A}\subset 2^{\Omega}$, azaz $\Omega$ részhalmazazinak bizonyos rendszere ($\sigma$-algebra)
$\Omega, \O \in \cal{A}$
követelmények (azaz ilyennek kell lennie)
$\P(\Omega)=1$
$\P(A+B)=\P(A) + \P(B)$ ha $A\cdot B=\O$
ezt tetszőleges, megszámlálható páronként kizáró eseménysorozatra szokták megkövetelni: $\P(\sum_{k} A_{k})=\sum_{k}\P(A_{k})$
tulajdonságok:
$\P(\O)=0$
$\P(\overline{A})=1-\P(A)$
$A\subset B \implies \P(A)\le \P(B)$
$\P(A+B)=\P(A)+\P(B)-\P(A\cdot B)$
ez a szita formula 2 eseményre
$\Omega$ véges ($N$ elemű) és azt feltételezzük/tudjuk hogy az elemi események egyformán valószínűek
$\P(A)=\frac{K}{N}$ ahol $K$ az $A$ elemeinek száma
méret = terület/térfogat.
$\Omega \subset \R^{2,3}$ és "véletlenszerűen"/egyenletesen választunk pontot $\Omega$-ból.
$\P(A)=\frac{A\ \ \rm{mérete}}{\Omega\ {\rm mérete}}$
azt később látjuk majd hogy mit jelent egyenletesen húzni egy pontot mondjuk egy körlemezből.
a klasszikus kiszámolási mód az, amikor a méret a darabszám
$\P(A\vert B)=\frac{\P(A\cdot B)}{\P(B)}$
$\P(B)>0$
$A$ feltételes valsége $B$-re nézve
péÁfeltéveBé
$A$ valsége ha tudjuk, hogy $B$ bekövetkezett.
bizonyos plusz információ birtokában számoljuk a ki egy esemény valségét
ha $B$-rögzített, akkor a $\P_{B}$ halmazfüggvény egy valség
tehát pl. $\P_{B}(\overline{X})=1-\P_{B}(X)$ bármilyen $X$ eseményre
amikor $\P(A\vert B)=\P(A)$ akkor a plusz infó a $B$ bekövetkezéséről nem változtatja meg az esélyeket
mi más ez ha nem az $A$ és $B$ függetlensége?
$A$ és $B$ függetlenek, ha $P(A\cdot B)=\P(A)\cdot\P(B)$
ez az alak általánosabb, mert nulla valségű eseményeket is megenged.
ha feltesszük hogy $\P(B)>0$ akkor ez ugyanaz mint $\P(A)=\P(A\vert B)$
ha $\Omega = B_{1}+\ldots+B_{n}$ és páronként kizáró események
$\P(A)=\P(A\vert B_{1})\cdot\P(B_{1})+\ldots+\P(A\vert B_{n})\cdot\P(B_{n})$
ez a teljes valség tétele
ha ismerjük egy $A$ eseménymek egy teljes eseményrendszer tagjaira vonatkuzó feltételes valségeit akkor ki tudjuk számolni az $A$ valségét
a feltételes valségeket sokszor 1xű kiszámolni/ismertek/adottak.
a $B_{i}$-kre gondolhatunk úgy mint okokra/időben $A$-t megelőző történésekre, az $A$-ra mint okozatra/következményre.
$P(B_{k}\vert A) = \frac{\P(A\vert B_{k})}{\P(A)}=\frac{\P(A\vert B_{k})}{\P(A\vert B_{1})\cdot\P(B_{1})+\ldots+\P(A\vert B_{n})\cdot\P(B_{n})}$
a $B_{k}$ ("ok") bekövetkezési esélye ha tudjuk hogy az $A$ ("okozat") bekövetkezett
kétlépéses kísérleteknél hasznosak
egy $\Omega \to \R$ függvény
sokszor számokat rendelünk bizonyos eseményekhez és/de az hogy milyen elemi események vannak a háttérben nem fontos/nem érdekel minket
csoportosítás
diszkrét: az értékkészlete véges vagy megszámlálhatóan végtelen
folytonos: az értékkészlete nem megszámlálható (nem pontosan ez, de nem részletezzük)
hagyományosan görög betűkkel nevezzük meg őket - egy kis emlékeztető:
$\xi$ - kszí
$\eta$ - éta
$\omega$ - ómega
$\lambda$ - lambda
$\varphi$ - fí
az értékkészlet egy (esetleg véges) sorozat $x_1,x_2,\ldots$
rövidítés: dvv
$p_k=\P(\xi=x_k)$
$p_k\ge 0$ és $\sum p_k = 1$
a későbbi sűrűségfüggvénnyel analóg fogalom
az intenzitása/erőssége a lehetséges értékeknek
$0/1$ értéket vesz fel (indikátor)
paramétere egy $0\le p \le 1$ valós szám
$x=(0,1),\ \ p_x=(1-p,p)$
elvégünk egy kísérletet, és figyeljük hogy egy A
esemény bekövetkezik vagy sem (1/0).
$0,1,\ldots,n$ értékeket veszi fel $p_{k}=\binom{n}{k} p^{k}(1-p)^{n-k}$ valséggel
paraméterei $n,p$ egy egész szám és egy valség
$n$ darab független Bernoulli összege
using Distributions, Plots d = Binomial(10,0.4) minta = rand(d, 1000) histogram(minta; bins = -0.5:10.5, normalize=:pdf, label = nothing) xx = 0:10 yy = pdf.(d,xx) scatter!(xx, yy, label = nothing,ylimits=(0,0.3))
addig végezzük el a kísérletet amíg be nem következik egy $A$ esemény
az első bekövetkezésig eltelt lépések/kísérletek száma
$0,1,\ldots,n,\ldots$ értékeket veszi fel $p_{k}=p(1-p)^{k}$ valséggel
paraméterei $p$ egy valség
using Distributions, Plots d = Geometric(0.1) minta = rand(d, 1000) a,b=extrema(minta) histogram(minta; bins = a-0.5:b+0.5, normalize=:pdf, label = nothing) xx = a:b yy = pdf.(d,xx) scatter!(xx, yy, label = nothing, ylimits=(0,0.15))
$0,1,\ldots,n,\ldots$ értékeket veszi fel $p_{k}=e^{-\lambda} \frac{\lambda^{k}}{k!}$ valséggel
paraméterei $\lambda>0$ intenzitás
szoros kapcsolatban a Binomiális-sal
$\E(\xi)=\sum p_k x_k$
az értékek súlyozott átlaga, a súlyok a megfelelő valségek
feltétel: $\sum p_k \vert x_k\vert \lt \infty$
$\E$ expektáció, átlag
néha kényelmesebb zárójel nélkül írni: $\E\xi, \ \E\xi^2,\ (\E\xi)^2$
a várható érték lineáris: $\E(\lambda\xi + \eta)=\lambda\E(\xi)+\E(\eta)$
megfelelő ${\rm h}:\R\to\R$ függvénnyel: $\E({\rm h}(\xi))=\sum p_k{\rm h}(x_k)$
például megfelel a ${\rm h}$ ha folytonos és $\sum p_k\vert{\rm h}(x_k)\vert \lt \infty$
azaz nem kell "újra" meghatározni az értékkészletet és a valségeloszlást
$\D^2(\xi)=\E(\xi - \E\xi)^2$
feltétel: $\sum p_k \vert x^2_k\vert \lt \infty$
$=\sum p_{i}\cdot(x_{i} - \E\xi)^2$
$\D^{2}(\xi)=\E\xi^2-(\E\xi)^2$ (Steiner-tétel)
$=\sum p_{i}\cdot x^2_{i} - (\E\xi)^2$
$\D(\xi)=\sqrt{\D^2(\xi)}$
ez már ugyanolyan skálán van mint a $\xi$
$\cov(\xi,\eta)=\E\left[(\xi-\E\xi) \cdot (\eta-\E\eta)\right]$
az előjele arról ad infót, hogy mennyire "mozognak" ugyanabba/ellentétes irányba a saját átlagukhoz képest
akármilyan nagy/kicsi lehet
$\cov(\xi,\eta)=\E(\xi\cdot\eta)-(\E\xi)\cdot(\E\eta)$
$=\sum x_{i}\cdot y_{j}\cdot \P(\xi=x_i, \eta=y_j)-(\E\xi)\cdot(\E\eta)$
$\corr(\xi,\eta)=\frac{\cov(\xi,\eta)}{\D(\xi)\cdot \D(\eta)}$
$-1\le \corr(\xi,\eta) \le 1$ (CBS-egyenlőtlenség)
a lineáris kapcsolat erősségét méri két valségi változó között.
$\corr(\xi,\eta) = _{+1}^{-1}$ pontosan akkor, ha $\xi=a\cdot\eta+b$, ahol $a _{\gt 0}^{\lt 0}$
korrelálatlanok: $\corr(\xi,\eta)=0$
$p_{i,j}=\P(\xi=x_{i},\eta=y_{j})$
kontingencia táblázat
$\sum_{i,j}p_{i,j}=1$
$\sum_{j} p_{i,j}=\P(\xi=x_{i})$ (marginális, $\xi$ valségeloszlása)
$\sum_{i} p_{i,j}=\P(\eta=y_{j})$ (marginális, $\eta$ valségeloszlása)
$\xi$ és $\eta$ függetlenek ha az együttes-valségeloszlás felbomlik a marginálisok szorzatára
azaz $\P(\xi=x_{i},\eta=y_{j}) = \P(\xi=x_{i})\cdot \P(\eta=y_{j})$
ha $\xi,\eta$ függetlenek akkor
$\E(\xi\cdot\eta)=\E(\xi)\cdot\E(\eta)$
$\cov(\xi,\eta)=\corr(\xi,\eta)=0$
$F_{\xi}: \R \to [0,1]$
ha nem okoz félreértést csak $F(x)$-et írunk
$F(x) = \P(\omega : \xi(\omega)\lt x) = \P(\xi \lt x)$
$_{\lim_{x\to -\infty}}^{\lim_{x\to +\infty}} F(x)= _{0}^{1}$
monoton nemcsökkenő és balról folytonos
diszkrét esetben egy lépcsős függvény
$\P(\xi \in {\rm [a,b)})=F(b)-F(a)$
intervallumba esés valsége
balról zárt jobbról nyílt az intervallum (ez néha nem fontos)
van sűrűségfüggvénye, azaz:
$F(x)=\int_{-\infty}^{x} f(y)dy$ valmilyen $f\ge 0$ függvénnyel
$\int_{-\infty}^{+\infty} f(y)dy=1$
$\P(\xi \in {\rm [a,b)})=F(b)-F(a)=\int_{a}^{b} f(y)dy$
Newton-Leibniz formula
$F'=f$
$\Delta \cdot f(x) \approx F(x+\frac{\Delta}{2})-F(x-\frac{\Delta}{2})=\P(\xi\in [x-\frac{\Delta}{2},x+\frac{\Delta}{2}))\ \ (\Delta\ \ {\rm kicsi})$
$\xi \sim U(a,b)\ \ a\lt b$ valósak
\[ f(x) = \begin{cases} \frac{1}{b-a} & {\rm ha }\ \ x\in [a,b]\\ 0 & {\rm egyébként}\\ \end{cases} \]
using Distributions, Plots minta = rand(Uniform(2,5), 1000) histogram(minta; bins = 10, normalize=:pdf, label = nothing) plot!([2,5],[1/3,1/3], label = nothing)
$\xi \sim exp(\lambda)\ \ \lambda>0$ valós
\[ f(x) = \begin{cases} \lambda e^{-\lambda x} & \ \ {\rm ha} \ \ x>0\\ 0 & {\rm egyébként }\\ \end{cases} \]
using Distributions, Plots d = Exponential(2) minta = rand(d, 1000) histogram(minta; bins = 10, normalize=:pdf, label = nothing) xx = minimum(minta):0.01:maximum(minta) yy = pdf.(d,xx) plot!(xx, yy, label = nothing)
$\xi \sim {\cal N}(\mu,\sigma)\ \ \mu,\sigma>0$ valósak
\[ f(x) = \frac{1}{\sqrt{2\pi}\sigma} e^{-\frac{(x-\mu)^2}{2\sigma^2}} \]
using Distributions, Plots d = Normal(10,1) minta = rand(d, 1000) histogram(minta; bins = 10, normalize=:pdf, label = nothing) xx = minimum(minta):0.01:maximum(minta) yy = pdf.(d,xx) plot!(xx, yy, label = nothing)
$\E(\xi)=\int_{-\infty}^{\infty} x f(x) {\rm d}x$
feltétel: $\int_{-\infty}^{\infty} \vert x\vert f(x) {\rm d}x \lt \infty$
a várható érték itt is lineáris: $\E(\lambda\xi + \eta)=\lambda\E(\xi)+\E(\eta)$
megfelelő ${\rm h}:\R\to\R$ függvénnyel: $\E({\rm h}(\xi))=\int_{-\infty}^{\infty} {\rm h}(x) f(x) {\rm d}x$
például megfelel a ${\rm h}$ ha folytonos és $\int_{-\infty}^{\infty} \vert{\rm h}(x)\vert f(x) {\rm d}x$
$\D^2(\xi)=\E(\xi - \E\xi)^2$
feltétel: $\E\xi^{2} \lt \infty$
$\D^{2}(\xi)=\E\xi^2-(\E\xi)^2$ (Steiner-tétel)
a szórás: $\D(\xi)=\sqrt{\D^2(\xi)}$
ez már ugyanolyan skálán van mint a $\xi$
$F_{\xi,\eta}(x,y)=\P(\xi\lt x,\eta\lt y)$
def: függetlenek, ha $F_{\xi,\eta}(x,y)=F_{\xi}(x) F_{\eta}(y)$
ha létezik egy olyan $f_{\xi,\eta}(x,y)$ melyre $F_{\xi,\eta}(x,y)=\int_{-\infty}^{y}\int_{-\infty}^{x} f_{\xi,\eta}(u,v) {\rm d}u {\rm d}v$ akkor
a $\xi,\eta$ együttes eloszlását abszolút folytonosnak nevezzük.
ha $\xi,\eta$ együttes eloszlása abszolút folytonos akkor a függetlenség: $f_{\xi,\eta}(x,y)=f_{\xi}(x) f_{\eta}(y)$
$P(\vert \xi - \E\xi\vert \ge \delta) \le \frac{\D^2\xi}{\delta^2}$
spec. eset. (és megfordítás) - $\sigma=\D\xi$ és $\mu=\E\xi$ jelölésekkel:
$P(\vert \xi - \E\xi\vert \ge k\sigma) \le \frac{\sigma^2}{k^2\sigma^2}=\frac{1}{k^2}$
$P(\vert \xi - \E\xi\vert \lt k\sigma) \ge 1-\frac{1}{k^2}$
pl. $k=2$: azaz minden valségi változó az "ideje" legalább 75%-át a várható értékének $2\sigma$ sugarú környezetében tölti
$P(\vert \xi_n - \xi\vert \gt \delta) \to 0$ ha $n\to\infty$
ha $\xi_n$ páronként független, azonos eloszlású sorozat és létezik $\mu=\E\xi_1$, akkor $\frac{\xi_1+\ldots+\xi_n}{n}\to \mu$ sztochasztikusan.
$P(\omega: \xi_n(\omega) \to \xi(\omega))=1$
ha $\xi_n$ páronként független, azonos eloszlású sorozat és létezik $\mu=\E\xi_1$, akkor $\frac{\xi_1+\ldots+\xi_n}{n}\to \mu$ majdnem biztosan.
$\xi_n$ páronként független, azonos eloszlású sorozat és létezik $\sigma^2=\D^2\xi_1$
$P(\frac{S_{n}-n\mu}{n\sigma}\lt x)\to \Phi(x)$ minden $x$-re.
$\mu=\E\xi_1,\ \ \ S_n = \xi_1+\ldots+\xi_n$ és $\ \Phi$ a standard normális eloszlás fv.