probabilités-statistiques 2

Statistiques

On cherche à étudier le caractère aléatoire de n expériences fournissant les résultats chiffrés x_1,..,x_n. Les n expériences sont réalisées à l’identique et indépendamment les unes des autres.

Nous faisons donc l’hypothèse que l’observation (x_1,..,x_n) provient de n variables aléatoires X_1,..,X_n identiquement distribuées. La famille (X_1,..,X_n) est appelée un n-échantillon et la loi commune des X_i est notée \mathcal L(X). L’aléa lié à notre expérience est tel que X_1 = x_1,..., X_n = x_n .

Le problème fondamental de la Statistique est de déterminer la loi commune des X_i supposée inconnue à partir des résultats (X_1,..,X_n). On ne donnera pas de réponse absolue, on cherchera à déterminer une réponse approchée « la plus probable » selon des critères définis à l’avance.

Pour obtenir des résultats précis et intéressants, nous faisons un certain nombre d’hypothèses liées à l’expérience effectuée sur la loi commune \mathcal L(X) des variables(X_1,..,X_n) de l’échantillon, les différentes lois considérées possibles a priori pour les variables X_i sont les P_\theta , \theta \in \Theta (on prédéfinit une famille de loi avec lesquelles il semble très probable de devoir travailler)

Continuer la lecture de probabilités-statistiques 2

probabilité-statistiques 1

\bullet On appelle univers, et on note \Omega, l’ensemble des issues liées à une expérience aléatoire.

On considère l’ensemble \A, appelé tribu, des parties de \Omega obtenues par unions finies ou dénombrables d’éléments de \Omega ainsi que par passage au complémentaire. Les éléments de \A seront appelés évènements.

\bullet On appelle mesure sur \A toute fonction \mu :

\;\;\;\;Positive: \mu(A)\geq 0 , \forall A \in \A

\;\;\;\;Additive: C\cap D=\emptyset implique \mu(C\cup D) =\mu (C)+ \mu(D)

Si \mu(\Omega)=1 , on dit que \mu est une probabilité sur \Omega que nous noterons désormais P

\bullet \forall B tel que P(B) \neq 0 on appelle probabilité conditionnelle, et on note P_B , la probabilité définie sur \Omega par

P_B(A)= \dfrac{ P(A\cap B)} {P(B)} \forall A \in \A

On retiendra : P_B(A)= \dfrac{P_A(B). P(A)} {P(B)} )

Si (E_i)_{1\leq i\leq n} est une partition de \Omega, (E_i\cap E_j =\emptyset et \displaystyle\bigcup_{i=1}^{n} E_i= \Omega ), on a alors pour tout évènement A :

P(A) = \displaystyle\sum_{n=1}^{n} P_{E_i}(A) \times P(E_i)

\bullet On appelle variable aléatoire toute application X d’un espace probabilisé (\Omega, \A , P) dans \R et on appelle loi de X la mesure P_X définie sur \R par : P_X(A)=P(X^{-1}(A)) ,\forall A \in \R, que l’on note généralement P(X \subset A)

Continuer la lecture de probabilité-statistiques 1

géométrie projective, exemple de calculs(2)

\bullet Soit D une droite affine d’équation f et soient a, b deux points distincts du plan affine. On suppose que D coupe (ab) en m. On a les propriétés suivantes :

1) On a m =\dfrac{f(b)a - f(a)b}{f(b) - f(a)}.

2) On a la formule :\dfrac{\overline{ma}}{\overline{mb}}=\dfrac{f(a)T(b)}{f(b)T(a)}

\bullet \underline{\text{Théorème}\; \text{de}\; \text{Thalès}}

Soient A,B,C trois droites parallèles. Deux droites D,D' coupent respectivement A,B,C en a, b, c ; a', b', c'.

On a la formule : \dfrac{\overline{ab}}{\overline{ac}}=\dfrac{\overline{a'b'}}{\overline{a'c'}}

En effet, soit f une équation de A, on a:
\dfrac{\overline{ab}}{\overline{ac}}=\dfrac{f(b)T(c)}{f(c)T(b)} et \dfrac{\overline{a'b'}}{\overline{a'c'}} =\dfrac{f(b')T(c')}{f(c')T(b')} . Mais, commeB = (bb') est parallèle à A on a f(b)T(b') =f(b')T(b) et de même, f(c)T(c') = f(c')T(b).
Le résultat s’ensuit.

Exemple, situation 1, (T=x+y+z).

Rendered by QuickLaTeX.com

Continuer la lecture de géométrie projective, exemple de calculs(2)

Une journée sans Maths …