Fiches de révision maths prépa scientifique : analyse, algèbre, probabilités. Programme MPSI/PCSI : suites, séries, espaces vectoriels, intégration, EDO.
Deux ans pour condenser ce que la fac fait en trois. Le programme s'articule en trois blocs : analyse, algèbre, probabilités, chacun cumulant des outils de plus en plus puissants. Aux concours (X, ENS, Mines-Ponts, Centrale, CCINP, e3a), les correcteurs ne récompensent pas le calcul brut — ils récompensent la rigueur du raisonnement et la capacité à articuler plusieurs notions sur un même problème.
Cette fiche couvre l'essentiel du programme MPSI / PCSI première année, avec les définitions, théorèmes et techniques de calcul à connaître par cœur.
Une suite (uₙ) converge vers ℓ si ∀ε > 0, ∃ N tel que n ≥ N ⟹ |uₙ − ℓ| < ε. Cette définition formelle est à savoir réécrire sans hésitation : elle est testée à l'oral dans toutes les grandes écoles.
Théorèmes clés :
Suites usuelles :
Continuité, dérivabilité : continuité ⟸ dérivabilité, mais la réciproque est fausse (fonction valeur absolue en 0). Le théorème des valeurs intermédiaires et le théorème de Rolle sont les fondations de l'analyse.
Théorème des accroissements finis (TAF) : si f est continue sur [a, b] et dérivable sur ]a, b[, alors ∃ c ∈ ]a, b[ tel que f(b) − f(a) = f'(c)(b − a). Conséquence directe : inégalité des accroissements finis, indispensable pour majorer |f(x) − f(y)|.
Formules de Taylor :
Développements limités à connaître par cœur en 0 :
L'intégrale de Riemann d'une fonction continue par morceaux sur [a, b] se construit par sommes de Darboux. Les propriétés à mobiliser : linéarité, positivité, inégalité de la moyenne, relation de Chasles.
Techniques de calcul :
EDO d'ordre 1 : y' + a(x)·y = b(x). Solution générale = solution particulière + solutions de l'équation homogène. La solution homogène s'écrit y_h = K · exp(−A(x)) où A est une primitive de a.
EDO d'ordre 2 à coefficients constants : y'' + py' + qy = f(x). Polynôme caractéristique r² + pr + q = 0. Selon le discriminant Δ :
Pour la solution particulière, méthode de variation de la constante ou recherche par essai (polynôme, exponentielle, sin/cos selon la forme du second membre).
Un groupe (G, ·) vérifie : associativité, élément neutre, tout élément a un symétrique. Il est abélien si la loi est commutative. Exemples : (ℤ, +), (ℝ*, ×), (Sₙ, ∘) groupe symétrique.
Un anneau (A, +, ×) : (A, +) est un groupe abélien, × est associative et distributive sur +. Si × est commutative, l'anneau est commutatif. Un corps est un anneau commutatif où tout élément non nul est inversible.
Un espace vectoriel sur 𝕂 (= ℝ ou ℂ) est un ensemble E muni de l'addition et de la multiplication par un scalaire. Les axiomes (8 en tout) doivent être maîtrisés.
Sous-espace vectoriel : F ⊂ E est un sev ssi 0 ∈ F, F est stable par + et par · scalaire.
Famille libre, génératrice, base : (e₁, …, eₙ) est libre si Σ λᵢ·eᵢ = 0 ⟹ ∀i, λᵢ = 0. Génératrice si Vect(eᵢ) = E. Base si libre et génératrice. Le théorème de la dimension garantit que toutes les bases d'un ev de dimension finie ont le même cardinal.
Application linéaire f : E → F vérifie f(λx + μy) = λf(x) + μf(y). Noyau Ker(f) = {x : f(x) = 0}, image Im(f) = f(E). Théorème du rang : dim(E) = dim(Ker f) + dim(Im f). Une application linéaire entre espaces de même dimension est bijective ssi injective ssi surjective.
Une matrice M ∈ ℳₙ(𝕂) représente une application linéaire dans une base donnée. Le produit matriciel correspond à la composition d'applications.
Inverse : M est inversible ⟺ det(M) ≠ 0 ⟺ rg(M) = n ⟺ M est bijective. Calcul par la comatrice ou par pivot de Gauss.
Déterminant : forme n-linéaire alternée. Propriétés essentielles :
Diagonalisation : M est diagonalisable ssi le polynôme caractéristique est scindé et la dimension de chaque sous-espace propre est égale à la multiplicité de la valeur propre. Test rapide : matrice symétrique réelle ⟹ diagonalisable dans une base orthonormée (théorème spectral).
En MPSI/PCSI, les probabilités sont discrètes (les variables aléatoires à densité arrivent en deuxième année).
Un espace (Ω, 𝒜, P) où Ω est l'univers, 𝒜 une tribu (σ-algèbre), P une mesure de probabilité. Les axiomes de Kolmogorov : P(Ω) = 1, P(∅) = 0, σ-additivité.
Probabilité conditionnelle : P(A|B) = P(A ∩ B) / P(B). Formule des probabilités totales : si (Bᵢ) est un système complet d'événements, P(A) = Σ P(A|Bᵢ)·P(Bᵢ). Formule de Bayes : P(B|A) = P(A|B)·P(B) / P(A).
Loi, espérance E(X), variance V(X) = E(X²) − E(X)². Linéarité de l'espérance : E(aX + bY) = aE(X) + bE(Y), toujours valable. La variance n'est linéaire qu'avec X et Y indépendantes : V(X + Y) = V(X) + V(Y).
Lois usuelles à mémoriser :
Trois conseils essentiels qui font la différence :
L'IA d'EduFiche peut générer en quelques secondes une fiche personnalisée à partir de tes propres polycopiés de prépa. Tu uploades ton cours, l'IA te restitue la synthèse structurée que tu peux annoter et imprimer pour les colles et les DS.