Intégrale dépendant d’un paramètre : Cours

Imaginez que vous disposiez d’une fonction de deux variables \( f(x, t) \) et que, pour chaque valeur fixée de \( x \), vous calculiez l’intégrale de \( f \) par rapport à \( t \) sur un intervalle donné. Vous obtenez ainsi une nouvelle fonction, uniquement en \( x \). C’est précisément ce qu’on appelle une intégrale dépendant d’un paramètre. Cette construction, apparemment simple, est au cœur de nombreux objets fondamentaux de l’analyse : la fonction Gamma d’Euler, la transformée de Laplace, la transformée de Fourier, et bien d’autres encore naissent toutes de ce mécanisme. Comprendre quand une telle fonction est continue, dérivable, ou peut être intégrée à nouveau, est un enjeu majeur des cours de deuxième et troisième année de classes préparatoires et de licence de mathématiques.

Dans cette leçon, nous allons construire progressivement tous les outils nécessaires : définition rigoureuse, hypothèses indispensables, théorèmes de régularité (continuité, dérivabilité) avec leurs preuves détaillées.

Définition : qu’est-ce qu’une intégrale dépendant d’un paramètre ?

Soient \( I \) et \( J \) deux intervalles non vides de \( \mathbb{R} \), et soit \( f : J \times I \to \mathbb{K} \) (où \( \mathbb{K} = \mathbb{R} \) ou \( \mathbb{C} \)) une fonction de deux variables. On suppose que pour chaque valeur fixée \( x \in J \), la fonction partielle \( t \mapsto f(x, t) \) est intégrable sur \( I \). On définit alors la fonction \( F : J \to \mathbb{K} \) par

\[
F(x) = \int_I f(x, t) \, dt.
\]

On dit que \( F \) est une fonction définie par une intégrale dépendant du paramètre \( x \). La variable \( x \) joue le rôle de paramètre : elle est fixée lors du calcul de l’intégrale, puis varie pour définir \( F \).

Quelques exemples pour ancrer cette idée :

  • La fonction Gamma d’Euler est définie par \( \Gamma(x) = \int_0^{+\infty} t^{x-1} e^{-t} \, dt \) pour \( x > 0 \). C’est une intégrale dépendant du paramètre \( x \), ici sur un intervalle non borné.
  • La transformée de Laplace d’une fonction \( g \) continue est \( \mathcal{L}(g)(s) = \int_0^{+\infty} g(t) e^{-st} \, dt \), où \( s \) est le paramètre.
  • Plus simplement, \( F(x) = \int_0^1 \frac{t^x – 1}{\ln t} \, dt \) (pour \( x > -1 \)) est une intégrale à paramètre dont on peut calculer la valeur grâce à la dérivation sous le signe intégrale.

La question centrale est la suivante : quelles propriétés (continuité, dérivabilité) hérite \( F \) des propriétés de \( f \) ? On ne peut pas, en général, répondre sans hypothèses supplémentaires. C’est l’objet des deux grands théorèmes qui suivent.

La condition de domination : clé de voûte des théorèmes

Avant d’énoncer les théorèmes, il faut comprendre pourquoi une hypothèse supplémentaire est indispensable. La continuité des applications partielles \( x \mapsto f(x, t) \) et \( t \mapsto f(x, t) \) ne suffit pas, en général, à garantir la continuité de \( F \). L’obstacle vient de l’interversion de la limite et de l’intégrale : on aimerait écrire

\[
\lim_{x \to x_0} F(x) = \lim_{x \to x_0} \int_I f(x, t) \, dt \stackrel{?}{=} \int_I \lim_{x \to x_0} f(x, t) \, dt,
\]

mais cela n’est justifié que sous contrôle. Ce contrôle est précisément la condition de domination.

Condition de domination. On dit que \( f \) satisfait une condition de domination (ou hypothèse de domination) sur \( J \times I \) s’il existe une fonction \( \varphi : I \to \mathbb{R}_+ \), continue par morceaux et intégrable sur \( I \), telle que

\[
\forall (x, t) \in J \times I, \quad |f(x, t)| \leq \varphi(t).
\]

La fonction \( \varphi \) est appelée fonction majorante. Elle ne dépend que de \( t \), pas du paramètre \( x \). C’est ce point qui est crucial.

Intuitivement, la condition de domination empêche les intégrandes de diverger de façon non contrôlée lorsque \( x \) varie. Elle garantit qu’on peut « passer à la limite sous le signe intégrale » en invoquant le théorème de convergence dominée de Lebesgue, qui est le véritable moteur de toute la théorie.

Erreur fréquente. Beaucoup d’étudiants cherchent une fonction majorante qui dépend à la fois de \( x \) et de \( t \). C’est insuffisant : la fonction \( \varphi \) doit être indépendante de \( x \) et intégrable sur \( I \). Une majoration du type \( |f(x,t)| \leq C(x) \cdot \psi(t) \) ne suffit pas si \( C(x) \) n’est pas bornée sur \( J \).

Théorème de continuité d’une intégrale dépendant d’un paramètre

Théorème de continuité (sous le signe intégrale). Soient \( I \) et \( J \) deux intervalles de \( \mathbb{R} \). Soit \( f : J \times I \to \mathbb{K} \) une fonction vérifiant les trois hypothèses suivantes :

  1. Pour tout \( x \in J \), la fonction \( t \mapsto f(x, t) \) est continue par morceaux et intégrable sur \( I \).
  2. Pour tout \( t \in I \), la fonction \( x \mapsto f(x, t) \) est continue sur \( J \).
  3. (Condition de domination) Il existe \( \varphi : I \to \mathbb{R}_+ \), continue par morceaux, intégrable sur \( I \), telle que pour tout \( (x, t) \in J \times I \), \( |f(x, t)| \leq \varphi(t) \).

Alors la fonction \( F : J \to \mathbb{K} \) définie par

\[
F(x) = \int_I f(x, t) \, dt
\]

est continue sur \( J \).

Intuition pédagogique

Imaginons \( x \) comme un paramètre de réglage d’une machine, et \( f(x, t) \) comme la « densité » d’une quantité physique à l’instant \( t \). L’intégrale \( F(x) \) représente la quantité totale accumulée. Le théorème dit que si on règle la machine de façon continue et qu’on contrôle la densité uniformément (par \( \varphi(t) \)), alors la quantité totale varie de façon continue avec le réglage. Sans ce contrôle, de petits changements dans \( x \) pourraient créer des effets brusques dans l’intégrale, notamment lorsque \( I \) est non borné.

Cas particulier important : \( I \) est un segment

Corollaire (cas d’un segment). Si \( I = [a, b] \) est un segment fermé borné et si \( f : J \times [a, b] \to \mathbb{K} \) est une fonction continue, alors la condition de domination est automatiquement satisfaite (par la continuité sur un compact), et \( F \) est continue sur \( J \).

Ce corollaire est très utile en pratique : lorsqu’on intègre une fonction continue sur un segment, on n’a pas à chercher de fonction majorante explicite.

Preuve du théorème de continuité

Fixons \( x_0 \in J \) et montrons que \( F \) est continue en \( x_0 \). Soit \( (x_n) \) une suite de \( J \) convergeant vers \( x_0 \). Posons, pour tout entier \( n \) et tout \( t \in I \) :

\[
f_n(t) = f(x_n, t).
\]

Par l’hypothèse (2), pour tout \( t \in I \), \( f_n(t) = f(x_n, t) \xrightarrow[n \to +\infty]{} f(x_0, t) \). La suite \( (f_n) \) converge donc simplement vers \( t \mapsto f(x_0, t) \). De plus, par la condition de domination, \( |f_n(t)| = |f(x_n, t)| \leq \varphi(t) \) pour tout \( n \) et tout \( t \). La fonction \( \varphi \) est intégrable sur \( I \). Le théorème de convergence dominée de Lebesgue permet alors de conclure :

\[
F(x_n) = \int_I f_n(t) \, dt \xrightarrow[n \to +\infty]{} \int_I f(x_0, t) \, dt = F(x_0).
\]

Comme cela vaut pour toute suite \( (x_n) \to x_0 \), la fonction \( F \) est bien continue en \( x_0 \).

Théorème de dérivation sous le signe intégrale (théorème de Leibniz)

Théorème de dérivation (règle de Leibniz). Soient \( I \) et \( J \) deux intervalles de \( \mathbb{R} \). Soit \( f : J \times I \to \mathbb{K} \). On suppose que :

  1. Pour tout \( x \in J \), la fonction \( t \mapsto f(x, t) \) est continue par morceaux et intégrable sur \( I \).
  2. \( f \) admet une dérivée partielle par rapport à \( x \) sur \( J \times I \), notée \( \frac{\partial f}{\partial x}(x, t) \).
  3. Pour tout \( t \in I \), la fonction \( x \mapsto \frac{\partial f}{\partial x}(x, t) \) est continue sur \( J \).
  4. (Condition de domination sur la dérivée) Il existe \( \psi : I \to \mathbb{R}_+ \), continue par morceaux et intégrable sur \( I \), telle que
    \[
    \forall (x, t) \in J \times I, \quad \left|\frac{\partial f}{\partial x}(x, t)\right| \leq \psi(t).
    \]

Alors \( F \) est dérivable sur \( J \), et sa dérivée s’obtient en dérivant sous le signe intégrale :

\[
F'(x) = \int_I \frac{\partial f}{\partial x}(x, t) \, dt.
\]

De plus, \( F \) est de classe \( \mathcal{C}^1 \) sur \( J \).

Intuition : dériver une « somme infinie »

Pensez à \( F(x) = \int_I f(x, t) \, dt \) comme à une « somme continue » de termes \( f(x, t) \). Lorsque \( x \) varie d’un infinitésimal \( dx \), chaque terme \( f(x, t) \) varie de \( \frac{\partial f}{\partial x}(x, t) \, dx \). Le théorème dit qu’on peut sommer ces variations infinitésimales — c’est-à-dire intégrer \( \frac{\partial f}{\partial x} \) en \( t \) — pour obtenir la variation globale de \( F \). C’est la généralisation continue de la règle de dérivation terme à terme d’une somme finie.

Preuve (cas \( I \) segment, \( f \) de classe \( \mathcal{C}^1 \))

Fixons \( x_0 \in J \). Pour \( x \neq x_0 \), on écrit le taux d’accroissement :

\[
\frac{F(x) – F(x_0)}{x – x_0} = \int_I \frac{f(x, t) – f(x_0, t)}{x – x_0} \, dt.
\]

Par le théorème des accroissements finis appliqué à \( x \mapsto f(x, t) \), pour chaque \( t \) il existe \( c(x,t) \) entre \( x_0 \) et \( x \) tel que \( \frac{f(x,t)-f(x_0,t)}{x-x_0} = \frac{\partial f}{\partial x}(c(x,t), t) \). Lorsque \( x \to x_0 \), ce quotient converge simplement vers \( \frac{\partial f}{\partial x}(x_0, t) \) pour chaque \( t \). De plus, la condition de domination sur \( \frac{\partial f}{\partial x} \) fournit la majoration uniforme par \( \psi(t) \). Le théorème de convergence dominée donne alors :

\[
\lim_{x \to x_0} \frac{F(x) – F(x_0)}{x – x_0} = \int_I \frac{\partial f}{\partial x}(x_0, t) \, dt.
\]

\( F \) est donc dérivable en \( x_0 \), et \( F'(x_0) = \int_I \frac{\partial f}{\partial x}(x_0, t) \, dt \). Le théorème de continuité appliqué à \( \frac{\partial f}{\partial x} \) (qui satisfait les mêmes hypothèses) montre que \( F’ \) est continue, donc \( F \in \mathcal{C}^1(J) \).

Extension : classe \( \mathcal{C}^k \)

Si, pour tout \( p \in \{0, 1, \ldots, k\} \), la dérivée partielle \( \frac{\partial^p f}{\partial x^p} \) existe, est continue en \( x \) pour tout \( t \), et est dominée par une fonction \( \psi_p \) intégrable sur \( I \) ne dépendant pas de \( x \), alors \( F \) est de classe \( \mathcal{C}^k \) sur \( J \) et :

\[
F^{(p)}(x) = \int_I \frac{\partial^p f}{\partial x^p}(x, t) \, dt.
\]

Interversion limite et intégrale : le théorème de passage à la limite

Théorème de passage à la limite sous le signe intégrale. Soient \( I \) et \( J \) deux intervalles de \( \mathbb{R} \), et \( a \) un point adhérent à \( J \) (réel ou infini). Soit \( f : J \times I \to \mathbb{K} \). On suppose que :

  1. Pour tout \( x \in J \), la fonction \( t \mapsto f(x, t) \) est continue par morceaux et intégrable sur \( I \).
  2. Pour tout \( t \in I \), \( f(x, t) \xrightarrow[x \to a]{} \ell(t) \), où \( \ell : I \to \mathbb{K} \) est continue par morceaux et intégrable sur \( I \).
  3. (Condition de domination) Il existe \( \varphi \) intégrable sur \( I \) telle que \( |f(x, t)| \leq \varphi(t) \) pour tout \( (x, t) \in J \times I \).

Alors :

\[
\lim_{x \to a} F(x) = \lim_{x \to a} \int_I f(x, t) \, dt = \int_I \ell(t) \, dt.
\]

Ce théorème est notamment utilisé pour calculer des limites d’intégrales dépendant d’un paramètre lorsque ce paramètre tend vers une valeur limite (finie ou infinie), ou pour établir la continuité de \( F \) en un point frontière de \( J \).

Piège classique. On est tenté d’écrire directement \( \lim_{x \to a} \int_I f(x,t) \, dt = \int_I \lim_{x \to a} f(x,t) \, dt \) sans vérifier la domination. Cela peut mener à des résultats faux. Par exemple, la suite de fonctions \( f_n(t) = n \cdot \mathbf{1}_{[0,1/n]}(t) \) converge simplement vers \( 0 \) sur \( [0,1] \), mais \( \int_0^1 f_n(t) \, dt = 1 \to 1 \neq 0 \). La condition de domination est ici en défaut car \( \sup_n f_n(t) \) n’est pas intégrable sur \( [0,1] \).

Applications classiques des intégrales dépendant d’un paramètre

La fonction Gamma d’Euler

La fonction Gamma est définie par \( \Gamma(x) = \int_0^{+\infty} t^{x-1} e^{-t} \, dt \) pour \( x > 0 \). C’est un exemple emblématique d’intégrale dépendant d’un paramètre sur un intervalle non borné. On peut montrer par le théorème de dérivation que \( \Gamma \) est de classe \( \mathcal{C}^\infty \) sur \( ]0, +\infty[ \), et que \( \Gamma(n+1) = n! \) pour tout \( n \in \mathbb{N} \). Elle prolonge ainsi la factorielle aux réels positifs.

Transformée de Laplace et transformée de Fourier

Ces deux transformations intégrales sont des intégrales dépendant d’un paramètre au sens le plus direct. La transformée de Laplace d’une fonction \( g \) est \( \mathcal{L}(g)(s) = \int_0^{+\infty} g(t) e^{-st} \, dt \). Les théorèmes de régularité prouvés dans cette leçon permettent d’établir que \( \mathcal{L}(g) \) est de classe \( \mathcal{C}^\infty \) sur son domaine de définition, et que la dérivation de la transformée correspond à une multiplication par \( t \) dans le domaine d’origine.

Produit de convolution

Pour deux fonctions \( f, g \) continues et intégrables sur \( \mathbb{R} \), le produit de convolution est défini par \( (f * g)(x) = \int_{-\infty}^{+\infty} f(t) g(x-t) \, dt \). C’est encore une intégrale dépendant du paramètre \( x \). Les théorèmes de continuité et de dérivation permettent d’étudier la régularité de \( f * g \) en fonction de celle de \( f \) et \( g \).

Conclusion

Les intégrales dépendant d’un paramètre forment un outil indispensable de l’analyse mathématique. Leur étude repose sur deux théorèmes fondamentaux — le théorème de continuité et le théorème de dérivation sous le signe intégrale (ou règle de Leibniz) — dont la condition de domination est la clé commune. Ces théorèmes, dont la démonstration s’appuie sur le théorème de convergence dominée de Lebesgue, permettent de traiter des objets aussi variés que la fonction Gamma, les transformées de Laplace et de Fourier, et le produit de convolution.

Maîtriser les intégrales dépendant d’un paramètre, c’est avant tout savoir trouver la bonne fonction majorante — intégrable et indépendante du paramètre — et savoir localiser le problème sur des compacts lorsque les intervalles sont non bornés. Ces deux réflexes, une fois acquis, rendent le théorème de Leibniz redoutablement efficace pour calculer des intégrales difficiles.

Partager