Bibm@th

Forum de mathématiques - Bibm@th.net

Bienvenue dans les forums du site BibM@th, des forums où on dit Bonjour (Bonsoir), Merci, S'il vous plaît...

Vous n'êtes pas identifié(e).

Répondre

Veuillez composer votre message et l'envoyer
Nom (obligatoire)

E-mail (obligatoire)

Message (obligatoire)

Programme anti-spam : Afin de lutter contre le spam, nous vous demandons de bien vouloir répondre à la question suivante. Après inscription sur le site, vous n'aurez plus à répondre à ces questions.

Quel est le résultat de l'opération suivante (donner le résultat en chiffres)?
soixante dix-neuf moins trente cinq
Système anti-bot

Faites glisser le curseur de gauche à droite pour activer le bouton de confirmation.

Attention : Vous devez activer Javascript dans votre navigateur pour utiliser le système anti-bot.

Retour

Résumé de la discussion (messages les plus récents en premier)

bibmgb
19-10-2023 20:58:40

Merci, avec cette donnée supplémentaire, j'ai réussi à faire la preuve dans le cas général.

Michel Coste
19-10-2023 17:28:12

La dérivée d'un déterminant est la somme des déterminants où l'on dérive la première ligne, la deuxième,..., la dernière.

bibmgb
19-10-2023 11:24:35

Bonjour,

Oui en effet; [tex]\begin{vmatrix}1&1&0\\r_1&r_2&1\\r_1^2&r_2^2&2r_2\end{vmatrix}=(r_2-r_1)^2=W(0)[/tex]

Je sais montrer , en dimension 2, par de "petits calculs", que [tex]W'(x)=-a_1W(x)[/tex] et donc [tex]W(x)=W(0)e^{-a_1x}[/tex].
Donc, effectivement, si [tex]W(0)\neq 0[/tex] alors [tex]W(x)\neq 0[/tex] pour tout [tex]x[/tex].
Dans le cas de la dimension 2, je calcule le déterminant, puis je le dérive, j'utilise le fait que [tex]y_1,y_2[/tex] sont solutions, j'élimine les termes opposés, je factorise. Mais cette méthode ne me semble pas adaptée à la dimension 3 (beaucoup trop de calculs) et encore moins à la dimension [tex]n[/tex].
En dimension 3, [tex]W(x)=\begin{vmatrix}y_1&y_2&y_3\\ y'_1&y'_2&y'_3\\y''_1&y''_2&y''_3\end{vmatrix}[/tex].
Je me suis dit que peut être il fallait développer par rapport à la première ligne, ce qui donne des déterminants du type [tex]\begin{vmatrix}y'_1 & y'_2\\y''_1&y''_2\end{vmatrix}[/tex], mais je ne peux pas utiliser le résultat de la dimension 2 car mon équation est [tex]y^{(3)}+a_1y^{(2)}+a_2y'+a_1y=0[/tex] et non [tex]y^{(3)}+a_1y^{(2)}+a_2y'=0[/tex].

Michel Coste
18-10-2023 15:11:13

Il vaut beaucoup mieux travailler avec le Wronskien évalué en $t=0$. Dans le cas de trois racines distinctes, c'est $\begin{vmatrix} 1&1&1\\ r_1&r_2&r_3\\ r_1^2& r_2^2&r_3^2\end{vmatrix}$, un beau Vandermonde avec directement les racines du polynôme caractéristique. Quand on a $r_1$ et une racine double $r_2$, c'est $\begin{vmatrix} 1&1&0\\ r_1&r_2&1\\ r_1^2& r_2^2&2r_2\end{vmatrix}$. C'est un Vandermonde "dégénéré" (avec la troisième colonne dérivée de la deuxième par rapport à $r_2$). Tu remarqueras qu'il vaut $(r_2-r_1)^2$.

bibmgb
18-10-2023 14:19:25

En dimension 3, si on considère que le polynôme caractéristique possède deux racines distinctes [tex]r_1[/tex] et [tex]r_2[/tex] avec [tex]r_2[/tex] de multiplicité 2, on obtient une matrice du type [tex]\begin{pmatrix}1 & 1 & 0\\a_1&a_2&a_2\\a_1^2&a_2^2&2a_2^2\end{pmatrix}[/tex]. Est-ce que ce type de matrice porte un nom particulier également ?

bibmgb
18-10-2023 13:57:26

OK pour la matrice de Vandermonde; bibmath propose une preuve par récurrence pour montrer que le déterminant de la matrice de Vandermonde est le produit des [tex](a_j-a_i)[/tex] pour [tex]1\leq i<j\leq n[/tex]; et donc on comprend bien pourquoi il est non nul si les [tex]a_i[/tex] sont distincts deux à deux.

Michel Coste
18-10-2023 12:44:43

Ceci n'est vrai que si les n racines sont simples.

Non, c'est vrai tout le temps (et en gros Fred te l'a déjà expliqué). Si $r$ est racine de multiplicité $m$ de l'équation caractéristique, les solutions fondamentales associées sont $e^{rt},te^{rt},\ldots, t^{m-1}e^{rt}$.
Et si on travaille sur $\mathbb R$ et que le polynôme caractéristique a deux racines complexes conjuguées $r=\alpha+i\beta$ et $\bar r=\alpha-i\beta$ (avec $\beta\neq 0$), alors les solutions fondamentales réelles associées à cette paire de racines sont $e^{\alpha t}\cos(\beta t)$ et $e^{\alpha t}\sin(\beta t)$ (qui engendrent sur $\mathbb C$ le même plan vectoriel que $e^{rt}$ et $e^{\bar r t}$). Je te laisse voir les solutions fondamentales quand on a une paire de racines complexes conjuguées de multiplicité $m$.

Par ailleurs la matrice que tu as écrite est la matrice de Vandermonde $V(e^{r_1}, e^{r_2},e^{r_3})$ de déterminant non nul puisque $e^{r_1},e^{r_2},e^{r_3}$ sont deux à deux différents.

bibmgb
18-10-2023 11:44:11

Bonjour,

Michel Coste a écrit :

Les racines du polynôme caractéristique fournissent un système fondamental de solutions analytiques (y1,y2,…,yn) qui est libre.

Ceci n'est vrai que si les [tex]n[/tex] racines sont simples.

Par ailleurs si on note [tex]r_1, r_2,\dots, r_n[/tex] les racines de [tex]P[/tex] distinctes deux à deux, alors [tex]y_1=e^{r_1t}[/tex], etc.
Dans le cas de la dimension 2, pour montrer que [tex](y_1,y_2)[/tex] est libre, j'évalue [tex]\alpha_1 e^{r_1t}+\alpha_2 r^{r_2t}=0[/tex] en [tex]t=0[/tex] et en [tex]t=1[/tex]. Puis j'utilise le fait que l'exponentielle est injective pour conclure.
En dimension 3, je me ramène sous forme matricielle, en évaluant en [tex]t=0,1,2[/tex], ce qui me donne la matrice [tex]\begin{pmatrix} 1&1&1\\e^{r_1}&e^{r_2}&e^{r_3}\\e^{2r_1}&e^{2r_2}&e^{2r_3}\end{pmatrix}[/tex].
Par contre je ne vois pas comment montrer que le déterminant de cette matrice est différent de 0.

bibmgb
14-10-2023 19:43:14

J'ai essayé de rédiger la récurrence pour montrer qu'une solution de l'ED est [tex]\mathcal{C}^\infty[/tex].
On considère une fonction [tex]y[/tex] solution de l'ED.
On pose pour tout entier [tex]n\geq 2[/tex], [tex]\mathcal{P}(n): y \text{ est } n \text{ fois dérivable et }y^{(n)}=\dfrac{1}{a}(-by^{(n-1)}-cy^{(n-2)})[/tex]

  • Initialisation à [tex]n=2[/tex] : [tex]y[/tex] est solution de l'ED donc [tex]y[/tex] est 2 fois dérivable et [tex]y''=\dfrac{1}{a}(-by'-cy)[/tex]

  • Hypothèse de récurrence : on suppose [tex]\mathcal{P}_n[/tex] pour un entier [tex]n\geq 2[/tex]

  • Hérédité : D'après l'hypothèse de récurrence, y est [tex]n[/tex] fois dérivable donc y^{(n-1)} et y^{(n-2)} sont dérivables.
    De plus, [tex]y^{(n)}=\dfrac{1}{a}(-by^{(n-1)}-cy^{(n-2)})[/tex], donc [tex]y^{(n)}[/tex] est dérivable comme combinaison linéaire de fonctions dérivables et [tex]y^{(n+1)}=\dfrac{1}{a}(-by^{(n)}-cy^{(n-1)}).[/tex]

Ainsi, d'après le principe de récurrence, [tex]\mathcal{P}(n)[/tex] est vrai pour tout entier [tex]n\geq 2[/tex].
Ce qui permet de conclure que [tex]y[/tex] est [tex]\mathcal{C}^\infty[/tex].

J'ai compris à présent le cas d'une racine double ainsi que le cas de racines complexes conjuguées.

Merci encore pour votre aide, j'ai l'impression d'avoir bien avancé sur ce point.

Michel Coste
14-10-2023 10:02:40

Avec plaisir.
L'utilisation du Wronskien se généralise sans grande difficulté aus équadiffs linéaires homogènes à coefficients constants d'ordre $n$ quelconque :
$$y^{(n)}+a_1y^{(n-1)}+\cdots+a_{n-1}y'+a_ny=0\;.$$ Les racines du polynôme caractéristique fournissent un système fondamental de solutions analytiques $(y_1,y_2,\ldots,y_n)$ qui est libre. Le Wronskien est le déterminant de la matrice dont les coefficients sont les $y_j^{(i-1)}$ pour $i,j=1,\ldots,n$. On voit facilement que le Wronskien est solution de l'équation différentielle $W'+a_1W=0$ et donc il ne s'annule jamais car il n'est pas identiquement nul. On démontre comme ci-dessus que toute solution de l'équadiff de départ est combinaison linéaire du système fondamental de solutions.

bibmgb
14-10-2023 07:18:07

Bonjour,

Effectivement, il faut utiliser le fait que [tex]y[/tex] est solution de l'équation différentielle; sinon on serait en train de dire que toute fonction deux fois dérivables est combinaison linéaire de [tex]y_1[/tex] et [tex]y_2[/tex] !

Donc en utilisant conjointement que [tex]y,y_1,y_2[/tex] sont solutions de l'ED, j'arrive à montrer que [tex]c_1'y_1'+c_2'y_2'=0[/tex] !

Merci :)

Fred
13-10-2023 21:55:15

Bonjour,

  Alors moi aussi je vais détailler un peu plus l'utilisation des polynômes d'endomorphisme.

* on ne peut pas prendre pour $E$ l'ensemble des fonctions deux fois dérivables sur $\mathbb R,$ car il n'est pas stable par $D$, et encore moins par $P(D)$. En revanche, on sait a priori qu'une fonction solution de l'équation est de classe $\mathcal C^\infty$ parce que (en supposant $a\neq 0$) on a $y''=\frac 1a(-by'-cy)$ et donc si $y$ est deux fois dérivable, $y''$ est dérivable et donc $y$ est trois fois dérivable. Par une récurrence immédiate, on obtient que $y$ est de classe $\mathcal C^\infty.$

* dans le cas d'une racine double $r$, tu cherches à résoudre l'équation $y''-2ry'+r^2y=0.$ Pour cela, tu considères $y$ une solution et tu poses $z(t)=y(t)e^{-rt}$. Alors un calcul facile donne $z''(t)=(y''(t)-2ry'(t)+r^2y(t))e^{-rt}=0,$ et donc $z(t)=Ct+D$ pour des réels $C$ et $D.$ On retrouve la forme voulue pour $y$.

*pour le cas des racines complexes conjuguées $\alpha\pm i\beta,$ je ne comprends pas bien ce que tu veux écrire.
En tout cas, tu peux dire que si $f_1(t)=\exp((\alpha+i\beta)t)$ et $f_2(t)=\exp((\alpha-i\beta)t),$ alors $(f_1,f_2)$ est une base de
$\ker(P(D))$ (on voit effectivement  $E$ comme un espace vectoriel sur $\mathbb C$ maintenant).
En calculant $(f_1+f_2)/2$ et $(f_1-f_2)/2i$, on trouve que $\exp(\alpha t)\cos(\beta t)$ et $\exp(\alpha t)\sin(\beta t)$
est aussi une base de $\ker(P(D))$. Si tu prends une solution réelle $y$ de l'équation, c'est aussi une solution complexe et elle s'écrit
$y(t)=\lambda \exp(\alpha t)\cos(\beta t)+\mu \exp(\alpha t)\sin(\beta t)$ où $\lambda$ et $\mu$ sont a priori complexes.
Mais comme $y$ est à valeurs réelles, en utilisant que les fonctions $(\cos(\beta t),\sin(\beta t))$ forment une famille libre, on trouve que $\lambda$ et $\mu$ sont réels.

Bien sûr, ce qu'on a écrit ici pour un polynôme de degré $2$ se généralise à des polynômes de degré plus grand (mais il faut un peu plus travailler!).

F.

Michel Coste
13-10-2023 21:55:02

Il y a une chose que tu n'as pas utilisée : l'hypothèse que $y$ est solution de l'équadiff (et pour mémoire, $y_1$ et $y_2$ sont aussi solutions).
Je te laisse creuser ça pour établir $c'_1y'_1+c'_2y'_2=0$.

bibmgb
13-10-2023 21:08:29

OK, je comprends mieux. Les fonctions [tex]c_1[/tex] et [tex]c_2[/tex] sont dérivables parce que l'on suppose que [tex]y[/tex] est deux fois dérivables. Pour que [tex]c_1[/tex] soit deux fois dérivables, il faudrait que [tex]y[/tex] le soit trois fois.

En dérivant le système [tex]
\left \{
\begin{array}{c c c}
    y & = & c_1 y_1 + c_2 y_2 \\
    y' & = & c_1 y_1' + c_2 y_2'
\end{array}
\right.
[/tex] j'obtiens [tex]
\left \{
\begin{array}{c c c}
    y' & = & c_1' y_1 + c_1 y_1'+c_2' y_2+c_2 y_2' \\
    y'' & = & c_1' y_1' + c_1 y_1'' + c_2' y_2' + c_2 y_2''
\end{array}
\right.
[/tex]

Je comprends pourquoi [tex]c_1' y_1 + c_2' y_2=0[/tex] mais pas pourquoi [tex]c_1' y_1' + c_2' y_2'=0[/tex].

À part ça je pense avoir compris le raisonnement.

Michel Coste
13-10-2023 15:30:21

Alors je détaille.
Tu as sans doute remarqué que $W(x)$ est le déterminant du système d'inconnues $c_1(x)$ et $c_2(x)$ : $$\left\{\begin{aligned} y(x)&=c_1(x)y_1(x)+c_2(x)y_2(x)\\y'(x)&=c_1(x)y'_1(x)+c_2(x)y'_2(x)\end{aligned}\right.\ .$$Pour tout réel $x$, $W(x)\neq 0$, le système est de Cramer et a une solution unique donnée par les formules de Cramer. Ces formules de Cramer montrent que les fonctions $c_1$ et $c_2$ ainsi obtenues sont dérivables (par exemple $c_1=W^{-1}\begin{vmatrix} y&y_2\\y'&y'_2\end{vmatrix}$) ; j'avais dit deux fois dérivables trop hâtivement, mais on a juste besoin de la dérivabilité pour ce qui suit.

Pied de page des forums