|
. |
|
La pensée et ses outils > Logique et théorie de la connaissance > Mathématiques > Algèbre |
L'algèbre
linéaire est un domaine des mathématiques qui étudie les vecteurs,
les espaces vectoriels, les transformations linéaires et les systèmes
d'équations linéaires. Elle est fondamentale dans de nombreux domaines
scientifiques et techniques, comme l'informatique, la physique, l'ingénierie,
l'économie et bien d'autres.
Notions générales sur les vecteursUn vecteur est une entité mathématique qui combine deux caractéristiques essentielles : une magnitude (norme ou module) et un sens. Dans cette page, on notera les vecteurs en gras. Dans le contexte de l'algèbre linéaire, les vecteurs sont principalement utilisés pour représenter des points dans un espace ou des grandeurs orientées, c'est-à -dire ayant un sens. En algèbre linéaire, un vecteur est une liste ordonnée de nombres, appelée composantes ou coordonnées du vecteur. Ces nombres décrivent la position d'un point ou une direction dans un espace. Par exemple, en 2 dimensions : v=(x,y); en 3 dimensions : v= (x, y, z); en n dimensions : v=(v1, v2,..., vn).Représentation
géométrique.
Vecteur
en 2D.
Vecteur
en 3D.
Norme
(magnitude).
Le
sens.
Opérations sur
les vecteurs.
L'addition de deux vecteurs (et a fortiori de plusieurs vecteurs) possède plusieurs propriétés importantes : • Fermeture. - L'addition de deux vecteurs quelconques de E est un vecteur de E : u+v E.Grâce à la commutativité et l'associativité, on peut réarranger les termes d'une somme de vecteurs à notre convenance pour faciliter les calculs. L'existence d'un élément neutre et, pour tout vecteur, celle d'un vecteur opposé permet de définir la soustraction (notée -) de deux vecteurs : La soustraction d'un vecteur est définie comme l'addition de son opposé : u - v = u + (-v). Multiplication
par un scalaire.
La multiplication scalaire est associative (k(l.u) = (kl).u), distributive par rapport à l'addition vectorielle (k.(u + v) = k.u + k.v) et distributive par rapport à l'adition des scalaires ((k + l.).u = k.u + l.u). Il existe dans l'ensemble K un élément neutre (noté ici 1), tel que pour tout l'élément u de E, on ait 1.u = u et u.1 = u, et un élément abosrbant (noté 0), tel que que pour tout u E, on a : 0.u = 0 et u.0 = 0. Ou, si l'on préfère, si le scalaire est zéro, quel que soit le vecteur, on obtient le vecteur nul. Enfin, si k est un scalaire et v un vecteur, alors (-k). v = -(k. v), ce qui signifie que multiplier par un scalaire négatif inverse le vecteur. Autres
opérations.
• Produit scalaire. - Le produit scalaire (noté .) est une opération qui donne un nombre à partir de deux vecteurs. • Produit matriciel (d'un vecteur par une matrice). - Une matrice A de taille m x n multipliée par un vecteur v de dimension n donne un vecteur w de dimension m. Chaque composante de w est le produit scalaire d'une ligne de A par le vecteur v.Exemples d'utilisation des vecteurs. En physique, les vecteurs représentent des grandeurs comme la vitesse, la force, ou l'accélération. En informatique, ils servent à modéliser des données dans des espaces multidimensionnels (comme dans l'apprentissage automatique). En géométrie, ils décrivent des directions et des déplacements. Relations géométriques
entre vecteurs.
Vecteurs
équipollents (égaux).
Vecteurs
orthogonaux (perpendiculaires).
Vecteurs
colinéaires (parallèles).
Vecteurs
opposés.
Espaces vectorielsLa notion d'espace vectoriel est au coeur de l'algèbre linéaire. C'est une abstraction puissante qui sous-tend une grande partie des mathématiques et des sciences modernes. On utilise des espace vectoriels en physique, pour modéliser des forces ou des mouvements dans l'espace. En informatique, on les emploie pour traiter des données en machine learning ou en traitement d'image. En mathématiques, ce sont un outil fondamental pour l'analyse et la résolution d'équations linéaires.Définition.
• E est un groupe abélien. - Pour commencer l'addition de deux vecteurs doit être une opération commutative : u+v = v+u, (u, v) E, et plus largement doter E d'une structure de groupe abélien.Si ces conditions sont réunies, on dit que E, muni d'une opération interne et d'une opération externe dont le domaine d'opérateurs est K, a une structure d'espace vectoriel sur K, ou que E est un espace vectoriel (sur K), ou encore que E est un K-espace vectoriel. Combinaison linéaire,
indépendance linéaire, base et dimension.
Si v1,
v2,…,
vk​
sont des vecteurs dans V et λ1,λ2,…,λk
sont
des scalaires dans K, alors :
Indépendance
linéaire.
Un ensemble de vecteurs
{v1, v2,…,vk}
dans V est dit linéairement indépendant si la seule combinaison linéaire
qui donne le vecteur nul est celle où tous les coefficients sont nuls
:
Si au moins un des coefficients peut être non nul dans une telle combinaison donnant le vecteur nul, les vecteurs sont dits linéairement dépendants. Dans ce cas, au moins un des vecteurs peut être écrit comme une combinaison linéaire des autres. Base
d'un espace vectoriel.
Un ensemble de vecteurs BV = {b1, b2,…, bn} est une base de l'espace vectoriel V si : a) l'ensemble {b1, b2,…, bn} est linéairement indépendant; b) l'ensemble {b1, b2,…, bn} engendre V, c'est-à -dire que tout vecteur vV peut être écrit comme une combinaison linéaire de ces vecteurs : v=λ1​b1​+λ2​b2​+...+λn​bn​. Une base est ainsi un ensemble de vecteurs à la fois minimal (aucun vecteur ne peut être retiré sans perdre l'indépendance linéaire) et maximal (aucun vecteur supplémentaire ne peut être ajouté sans perdre l'indépendance linéaire). Comme, la plupart du temps, on peut choisir la base dans laquelle on travaille, il est judicieux de choisir celle qui permettra les expressions et les calculs les plus simples. Un telle base est dite canonique. Dans les espaces vectoriels de dimension finie, la base canonique (base standard ou base naturelle) est généralement la base composée des vecteurs unitaires. Par exemple, dans l'espace euclidien (3), la base canonique est composée des vecteurs i = (1, 0, 0), j = (0, 1, 0), et k = (0, 0, 1).Dimension d'un espace vectoriel. La dimension d'un espace vectoriel est le nombre de vecteurs dans une base de cet espace. Si V est un espace vectoriel et {b1, b2,…, bn} est une base de V, alors la dimension de V est dimâ¡(V)=n. Par exemple, 3 a une dimension de 3. On écrira : dim (3) = 3. Toutes les bases d'un espace vectoriel ont le même nombre de vecteurs. Dans un espace vectoriel de dimension finie V, tout ensemble linéairement indépendant peut être complété pour former une base. Si dimâ¡(V) = n, alors tout ensemble de n vecteurs linéairement indépendants dans V est une base, et tout ensemble de n vecteurs qui engendrent V est aussi une base. Caractéristique
d'un espace vectoriel.
• Un espace vectoriel est dit de caractéristique nulle si p = 0. Cela signifie que la multiplication de 1 par lui-même un nombre quelconque de fois ne donne jamais 0. Les espaces vectoriels des nombres réels et sont de caractéristique nulle.La caractéristique d'un espace vectoriel détermine les propriétés, telles que a commutativité de la multiplication scalaire, l''associativité de la multiplication scalaire, la distributivité de la multiplication scalaire par rapport à l'addition de vecteurs. Sous-espaces vectoriels.
Un sous-ensemble W d'un espace vectoriel V sur un corps K est un sous-espace vectoriel si les conditions suivantes sont remplies :
W ≠(W doit au
moins contenir le vecteur nul 0).
Propriétés
générales des sous-espaces vectoriels
La somme de deux vecteurs u,v W reste dans W. Le produit d'un vecteur u.W par un scalaire λ K reste dans W. Caractérisation
par combinaison linéaire.
L'ensemble de toutes les combinaisons linéaires de v1, v2,…,vk.​ forme un sous-espace vectoriel de W appelé espace engendré par {v1,v2,…, vk}. Intersection
des sous-espaces.
Somme
des sous-espaces.
Dimension.
Stabilité
par restriction.
Exemples.
L'ensemble des polynômes de degré inférieur ou égal à nn, noté Pn, est un sous-espace vectoriel de l'ensemble des polynômes P. Espace vectoriel
des fonctions réelles.
L'espace vectoriel des fonctions réelles est de dimension infinie. Cela signifie qu'il n'existe pas de base finie pour cet espace. En d'autres termes, on ne peut pas exprimer toutes les fonctions réelles comme une combinaison linéaire d'un nombre fini de fonctions. Il existe de nombreux sous-espaces vectoriels importants dans l'espace des fonctions réelles, tels que : l'espace des fonctions continues, l'espace des fonctions dérivables, l'espace des fonctions intégrables, l'espace des polynômes, l''espace des fonctions périodiques, etc. Applications linéairesLes applications (ou transformations) linéaires sont des fonctions qui transforment des vecteurs tout en conservant les propriétés d'additivité et d'homogénéité . Par exemple, la rotation, l'étirement, ou la réflexion.Définition et
propriétés.
f(u+v)=f(u)+f(v) pour tous u,vV (additivité). f(λu)=λf(u) pour tout λK et uV (homogénéité). Ces propriétés garantissent que f préserve les relations linéaires entre les vecteurs. Image
d'une application linéaire.
L'image de f est un sous-espace vectoriel de W. La dimension de Im(f) est appelée le rang de f, noté rang(f). Noyau
d'une application linéaire.
Le noyau de f est un sous-espace vectoriel de V. Si f est injective, alors Ker(f)={0}. La dimension de Ker(f) est appelée la nullité de f, notée null(f). Théorème du
rang
Interprétation : • rang(f) représente le nombre de dimensions de V qui "contribuent" réellement à l'image.Isomorphismes. En algèbre linéaire, un isomorphisme est une application linéaire qui établit une correspondance biunivoque (bijective) entre deux espaces vectoriels. Soient V et W deux espaces vectoriels sur un même corps K. Une application f:V→W est un isomorphisme d'espaces vectoriels si elle satisfait les conditions suivantes : • Linéarité : u, v V et λ K, f(u+v) = f(u) + f(v) et f(λu) = λf(u).Ces deux dernières conditions combinées expriment la bijectivité de f. Si deux espaces vectoriels V et W sont isomorphes, cela signifie qu'ils ont la même structure algébrique, même s'ils peuvent apparaître différents à première vue (par exemple, leurs bases peuvent être différentes). Concrètement, cela revient à dire qu'ils ont la même dimension et les mêmes propriétés algébriques. Les isomorphismes conservent en particulier les opérations d'addition et de multiplication scalaire. Si V et W sont isomorphes, alors ils ont même dimension : dimâ¡(V) = dimâ¡(W). Si f : V→W f est un isomorphisme, alors son inverse f−1 : W→V est également linéaire. Matrices et représentation des applications linéairesDéfinitions.Définition d'une matrice. Une matrice est un tableau rectangulaire d'éléments, généralement des nombres (et plus largement d'éléments d'un corps K) , disposés en lignes et en colonnes. On la représente entre crochets ou parenthèses. Dimensions
(lignes, colonnes).
L'ensemble des matrices m x n dont les éléments appartiennent à un corps K pourra être noté : Mm x n (K). Types
de matrices.
• Matrice carrée. - Une matrice carrée est une matrice avec un nombre égal de lignes et de colonnes (m = n). On parle alors d'une matrice de taille n x n ou d'ordre n. • Matrice triangulaire. - Une matrice triangulaire est une matrice carrée dont tous les éléments au-dessus ou au-dessous de la diagonale principale sont nuls.Notation des éléments d'une matrice. Les éléments d'une matrice sont généralement notés à l'aide d'une lettre minuscule, souvent a, suivie de deux indices. Le premier indice indique le numéro de la ligne, et le second indice indique le numéro de la colonne où se trouve l'élément. Si on a une matrice A de dimension m x n, on note ses éléments comme suit : aij, où : i représente le numéro de la ligne (1 ≤ i ≤ m), et j représente le numéro de la colonne (1 ≤ j ≤ n). a11 est l'élément situé à la ligne 1 et à la colonne 1, a12 est l'élément situé à la ligne 1 et à la colonne 2, a21 est l'élément situé à la ligne 2 et à la colonne 1, etc. On peut également utiliser d'autres lettres minuscules comme bij, cij, etc., pour représenter les éléments de matrices différentes. L'important est de maintenir une notation cohérente tout au long d'un calcul ou d'une démonstration. La matrice elle-même est généralement représentée par une lettre majuscule (A, B, C, etc.). Opérations sur les matrices.Pour noter de façon compacte les termes qui interviennent dans l'expression d'une matrice A, on écrit A= [aij]. Cette notation signifie que la matrice A est une matrice dont l'élément situé à la i-ème ligne et à la j-ème colonne est noté aij. Elle ne donne pas d'information sur la taille de la matrice (nombre de lignes et de colonnes), mais elle précise comment chaque élément de la matrice est référencé. On comprend implicitement qu'il existe un ensemble d'indices i et j pour définir tous les éléments de la matrice. La notation ne précise pas les valeurs des éléments aij ; elle décrit seulement comment ils sont indexés. Ces valeurs pourraient être des nombres, des variables ou des expressions plus complexes. Addition et soustraction de matrices (conditions). L'addition et la soustraction de matrices ne sont définies que pour les matrices de mêmes dimensions. Si deux matrices A et B ont la même dimension m x n, alors leur somme (A + B) et leur différence (A - B) sont également des matrices m x n dont les éléments sont calculés élément par élément. • Addition de matrices. - Soient A et B deux matrices m x n : A = [aij] et B = [bij], alors, la matrice somme C = A + B est définie par : C = [cij] où cij = aij + bij pour tout i et j. • Soustraction de matrices. - La soustraction est similaire à l'addition. Soient A et B deux matrices m x n : A = [aij] et B = [bij]. Alors, la matrice différence D = A - B est définie par : D = [dij] où dij = aij - bij pour tout i et j.L'addition de matrices est commutative (A + B = B + A); associative ((A + B) + C = A + (B + C)), et elle possède un élément neutre: La matrice nulle (de même dimension). Multiplication
d'une matrice par un scalaire.
La multiplication d'une matrice par un scalaire possède les propriétés suivantes : • Associativité. - k.(l.A) = (kl).A où k et l sont des scalaires.Ces propriétés rendent la multiplication scalaire des matrices une opération simple et utile dans de nombreuses applications de l'algèbre linéaire. Produit
de deux matrices.
Pour que le produit de deux matrices soit défini, le nombre de colonnes de la première matrice doit être égal au nombre de lignes de la seconde matrice. Soit A une matrice de dimension m x n et B une matrice de dimension n x p. Alors le produit AB est une matrice de dimension m x p.Si A = [aik] et B = [bkj], alors le produit C = [cij] = AB est une matrice m x p où l'élément cij est calculé comme la somme des produits des éléments correspondants de la i-ème ligne de A et de la j-ème colonne de B : où aik​ est l'élément de la i-ème ligne et k-ième colonne de A, et bkj​ est l'élément de la k-ième ligne et j-ième colonne de B. Propriétés : • Non-commutativité. - En général, AB ≠BA. L'ordre est crucial. Même si AB et BA sont définies, elles ne sont pas forcément égales.Cas particulier: • Matrice diagonale. - Le produit par une matrice diagonale est simple : il effectue une mise à l'échelle des lignes ou des colonnes selon les valeurs diagonales.Le produit matriciel peut être interprété comme une transformation géométrique. Chaque matrice peut représenter une transformation linéaire (rotation, dilatation, projection, etc.). Le produit de deux matrices représente alors la composition de ces transformations. Par exemple, si A représente une rotation et B une dilatation, alors AB représente d'abord une dilatation suivie d'une rotation. L'ordre est important car la rotation puis la dilatation donnerait un résultat différent (BA). Transposition
d'une matrice.
Propriétés importantes de la transposée : • Transposée de la transposée d'une matrice : (AT)T=AMatrices particulières : • Matrice symétrique. - Une matrice symétrique est une matrice carrée qui est égale à sa transposée (A = AT). Cela signifie que les éléments aij et aji sont égaux pour tous i et j.Inversion d'une matrice. L'inversion d'une matrice A consiste à calculer une matrice inverse notée A-1, telle que A.A-1 = A-1.A = I, où I est la matrice identité. On reviendra plus bas sur les conditions que doir remplir une matrice pour être inversible, et si c'est le cas sur la manière de calculer son inverse. Notons seulement des propriétés importantes de l'inverse : • Inverse de l'inverse d'une matrice : (A-1)-1 = AVecteurs, matrices et applications linéaires. Les paragraphes précédents ont montré la relation entre les vecteurs et les applications linéaires. Il reste a éclaire en quelque mots celle des vecteurs avec les matrices et, par là celle des matrices avec les applications linéaires. On peut voir les vecteurs comme un cas particulier de matrices, et les matrices comme des outils pour manipuler les vecteurs de manière efficace en reconnaissant qu'elles sont une expression des applications linéaires.. Les
matrices sont des vecteurs.
Les
vecteurs sont des matrices.
Cela ressemble Ã
une matrice de dimension n x 1 (comme la première écriture ressemblait
à celle d'une matrice de dimension 1 x n). Nous parlons de ressemblance,
parce que dans la pratique (et cela se justifie par les contextes et les
manières dans lesquels les uns et les autres sont utilisés), on a l'habitude
de distinguer les vecteurs "Ã l'ancienne" de ces "nouvelle sorte de "
de vecteurs que sont les matrices. La distinction se fait par des
différences de notation et de vocabulaire. Un vecteur colonne est ainsi
une matrice composée d'une seule colonne de nombres. Si l'on a un vecteur
v
qui est un élément d'un espace vectoriel, alors le vecteur colonne V
correspondant à v est simplement la représentation de
v
sous forme de matrice colonne. Un vecteur colonne est une matrice de dimension
n x 1, tandis qu'un vecteur ligne est une matrice de dimension 1 x n. Cela
permet d'utiliser les opérations matricielles (addition, multiplication)
sur les vecteurs.
Les
matrices sont l'expression d'applications linéaires.
On peut dès lors voir dans une matrice A l'expression d'une application linéaire f. La multiplication d'une matrice par un vecteur u représente une transformation linéaire du vecteur. On qualifie aussi une telle matrice d'opérateur sur les vecteurs.La matrice décrit cette transformation (rotation, dilatation, cisaillement, etc.), et le vecteur v résultant est l'image du vecteur original après cette transformation. On peut écrire de façon équivalente : f(u) = v, u.A =v et U.A = V, où A est l'expression matricielle de f. Composition
d'applications linéaires et produit matriciel.
La composition gof des deux applications linéaires, définie comme : (gof)(x)=g(f(x)), peut alors s'exprimer termes de matrices comme (gOf)(x)=B.(A.x). Le produit B.(A.x) peut être aussi réécrit comme : (B.A).x,, où B.A est le produit matriciel des matrices B et A. La matrice C=B.A représente dès lors la composition gOf, et elle est de dimension p×n, ce qui correspond à une application Vn→Zp. Le produit matriciel n'est pas commutatif, et l'ordre de multiplication B.A reflète l'ordre de la composition gOf. La composition d'applications linéaires est associative, tout comme le produit matriciel : (hOg)Of=hO(gOf) et (C.B).A=C.(B.A). Rang d'une matrice.
Noyau.
Image.
Lien
entre noyau, image et dimension.
dim(im(A)) + dim(ker(A)) = dim(dom(A)), soit : rang(A)+null (A) = n. où n est le nombre de colonnes de la matrice A (dimension de l'espace de départ). Cela signifie que la somme des dimensions de l'image (rang) et du noyau (nullité) est égale au nombre total de variables dans le système. Le rang d'une matrice est égal au rang de sa transposée : rang(A) = rang(AT). Le rang d'une matrice est au plus égal au minimum de son nombre de lignes et de son nombre de colonnes. Trace
d'une matrice.
Propriétés de la trace : • Linéarité : tr(A+B)=tr(A)+tr(B); tr(cA) = c.tr(A), pour un scalaire c.Opérations élémentaires. On appelle opérations élémentaires (sur les lignes) d'une matrice des manipulations utilisées pour simplifier une matrice tout en préservant son contenu mathématique essentiel. Ce sont principalement : l'échange (permutation) de deux lignes, la multiplication d'une ligne par un scalaire non nul, l'ajout (ou la soustraction) d'un multiple d'une ligne à une autre et l'ajout tous les éléments d'une ligne à une autre ligne. Ces opérations préservent notamment le rang, la trace, le noyau et l'image d'une matrice. Echelonnement d'une matrice. - Une matrice échelonnée est une matrice qui a été transformée à partir d'une matrice d'origine en utilisant des opérations élémentaires sur les lignes, de telle sorte que les éléments non nuls soient concentrés le long de la diagonale principale ou en dessous, et que les éléments au-dessus de la diagonale principale soient nuls. Plus précisément, une matrice échelonnée est une matrice qui satisfait aux conditions suivantes :Augmentation d'une matrice• Toutes les lignes nulles (c'est-à -dire les lignes contenant uniquement des zéros) sont regroupées en bas de la matrice.Les matrices échelonnées sont utiles pour résoudre des systèmes d'équations linéaires, car elles permettent de simplifier les calculs et de réduire le nombre d'opérations nécessaires. Elles sont également utilisées dans de nombreux algorithmes de traitement de matrices. L'augmentation d'une matrice est l'opération consistant à ajouter une ou plusieurs colonnes (ou éventuellement des lignes) à une matrice existante pour former une nouvelle matrice étendue, appelée matrice augmentée : une matrice A de coefficients et une matrice de constantes B. La matrice augmentée pourra se noter [A | B] ou (A |B). La matrice augmentée (A | B) a les propriétés suivantes : elle a le même nombre de lignes que la matrice A; elle a un nombre de colonnes égal au nombre de colonnes de A plus le nombre de colonnes de B; les éléments de la matrice A sont conservés dans la matrice augmentée; la colonne de constantes B est ajoutée à la fin de la matrice A. Contrairement à ce qui se passe avec les opérations élémentaires vues précédemment, l'augmentation d'une matrice transforme les propriétés de base de la matrice de départ. C'est une technique utile pour intégrer des informations supplémentaires dans une matrice, notamment pour la résolution de systèmes d'équations linéaires ou l'analyse de la dépendance linéaire entre les vecteurs ou les lignes d'une matrice, par exemple. Matrice de changement
de base. Matrice de passage.
Si un vecteur v est exprimé dans une base B1 et que l'on veut exprimer ce même vecteur dans une autre base B2​, une matrice de passage PB1→B2 permet de faire cette conversion. Elle satisfait la relation : [v]B2=PB1→B2.[v]B1 , où [v]B1​​ sont les coordonnées du vecteur v dans la base B1​, [v]B2​​ sont les coordonnées du vecteur v dans la base B2​, PB1→B2​​ est la matrice de passage de la base B1à la base B2​. Pour construire la matrice de passage PB1→B2​, on exprime les vecteurs de la base B2​ dans la base B1., c'est-à -dire que l'on prend chaque vecteur de la base B2​ et on les exprime comme une comme une combinaison linéaire des vecteurs de B1​. Les colonnes de PB1→B2​​ sont alors les coordonnées des vecteurs de B2​ dans B1​. DéterminantsDéfinition.Le déterminant est une fonction qui associe à une matrice carrée un nombre réel ou complexe (selon le corps de définition de la matrice). Ce nombre (auquel on donne aussi le nom de déterminant par abus de langage), noté detâ¡(A) ou |A|, est un invariant fondamental qui contient des informations clés sur les propriétés de la matrice. Le calcul d'un déterminant d'une matrice carrée repose sur la somme alternée des produits des éléments de la matrice, pris selon des permutations de ses colonnes ou lignes, affectés de signes positifs ou négatifs selon la parité de la permutation. Pour une matrice 2x2, c'est simplement le produit des éléments de la diagonale principale moins le produit des éléments de l'autre diagonale. Pour des matrices plus grandes, on utilise souvent le développement par rapport à une ligne ou une colonne, réduisant ainsi le calcul à des déterminants de sous-matrices plus petites. Exemples
de déterminants faciles à calculer.
• Pour une matrice 2×2 :Propriétés élémentaires des déterminants. Déterminant de la matrice identité. In​ étant la matrice identité de taille n×n, on a detâ¡(In) = 1. Multiplication
des déterminants.
Déterminant
d'une transposée.
Échange
de lignes ou de colonne.
Linéarité
par rapport à une ligne ou une colonne.
Lignes
ou colonnes identiques.
Ligne
ou colonne nulle.
Multiplication
d'une ligne ou d'une colonne par un scalaire.
Facteur
commun dans une ligne ou colonne.
Inversion d'une
matrice.
Dans le cas d'une matrice carrée; l'existence du matrice inverse dépend de la valeur du déterminant de la matrice considérée : une matrice carrée A est inversible si et seulement si son déterminant est non nul : detâ¡(A) ≠0. (Si detâ¡(A) = 0, on dit que la matrice alors la matrice est singulière; elle n'a pas d'inverse). Si A est inversible, alors : detâ¡(A−1)=1/detâ¡(A). Cas d'une matrice 2 x 2 : Inversion d'une matrice par la méthode de Gauss Jordan.La méthode de Gauss-Jordan est une technique numérique utilisée pour inverser une matrice carrée en mettant en oeuvre des opérations élémentaires sur les lignes. Elle est efficace pour inverser des matrices carrées, mais elle peut être coûteuse en termes de calculs pour des matrices de grande taille. Il existe d'autres méthodes plus efficaces pour inverser des matrices. Étapes de la méthode de Gauss-Jordan : 1) Création de la matrice augmentée . - On crée une matrice augmentée en ajoutant la matrice identité de même taille à la droite de la matrice d'origine.Condition d'indépendance linéaire de vecteurs. Le déterminant peut être utilisé comme critère pour vérifier l'indépendance linéaire d'un ensemble de vecteurs dans un espace vectoriel n ou n. Un ensemble de vecteurs {v1, v2,…, vn} dans un espace vectoriel de dimension n est dit linéairement indépendant si l'équation c1​v1​ + c2​v2​ +⋯+ cn​vn​ = 0 n'admet comme solution que c1 = c2 = ... = cn = 0. Autrement dit, aucun vecteur de cet ensemble ne peut être exprimé comme une combinaison linéaire des autres. Si les vecteurs v1, v2,…, vn​ sont représentés par les colonnes d'une matrice carrée A de dimension n×n, alors les vecteurs sont linéairement indépendants si et seulement si detâ¡(A)≠0. (Si detâ¡(A)=0, les vecteurs sont linéairement dépendants). Cela vient de ce que le déterminant de la matrice A est un indicateur de l'inversibilité de cette matrice. Si detâ¡(A)≠0, la matrice est inversible, ce qui signifie que ses colonnes (ou ses lignes) forment une base de n et sont donc linéairement indépendantes. Si detâ¡(A)=0, cela signifie que la matrice est singulière (non inversible), et au moins un vecteur peut être écrit comme une combinaison linéaire des autres. Systèmes d'équations LinéairesIntroduction aux systèmes linéaires.Un système d'équations linéaires est un ensemble d' équations linéaires qui doivent être satisfaites simultanément. Chaque équation linéaire est une équation de la forme : am1x + am2y + ... + amnz = b, où am1, am2, ..., an sont les coefficients constants de la m-ième éqation du système, x, y, ..., z sont des variables, et b est une constante. Théorème
de Rouché-Capelli.
Soit un système d'équations linéaires de la forme : AX = B, où A est une matrice de coefficients, X est une matrice de variables et B est une matrice de constantes. Le théorème de Rouché-Capelli énonce que :Systèmes homogènes et non homogènes.• Si le rang de la matrice A est égal au rang de la matrice augmentée [A | B], alors le système a une seule solution qui satisfait toutes les équations du système. Les systèmes d'équations linéaires peuvent être classés en deux catégories : les systèmes homogènes et les systèmes non homogènes. • Systèmes d'équations linéaires homogènes. - Un système d'équations linéaires homogène est un système où toutes les équations ont une forme similaire, avec des coefficients constants et des variables, mais sans termes constants. En d'autres termes, toutes les équations ont la forme : a1x + a2y + ... + anz = 0, où a1, a2, ..., an sont des coefficients constants, x, y, ..., z sont des variables. Les systèmes homogènes ont les propriétés suivantes : ils ont toujours au moins une solution, qui est la solution nulle (x = y = z = 0); s'ils ont une solution non nulle, alors ils ont une infinité de solutions; les solutions sont des combinaisons linéaires des solutions fondamentales. • Systèmes d'équations linéaires non homogènes. - Un système d'équations linéaires non homogène est un système où au moins une équation a un terme constant non nul. En d'autres termes, au moins une équation a la forme : a1x + a2y + ... + anz = b, où a1, a2, ..., an sont des coefficients constants, x, y, ..., z sont des variables, et b est un terme constant non nul. Les systèmes non homogènes ont les propriétés suivantes : ils peuvent avoir une solution unique, une infinité de solutions, ou aucune solution. Les solutions ne sont pas nécessairement des combinaisons linéaires des solutions fondamentales.Les systèmes homogènes et non homogènes peuvent être résolus à l'aide de méthodes similaires, telles que la méthode de Gauss, la méthode de Cramer, etc. Cependant, les systèmes homogènes sont souvent plus faciles à résoudre, car ils ont toujours une solution nulle et les solutions non nulles sont des combinaisons linéaires des solutions fondamentales. En revanche, les systèmes non homogènes peuvent être plus difficiles à résoudre, car ils peuvent avoir des solutions uniques ou infinies, et les solutions ne sont pas nécessairement des combinaisons linéaires des solutions fondamentales. Un système d'équations linéaires peut être représenté de plusieurs manières. La plus évidente est l'écriture l'une à la suite des autres (ou plutôt les unes sous les autres) : Il peut être aussi représenté de manière compacte sous forme matricielle. La matrice A des coefficients, multipliée par le vecteur colonne X des inconnues, est égale au vecteur colonne B des termes constants : A.X = B. La résolution de ce système se ramène alors à des opérations matricielles. Méthodes de résolution.
Méthode
par substitution.
1) Isoler une variable dans l'une des équations.Méthode par combinaison linéaire (ou addition). la méthode par combinaison linéaire consiste à additionner ou soustraire les équations pour éliminer une variable. Étapes : 1) Multiplier les équations pour que les coefficients d'une variable soient opposés.Méthode matricielle (ou méthode de Gauss). Cette méthode utilise les matrices pour résoudre le système. Étapes : 1) Représenter le système sous forme matricielle A.X = B, où A est la matrice des coefficients, X le vecteur des inconnues, et B le vecteur des constantes.Méthode de Cramer. Cette méthode est applicable si le système a autant d'équations que de variables et si le déterminant de la matrice des coefficients n'est pas nul. Étapes : 1) Écrire le système d'équations linéaires sous la forme d'une matrice d'équations : Ax = b, où A est la matrice des coefficients, x est la matrice des inconnues et b est la matrice des constantes.La méthode de Cramer est facile à mettre en œuvre avec des outils de calcul numérique. Cependant, elle nécessite de calculer plusieurs déterminants, ce qui peut être coûteux en temps de calcul pour les grands systèmes. Elle n'est pas adaptée pour les systèmes d'équations linéaires avec des coefficients non numériques. Méthodes
itératives (Jacobi ou Gauss-Seidel).
Jacobi : Chaque variable est calculée en fonction des valeurs des autres à l'itération précédente.Ces méthodes convergent sous certaines conditions, par exemple si la matrice des coefficients est strictement diagonale dominante Valeurs propres et vecteurs propresLes valeurs propres et les vecteurs propres d'une matrice révèlent des informations sur la transformation linéaire représentée par cette matrice. Les vecteurs propres sont des vecteurs qui sont seulement mis à l'échelle (multipliés par une constante, la valeur propre) par la transformation.Une valeur propre d'une matrice carrée A est un scalaire tel que l'équation suivante est satisfaite : Av=λv, où A est une matrice carrée n×n, λ est une valeur propre, et v est un vecteur propre non nul. Un vecteur propre d'une matrice carrée A est un vecteur non nul qui, lorsqu'il est multiplié par la matrice A, donne un vecteur colinéaire à lui-même, multiplié par la valeur propre correspondante λ. Le vecteurs propres représentent des directions invariantes sous l'effet de la transformation linéaire définie par A. Si v est un vecteur propre, l'application de A ne change que sa magnitude (par λ) mais pas sa direction. Les valeurs propres indiquent les facteurs par lesquels les vecteurs propres sont dilatés ou contractés lors de la transformation. Pour trouver les valeurs propres et les vecteurs propres d'une matrice carrée, on suit les étapes suivantes : 1) Équation caractéristique : l'équation Av = λv peut être réécrite sous la forme : (A−λI)v=0, où I est la matrice identité. Pour qu'il existe une solution non triviale (v ≠0) le déterminant de la matrice (A−λI) doit être nul : detâ¡(A−λI) = 0. Cette équation est appelée équation caractéristique. En la résolvant, on trouve les valeurs propres λ. Espaces euclidiensUn espace euclidien est un espace vectoriel réel de dimension finie muni d'une opération interne particulière appelée produit scalaire qui définit une norme (ou longueur) sur les vecteurs. Les espaces euclidiens sont souvent définis sur le corps des nombres réels (ou éventuellement sur d'autres corps, tels que les nombres complexes , mais cela nécessite des modifications et des extensions des définitions et des propriétés classiques des espaces euclidiens).Parmi les exemples d'espaces euclidiens, on peut mentionner : l'espace des nombres réels lui-même, où les vecteurs sont les nombres réels et les opérations sont les opérations usuelles sur les nombres réels; l'espace des vecteurs de dimension 2 ², où les vecteurs sont des couples de nombres réels et les opérations sont définies comme suit : (x, y) + (x', y') = (x + x', y + y') et a(x, y) = (ax, ay); l'espace des fonctions réelles (toutes les fonctions qui prennent un nombre réel comme argument et retournent un nombre réel comme valeur ) où les vecteurs sont les fonctions réelles et les opérations sont définies comme suit : f + g = f(x) + g(x) et af = af(x).Le produit scalaire. Définition. Le produit scalaire (noté . ou ‹ , ›) est une opération qui donne un nombre à partir de deux vecteurs. Le produit scalaire entre deux vecteurs u = (u1, u2, …, un) et v = ( v1, v2, …, vn) dans un espace vectoriel réel n est défini comme : En termes matriciels, le produit scalaire de deux vecteurs u et v, correspond au produit matriciel de la transposée de u par v : Dans dans ², le produit scalaire s'écrit : u.v = u1.v1+u2.v2. Donc, si l'on a, par exemple, u = (1, 2) et v = (3, 4), alors u.v = 1.3 + 2.4 = 11Propriétés du produit scalaire. Le produit scalaire est commutatif (u .v = v . u), linéaire par rapport à chaque vecteur (u . (k.v) = k.(u.v), (u + v). w = u.w + v.w), et positif défini (u.u ≥ 0, et u.u = 0 si et seulement si u = 0). Norme, distance
et angle.
||u|| = √(u.u) = √(u1² + u2² + ... + un²) Exemple : si u = (3,4), alors ||u|| = √ (3² + 4²) = √(25) = 5.Pour tous les vecteurs d'un espace euclidien, on a vérifie : • La positivité : ||u|| ≥ 0, avec ||u|| = 0 si et seulement si u = 0.Distance entre deux vecteurs. La distance entre u et v dans nest donnée par d(u, v) = ||u - v||. Angle
entre deux vecteurs.
||u|| et ||v|| représentent les normes de u et v. Orthogonalité
Projection
orthogonale :
Base
orthonormale.
une base (b1, b2,…, bn) de n est orthonomale si : 1) bi.bj =0 pour i ≠j (orthogonalité)Dans une base orthonormale, les coordonnées d'un vecteur u sont simplement données par les produits scalaires des vecteurs de la base : Produit vectoriel
.
Soient deux vecteurs a et b dans 3, avec : a=(a1,a2,a3), b=(b1, b2, b3) Le produit vectoriel a×b est défini par : Où i, j, k sont les vecteurs unitaires selon les axes x, y et z. Le déterminant donne : a×b=(a2b3−a3b2)i−(a1b3−a3b1)j+(a1b2−a2b1)k Le résultat a×b est orthogonal à a et b. La direction de a×b est déterminée par la règle de la main droite : si les doigts de la main droite suivent a vers b, le pouce pointe dans la direction de a×b. La norme du produit vectoriel est donnée par : ||a×b|| = ||a||.||b||.sinâ¡Î¸, où θ est l'angle entre a et b. Le produit vectoriel est antisymétrique : a×b = −(b×a) Le produit vectoriel est nul a×b = 0 ) si et seulement si a//b Propriétés
et identités remarquables du produit vectoriel.
Formule de Gibbs (produit mixte avec produits vectoriel et scalaire). - Pour trois vecteurs u, v, w de 3, on a la formule suivante qui relie le produit vectoriel et le produit scalaire : (u ∧ v).w = det(( u v w )) où ( u v w ) est la matrice dont les colonnes sont les composantes des vecteurs u, v, w. Cela correspond aussi au volume du parallélépipède défini par u, v et w. Identité de Jacobi (double produit vectoriel). - L'identité de Jacobi décrit le comportement du double produit vectoriel : u ∧ (v ∧ w) = (u.w)v - (u.v)w. Cette identité est particulièrement utile dans la mécanique classique et la théorie des champs. Identité de Lagrange. - Pour deux vecteurs u et v, l'identité de Lagrange donne une relation entre les normes et les produits vectoriel et scalaire : ||u ∧ v||² = ||u||².||v||² - (u.v)². Cela exprime que le carré de la norme du produit vectoriel correspond au déterminant du produit mixte des vecteur s. Identité du triple produit mixte. - Pour trois vecteurs u, v, w, le produit mixte satisfait l'identité suivante : u. (v ∧ w) = v.(w ∧ u) = w. (u ∧ v). Cette égalité montre la cyclicité dans l'expression du produit mixte. Exemples d'applications
linéaires courantes dans R2.
x' = xcosâ¡Î¸âˆ’ysinâ¡Î¸ et y' xsinâ¡Î¸+ycosâ¡Î¸, soit w = (xcosâ¡Î¸âˆ’ysinâ¡Î¸, xsinâ¡Î¸+ycosâ¡Î¸), où θ est l'angle de rotation. La matrice de rotation correspondante est donnée par : En dimension supérieure (3 ou plus), les matrices de rotation dépendent de l'axe de rotation (dans 3) ou des plans d'action. Ces matrices deviennent plus complexes mais conservent des propriétés similaires, comme l'orthogonalité. Changement
d'échelle (homothétie).
Pour un changement d'échelle anisotrope, les facteurs d'échelle peuvent être différents dans chaque direction : Une projection orthogonale sur une droite dans 2, par exemple sur l'axe x, est donnée par : f(x,y)=(x,0). La matrice de projection correspondante est : Réflexion.
Formes linéaires, bilinéaires et quadratiquesFormes linéaires.Une forme linéaire est une application linéaire d'un espace vectoriel V (sur un corps K, souvent R ou C) vers le corps K. Si f : V→K est une forme linéaire, alors pour tous x,y V et α,β K : f(αx+βy) = αf(x)+βf(y). Le noyau kerâ¡(f)={x V | f(x) = 0} est un sous-espace vectoriel de V. L'application f est entièrement déterminée par ses valeurs sur une base de V. Dans V=Rn, une forme linéaire peut être écrite comme : f(x) = a1​x1​ + a2​x2​ +⋯+ an​xn​ = ⟨a,x⟩où a=(a1,…, an) Rn est un vecteur fixé et x = (x1,…,xn) est un vecteur arbitraire. Formes bilinéaires.
B(x+y, z) = B(x,z) + B(y,z) (linéarité par rapport à la première variable),
On dit qu'une forme bilinéaire est symétrique si B(x,y) = B(y,x); elle est antisymétrique si B(x,y) = −B(y,x). La matrice associée A dépend de la base choisie dans V. Le produit scalaire est une forme bilinéaire symétrique et définie positive. Formes quadratiques.
Les formes quadratiques ont des propriétés telles que : • Homogénéité : La forme quadratique est homogène, c'est-à -dire que pour tous les vecteurs u et pour tous les scalaires a, on a : Q(au) = a2 Q(u)Les formes quadratiques peuvent être : • Définies positives : Si Q(u) > 0 pour tous les vecteurs u non nuls.Le rang d'une forme quadratique est le nombre de valeurs propres non nulles de sa matrice. Le défaut d'une forme quadratique est le nombre de valeurs propres nulles. Le rang et le défaut sont liés à la nature de la forme quadratique (définie positive, définie négative ou indéfinie). La signature d'une forme quadratique est le nombre de valeurs propres positives moins le nombre de valeurs propres négatives. Elle est liée à la nature de la forme quadratique (définie positive, définie négative ou indéfinie). La forme quadratique euclidienne est une forme quadratique définie positive qui correspond à la longueur d'un vecteur. La forme quadratique de Lorentz est une forme quadratique qui correspond à la métrique de l'espace-temps en relativité restreinte. |
. |
|
|
|||||||||||||||||||||||||||||||
|