.
-

La pensée et ses outils > Logique et théorie de la connaissance > Mathématiques > Algèbre

L'Agèbre linéaire

L'algèbre linéaire est un domaine des mathématiques qui étudie les vecteurs, les espaces vectoriels, les transformations linéaires et les systèmes d'équations linéaires. Elle est fondamentale dans de nombreux domaines scientifiques et techniques, comme l'informatique, la physique, l'ingénierie, l'économie et bien d'autres. 

Notions générales sur les vecteurs 

Un vecteur est une entité mathématique qui combine deux caractéristiques essentielles : une magnitude (norme ou module) et un sens. Dans cette page, on notera les vecteurs en gras. Dans le contexte de l'algèbre linéaire, les vecteurs sont principalement utilisés pour représenter des points dans un espace ou des grandeurs orientées, c'est-à-dire ayant un sens. En algèbre linéaire, un vecteur est une liste ordonnée de nombres, appelée composantes ou coordonnées du vecteur. Ces nombres décrivent la position d'un point ou une direction dans un espace. Par exemple, en 2 dimensions : v=(x,y); en 3 dimensions : v= (x, y, z); en n dimensions : v=(v1, v2,..., vn).

Représentation géométrique.
Les notions abordées ici le seront de manière très intuitive. On y reviendra plus de manière plus rigoureuse, dans la section consacrée aux espaces euclidiens.

Vecteur en 2D.
Un vecteur peut être représenté par une flèche dans un plan. L'origine de la flèche est souvent à l'origine du système de coordonnées (0,0). La pointe de la flèche est donnée par les coordonnées [x,y].

Vecteur en 3D.
Semblable au cas 2D, mais il est représenté dans un espace tridimensionnel. Exemple : un vecteur [3,2,1] part de l'origine (0,0,0) et pointe vers le point (3,2,1).

Norme (magnitude).
La norme d'un vecteur mesure sa longueur, calculée comme : ∥v∥= √ (x²+y²) (en 2D)
ou ∥v∥= √ (x²+y²+z²) (en 3D), où  √ est le symbole de la racine carrée.

Le sens.
Le sens d'un vecteur est défini par l'orientation de la flèche par rapport à un système de coordonnées. Deux vecteurs peuvent avoir même direction, mais des sens opposés.

Opérations sur les vecteurs.
Addition.
L'addition de deux vecteurs (notée +) d'un même ensemble E peut se définir à partir de l'addition des composantes respectives de ces vecteurs : Si u=[u1,u2] et v=[v1,v2], alors : u+v=[u1+v1,u2+v2]; 

L'addition de deux vecteurs (et a fortiori de plusieurs vecteurs) possède plusieurs propriétés importantes :

ʉۢ Fermeture. - L'addition de deux vecteurs quelconques de E est un vecteur de E : u+v E.

 â€¢ Commutativité. - L'ordre d'addition des vecteurs n'affecte pas le résultat. Autrement dit, quels que soient les vecteurs u et v,   u + v = v + u.

 â€¢ Associativité. - On peut regrouper les termes à additionner de différentes manières sans modifier le résultat. Pour trois vecteurs quelconques  u, v, et w, on aura ainsi :  (u + v) + w = u + (v + w).

 â€¢ Élément neutre. - Il existe dans E un vecteur nul, noté ici 0, tel que l'addition de ce vecteur à n'importe quel autre vecteur de ne modifie pas ce dernier.  Autrement dit : u + 0 = u et 0 + u = u.

 â€¢ Élément opposé. -  Pour chaque vecteur u, il existe un vecteur opposé, noté -u, tel que leur somme soit égale au vecteur nul. u + (-u) = 0.

Grâce à la commutativité et l'associativité, on peut réarranger les termes d'une somme de vecteurs à notre convenance pour faciliter les calculs. 

L'existence d'un élément neutre et, pour tout vecteur, celle d'un vecteur opposé permet de définir la soustraction (notée -) de deux vecteurs : La soustraction d'un vecteur est définie comme l'addition de son opposé : u - v = u + (-v).

Multiplication par un scalaire.
La multiplication (notée .) d'un vecteur v, élément d'un ensemble E, par un scalaire (nombre) k, élément d'un ensemble K, donne un vecteur k.u qui appartient aussi à E et qui  est obtenu en multipliant chaque composante de u par k. Si, pr exemple,  v=[x,y] et k est un scalaire, alors : k.v=[k.x,k.y].

La multiplication scalaire est associative (k(l.u) = (kl).u), distributive par rapport à l'addition vectorielle (k.(u + v) = k.u + k.v) et distributive par rapport à l'adition des scalaires ((k + l.).u = k.u + l.u). Il existe dans l'ensemble K un élément neutre (noté ici 1), tel que pour tout  l'élément u de E, on ait 1.u = u et u.1 = u, et un élément abosrbant (noté 0), tel que que pour tout u E, on a : 0.u = 0 et u.0 = 0. Ou, si l'on préfère, si le scalaire est zéro, quel que soit le vecteur, on obtient le vecteur nul.  Enfin, si k est un scalaire et v un vecteur, alors (-k). v = -(k. v), ce qui signifie que multiplier par un scalaire négatif inverse le vecteur.

Autres opérations.
On mentionnera encore ici pour mémoire d'autres opérations possibles impliquant les vecteurs. Les deux premières concernent le plus souvent la géométrie euclidienne; la troisième le calcul matriciel. Elles donneront lieu à des développements plus bas. 

 â€¢ Produit scalaire. - Le produit scalaire (noté .) est une opération qui donne un nombre à partir de deux vecteurs. 

 â€¢ Produit vectoriel (en 3D). - Le produit vectoriel (noté ∧) est une opération définie uniquement pour les vecteurs de dimension 3, et qui produit un nouveau vecteur w perpendiculaire aux deux vecteurs u et v donnés. 

 â€¢ Produit matriciel (d'un vecteur par une matrice). -  Une matrice A de taille m x n multipliée par un vecteur v de dimension n donne un vecteur w de dimension m. Chaque composante de w est le produit scalaire d'une ligne de A par le vecteur v
Exemples d'utilisation des vecteurs.
En physique, les vecteurs représentent des grandeurs comme la vitesse, la force, ou l'accélération. En informatique, ils servent à modéliser des données dans des espaces multidimensionnels (comme dans l'apprentissage automatique). En géométrie, ils décrivent des directions et des déplacements.

Relations géométriques entre vecteurs.
En géométrie vectorielle, plusieurs relations importantes existent entre les vecteurs. leurs définitions sont indépendantes du choix de l'origine des vecteurs, car on s'intéresse aux relations entre les directions, sens et normes :

Vecteurs équipollents (égaux).
Deux vecteurs sont équipollents s'ils ont même direction, même sens et même norme (longueur).  Notation : u = v indique que les vecteurs u et v sont équipollents. Condition algébrique: Si les vecteurs sont représentés par leurs coordonnées, l'équipollence signifie que les coordonnées correspondantes sont égales. Par exemple, dans 2, si u = (x1, y1) et v = (x2, y2), alors u = v si et seulement si x1 = x2 et y1 = y2. On les représente graphiquement par deux flèches de même longueur, parallèles et pointant dans le même sens.

Vecteurs orthogonaux (perpendiculaires).
Deux vecteurs non nuls sont perpendiculaires (ou orthogonaux) si l'angle entre eux est de 90 degrés (π/2 radians). Notation : u ⊥ v indique que u et v sont orthogonaux. Condition algébrique : le produit scalaire de deux vecteurs orthogonaux est nul : u . v = 0. On les représente graphiquement par deux flèches formant un angle droit.

Vecteurs colinéaires (parallèles).
Deux vecteurs sont colinéaires s'ils ont la même direction. Ils peuvent avoir le même sens ou des sens opposés. L'un est un multiple scalaire de l'autre. Notation : u // v indique que u et v sont colinéaires. Condition algébrique: Il existe un scalaire k tel que u = k.v (ou v = k.u). Si les vecteurs sont représentés par leurs coordonnées, leurs coordonnées sont proportionnelles. On les représente graphiquement par deux flèches parallèles.

Vecteurs opposés.
Deux vecteurs sont opposés s'ils ont la même direction (ils sont colinéaires) et norme,  mais des sens opposés. Notation : v = -u indique que v est le vecteur opposé à u. Condition algébrique: u + v = 0 (le vecteur nul). Si les vecteurs sont représentés par leurs coordonnées, les coordonnées correspondantes sont opposées. On les représente graphiquement par deux flèches de même longueur, parallèles et pointant dans des sens opposés.

Espaces vectoriels

La notion d'espace vectoriel est au coeur de l'algèbre linéaire. C'est une abstraction puissante qui sous-tend une grande partie des mathématiques et des sciences modernes. On utilise des espace vectoriels en physique, pour modéliser des forces ou des mouvements dans l'espace. En informatique,  on les emploie pour traiter des données en machine learning ou en traitement d'image. En mathématiques, ce sont un outil fondamental pour l'analyse et la résolution d'équations linéaires.

Définition. 
Les paragraphes précédents on introduit les ingrédients que l'on doir retrouver dans la définition d'un espace vectoriel. Les premiers sont les vecteurs : un espace vectoriel E est une ensemble de vecteurs. E est doté d'une opération, que l'on a appelée l'addition de vecteurs ou addition vectorielle (notée +) et qui permet d'associer à deux vecteurs u et v, un troisième vecteur w, tel que w = u + v. On a aussi fait appel implicitement à une deuxième ensemble K, dont les éléments ont été appelés scalaires. On a ensuite établi un lien entre E et K en définissant la multiplication (ou le produit) d'un vecteur par un scalaire (notée .). Ainsi, si  k est un scalaire (kK) et v est un vecteur (vE), le produit de k par u est un autre vecteur v : v = k.u. Mettons de côté les définitions du produit scalaire et du produit vectoriel données précédemment, on dispose déjà pratiquement tout ce qu'il faut pour définir un espace vectoriel. Il ne reste qu'à préciser quelques contraintes particulières : 

• E est un groupe abélien. - Pour commencer l'addition de deux vecteurs doit être une opération commutative : u+v = v+u(u, vE, et plus largement doter E d'une structure de groupe abélien. 

• K est un corps commutatif. - Ensuite K, qui peut être autre chose qu'un ensemble de nombres comme on l'a précedemment admis, doit tout de même avoir des propriétés similaires à un ensembe de nombres comme  (nombres réels) ou  (nombres complexes). C'est ce qu'on exprime en demandant à l'ensemble K d'avoir une structure de corps commutatif. 

• L'opération externe (.) qui définit le produit d'un élément de K par un élément de E doit avoir les deux propriétés suivantes : 

a) soit vE et k et p K, on a k.(p.v) = (kp). v

b) L'opération . est distributive par rapport à l'addition dans K et par l'opération interne de E.

Si ces conditions sont réunies, on dit que E, muni d'une opération interne et d'une opération externe dont le domaine d'opérateurs est K, a une structure d'espace vectoriel sur K, ou que E est un espace vectoriel (sur K), ou encore que E est un K-espace vectoriel.

Combinaison linéaire, indépendance linéaire, base et dimension.
Combinaison linéaire.
Une combinaison linéaire de vecteurs d'un espace vectoriel V est une expression obtenue en multipliant ces vecteurs par des scalaires (appartenant au corps K) et en les additionnant. Autrement dit, une combinaison linéaire est une expression d'un vecteur comme une somme pondérée de plusieurs vecteurs.

Si v1, v2,…, vk​ sont des vecteurs dans V et λ1,λ2,…,λk sont des scalaires dans K, alors :
w=λ1v1+λ2v2+ ... +λkvk est une combinaison linéaire de v1, v2,…,vk.

Indépendance linéaire.
L'indépendance linéaire est une propriété des vecteurs qui indique qu'aucun vecteur parmi eux ne peut être exprimé comme une combinaison linéaire des autres.

Un ensemble de vecteurs {v1, v2,…,vk} dans V est dit linéairement indépendant si la seule combinaison linéaire qui donne le vecteur nul est celle où tous les coefficients sont nuls :
λ 1v1+λ2v2+ ... +λkvk =0    λ1=λ2=...=λk=0.

Si au moins un des coefficients peut être non nul dans une telle combinaison donnant le vecteur nul, les vecteurs sont dits linéairement dépendants. Dans ce cas, au moins un des vecteurs peut être écrit comme une combinaison linéaire des autres.

Base d'un espace vectoriel.
Une base est un ensemble minimal de vecteurs qui permet de décrire tout vecteur d'un espace vectoriel.

Un ensemble de vecteurs BV =  {b1, b2,…, bn} est une base de l'espace vectoriel V si : a) l'ensemble {b1, b2,…, bn} est linéairement indépendant; b) l'ensemble {b1, b2,…, bn} engendre V, c'est-à-dire que tout vecteur vV peut être écrit comme une combinaison linéaire de ces vecteurs : v=λ1​b1​+λ2​b2​+...+λn​bn​.

Une base est ainsi un ensemble de vecteurs à la fois minimal (aucun vecteur ne peut être retiré sans perdre l'indépendance linéaire) et maximal (aucun vecteur supplémentaire ne peut être ajouté sans perdre l'indépendance linéaire). 

Comme, la plupart du temps, on peut choisir la base dans laquelle on travaille, il est judicieux de choisir celle qui permettra les expressions et les calculs les plus simples. Un telle base est dite canonique. Dans les espaces vectoriels de dimension finie, la base canonique (base standard ou base naturelle) est généralement la base composée des vecteurs unitaires. Par exemple, dans l'espace euclidien (3), la base canonique est composée des vecteurs i = (1, 0, 0), j = (0, 1, 0), et k = (0, 0, 1).
Dimension d'un espace vectoriel.
La dimension d'un espace vectoriel est le nombre de vecteurs dans une base de cet espace.

Si V est un espace vectoriel et  {b1, b2,…, bn} est une base de V, alors la dimension de V est dimâ¡(V)=n. Par exemple, 3 a une dimension de 3. On écrira : dim (3) = 3.

Toutes les bases d'un espace vectoriel ont le même nombre de vecteurs. Dans un espace vectoriel de dimension finie V, tout ensemble linéairement indépendant peut être complété pour former une base. Si dimâ¡(V) = n, alors tout ensemble de n vecteurs linéairement indépendants dans V est une base, et tout ensemble de n vecteurs qui engendrent V est aussi une base.

Caractéristique d'un espace vectoriel.
La caractéristique d'un espace vectoriel est définie comme étant le plus petit entier naturel p tel que : 1p = 0, où 1 est l'élément neutre de la multiplication scalaire et 0 est l'élément neutre de l'addition de vecteurs. En d'autres termes, la caractéristique d'un espace vectoriel est le plus petit entier naturel p tel que la multiplication de 1 par lui-même p fois donne 0. Il existe deux cas possibles :

• Un espace vectoriel est dit de caractéristique nulle si p = 0. Cela signifie que la multiplication de 1 par lui-même un nombre quelconque de fois ne donne jamais 0. Les espaces vectoriels des nombres réels  et  sont de caractéristique nulle.

• L'espace vectoriel est dit de caractéristique p si (p ≠ 0. Cela signifie que la multiplication de 1 par lui-même p fois donne 0. L'espace vectoriel des polynômes à coefficients dans un corps fini est de caractéristique non nulle.

La caractéristique d'un espace vectoriel détermine les propriétés, telles que a commutativité de la multiplication scalaire, l''associativité de la multiplication scalaire, la distributivité de la multiplication scalaire par rapport à l'addition de vecteurs.

Sous-espaces vectoriels. 
Un sous-espace vectoriel est un sous-ensemble d'un espace vectoriel qui est lui-même un espace vectoriel pour les même opérations définies dans l'espace vectoriel plus grand.

Un sous-ensemble W d'un espace vectoriel V sur un corps K est un sous-espace vectoriel si les conditions suivantes sont remplies :

    W ≠  (W doit au moins contenir le vecteur nul 0).
    W est stable pour l'addition : si uW et vW, alors u+vW.
    W est stable pour la multiplication scalaire : si uW et λK, alors λuW

Propriétés générales des sous-espaces vectoriels
Le vecteur nul 0 de V appartient toujours à W, car si W est non vide, il contient au moins un vecteur u. Par la stabilité par multiplication scalaire, 0.u = 0 est dans W.

La somme de deux vecteurs u, W reste dans W. 

Le produit d'un vecteur u.W par un scalaire λ  K reste dans W.

Caractérisation par combinaison linéaire.
Si W est un sous-espace vectoriel, alors tout vecteur de W peut s'écrire comme une combinaison linéaire de vecteurs d'une base de W.

L'ensemble de toutes les combinaisons linéaires de  v1, v2,…,vk.​ forme un sous-espace vectoriel de W appelé espace engendré par {v1,v2,…, vk}.

Intersection des sous-espaces.
L'intersection de deux (ou plusieurs) sous-espaces vectoriels de V est également un sous-espace vectoriel de V.

Somme des sous-espaces.
Si W1​ et W2​ sont deux sous-espaces vectoriels de V, leur somme : W1+W2={u+v | uW1, vW2} est également un sous-espace vectoriel de V.

Dimension.
La dimension d'un sous-espace vectoriel W est inférieure ou égale à celle de V. Si W est engendré par n vecteurs linéairement indépendants, sa dimension est dimâ¡(W)=n.

Stabilité par restriction.
Si u,v W, alors −u et u−v sont aussi dans W, car ces opérations résultent de l'addition et de la multiplication par des scalaires (en particulier, −1).

Exemples.
L'ensemble des vecteurs de 3 avec une troisième coordonnée nulle, W={(x,y,0)| x,yR}, est un sous-espace vectoriel de 3

L'ensemble des polynômes de degré inférieur ou égal à nn, noté Pn, est un sous-espace vectoriel de l'ensemble des polynômes P.

Espace vectoriel des fonctions réelles.
L'espace vectoriel des fonctions réelles est l'ensemble (doté des opérations (+, .) qui le lui confèrent une structure d'espace vectoriel) de toutes les fonctions qui prennent un nombre réel comme argument et retournent un nombre réel comme valeur. On peut le noter par F(,).

L'espace vectoriel des fonctions réelles est de dimension infinie. Cela signifie qu'il n'existe pas de base finie pour cet espace. En d'autres termes, on ne peut pas exprimer toutes les fonctions réelles comme une combinaison linéaire d'un nombre fini de fonctions.

Il existe de nombreux sous-espaces vectoriels importants dans l'espace des fonctions réelles, tels que : l'espace des fonctions continues, l'espace des fonctions dérivables, l'espace des fonctions intégrables, l'espace des polynômes, l''espace des fonctions périodiques, etc.

Applications linéaires

Les applications (ou transformations) linéaires sont des fonctions qui transforment des vecteurs tout en conservant les propriétés d'additivité et d'homogénéité . Par exemple, la rotation, l'étirement, ou la réflexion. 

Définition et propriétés.
Définition d'une application linéaire.
Soit f:V→W une application entre deux espaces vectoriels V et W sur un même corps K. L'application f est dite linéaire si elle satisfait :

    f(u+v)=f(u)+f(v) pour tous u,vV (additivité).

    f(λu)=λf(u) pour tout λK et uV (homogénéité).

Ces propriétés garantissent que f préserve les relations linéaires entre les vecteurs.

Image d'une application linéaire.
L'image (ou espace image) d'une application linéaire f:V→W est l'ensemble des vecteurs de W qui peuvent être obtenus comme f(v) pour un vV : Im(f)={wW | vV, f(v)=w}.

L'image de f est un sous-espace vectoriel de W.

La dimension de Im(f) est appelée le rang de f, noté rang(f).

Noyau d'une application linéaire.
Le noyau (ou espace nul) d'une application linéaire f:V→W est l'ensemble des vecteurs de V qui sont envoyés sur le vecteur nul de W :  Ker(f) = {vV | f(v)=0}.

Le noyau de f est un sous-espace vectoriel de V.

Si f est injective, alors Ker(f)={0}.

La dimension de Ker(f) est appelée la nullité de f, notée null(f).

Théorème du rang
Le théorème du rang relie la dimension de l'espace de départ V à celles du noyau et de l'image de f : dimâ¡(V) = rang(f) + null(f).

Interprétation :

 â€¢ rang(f) représente le nombre de dimensions de V qui "contribuent" réellement à l'image.

• null(f) mesure le nombre de dimensions "perdues" (envoyées sur 0).

Isomorphismes.
En algèbre linéaire, un isomorphisme est une application linéaire qui établit une correspondance biunivoque (bijective) entre deux espaces vectoriels. Soient V et W deux espaces vectoriels sur un même corps K. Une application f:V→W est un isomorphisme d'espaces vectoriels si elle satisfait les conditions suivantes :
• Linéarité :  u, V et  λ  K,  f(u+v) = f(u) + f(v) et f(λu) = λf(u).

• Injectivité : f(u) = f(vu = v

• Surjectivité : Pour tout W, il existe V tel que f(v)=w

Ces deux dernières conditions combinées expriment la bijectivité de f.

Si deux espaces vectoriels V et W sont isomorphes, cela signifie qu'ils ont la même structure algébrique, même s'ils peuvent apparaître différents à première vue (par exemple, leurs bases peuvent être différentes). Concrètement, cela revient à dire qu'ils ont la même dimension et les mêmes propriétés algébriques. Les isomorphismes conservent en particulier les opérations d'addition et de multiplication scalaire. Si V et W sont isomorphes, alors ils ont même dimension : dimâ¡(V) = dimâ¡(W). Si f : V→W f est un isomorphisme, alors son inverse f−1 : W→V est également linéaire.

Matrices et représentation des applications linéaires

Définitions.
Définition d'une matrice.
Une matrice est un tableau rectangulaire d'éléments, généralement des nombres (et plus largement d'éléments d'un corps K) , disposés en lignes et en colonnes. On la représente entre crochets ou parenthèses.

Dimensions (lignes, colonnes).
Une matrice est caractérisée par ses dimensions, qui sont données par le nombre de lignes et le nombre de colonnes. Une matrice avec m lignes et n colonnes est appelée une matrice m x n (ou m par n).

L'ensemble des matrices m x n dont les éléments appartiennent à un corps K pourra être noté : Mm x n (K).

Types de matrices.
Il existe de nombreux types de matrices, on retiendra ici les suivants :

• Matrice carrée. - Une matrice carrée est une matrice avec un nombre égal de lignes et de colonnes (m = n). On parle alors d'une matrice de taille n x n ou d'ordre n.

• Matrice nulle. - Une matrice nulle est une matrice dont tous les éléments sont égaux à zéro. Elle est notée généralement par 0. Il existe des matrices nulles de toutes dimensions.

• Matrice identité. - Une matrice identité (notée I ou In pour une matrice d'ordre n) est une matrice carrée dont les éléments diagonaux sont égaux à 1 et les autres éléments sont égaux à 0. Par exemple, la matrice identité pour n = 3 :

• Matrice diagonale. - Une matrice diagonale est une matrice carrée dont tous les éléments en dehors de la diagonale principale sont nuls. Les éléments de la diagonale peuvent être nuls ou non nuls. Exemple : 

• Matrice triangulaire. - Une matrice triangulaire est une matrice carrée dont tous les éléments au-dessus ou au-dessous de la diagonale principale sont nuls.

• Matrice triangulaire supérieure. - Tous les éléments en dessous de la diagonale sont nuls.

• Matrice triangulaire inférieure. - Tous les éléments au-dessus de la diagonale sont nuls.

Notation des éléments d'une matrice.
Les éléments d'une matrice sont généralement notés à l'aide d'une lettre minuscule, souvent a, suivie de deux indices. Le premier indice indique le numéro de la ligne, et le second indice indique le numéro de la colonne où se trouve l'élément.

Si on a une matrice A de dimension m x n, on note ses éléments comme suit : aij, où :  i représente le numéro de la ligne (1 ≤ i ≤ m), et  j représente le numéro de la colonne (1 ≤ j ≤ n). 

a11 est l'élément situé à la ligne 1 et à la colonne 1, a12 est l'élément situé à la ligne 1 et à la colonne 2,  a21 est l'élément situé à la ligne 2 et à la colonne 1, etc.

On peut également utiliser d'autres lettres minuscules comme bij, cij, etc., pour représenter les éléments de matrices différentes. L'important est de maintenir une notation cohérente tout au long d'un calcul ou d'une démonstration. La matrice elle-même est généralement représentée par une lettre majuscule (A, B, C, etc.).

Pour noter de façon compacte les termes qui interviennent dans l'expression d'une matrice A, on écrit A= [aij]. Cette notation signifie que la matrice A est une matrice dont l'élément situé à la i-ème ligne et à la j-ème colonne est noté aij. Elle ne donne pas d'information sur la taille de la matrice (nombre de lignes et de colonnes), mais elle précise comment chaque élément de la matrice est référencé. On comprend implicitement qu'il existe un ensemble d'indices i et j pour définir tous les éléments de la matrice. La notation ne précise pas les valeurs des éléments aij ; elle décrit seulement comment ils sont indexés. Ces valeurs pourraient être des nombres, des variables ou des expressions plus complexes.
Opérations sur les matrices.
Addition et soustraction de matrices (conditions).
L'addition et la soustraction de matrices ne sont définies que pour les matrices de mêmes dimensions. Si deux matrices A et B ont la même dimension m x n, alors leur somme (A + B) et leur différence (A - B) sont également des matrices m x n dont les éléments sont calculés élément par élément.
• Addition de matrices. - Soient A et B deux matrices m x n : A = [aij] et B = [bij], alors, la matrice somme C = A + B est définie par : C = [cij] où cij = aij + bij pour tout i et j. 
• Soustraction de matrices. - La soustraction est similaire à l'addition. Soient A et B deux matrices m x n : A = [aij] et B = [bij]. Alors, la matrice différence D = A - B est définie par : D = [dij] où dij = aij - bij pour tout i et j. 
L'addition de matrices est commutative (A + B = B + A); associative ((A + B) + C = A + (B + C)), et  elle possède un élément neutre: La matrice nulle (de même dimension).

Multiplication d'une matrice par un scalaire.
La multiplication d'une matrice par un scalaire (un élément de  ou de , par exemple) est une opération simple qui consiste à multiplier chaque élément de la matrice par ce scalaire. Soit A une matrice m x n dont les éléments sont notés aij, et soit k un scalaire. Alors le produit k.A est une matrice m x n dont les éléments sont notés (kA)ij, et sont définis par : (kA)ij = k.aij. En d'autres termes, chaque élément de la matrice A est multiplié par le scalaire k.

La multiplication d'une matrice par un scalaire possède les propriétés suivantes :

• Associativité. - k.(l.A) = (kl).A où k et l sont des scalaires.

• Distributivité par rapport à l'addition des matrices. - k(A + B) = k.A + k.B où A et B sont des matrices de mêmes dimensions

• Distributivité par rapport à l'addition dans K. -  (k + l).A = k.A + l.A où k et l sont des scalaires.

• Élément neutre. - 1.A = A (la multiplication par 1 ne change pas la matrice).

• Élément absorbant. - 0.A = 0 (la multiplication par 0 donne la matrice nulle).

Ces propriétés rendent la multiplication scalaire des matrices une opération simple et utile dans de nombreuses applications de l'algèbre linéaire.

Produit de deux matrices
Le produit matriciel consiste à "multiplier" deux matrices pour obtenir une troisième matrice. Le produit matriciel n'est pas une opération élément par élément comme l'addition matricielle. 

Pour que le produit de deux matrices soit défini, le nombre de colonnes de la première matrice doit être égal au nombre de lignes de la seconde matrice. Soit A une matrice de dimension m x n et B une matrice de dimension n x p. Alors le produit AB est une matrice de dimension m x p.
Si A = [aik] et B = [bkj], alors le produit C = [cij] = AB est une matrice m x p où l'élément cij est calculé comme la somme  des produits des éléments correspondants de la i-ème ligne de A et de la j-ème colonne de B :

où aik​ est l'élément de la i-ème ligne et k-ième colonne de A, et bkj​ est l'élément de la k-ième ligne et j-ième colonne de B.

Propriétés :

• Non-commutativité. - En général, AB ≠ BA. L'ordre est crucial. Même si AB et BA sont définies, elles ne sont pas forcément égales.

• Associativité. - (AB)C = A(BC) si les dimensions permettent les opérations.

• Distributivité par rapport à l'addition. - A(B + C) = AB + AC et (A + B)C = AC + BC si les dimensions permettent les opérations.

• Élément neutre. - La matrice identité I (de dimension appropriée) est l'élément neutre du produit matriciel : AI = IA = A.

• Produit par la matrice nulle. - Si 0 est la matrice nulle de dimension appropriée, alors A0 = 0A = 0.

Cas particulier:
• Matrice diagonale. - Le produit par une matrice diagonale est simple : il effectue une mise à l'échelle des lignes ou des colonnes selon les valeurs diagonales.
Le produit matriciel  peut être interprété comme une transformation géométrique. Chaque matrice peut représenter une transformation linéaire (rotation, dilatation, projection, etc.). Le produit de deux matrices représente alors la composition de ces transformations. Par exemple, si A représente une rotation et B une dilatation, alors AB représente d'abord une dilatation suivie d'une rotation. L'ordre est important car la rotation puis la dilatation donnerait un résultat différent (BA).

Transposition d'une matrice.
La transposition d'une matrice consiste à échanger ses lignes et ses colonnes. Autrement dit, si une matrice A de dimension m×n est transposée, elle devient une matrice AT de dimension n×m où chaque élément aij de A devient aji​ dans AT.
​
En pratique calculer la transposée d'une matrice consiste à prendre la p-ième ligne de la matrice d'origine pour en faire la p-ième colonne de la matrice transposée (p variant de 1 à m). 

Propriétés importantes de la transposée :

• Transposée de la transposée d'une matrice :  (AT)T=A

• Transposée de la somme de deux matrices : (A+B)T=AT+BT

• Transposée d'une matrice multipliée par un scalaire : (kA)T=kAT où k est un scalaire.

• Transposée du produit de deux matrices : (AB)T=BTAT (attention à l'ordre).

Matrices particulières :
• Matrice symétrique. - Une matrice symétrique est une matrice carrée qui est égale à sa transposée (A = AT). Cela signifie que les éléments aij et aji sont égaux pour tous i et j.

• Matrice antisymétrique (ou hermitienne). - Une matrice antisymétrique est une matrice carrée qui est égale à l'opposé de sa transposée (A = -AT). Les éléments diagonaux d'une matrice antisymétrique sont toujours nuls.

Inversion d'une matrice.
L'inversion d'une matrice A consiste à calculer une matrice inverse notée A-1, telle que  A.A-1 = A-1.A = I, où I est la matrice identité. On reviendra plus bas sur les conditions que doir remplir une matrice pour être inversible, et si c'est le cas sur la manière de calculer son inverse. Notons seulement des propriétés importantes de l'inverse :
• Inverse de l'inverse d'une matrice : (A-1)-1 = A

• Inverse du produit de deux matrices : (AB)-1 = B-1 A-1

• Inverse de la transposée d'une matrice : (AT)-1 = (A-1)T

Vecteurs, matrices et applications linéaires.
Les paragraphes précédents ont montré la relation entre les vecteurs et les applications linéaires. Il reste a éclaire en quelque mots celle des vecteurs avec les matrices et, par là celle des matrices avec les applications linéaires. On peut voir les vecteurs comme un cas particulier de matrices, et les matrices comme des outils pour manipuler les vecteurs de manière efficace en reconnaissant qu'elles sont une expression des applications linéaires..

Les matrices sont des vecteurs.
Les propriétés de l'addition matricielle dotent l'ensemble des matrices d'une structure de groupe abélien, et par ailleurs  la mutiplication d'une matrice par un scalaire apparatenant à un corps K est associative et elle est distributive par rapport à l'addition dans K et par l'addition dans l'ensemble des matrices. Cela signifie que les matrices sont les éléments d'un espaces vectoriel : ce sont des vecteurs.

Les vecteurs sont des matrices.
Un vecteur v peut être représenté explicitement par l'énoncé de ses composantes (v1, v2, ... vn) dans un espace vectoriel de dimension n). On peut ainsi écrire v = (v1, v2, ... vn), il n'y a pas d'inconvénient à adopter une autre convention : 

Cela ressemble à une matrice de dimension n x 1 (comme la première écriture ressemblait à celle d'une matrice de dimension 1 x n).  Nous parlons de ressemblance, parce que dans la pratique (et cela se justifie par les contextes et les manières dans lesquels les uns et les autres sont utilisés), on a l'habitude de distinguer les vecteurs "à l'ancienne" de ces "nouvelle sorte de " de  vecteurs que sont les matrices. La distinction se fait par des différences de notation et de vocabulaire. Un vecteur colonne est ainsi une matrice composée d'une seule colonne de nombres. Si l'on a un vecteur v  qui est un élément d'un espace vectoriel, alors le vecteur colonne V correspondant à v est simplement la représentation de v sous forme de matrice colonne. Un vecteur colonne est une matrice de dimension n x 1, tandis qu'un vecteur ligne est une matrice de dimension 1 x n. Cela permet d'utiliser les opérations matricielles (addition, multiplication) sur les vecteurs. 
 

Vecteur Matrice
(vecteur colonne)

Les matrices sont l'expression d'applications linéaires.
Une matrice A de dimensions m x n, lorsqu'elle multiplie un vecteur colonne u de dimension n, produit un vecteur colonne W de dimension m : V.A = W. C'est ce que fait une application linéaire (en respectant les mêmes propriétés). 

On peut dès lors voir dans une matrice A l'expression d'une application linéaire f. La multiplication d'une matrice par un vecteur u représente une transformation linéaire du vecteur. On qualifie aussi une telle matrice d'opérateur sur les vecteurs.La matrice décrit cette transformation (rotation, dilatation, cisaillement, etc.), et le vecteur v résultant est l'image du vecteur original après cette transformation. On peut écrire de façon équivalente :  f(u) = v,  u.A =v et U.A = V, où A est l'expression matricielle de f.

Composition d'applications linéaires et produit matriciel.
Considération une application linéaire f: Vn→Wm. (les indices n et m représentant la dimension de caque espace). Cette application pourra être représentée par une matrice A de dimension m×n. Si xVn est un vecteur colonne, on peut écrire f(x)=A.x. De manière similaire, considérons une deuxième application linéaire g: Wm→Zp , qui peut être représentée peut être représentée par une matrice B de dimension p×m. Si yWm est un vecteur colonne, on a g(y)=B.y

La composition gof des deux applications linéaires, définie comme : (gof)(x)=g(f(x)), peut alors s'exprimer termes de matrices comme  (gOf)(x)=B.(A.x).  Le produit B.(A.x) peut être aussi réécrit comme :  (B.A).x,, où B.A est le produit matriciel des matrices B et A. La matrice C=B.A représente dès lors la composition gOf, et elle est de dimension p×n, ce qui correspond à une application Vn→Zp.

Le produit matriciel n'est pas commutatif, et l'ordre de multiplication B.A reflète l'ordre de la composition gOf. La composition d'applications linéaires est associative, tout comme le produit matriciel : (hOg)Of=hO(gOf) et (C.B).A=C.(B.A).

Rang d'une matrice.
Domaine.
Le domaine d'une matrice A (ou espace de départ), noté dom(A), fait référence à l'espace vectoriel à partir duquel la matrice agit lorsqu'elle est interprétée comme une transformation linéaire. Le domaine est lié uniquement au nombre de colonnes de la matrice (dim(dom(A))) et à la nature des vecteurs d'entrée qu'elle peut transformer. Si une matrice A de dimensions m×ne st utilisée pour représenter une transformation linéaire f : Kn→Km, alors le domaine de la matrice A est Kn l'espace vectoriel des vecteurs colonnes ayant n composantes. (Km , l'espace vectoriel dans lequel A envoie les vecteurs, est appelé le codomaine de A). 

Noyau.
Le noyau d'une matrice A, noté ker(A) est l'ensemble des vecteurs x tels que Ax = 0. Le noyau  est un sous espace du domaine de la transformation linéaire A. Il contient tous les vecteurs qui sont "écrasés" en 0 par A. La dimension du noyau s'appelle la nullité de A, notée null(A).

Image.
L'image d'une matrice A, notée im(A) est l'ensemble des vecteurs y de l'espace d'arrivée qui peuvent s'écrire comme Ax pour un certain x : im(A) = {Ax | x Kn}.  L'image est le sous-espace  de l'espace d'arrivée formé par toutes les combinaisons linéaires des colonnes de A. La diension de l'image s'appelle le rang de A.

Lien entre noyau, image et dimension.
Le théorème du rang relie les dimensions du noyau et de l'image à la dimension de l'espace initial.

dim(im(A)) + dim(ker(A)) = dim(dom(A)), soit : rang(A)+null (A) = n.

 où  n est le nombre de colonnes de la matrice A (dimension de l'espace de départ).

Cela signifie que la somme des dimensions de l'image (rang) et du noyau (nullité) est égale au nombre total de variables dans le système.

Le rang d'une matrice est égal au rang de sa transposée : rang(A) = rang(AT). Le rang d'une matrice est au plus égal au minimum de son nombre de lignes et de son nombre de colonnes.

Trace d'une matrice.
La trace d'une matrice carrée est la somme de ses éléments diagonaux. Soit A=[aij] une matrice carrée n×n, sa trace est donnée par :

où aii sont les éléments diagonaux de A.

Propriétés de la trace :

• Linéarité : tr(A+B)=tr(A)+tr(B);  tr(cA) = c.tr(A), pour un scalaire c.

• Invariance par changement de base : la trace d'une matrice reste la même après un changement de base. Si A et B sont des matrices similaires (B = P−1AP), alors : tr(A) = tr(B).

Opérations élémentaires.
On appelle opérations élémentaires (sur les lignes) d'une matrice des manipulations utilisées pour simplifier une matrice tout en préservant son contenu mathématique essentiel. Ce sont principalement : l'échange (permutation) de deux lignes, la multiplication d'une ligne par un scalaire non nul, l'ajout (ou la soustraction) d'un multiple d'une ligne à une autre et l'ajout tous les éléments d'une ligne à une autre ligne. Ces opérations préservent notamment le rang, la trace, le noyau et l'image d'une matrice. 
Echelonnement d'une matrice. - Une matrice échelonnée est une matrice qui a été transformée à partir d'une matrice d'origine en utilisant des opérations élémentaires sur les lignes, de telle sorte que les éléments non nuls soient concentrés le long de la diagonale principale ou en dessous, et que les éléments au-dessus de la diagonale principale soient nuls. Plus précisément, une matrice échelonnée est une matrice qui satisfait aux conditions suivantes :
 â€¢ Toutes les lignes nulles (c'est-à-dire les lignes contenant uniquement des zéros) sont regroupées en bas de la matrice.

ʉۢ La premi̬re colonne non nulle de chaque ligne est appel̩e le "pivot" de cette ligne. Les pivots sont situ̩s le long de la diagonale principale ou en dessous.

• Les éléments situés au-dessus des pivots sont nuls.

• Les éléments situés en dessous des pivots peuvent être nuls ou non nuls.

Les matrices échelonnées sont utiles pour résoudre des systèmes d'équations linéaires, car elles permettent de simplifier les calculs et de réduire le nombre d'opérations nécessaires. Elles sont également utilisées dans de nombreux algorithmes de traitement de matrices.
Augmentation d'une matrice
L'augmentation d'une matrice est l'opération consistant à ajouter une ou plusieurs colonnes (ou éventuellement des lignes) à une matrice existante pour former une nouvelle matrice étendue, appelée matrice augmentée : une matrice A de coefficients et une matrice de constantes B. La matrice augmentée pourra se noter [A | B] ou (A |B).

La matrice augmentée (A | B) a les propriétés suivantes : elle a le même nombre de lignes que la matrice A; elle a un nombre de colonnes égal au nombre de colonnes de A plus le nombre de colonnes de B; les  éléments de la matrice A sont conservés dans la matrice augmentée; la colonne de constantes B est ajoutée à la fin de la matrice A.

Contrairement à ce qui se passe avec les opérations élémentaires vues précédemment, l'augmentation d'une matrice transforme les propriétés de base de la matrice de départ. C'est  une technique utile pour intégrer des informations supplémentaires dans une matrice, notamment pour la résolution de systèmes d'équations linéaires ou l'analyse de la dépendance linéaire entre les vecteurs ou les lignes d'une matrice, par exemple.

Matrice de changement de base. Matrice de passage.
Une matrice de passage (ou matrice de changement de base ) est une matrice qui permet de convertir les coordonnées d'un vecteur exprimées dans une base vers une autre base. 

Si un vecteur v est exprimé dans une base B1 et que l'on veut exprimer ce même vecteur dans une autre base B2​, une matrice de passage PB1→B2 permet de faire cette conversion. Elle satisfait la relation : [v]B2=PB1→B2.[v]B1 , où  [v]B1​​ sont les coordonnées du vecteur v dans la base B1​, [v]B2​​ sont les coordonnées du vecteur v dans la base B2​, PB1→B2​​ est la matrice de passage de la base B1à la base B2​.

Pour construire la matrice de passage PB1→B2​, on exprime les vecteurs de la base B2​ dans la base B1., c'est-à-dire que l'on prend chaque vecteur de la base B2​ et on les exprime comme une comme une combinaison linéaire des vecteurs de B1​. Les colonnes de PB1→B2​​ sont alors les coordonnées des vecteurs de B2​ dans B1​.

Déterminants

Définition.
Le déterminant est une fonction qui associe à une matrice carrée un nombre réel ou complexe (selon le corps de définition de la matrice). Ce nombre (auquel on donne aussi le nom de déterminant par abus de langage), noté detâ¡(A) ou |A|, est un invariant fondamental qui contient des informations clés sur les propriétés de la matrice.

Le calcul d'un déterminant d'une matrice carrée repose sur la somme alternée des produits des éléments de la matrice, pris selon des permutations de ses colonnes ou lignes, affectés de signes positifs ou négatifs selon la parité de la permutation. Pour une matrice 2x2, c'est simplement le produit des éléments de la diagonale principale moins le produit des éléments de l'autre diagonale. Pour des matrices plus grandes, on utilise souvent le développement par rapport à une ligne ou une colonne, réduisant ainsi le calcul à des déterminants de sous-matrices plus petites.

Exemples de déterminants faciles à calculer.
La connaissance du déterminant des matrices 2x2 et 3x3 est souvent  utile et le calcul est simple. Même chose dans le cas des matrices triangulaires. La formule est  plus complexe pour les matrices de taille supérieure.

• Pour une matrice 2×2 : 

le déterminant est detâ¡(A)= ad−bc

• Pour une matrice 3×3 :

le déterminant est donné par : detâ¡(A) = a(ei−fh)−b(di−fg)+c(dh−eg).

• Pour une matrice triangulaire (supérieure ou inférieure), le déterminant est le produit des éléments diagonaux : detâ¡(A) = a11.a22. …. ann.

Propriétés élémentaires des déterminants.
Déterminant de la matrice identité.
In​ étant  la matrice identité de taille n×n, on a detâ¡(In) = 1.

Multiplication des déterminants.
Soit deux matrices A et B, le déterminant deleur produit est :detâ¡(AB) = detâ¡(A)â‹…detâ¡(B). Pour toutes matrices carrées A et B de même taille. Cela implique que pour une puissance k,
detâ¡(Ak) = (detâ¡(A))k.

Déterminant d'une transposée.
Le déterminant de la transposée d'une matrice est égal au déterminant de la matrice elle-même :  detâ¡(AT) = detâ¡(A). On dira que le déterminant reste inchangé par transposition.

Échange de lignes ou de colonne.
Si deux lignes (ou deux colonnes) d'une matrice sont permutées, le déterminant change de signe : detâ¡(A′) = −detâ¡(A).

Linéarité par rapport à une ligne ou une colonne.
Si une ligne (ou colonne) d'une matrice est une combinaison linéaire de deux autres matrices, le déterminant de cette matrice est la somme pondérée des déterminants correspondants.

Lignes ou colonnes identiques.
Si deux lignes (ou colonnes) d'une matrice sont identiques, le déterminant de cette matrice est nul : detâ¡(A) = 0.

Ligne ou colonne nulle.
Si une ligne (ou une colonne) est entièrement constituée de zéros, alors : detâ¡(A)=0.

Multiplication d'une ligne ou d'une colonne par un scalaire.
Si une ligne (ou une colonne) d'une matrice est multipliée par un scalaire k, alors le déterminant est multiplié par k : detâ¡(A′) = kâ‹…detâ¡(A), où A′ est obtenu en multipliant une ligne ou une colonne de A par k.

Facteur commun dans une ligne ou colonne.
Si un facteur commun k apparaît dans toutes les entrées d'une ligne ou d'une colonne, il peut être mis en facteur : detâ¡(A) = kâ‹…detâ¡(A′), où A′est obtenu en divisant cette ligne ou colonne par k.

Inversion d'une matrice.
Test d'inversibilité d'une matrice.
On a vu plus haut que l'inverse d'une matrice A , noté A-1, est la matrice telle que A.A-1 = A-1.A = I, où I est la matrice identité. Toute matrice n'est pas inversible. Seules les matrices qui représentent des applications linéaires bijectives le sont.

Dans le cas d'une matrice carrée; l'existence du matrice inverse dépend de la valeur du déterminant de la matrice considérée : une matrice carrée A est inversible si et seulement si son déterminant est non nul : detâ¡(A) ≠ 0. (Si detâ¡(A) = 0, on dit que la matrice alors la matrice est singulière; elle n'a pas d'inverse).

Si A est inversible, alors : detâ¡(A−1)=1/detâ¡(A).

Cas d'une matrice 2 x 2 :

Inversion d'une matrice par la méthode de Gauss Jordan.
La méthode de Gauss-Jordan est une technique numérique utilisée pour inverser une matrice carrée en mettant en oeuvre des opérations élémentaires sur les lignes. Elle est efficace pour inverser des matrices carrées, mais elle peut être coûteuse en termes de calculs pour des matrices de grande taille. Il existe d'autres méthodes plus efficaces pour inverser des matrices. 

Étapes de la méthode de Gauss-Jordan :

1) Création de la matrice augmentée . - On crée une matrice augmentée en ajoutant la matrice identité de même taille à la droite de la matrice d'origine.

2) Application des opérations élémentaires. - On applique des opérations élémentaires sur les lignes de la matrice augmentée pour transformer la partie gauche de la matrice en matrice identité.

3) Élimination des éléments non diagonaux. - On élimine les éléments non diagonaux de la partie gauche de la matrice en appliquant des opérations élémentaires.

4) Normalisation des éléments diagonaux. - On normalise les éléments diagonaux de la partie gauche de la matrice en les divisant par leur valeur.

5)  Élimination des éléments non diagonaux. - On élimine à nouveau les éléments non diagonaux de la partie gauche de la matrice en appliquant des opérations élémentaires.

6) Récupération de la matrice inverse . - La partie droite de la matrice augmentée est la matrice inverse de la matrice d'origine.

Condition d'indépendance linéaire de vecteurs.
Le déterminant peut être utilisé comme critère pour vérifier l'indépendance linéaire d'un ensemble de vecteurs dans un espace vectoriel n ou n.

Un ensemble de vecteurs {v1, v2,…, vn} dans un espace vectoriel de dimension n est dit linéairement indépendant si l'équation c1​v1​ + c2​v2​ +⋯+ cn​vn​ = 0 n'admet comme solution que c1 = c2 = ... = cn = 0. Autrement dit, aucun vecteur de cet ensemble ne peut être exprimé comme une combinaison linéaire des autres.

Si les vecteurs v1, v2,…, vn​ sont représentés par les colonnes d'une matrice carrée A de dimension n×n, alors les vecteurs sont linéairement indépendants si et seulement si detâ¡(A)≠0. (Si detâ¡(A)=0, les vecteurs sont linéairement dépendants).

Cela vient de ce que le déterminant de la matrice A est un indicateur de l'inversibilité de cette matrice. Si detâ¡(A)≠0, la matrice est inversible, ce qui signifie que ses colonnes (ou ses lignes) forment une base de n et sont donc linéairement indépendantes. Si detâ¡(A)=0, cela signifie que la matrice est singulière (non inversible), et au moins un vecteur peut être écrit comme une combinaison linéaire des autres.

Systèmes d'équations Linéaires

Introduction aux systèmes linéaires.
Un système d'équations linéaires est un ensemble d' équations linéaires qui doivent être satisfaites simultanément. Chaque équation linéaire est une équation de la forme : am1x + am2y + ... + amnz = b, où am1, am2, ..., an sont les coefficients constants de la m-ième éqation du système,  x, y, ..., z sont des variables, et b est une constante. 

Théorème de Rouché-Capelli.
Le théorème de Rouché-Capelli décrit les conditions nécessaires et suffisantes pour qu'un système d'équations linéaires ait une solution unique, une infinité de solutions ou aucune solution. Énoncé du théorème :

Soit un système d'équations linéaires de la forme : AX = B, où A est une matrice de coefficients, X est une matrice de variables et B est une matrice de constantes. Le théorème de Rouché-Capelli énonce que :
• Si le rang de la matrice A est égal au rang de la matrice augmentée [A | B], alors le système a une seule solution qui satisfait toutes les équations du système.

• Si le rang de la matrice A est inférieur au rang de la matrice augmentée [A | B], alors le système n'a pas de solution.

• Si le rang de la matrice A est inférieur à la dimension de la matrice X, alors le système a une infinité de solutions.

Systèmes homogènes et non homogènes.
Les systèmes d'équations linéaires peuvent être classés en deux catégories : les systèmes homogènes et les systèmes non homogènes.
• Systèmes d'équations linéaires homogènes. - Un système d'équations linéaires homogène est un système où toutes les équations ont une forme similaire, avec des coefficients constants et des variables, mais sans termes constants. En d'autres termes, toutes les équations ont la forme : a1x + a2y + ... + anz = 0, où a1, a2, ..., an sont des coefficients constants, x, y, ..., z sont des variables. Les systèmes homogènes ont les propriétés suivantes : ils ont toujours au moins une solution, qui est la solution nulle (x = y = z = 0); s'ils ont une solution non nulle, alors ils ont une infinité de solutions; les solutions sont des combinaisons linéaires des solutions fondamentales.
• Systèmes d'équations linéaires non homogènes. - Un système d'équations linéaires non homogène est un système où au moins une équation a un terme constant non nul. En d'autres termes, au moins une équation a la forme : a1x + a2y + ... + anz = b, où a1, a2, ..., an sont des coefficients constants, x, y, ..., z sont des variables, et b est un terme constant non nul. Les systèmes non homogènes ont les propriétés suivantes : ils peuvent avoir une solution unique, une infinité de solutions, ou aucune solution. Les solutions ne sont pas nécessairement des combinaisons linéaires des solutions fondamentales.
Les systèmes homogènes et non homogènes peuvent être résolus à l'aide de méthodes similaires, telles que la méthode de Gauss, la méthode de Cramer, etc. Cependant, les systèmes homogènes sont souvent plus faciles à résoudre, car ils ont toujours une solution nulle et les solutions non nulles sont des combinaisons linéaires des solutions fondamentales. En revanche, les systèmes non homogènes peuvent être plus difficiles à résoudre, car ils peuvent avoir des solutions uniques ou infinies, et les solutions ne sont pas nécessairement des combinaisons linéaires des solutions fondamentales.

Un système d'équations linéaires peut être représenté de plusieurs manières. La plus évidente est l'écriture l'une à la suite des autres (ou plutôt les unes sous les autres) :

Il peut être aussi  représenté de manière compacte sous forme matricielle. La matrice A des coefficients, multipliée par le vecteur colonne X des inconnues, est égale au vecteur colonne B des termes constants : A.X = B. La résolution de ce système se ramène alors à des opérations matricielles.

Méthodes de résolution.
Il existe plusieurs méthodes pour résoudre les systèmes d'équations linéaire. Nous mentionnerons ici, pour les systèmes  simples, la substitution  et la combinaison linéaire, pour les systèmes à plusieurs variables, la méthode matricielle de Gauss et celle de Cramer, pour les systèmes de grande taille, les m éthodes itératives.

Méthode par substitution.
 Laméthode par substitution consiste à isoler une variable dans une équation, puis à substituer son expression dans les autres équations. Étapes :

1) Isoler une variable dans l'une des équations.

2) Remplacer cette variable dans les autres équations pour réduire le système.

3) Répéter jusqu'à obtenir une seule équation avec une variable, résoudre, puis remonter pour trouver les autres variables.

Méthode par combinaison linéaire (ou addition).
la méthode par combinaison linéaire consiste à additionner ou soustraire les équations pour éliminer une variable. Étapes :
1) Multiplier les équations pour que les coefficients d'une variable soient opposés.

2) Additionner ou soustraire les équations pour éliminer cette variable.

3) Résoudre le système réduit, puis remonter pour trouver les autres variables.

Méthode matricielle (ou méthode de Gauss).
Cette méthode utilise les matrices pour résoudre le système. Étapes :
1) Représenter le système sous forme matricielle A.X = B, où A est la matrice des coefficients, X le vecteur des inconnues, et B le vecteur des constantes.

2)   Appliquer des opérations élémentaires sur les lignes pour obtenir une matrice échelonnée (ces opérations ne modifient pas la solution du système d'équations associé à cette matrice ).

3) Résoudre le système triangulaire obtenu par substitution.

Méthode de Cramer.
Cette méthode est applicable si le système a autant d'équations que de variables et si le déterminant de la matrice des coefficients n'est pas nul. Étapes :
 1) Écrire le système d'équations linéaires  sous la forme d'une matrice d'équations : Ax = b, où A est la matrice des coefficients, x est la matrice des inconnues et b est la matrice des constantes.

2) Ecrire les matrices des matrices obtenues en remplaçant respectivement les coefficients de chaque colonne i de A par les coefficients de x. On obtient chaque fois une matrice notée Ai.

 3) Calculer le déterminant de la matrice A : Calculez le déterminant de la matrice A, noté det(A).

 3) Calculer les déterminants des matrices Ai : det (Ai).

4) Les valeurs des inconnues xi sont : xi = det(Ai) / det(A)

La méthode de Cramer est facile à mettre en œuvre avec des outils de calcul numérique. Cependant, elle nécessite de calculer plusieurs déterminants, ce qui peut être coûteux en temps de calcul pour les grands systèmes. Elle n'est pas adaptée pour les systèmes d'équations linéaires avec des coefficients non numériques.

Méthodes itératives (Jacobi ou Gauss-Seidel).
Ces méthodes sont utiles pour les grands systèmes, en particulier ceux rencontrés en analyse numérique.

Jacobi : Chaque variable est calculée en fonction des valeurs des autres à l'itération précédente.

Gauss-Seidel : Une fois qu'une variable est calculée, sa valeur est immédiatement utilisée dans les calculs suivants.

Ces méthodes convergent sous certaines conditions, par exemple si la matrice des coefficients est strictement diagonale dominante

Valeurs propres et vecteurs propres

Les valeurs propres et les vecteurs propres d'une matrice révèlent des informations sur la transformation linéaire représentée par cette matrice. Les vecteurs propres sont des vecteurs qui sont seulement mis à l'échelle (multipliés par une constante, la valeur propre) par la transformation.

Une valeur propre d'une matrice carrée A est un scalaire tel que l'équation suivante est satisfaite : Av=λv, où A est une matrice carrée n×n, λ est une valeur propre, et v est un vecteur propre non nul. Un vecteur propre d'une matrice carrée A est un vecteur non nul qui, lorsqu'il est multiplié par la matrice A, donne un vecteur colinéaire à lui-même, multiplié par la valeur propre correspondante λ. Le vecteurs propres représentent des directions invariantes sous l'effet de la transformation linéaire définie par A. Si v est un vecteur propre, l'application de A ne change que sa magnitude (par λ) mais pas sa direction. Les valeurs propres indiquent les facteurs par lesquels les vecteurs propres sont dilatés ou contractés lors de la transformation.

Pour trouver les valeurs propres et les vecteurs propres d'une matrice carrée, on suit les étapes suivantes :

1) Équation caractéristique : l'équation Av = λv peut être réécrite sous la forme : (A−λI)v=0, où I est la matrice identité. Pour qu'il existe une solution non triviale (v ≠ 0) le déterminant de la matrice (A−λI) doit être nul :  detâ¡(A−λI) = 0. Cette équation est appelée équation caractéristique. En la résolvant, on trouve les valeurs propres λ.

 2) Calcul des vecteurs propres : ue fois λ trouvé, on remplace λ dans (A−λI)v = 0 pour obtenir un système d'équations linéaires. Les solutions non nulles de ce système sont les vecteurs propres v associés. Les vecteurs propres associés à une valeur propre donnée forment un sous-espace vectoriel appelé l'espace propre de cette valeur propre.

Espaces euclidiens

Un espace euclidien est un espace vectoriel réel de dimension finie muni d'une opération interne particulière appelée produit scalaire qui définit une norme (ou longueur) sur les vecteurs. Les espaces euclidiens sont souvent définis  sur le corps des nombres réels  (ou éventuellement sur d'autres corps, tels que les nombres complexes , mais cela nécessite des modifications et des extensions des définitions et des propriétés classiques des espaces euclidiens).
Parmi les exemples d'espaces euclidiens, on peut mentionner : l'espace des nombres réels  lui-même, où les vecteurs sont les nombres réels et les opérations sont les opérations usuelles sur les nombres réels; l'espace des vecteurs de dimension 2 Â², où les vecteurs sont des couples de nombres réels et les opérations sont définies comme suit : (x, y) + (x', y') = (x + x', y + y') et a(x, y) = (ax, ay); l'espace des fonctions réelles (toutes les fonctions qui prennent un nombre réel comme argument et retournent un nombre réel comme valeur ) où les vecteurs sont les fonctions réelles et les opérations sont définies comme suit : f + g = f(x) + g(x) et af = af(x).
Le produit scalaire.
Définition. 
Le produit scalaire (noté . ou ‹ , ›) est une opération qui donne un nombre à partir de deux vecteurs. Le produit scalaire entre deux vecteurs u = (u1, u2, …, un) et v = ( v1, v2, …, vn) dans un espace vectoriel réel n est défini comme :

En termes matriciels, le produit scalaire de deux vecteurs  u et v, correspond au produit matriciel de la transposée de u par v :

Dans dans Â²,  le produit scalaire s'écrit :  u.v = u1.v1+u2.v2. Donc, si l'on a, par exemple, u = (1, 2) et v = (3, 4), alors u.v = 1.3 + 2.4 = 11
Propriétés du produit scalaire.
Le produit scalaire est commutatif (u .v = v . u), linéaire par rapport à chaque vecteur (u . (k.v) = k.(u.v), (u + v). w = u.w + v.w), et positif défini (u.u ≥ 0, et u.u = 0 si et seulement si u = 0). 

Norme, distance et angle.
Norme.
La norme d'un vecteur u = (u1, u2,…, un) est définie comme :

||u|| = √(u.u) = √(u1² + u2² + ... + un²)

Exemple : si u = (3,4), alors ||u|| = √ (3² + 4²) = √(25) = 5.
Pour tous les vecteurs d'un espace euclidien, on a vérifie  :
 â€¢ La positivité : ||u|| ≥ 0, avec ||u|| = 0 si et seulement si u = 0.

 â€¢ L'homogénéité : ||λu|| =|λ|.||u|| pour tout λ .

 â€¢ L'inégalité triangulaire : ||u + v || ≤ ||u|| + ||v||

• L'inégalité de Cauchy-Schwarz :  |u.v| ≤ ||u|| ||v||.

Distance entre deux vecteurs.
La distance entre u et v dans nest donnée par d(u, v) = ||u - v||.

Angle entre deux vecteurs.
L'angle θ entre u et v  est donné par u.v =  ||u||.||v||. cos (θ), soit :

||u|| et ||v|| représentent les normes de u et v.

Orthogonalité
Vecteurs orthogonaux.
Deux vecteurs u et v sont orthogonaux si leur produit scalaire est nul : u.v =0.

Projection orthogonale :
La projection orthogonale de u sur v (non nul) est donnée par :

Base orthonormale.
Une base orthonormale est une base de l'espace euclidien telle que les vecteurs de base soient orthogonaux et de norme 1.

une base (b1, b2,…, bn) de n est orthonomale si :

1) bi.bj =0 pour i ≠ j (orthogonalité)

2) ||bi|| = 1 pour tout i (normalisation).

Dans une base orthonormale, les coordonnées d'un vecteur u sont simplement données par les produits scalaires des vecteurs de la base :

Produit vectoriel .
Le produit vectoriel (noté × ou Ë„) , également appelé produit extérieur, est une opération mathématique définie entre deux vecteurs dans un espace tridimensionnel 3. Il produit un vecteur qui est orthogonal (perpendiculaire) aux deux vecteurs d'entrée. 

Soient deux vecteurs a et b dans 3, avec : a=(a1,a2,a3), b=(b1, b2, b3)

Le produit vectoriel a×b est défini par :

Où i, j, k sont les vecteurs unitaires selon les axes x, y et z.  Le déterminant donne :

a×b=(a2b3−a3b2)i−(a1b3−a3b1)j+(a1b2−a2b1)k

Le résultat a×b est orthogonal à a et b. La direction de a×b est déterminée par la règle de la main droite : si les doigts de la main droite suivent a vers b, le pouce pointe dans la direction de a×b.

La norme du produit vectoriel est donnée par : ||a×b|| = ||a||.||b||.sinâ¡Î¸, où θ est l'angle entre a et b.

Le produit vectoriel est antisymétrique : a×b = −(b×a)

Le produit vectoriel est nul a×b = 0 ) si et seulement si a//b

Propriétés et identités remarquables du produit vectoriel.
Anticommutativité : u ∧ v = -v∧u. Le produit vectoriel est anticommutatif  il n'est pas associatif, mais il est distributif par rapport à l'addition vectorielle.

Formule de Gibbs (produit mixte avec produits vectoriel et scalaire). - Pour trois vecteurs u, v, w de 3, on a la formule suivante qui relie le produit vectoriel et le produit scalaire : (u ∧ v).w = det(( u v w )) où ( u v w ) est la matrice dont les colonnes sont les composantes des vecteurs u, v, w. Cela correspond aussi au volume du parallélépipède défini par u, v et w.

Identité de Jacobi (double produit vectoriel). - L'identité de Jacobi décrit le comportement du double produit vectoriel : u ∧ (v ∧ w) = (u.w)v - (u.v)w. Cette identité est particulièrement utile dans la mécanique classique et la théorie des champs.

Identité de Lagrange. - Pour deux vecteurs u et v, l'identité de Lagrange donne une relation entre les normes et les produits vectoriel et scalaire : ||u ∧ v||² = ||u||².||v||² - (u.v)². Cela exprime que le carré de la norme du produit vectoriel correspond au déterminant du produit mixte des vecteur s.

Identité du triple produit mixte. - Pour trois vecteurs u, v, w, le produit mixte satisfait l'identité suivante : u. (v ∧ w) = v.(w ∧ u) = w. (u ∧ v). Cette égalité montre la cyclicité dans l'expression du produit mixte.

Exemples d'applications linéaires courantes dans R2.
Rotation.
Le rotation f d'un vecteur vecteur v = (x, y) dans un espace bidimensionnel 2 autour de l'origine produit un vecteur w = (x', y'), tel que :

x' = xcosâ¡Î¸âˆ’ysinâ¡Î¸  et y' xsinâ¡Î¸+ycosâ¡Î¸, soit w = (xcosâ¡Î¸âˆ’ysinâ¡Î¸, xsinâ¡Î¸+ycosâ¡Î¸), 

où θ est l'angle de rotation. La matrice de rotation correspondante est donnée par :

En dimension supérieure (3 ou plus), les matrices de rotation dépendent de l'axe de rotation (dans 3) ou des plans d'action. Ces matrices deviennent plus complexes mais conservent des propriétés similaires, comme l'orthogonalité.

Changement d'échelle (homothétie).
Un changement d'échelle isotrope dans 2 est donné par f(x,y) = (sx, sy), où s>0 est le facteur d'échelle. La matrice correspondante est une matrice diagonale :

Pour un changement d'échelle anisotrope, les facteurs d'échelle peuvent être différents dans chaque direction :

Projection.
Une projection orthogonale sur une droite dans 2, par exemple sur l'axe x, est donnée par : f(x,y)=(x,0). La matrice de projection correspondante est :

Pour une projection oblique ou sur un autre sous-espace, la matrice dépend du sous-espace cible. 

Réflexion.
Une réflexion par rapport à une droite passant par l'origine en 2, par exemple par rapport à l'axe x, est donnée par : f(x,y) = (x,−y). La matrice correspondante est :

Formes linéaires, bilinéaires et quadratiques

Formes linéaires.
Une forme linéaire est une application linéaire d'un espace vectoriel V (sur un corps K, souvent R ou C) vers le corps K. Si f : V→K est une forme linéaire, alors pour tous x,y  V et α,β  K : f(αx+βy) = αf(x)+βf(y). 

Le noyau kerâ¡(f)={x  V | f(x) = 0} est un sous-espace vectoriel de V. L'application f est entièrement déterminée par ses valeurs sur une base de V.

Dans V=Rn, une forme linéaire peut être écrite comme :

f(x) = a1​x1​ + a2​x2​ +⋯+ an​xn​ = ⟨a,x⟩
où a=(a1,…, an Rn est un vecteur fixé et x = (x1,…,xn) est un vecteur arbitraire.

Formes bilinéaires.
Une forme bilinéaire est une extension de la notion de forme linéaire dans deux dimensions. C'est une application bilinéaire sur V×V, qui associe une paire de vecteurs à un scalaire. Une forme bilinéaire est une application B : V×V→K telle que :

    B(x+y, z) = B(x,z) + B(y,z) (linéarité par rapport à la première variable),
    B(x, y+z) = B(x, y) + B(x, z)) (linéarité par rapport à la seconde variable),
    B(αx, y) = αB(x, y) et B(x, βy) = βB(x, y) pour α, βK.

On dit qu'une forme bilinéaire est symétrique si B(x,y) = B(y,x); elle est antisymétrique si B(x,y) = −B(y,x). 

La matrice associée A dépend de la base choisie dans V.

Le produit scalaire est une forme bilinéaire symétrique et définie positive.

Formes quadratiques.
Une forme quadratique est une fonction qui associe à chaque vecteur x un scalaire, noté Q(x) ou f(x), de telle sorte que :  Q(x) = xT A x, où x est un vecteur colonne, xT est le vecteur ligne transposé de x, et A est une matrice symétrique. La forme quadratique Q(x) prend donc un vecteur x en entrée et produit un scalaire en sortie, qui est le résultat de la multiplication du vecteur x par la matrice A et du produit scalaire de x avec lui-même.

Les formes quadratiques ont des propriétés telles que :

• Homogénéité : La forme quadratique est homogène, c'est-à-dire que pour tous les vecteurs u et pour tous les scalaires a, on a :  Q(au) = a2 Q(u)

• Bilinéarité : La forme quadratique est bilinéaire, c'est-à-dire que pour tous les vecteurs u, v, w et z, on a :  Q(u + v) = Q(u) + Q(v) + 2B(u, v)

Les formes quadratiques peuvent être :
• Définies positives : Si Q(u) > 0 pour tous les vecteurs u non nuls.

• Définies négatives : Si Q(u) < 0 pour tous les vecteurs u non nuls.

• Semi-définies positives : Si Q(u) ≥ 0 pour tous les vecteurs u.

Le rang d'une forme quadratique est le nombre de valeurs propres non nulles de sa matrice. Le défaut d'une forme quadratique est le nombre de valeurs propres nulles. Le rang et le défaut sont liés à la nature de la forme quadratique (définie positive, définie négative ou indéfinie).

La signature d'une forme quadratique est le nombre de valeurs propres positives moins le nombre de valeurs propres négatives. Elle est liée à la nature de la forme quadratique (définie positive, définie négative ou indéfinie). 

La forme quadratique euclidienne est une forme quadratique définie positive qui correspond à la longueur d'un vecteur.

La forme quadratique de Lorentz est une forme quadratique qui correspond à la métrique de l'espace-temps en relativité restreinte.

.


Dictionnaire Idées et méthodes
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
[Aide][Recherche sur Internet]

© Serge Jodra, 2024 - Reproduction interdite.