Des articles

6.2.E : Problèmes sur les cartes linéaires et les matrices - Mathématiques


Exercice (PageIndex{1})

Vérifiez la note 1 et l'équivalence des deux énoncés de la définition 1.

Exercice (PageIndex{2})

Dans les exemples (b) et (c), montrez que
[f_{n} ightarrow f( ext {uniformly}) ext { on } I ext { iff }left|f_{n}-f ight| ightarrow 0,]
c'est-à-dire (f_{n} ightarrow f) dans (E^{prime}.)
[Indice : utilisez le théorème 1 au chapitre 4, §2.]
En déduire donc ce qui suit.
(i) Si (E) est complet, alors l'application (phi) de l'exemple (c) est continue.
[Indice : utilisez le théorème 2 du chapitre 5, §9, et le théorème 1 du chapitre 4, §12.]
(ii) L'application (D) de l'exemple (b}) n'est pas continue.
[Indice : utilisez le problème 3 du chapitre 5, § 9.]

Exercice (PageIndex{3})

Démontrer les corollaires 1 à 3.

Exercice (PageIndex{3'})

Montre CA
[|f|=sup _{|vec{x}| leq 1}|f(vec{x})|=sup _{|vec{x}|=1}|f(vec{x})|=sup _{vec{x} neq overrightarrow{0}} frac{|f(vec{x})|}{|vec{x}|}.]
[Indice : De la linéarité de (f) déduire que (|f(vec{x})| geq|f(cx)|) si (|c|<1.) On peut donc ignorer vecteurs de longueur (<1) lors du calcul de sup (|f(vec{x})|.) Pourquoi ?]

Exercice (PageIndex{4})

Trouver les matrices ([f],[g],[h],[k],) et les formules définissant les applications linéaires (f : E^{2} ightarrow E^{1}, g : E^{3} ightarrow E^{4}, h : E^{4} ightarrow E^{2}, k : E^{1} ightarrow E^{3}) si
(i) (fgauche(vec{e}_{1} ight)=3, fgauche(vec{e}_{2} ight)=-2;)
(ii) (gleft(vec{e}_{1} ight)=(1,0,-2,4), gleft(vec{e}_{2} ight)= (0,2,-1,1), gleft(vec{e}_{3} ight)=(0,1,0,-1);)
(iii) (hgauche(vec{e}_{1} ight)=(2,2), hgauche(vec{e}_{2} ight)=(0,-2 ), hgauche(vec{e}_{3} ight)=(1,0), hgauche(vec{e}_{4} ight)=(-1,1); )
(iv) (k(1)=(0,1,-1).)

Exercice (PageIndex{5})

Dans le problème 4, utilisez la note 4 pour trouver les matrices de produits ([k][f],[g][k],[f][h],) et ([h][g].) D'où obtenir les formules de définition pour (k circ f, g circ k, f circ h,) et (h circ g.)

Exercice (PageIndex{6})

Pour les matrices (m imes n) (avec (m) et (n) fixes) définissez l'addition et la multiplication par des scalaires comme suit :
[a[f]+b[g]=[a f+bg] ext { if } f, g in Lleft(E^{n}, E^{m} ight)left( texte { ou } Lgauche(C^{n}, C^{m}droit)droit).]
Montrer que ces matrices forment un espace vectoriel sur (E^{1}) (ou (C)).

Exercice (PageIndex{7})

Avec l'addition matricielle comme dans le problème 6, et la multiplication comme dans la note 4, montrer que toutes les matrices (n x n) forment un anneau non commutatif avec l'unité, c'est-à-dire qu'elles satisfont les axiomes des champs (Chapitre 2, §§1-4) sauf la commutativité de la multiplication et l'existence d'inverses multiplicatifs (donnez le contre-exemple le plus !).
Quelle est la matrice « unité » ?

Exercice (PageIndex{8})

Soit (f : E^{prime} ightarrow E) linéaire. Démontrez les énoncés suivants.
(i) La dérivée (D_{vec{u}} f(vec{p})) existe et vaut (f(vec{u})) pour tout (vec{p}, vec{u} in E^{prime} (vec{u} eq overrightarrow{0});)
(ii) (f) est relativement continue sur n'importe quelle ligne de (E^{prime}) (utiliser le théorème 1 au §1) ;
(iii) (f) transporte une telle ligne dans une ligne dans (E.)

Exercice (PageIndex{9})

Soit (g : E^{prime prime} ightarrow E) linéaire. Démontrer que si un (f : E^{prime} ightarrow E^{prime prime}) a une dérivée dirigée vers (vec{u}) en (vec{p} in E^{prime},) a donc (h=g circ f,) et (D_{vec{u}} h(vec{p})=gleft(D_{vec {u}} f(vec{p}) ight)).
[Indice : utilisez le problème 8.]

Exercice (PageIndex{10})

Un ensemble (A) dans un espace vectoriel (V(A subseteq V)) est dit linéaire (ou un sous-espace linéaire de (V)) ssi (a vec{x}+b vec{y} in A) pour tout (vec{x}, vec{y} in A) et tout scalaire (a, b.) Prouvez ce qui suit.
(i) Tout tel (A) est lui-même un espace vectoriel.
(ii) Si (f : E^{prime} ightarrow E) est une application linéaire et (A) est linéaire dans (E^{prime}) (respectivement, dans (E )), ainsi que (f[A]) dans (E) (respectivement, ainsi que (f^{-1}[A]) dans (E^{prime})).

Exercice (PageIndex{11})

Un ensemble (A) dans un espace vectoriel (V) est appelé l'étendue d'un ensemble (B subseteq A(A=operatorname{sp}(B))) ssi (A) consiste de toutes les combinaisons linéaires de vecteurs de (B). On dit alors aussi que (B) s'étend sur (A).
Prouvez ce qui suit :
(i) (A=operatorname{sp}(B)) est le plus petit sous-espace linéaire de (V) qui contient (B).
(ii) Si (f : V ightarrow E) est linéaire et (A=operatorname{sp}(B),) alors (f[A]=operatorname{sp}(f[B] )) dans (E).

Exercice (PageIndex{12})

Un ensemble (B=left{vec{x}_{1}, vec{x}_{2}, ldots, vec{x}_{n} ight}) dans un l'espace vectoriel (V) est appelé une base ssi chaque (vec{v} in V) a une représentation unique comme
[vec{v}=sum_{i=1}^{n} a_{i} vec{x}_{i}]
pour certains scalaires (a_{i}.) Si oui, le nombre (n) des vecteurs dans (B) est appelé la dimension de (V,) et (V) est dit être (n)-dimensionnel. Des exemples de tels espaces sont (E^{n}) et (C^{n}) (les (vec{e}_{k}) forment une base !).
(i) Montrer que (B) est une base ssi elle s'étend sur (V) (voir Problème 11) et que ses éléments (vec{x}_{i}) sont linéairement indépendants,
[sum_{i=1}^{n} a_{i} vec{x}_{i}=overrightarrow{0} ext { iff all } a_{i} ext { vanish.}]
(ii) Si (E^{prime}) est de dimension finie, toutes les applications linéaires sur (E^{prime}) sont uniformément continues. (Voir aussi Problèmes 3 et 4 du §6.)

Exercice (PageIndex{13})

Montrer que si (f : E^{1} ightarrow E) est continu et (left(forall x, y in E^{1} ight))
[f(x+y)=f(x)+f(y),]
alors (f) est linéaire ; donc, d'après le corollaire 2, (f(x)=v x) où (v=f(1)).
[Indice : Montrez que (f(ax)=af(x);) d'abord pour (a=1,2, ldots) (note : (nx=x+x+cdots+x, n ) termes); alors pour le rationnel (a=m / n;) puis pour (a=0) et (a=-1.) Tout (a in E^{1}) est une limite de rationnels ; donc utiliser la continuité et le théorème 1 au chapitre 4, §2.]


Algèbre linéaire

Attribution-Partage à l'identique
CC BY-SA


En ce qui concerne la base standard $e_i$ la carte a la matrice $ A = egin 3 & -1 -1 & 1 fin $ parce que $ f(x) = x A = (x_1 e_1 + x_2 e_2) A = x_1 e_1 A + x_2 e_2 A = (x_1, x_2) egin e_1 A e_2 A end e_1 = (1,0):quad f(1,0) = (3,-1) = e_1 A = (1,0) A = (a_ <11>a_<12>) e_2 = (0,1):quad f(0,1) = (-1,1) = e_2 A = (0,1) A = (a_ <21>a_<22>) $ Ce que vous recherchez est $ B = MAM^ <-1>$ $M$ transforme d'abord un vecteur de base $b_1 = (1,0)$ et $b_2 = (1,1)$ en coordonnées standard (base $e_i$). Puis il applique la fonction $f$ via la matrice $A$ (représentant $f$ si vous l'utilisez avec des vecteurs concernant des coordonnées standards) et transforme enfin le résultat en le même vecteur concernant la base $b_i$ via $M^<- 1>$.

Les matrices combinées ont le même effet que $f$ pour les vecteurs concernant la base $b_i$.

Comme les $b_i$ quant à eux ont les coordonnées $(1,0)$ et $(0,1)$ ces vecteurs doivent être mappés par $M$ à $(1,0)$ et $(1,1)$ , donc $ M = egin 1 & 0 1 & 1 fin quad M^ <-1>= egin 1 & 0 -1 & 1 end $ et on calcule egin B &= M A M^ <-1> &= egin 1 & 0 1 & 1 fin commencer 3 & -1 -1 & 1 fin commencer 1 & 0 -1 & 1 end &= egin 3 & -1 2 & 0 end commencer 1 & 0 -1 & 1 end &= egin 4 & -1 2 & 0 end finir

$e_1 = (1,0)$ par rapport à la base $b_i$ a toujours les coordonnées $(1,0)$, car $(1,0) = 1 cdot b_1 + 0 cdot b_2$. Alors $ e_1 B = (1,0) egin 4 & -1 2 & 0 end = (4,-1) $ Et bien $ 4 b_1 - b_2 = 4 (1,0) - (1,1) = (4,0)-(1,1) = (3,-1) $ Plus loin $ e_2 = (0,1)$ concernant les coordonnées standard a les coordonnées $(-1,1)$ concernant le $b_i$ : $ -1 cdot b_1 + 1 cdot b_2 = (-1,0) + (1,1 ) = (0,1) $ Ceci est mappé comme : $ (-1,1) egin 4 & -1 2 & 0 end = (-2, 1) $ Recalculer les coordonnées standard : $ -2 b_1 + b_2 = -2 (1,0) + (1,1) = (-2,0) + (1,1) = (- 1,1) $ qui est l'endroit où $e_2$ doit être mappé par $f$.

Ce qui précède suppose à partir de votre question que vous devez utiliser des vecteurs de ligne. Si vous utilisez des vecteurs colonnes, vous devez transposer les matrices et les vecteurs : $ f(x) = A x $ car $A = A^T$ est symétrique. De plus $ B = (MAM^<-1>)^T = (M^<-1>)^T A^T M^T = (M^T)^ <-1>A M^T = egin 4 & 2 -1 & 0 end $


Carte linéaire

En mathématiques, un carte linéaire (aussi appelé un cartographie linéaire, transformation linéaire, homomorphisme de l'espace vectoriel, ou dans certains contextes fonction linéaire) est une application V → W entre deux espaces vectoriels qui préserve les opérations d'addition vectorielle et de multiplication scalaire. Les mêmes noms et la même définition sont également utilisés pour le cas plus général des modules sur un anneau voir Module homomorphisme.

Si une application linéaire est une bijection alors elle est appelée une isomorphisme linéaire. Dans le cas où V = W , une application linéaire est appelée a (linéaire) endomorphisme. Parfois le terme opérateur linéaire fait référence à ce cas, [1] mais le terme « opérateur linéaire » peut avoir différentes significations pour différentes conventions : par exemple, il peut être utilisé pour souligner que V et W sont de vrais espaces vectoriels (pas nécessairement avec V = W ), [ citation requise ] ou il peut être utilisé pour souligner que V est un espace de fonctions, ce qui est une convention courante en analyse fonctionnelle. [2] Parfois le terme fonction linéaire a le même sens que carte linéaire, alors qu'en analyse ce n'est pas le cas.

Une carte linéaire de V à W mappe toujours l'origine de V à l'origine de W. De plus, il mappe des sous-espaces linéaires dans V sur des sous-espaces linéaires dans W (éventuellement d'une dimension inférieure) [3] par exemple, il mappe un plan passant par l'origine dans V soit à un plan passant par l'origine dans W, une ligne passant par l'origine dans W, ou simplement l'origine dans W. Les cartes linéaires peuvent souvent être représentées sous forme de matrices, et des exemples simples incluent des transformations linéaires de rotation et de réflexion.

Dans le langage de la théorie des catégories, les applications linéaires sont les morphismes des espaces vectoriels.


Preuve 1.

Nous identifions la matrice $A$ avec la transformation linéaire de $K^n$ en elle-même dont la représentation matricielle est $A$ avec une base fixe pour $K^n$.

Nous restreignons d'abord la transformation linéaire $A:K^n o K^n$ à l'image de $A$ et obtenons la transformation linéaire
[A|_:im(A) o K^n.] Notez que l'image de $A|_$ est $im(A^ 2)$.
Ainsi par le théorème de rang-nullité on a
[ k(A^2)+dim(ker(A|_)= k(A). ag<1>]

De même, nous considérons la transformation linéaire restreinte $A|_:im(A^2) o K^n$.
L'image de $A|_$ est $im(A^3)$ et par le théorème de rang-nullité on a
[ k(A^3)+dim(ker(A|_)= k(A^2). ag<2>]

Puisque $im(A^2) subset im(A)$, on a
[ker(A|_) subset ker(A|_),] et donc
[dim(ker(A|_)) leq dim(ker(A|_)). ag<3>] En combinant (1), (2) et (3), nous obtenons
[ k(A^2)- k(A^3)leq k(A)- k(A^2),] selon les besoins.


Normes

Avec les normes, nous attribuons une "taille" aux vecteurs et aux matrices, satisfaisant certaines propriétés relatives à l'évolutivité et à l'additivité. A l'exception de l'élément zéro, la norme est strictement positive.

Les vecteurs prennent en charge les normes suivantes :

  • L1Norme ou norme de Manhattan (p=1) : la somme des valeurs absolues.
  • L2Norme ou Norme euclidienne (p=2) : la racine carrée de la somme des valeurs au carré. C'est la norme la plus courante et supposée si rien d'autre n'est indiqué.
  • Norme de l'infini (p=infini) : la valeur absolue maximale.
  • Norme(p): norme généralisée, essentiellement la racine p-ième de la somme de la puissance p absolue des valeurs.

De même, les matrices supportent les normes suivantes :

  • L1Norme (induit) : la somme de colonne absolue maximale.
  • L2Norme (induit) : la plus grande valeur singulière de la matrice (coûteuse).
  • Norme de l'infini (induit) : la somme de ligne absolue maximale.
  • FrobeniusNorm (en entrée) : la racine carrée de la somme des valeurs au carré.
  • Normes de ligne(p): la norme p généralisée pour chaque vecteur ligne.
  • Normes de colonne(p): la norme p généralisée pour chaque vecteur colonne.

Les vecteurs peuvent être normalisés à l'unité p-norm avec la méthode Normalize, les matrices peuvent normaliser toutes les lignes ou toutes les colonnes à l'unité p-norm avec NormalizeRows et NormalizeColumns .

Les fonctions de somme sont étroitement liées aux normes. Les vecteurs ont une fonction Sum qui renvoie la somme de tous les éléments vectoriels et SumMagnitudes qui renvoie la somme des éléments vectoriels absolus (et est identique à la norme L1).

Les matrices fournissent des fonctions RowSums et ColumnSums qui renvoient la somme de chaque vecteur de ligne ou de colonne, et RowAbsoluteSums et ColumnAbsoluteSums pour les sommes des éléments absolus.


Déterminants

UNE déterminant d'une matrice représente un seul nombre. Nous obtenons cette valeur en multipliant et en ajoutant ses éléments d'une manière spéciale. On peut utiliser le déterminant d'une matrice pour résoudre un système d'équations simultanées.

Par exemple, si nous avons la matrice (carré) 2 &fois 2 :

puis le déterminant de cette matrice s'écrit entre les lignes verticales comme suit :

Nous verrons dans la section suivante comment évaluer ce déterminant. (Il a la valeur -29).


C'est l'un des plus de 2400 cours sur OCW. Explorez les matériaux de ce cours dans les pages liées le long de la gauche.

MIT OpenCourseWare est une publication gratuite et ouverte de matériel provenant de milliers de cours du MIT, couvrant l'ensemble du programme du MIT.

Aucune inscription ni inscription. Parcourez et utilisez librement les documents OCW à votre rythme. Il n'y a pas d'inscription, ni de date de début ou de fin.

La connaissance est votre récompense. Utilisez OCW pour guider votre propre apprentissage tout au long de la vie ou pour enseigner aux autres. Nous n'offrons pas de crédit ou de certification pour l'utilisation d'OCW.

Fait pour le partage. Téléchargez des fichiers pour plus tard. Envoyez à vos amis et collègues. Modifier, remixer et réutiliser (n'oubliez pas de citer OCW comme source.)

À propos de MIT OpenCourseWare

MIT OpenCourseWare est une publication en ligne de documents de plus de 2 500 cours du MIT, partageant librement des connaissances avec des apprenants et des éducateurs du monde entier. En savoir plus »

&copier 2001&ndash2018
Massachusetts Institute of Technology

Votre utilisation du site et du matériel MIT OpenCourseWare est soumise à notre licence Creative Commons et à d'autres conditions d'utilisation.


6.2.E : Problèmes sur les cartes linéaires et les matrices - Mathématiques

Ce cours explore la positivité matricielle et les opérations qui la préservent. Celles-ci impliquent des questions fondamentales qui ont été largement étudiées au cours du siècle dernier et sont toujours étudiées dans la littérature mathématique, y compris avec une motivation supplémentaire des applications modernes à l'estimation de la covariance à haute dimension. Le cours réunira des techniques de différents domaines : analyse, algèbre linéaire, combinatoire et fonctions symétriques.

Liste des sujets (si le temps le permet) :

1. Le cône des matrices semi-définies positives. Matrices totalement positives/non négatives. Exemples de matrices PSD et TP/TN (Gram, Hankel, Toeplitz, Vandermonde, $mathbb

_G$). Identités matricielles (Cauchy-Binet, Andreief). Quotients de Rayleigh généralisés et rayon spectral. Schur complète.

2. Conservateurs de positivité. Théorème du produit de Schur. Observation de Polya-Szego. Le théorème de Schoenberg. Fonctions définies positives aux matrices de corrélation. Le théorème (plus fort) de Rudin. Herz, Christensen-Ressel.

3. Problème de dimension fixe. Introduction et motivations modernes. Théorème et simplifications de H.L. Vasudeva. Théorème et simplifications de Roger Horn.

4. Preuve du théorème de Schoenberg. Caractérisation des conservateurs de positivité (totale de Hankel) dans le cadre sans dimension.

5. Conservateurs analytiques/polynomiaux – I. Quels coefficients peuvent être négatifs ? Domaines bornés et non bornés : conditions nécessaires de type Horn.

6. polynômes de Schur. Deux définitions et propriétés. Spécialisation sur des domaines et pour des pouvoirs réels. Approximation du premier ordre.

7. Conservateurs analytiques/polynomiaux – II. Modèles de signes : Les conditions nécessaires de type Horn sont les meilleures possibles.Borne quantitative nette. Principe d'extension I : augmentation de dimension.

8. Cartes d'entrée préservant une positivité totale. Principe d'extension II : matrices de Hankel TN. Variantes pour toutes les matrices TP et pour les matrices TP symétriques. Problèmes de complétion matricielle.

9. Pouvoirs d'entrée préservant la positivité. Application du principe d'extension I. Contre-exemples de bas rang. Le résultat de Tanvi Jain.

10. Caractérisations pour les fonctions préservant $mathbb

_G$. Principe d'extension III : bords pendants. Le cas des arbres. Les graphes de cordes et leurs propriétés. Fonctions et pouvoirs préservant $mathbb

_G$ pour $G$ accord. Graphes sans accords.


Matrice (mathématiques)

En mathématiques, une matrice (matrices au pluriel, ou plus rarement matrices) est un tableau rectangulaire de nombres, de symboles ou d'expressions. Les éléments individuels d'une matrice sont appelés ses éléments ou entrées. Un exemple de matrice à six éléments est

Des matrices de même taille peuvent être ajoutées ou soustraites élément par élément. La règle de multiplication matricielle est plus compliquée et deux matrices ne peuvent être multipliées que lorsque le nombre de colonnes de la première est égal au nombre de lignes de la seconde. Une application majeure des matrices est de représenter des transformations linéaires, c'est-à-dire des généralisations de fonctions linéaires telles que f(x) = 4x. Par exemple, la rotation des vecteurs dans l'espace tridimensionnel est une transformation linéaire. Si R est une matrice de rotation et v est un vecteur colonne (une matrice avec une seule colonne) décrivant la position d'un point dans l'espace, le produit Rv est un vecteur colonne décrivant la position de ce point après une rotation. Le produit de deux matrices est une matrice qui représente la composition de deux transformations linéaires. Une autre application des matrices est la résolution d'un système d'équations linéaires. Si la matrice est carrée, il est possible d'en déduire certaines de ses propriétés en calculant son déterminant. Par exemple, une matrice carrée a un inverse si et seulement si son déterminant n'est pas nul. Les valeurs propres et les vecteurs propres donnent un aperçu de la géométrie des transformations linéaires.

Les matrices trouvent des applications dans la plupart des domaines scientifiques. En physique, les matrices sont utilisées pour étudier les circuits électriques, l'optique et la mécanique quantique. En infographie, les matrices sont utilisées pour projeter une image en 3 dimensions sur un écran en 2 dimensions et pour créer un mouvement d'apparence réaliste. Le calcul matriciel généralise les notions analytiques classiques telles que les dérivées et les exponentielles à des dimensions supérieures.

Une branche majeure de l'analyse numérique est consacrée au développement d'algorithmes efficaces pour les calculs matriciels, un sujet vieux de plusieurs siècles et qui est aujourd'hui un domaine de recherche en pleine expansion. Les méthodes de décomposition matricielle simplifient les calculs, à la fois théoriquement et pratiquement. Des algorithmes adaptés à la structure de structures matricielles particulières, par ex. matrices creuses et matrices quasi diagonales, accélérer les calculs dans la méthode des éléments finis et d'autres calculs. Les matrices infinies existent en théorie planétaire et en théorie atomique. Un exemple simple est la matrice représentant l'opérateur dérivé, qui agit sur la série de Taylor d'une fonction.

Une matrice est un arrangement rectangulaire d'expressions mathématiques qui peuvent être simplement des nombres.[1] Par exemple,

Une notation alternative utilise de grandes parenthèses au lieu de crochets.

Les lignes horizontales et verticales d'une matrice sont respectivement appelées lignes et colonnes. Les nombres de la matrice sont appelés ses entrées ou ses éléments. Pour spécifier la taille d'une matrice, une matrice avec m lignes et n colonnes est appelée matrice m par n ou matrice m × n, tandis que m et n sont appelées ses dimensions. Ce qui précède est une matrice 4 par 3.

Une matrice avec une ligne (une matrice 1 × n) est appelée vecteur ligne, et une matrice avec une colonne (une matrice m × 1) est appelée vecteur colonne. Toute ligne ou colonne d'une matrice détermine un vecteur ligne ou colonne, obtenu en supprimant respectivement toutes les autres lignes ou colonnes de la matrice. Par exemple, le vecteur ligne pour la troisième ligne de la matrice A ci-dessus est

Lorsqu'une ligne ou une colonne d'une matrice est interprétée comme une valeur, cela fait référence au vecteur de ligne ou de colonne correspondant. Par exemple, on peut dire que deux lignes différentes d'une matrice sont égales, ce qui signifie qu'elles déterminent le même vecteur ligne. Dans certains cas, la valeur d'une ligne ou d'une colonne doit être interprétée simplement comme une séquence de valeurs (un élément de Rn si les entrées sont des nombres réels) plutôt que comme une matrice, par exemple lorsque l'on dit que les lignes d'une matrice sont égales à la colonnes correspondantes de sa matrice de transposition.

La majeure partie de cet article se concentre sur les matrices réelles et complexes, c'est-à-dire les matrices dont les éléments sont respectivement réels ou complexes. Des types d'entrées plus généraux sont décrits ci-dessous.
Notation

Les spécificités de la notation des matrices varient considérablement, avec certaines tendances dominantes. Les matrices sont généralement désignées par des lettres majuscules, tandis que les lettres minuscules correspondantes, avec deux indices en indice, représentent les entrées. En plus d'utiliser des lettres majuscules pour symboliser les matrices, de nombreux auteurs utilisent un style typographique spécial, généralement en gras (non italique), pour mieux distinguer les matrices des autres objets mathématiques. Une notation alternative implique l'utilisation d'un double soulignement avec le nom de la variable, avec ou sans style gras, (par exemple, underline).

L'entrée dans le je-ème rangée et le j-ème colonne d'une matrice est généralement appelée la je,j, (je,j), ou alors (je,j) ème entrée de la matrice. Par exemple, l'entrée (2,3) de la matrice ci-dessus UNE est 7. Le (je, j) ème entrée d'une matrice UNE s'écrit le plus souvent comme uneje,j. Les notations alternatives pour cette entrée sont UNE[je, j] ou alors UNEje, j.

Parfois, une matrice est appelée en donnant une formule pour son (je,j) ème entrée, souvent avec une double parenthèse autour de la formule de l'entrée, par exemple, si le (je,j) ème entrée de UNE ont été donnés par uneje, UNE serait noté ((uneje)).

Un astérisque est couramment utilisé pour désigner des lignes ou des colonnes entières dans une matrice. Par exemple, ai,∗ se réfère à la ième ligne de A, et a∗,j se réfère à la jième colonne de A. L'ensemble de toutes les matrices m sur n est noté ( mathbb(m, n) ).

UNE = [uneje,j]je = 1. m j = 1. m ou plus brièvement UNE = [uneje,j]m×m

pour définir une matrice m × n A. Habituellement, les entrées ai,j sont définies séparément pour tous les entiers 1 i ≤ m et 1 ≤ j ≤ n. Ils peuvent cependant parfois être donnés par une formule par exemple la matrice 3 par 4

peut alternativement être spécifié par A = [i − j]i = 1,2,3 j = 1,4, ou simplement A = ((i-j)), où la taille de la matrice est comprise.

Certains langages de programmation commencent la numérotation des lignes et des colonnes à zéro, auquel cas les entrées d'une matrice m par n sont indexées par 0 ≤ i ≤ m − 1 et 0 ≤ j ≤ n − 1.[2] Cet article suit la convention la plus courante en écriture mathématique où l'énumération commence à partir de 1.
Opérations de base
Articles principaux: addition matricielle, multiplication scalaire, transposition et opérations de ligne

Il existe un certain nombre d'opérations qui peuvent être appliquées pour modifier des matrices appelées addition matricielle, multiplication scalaire et transposition.[3] Celles-ci forment les techniques de base pour traiter les matrices.

Les propriétés familières des nombres s'étendent à ces opérations de matrices : par exemple, l'addition est commutative, c'est-à-dire que la somme matricielle ne dépend pas de l'ordre des sommations : UNE + B = B + UNE. [4] La transposition est compatible avec l'addition et la multiplication scalaire, exprimée par (cUNE) T = c(UNE T ) et (UNE + B) T = UNE T + B T . Pour terminer, (UNE T ) T = UNE.

Les opérations sur les lignes sont des moyens de modifier les matrices. Il existe trois types d'opérations de ligne : la commutation de ligne, c'est-à-dire l'échange de deux lignes d'une matrice multiplication de ligne, la multiplication de toutes les entrées d'une ligne par une constante non nulle et enfin l'ajout de ligne, ce qui signifie l'ajout d'un multiple d'une ligne à une autre ligne . Ces opérations sur les lignes sont utilisées de plusieurs manières, notamment la résolution d'équations linéaires et la recherche d'inverses.


Multiplication matricielle, équations linéaires et transformations linéaires
Article principal: multiplication matricielle
Représentation schématique du produit matriciel AB de deux matrices A et B.

La multiplication de deux matrices n'est définie que si le nombre de colonnes de la matrice de gauche est le même que le nombre de lignes de la matrice de droite. Si A est une matrice m-par-n et B est une matrice n-par-p, alors leur produit matriciel AB est la matrice m-par-p dont les entrées sont données par le produit scalaire de la ligne correspondante de A et le colonne de B :

où 1 ≤ i ≤ m et 1 ≤ j ≤ p.[5]Par exemple, l'entrée soulignée 2340 dans le produit est calculée comme (2 × 1000) + (3 × 100) + (4 × 10) = 2340 :

( commencer commencer underline <2>& underline 3 & underline 4 1 & 0 & 0 end commencer 0 & underline 1000 1 & underline 100 0 & underline 10 end &= egin 3 & souligné 2340 0 & 1000 end. finir )

La multiplication matricielle satisfait les règles (AB)C = A(BC) (associativité), et (A+B)C = AC+BC ainsi que C(A+B) = CA+CB (distributivité gauche et droite), chaque fois que la taille des matrices est telle que les différents produits sont définis.[6] Le produit AB peut être défini sans que BA soit défini, à savoir si A et B sont respectivement des matrices m par n et n par k et m k. Même si les deux produits sont définis, ils n'ont pas besoin d'être égaux, c'est-à-dire que l'on a généralement

c'est-à-dire que la multiplication matricielle n'est pas commutative, contrairement aux nombres (rationnels, réels ou complexes) dont le produit est indépendant de l'ordre des facteurs. Un exemple de deux matrices ne commutant pas l'une avec l'autre est :

La matrice identité In de taille n est la matrice n par n dans laquelle tous les éléments de la diagonale principale sont égaux à 1 et tous les autres éléments sont égaux à 0, par ex.

On l'appelle matrice d'identité parce que la multiplication avec elle laisse une matrice inchangée : MIm = jemM = M pour toute m-par-m matrice M.

Outre la multiplication matricielle ordinaire qui vient d'être décrite, il existe d'autres opérations moins fréquemment utilisées sur les matrices qui peuvent être considérées comme des formes de multiplication, telles que le produit de Hadamard et le produit de Kronecker.[7] Ils surviennent lors de la résolution d'équations matricielles telles que l'équation de Sylvester.
Équations linéaires
Articles principaux: Équation linéaire et Système d'équations linéaires

Un cas particulier de multiplication matricielle est étroitement lié à équations linéaires: si X désigne un vecteur colonne (c'est-à-dire m×1-matrice) de m variables X1, X2, . Xm, et UNE est un m-par-m matrice, puis l'équation matricielle

b est un mvecteur ×1-colonne, est équivalent au système d'équations linéaires

UNE1,1X1 + UNE1,2X2 + . + UNE1,mXm = b1 . UNEm,1X1 + UNEm,2X2 + . + UNEm,mXm = bm . [8]

De cette façon, les matrices peuvent être utilisées pour écrire et traiter de manière compacte plusieurs équations linéaires, c'est-à-dire des systèmes d'équations linéaires.

De cette façon, les matrices peuvent être utilisées pour écrire et traiter de manière compacte plusieurs équations linéaires, c'est-à-dire des systèmes d'équations linéaires.
Transformations linéaires
Articles principaux: Transformation linéaire et Matrice de transformation
Les vecteurs représentés par une matrice 2 par 2 correspondent aux côtés d'un carré unitaire transformé en parallélogramme.

Les matrices et la multiplication matricielle révèlent leurs caractéristiques essentielles lorsqu'elles sont liées aux transformations linéaires, également appelées cartes linéaires. Une matrice réelle m par n A donne lieu à une transformation linéaire Rn → Rm faisant correspondre chaque vecteur x dans Rn au produit (matrice) Ax, qui est un vecteur dans Rm. Inversement, chaque transformation linéaire f : Rn → Rm provient d'une unique matrice m par n A : explicitement, l'entrée (i, j) de A est la ième coordonnée de f(ej), où ej = (0. 0,1,0.0) est le vecteur unitaire avec 1 à la jième position et 0 ailleurs. On dit que la matrice A représente l'application linéaire f, et A est appelée la matrice de transformation de f.

Par exemple, la matrice 2×2

peut être considérée comme la transformation du carré unitaire en un parallélogramme avec des sommets à (0, 0), (a, b), (a + c, b + d) et (c, d). Le parallélogramme illustré à droite est obtenu en multipliant A avec chacun des vecteurs colonnes ( egin 0 0 fin, commencer 1 0 fin , commencer 1 1 fin ) et ( egin0 1fin ) à son tour. Ces vecteurs définissent les sommets du carré unité.

Le tableau suivant montre un certain nombre de matrices 2 par 2 avec les cartes linéaires associées de R 2 . L'original bleu est mappé sur la grille et les formes vertes. L'origine (0,0) est marquée d'un point noir.

Cisaillement horizontal avec m=1,25. Retournement horizontal Mappage de compression avec r=3/2 Mise à l'échelle par un facteur de 3/2 Rotation de π/6 R = 30°
( commencer 1 & 1,25 0 & 1 end ) ( commencer -1 & 0 0 & 1 end) ( commencer 3/2 & 0 0 & 2/3 end) ( commencer 3/2 & 0 0 & 3/2 fin) ( commencercos(pi / 6^) & -sin(pi / 6^) sin(pi / 6^) & cos(pi / 6^)finir)

Sous la correspondance 1 à 1 entre les matrices et les cartes linéaires, la multiplication matricielle correspond à la composition des cartes :[9] si une matrice k-par-m B représente une autre application linéaire g : Rm → Rk, alors la composition g ∘ f est représenté par BA depuis

(g f)(x) = g(f(x)) = g(Ax) = B(Ax) = (BA)x.

La dernière égalité découle de l'associativité mentionnée ci-dessus de la multiplication matricielle.

Le rang d'une matrice A est le nombre maximum de vecteurs ligne linéairement indépendants de la matrice, qui est le même que le nombre maximum de vecteurs colonne linéairement indépendants.[10] De manière équivalente c'est la dimension de l'image de l'application linéaire représentée par A.[11] Le théorème de rang-nullité stipule que la dimension du noyau d'une matrice plus le rang est égal au nombre de colonnes de la matrice.[12]
Matrices carrées

Une matrice carrée est une matrice avec le même nombre de lignes et de colonnes. Une matrice n par n est appelée matrice carrée d'ordre n. Deux matrices carrées du même ordre peuvent être additionnées et multipliées. Une matrice carrée A est dite inversible ou non singulière s'il existe une matrice B telle que

Ceci est équivalent à BA = In.[14] De plus, si B existe, elle est unique et s'appelle la matrice inverse de A, notée A−1.

Les entrées Ai,i forment la diagonale principale d'une matrice. La trace, tr(A) d'une matrice carrée A est la somme de ses entrées diagonales. Alors que, comme mentionné ci-dessus, la multiplication matricielle n'est pas commutative, la trace du produit de deux matrices est indépendante de l'ordre des facteurs : tr(AB) = tr(BA).[15]

De plus, la trace d'une matrice est égale à celle de sa transposée, c'est-à-dire tr(A) = tr(AT).

Si toutes les entrées en dehors de la diagonale principale sont nulles, A est appelée une matrice diagonale. Si seules toutes les entrées au-dessus (en dessous) de la diagonale principale sont nulles, A est appelée une matrice triangulaire inférieure (matrice triangulaire supérieure, respectivement). Par exemple, si n = 3, ils ressemblent

Déterminant
Article principal: Déterminant
Une transformation linéaire sur R2 donnée par la matrice indiquée. Le déterminant de cette matrice est -1, car l'aire du parallélogramme vert à droite est 1, mais la carte inverse l'orientation, puisqu'elle transforme l'orientation antihoraire des vecteurs en une orientation horaire.

Le déterminant det(A) ou |A| d'une matrice carrée A est un nombre codant certaines propriétés de la matrice. Une matrice est inversible si et seulement si son déterminant est non nul. Sa valeur absolue est égale à l'aire (en R2) ou au volume (en R3) de l'image du carré (ou du cube) unité, tandis que son signe correspond à l'orientation de la carte linéaire correspondante : le déterminant est positif si et seulement si le l'orientation est conservée.

Le déterminant des matrices 2 par 2 est donné par

Lorsque le déterminant est égal à un, alors la matrice représente un mappage équi-aréal. Le déterminant des matrices 3-par-3 implique 6 termes (règle de Sarrus). La formule plus longue de Leibniz généralise ces deux formules à toutes les dimensions.[16]

Le déterminant d'un produit de matrices carrées est égal au produit de leurs déterminants : det(AB) = det(A) · det(B).[17] L'ajout d'un multiple de n'importe quelle ligne à une autre ligne, ou d'un multiple de n'importe quelle colonne à une autre colonne, ne modifie pas le déterminant. L'échange de deux lignes ou de deux colonnes affecte le déterminant en le multipliant par -1.[18] En utilisant ces opérations, toute matrice peut être transformée en une matrice triangulaire inférieure (ou supérieure), et pour de telles matrices, le déterminant est égal au produit des entrées sur la diagonale principale, ce qui fournit une méthode pour calculer le déterminant de toute matrice. Enfin, le développement de Laplace exprime le déterminant en termes de mineurs, c'est-à-dire des déterminants de matrices plus petites.[19] Ce développement peut être utilisé pour une définition récursive des déterminants (en prenant comme cas de départ le déterminant d'une matrice 1 sur 1, qui est son unique entrée, ou encore le déterminant d'une matrice 0 sur 0, qui vaut 1) , qui peut être considérée comme équivalente à la formule de Leibniz. Les déterminants peuvent être utilisés pour résoudre des systèmes linéaires en utilisant la règle de Cramer, où la division des déterminants de deux matrices carrées liées équivaut à la valeur de chacune des variables du système.[20]
Valeurs propres et vecteurs propres
Article détaillé : Valeurs propres et vecteurs propres

Un nombre λ et un vecteur v non nul satisfaisant

sont appelées valeur propre et vecteur propre de A, respectivement.[nb 1][21] Le nombre λ est une valeur propre d'une n×n-matrice A si et seulement si A−λIn n'est pas inversible, ce qui équivaut à

Le polynôme pA dans un X indéterminé donné par évaluation du déterminant det(XIn−A) est appelé polynôme caractéristique de A. C'est un polynôme monique de degré n. Par conséquent, l'équation polynomiale pA(λ) = 0 a au plus n solutions différentes, c'est-à-dire les valeurs propres de la matrice.[23] Ils peuvent être complexes même si les entrées de A sont réelles. Selon le théorème de Cayley-Hamilton, pA(A) = 0, c'est-à-dire que le résultat de la substitution de la matrice elle-même dans son propre polynôme caractéristique donne la matrice zéro.
Symétrie

Une matrice carrée A qui est égale à sa transposée, c'est-à-dire A = AT, est une matrice symétrique. Si au contraire, A était égal à la négative de sa transposée, c'est-à-dire A = −AT, alors A est une matrice antisymétrique. Dans les matrices complexes, la symétrie est souvent remplacée par le concept de matrices hermitiennes, qui satisfont A∗ = A, où l'étoile ou l'astérisque désigne la transposée conjuguée de la matrice, c'est-à-dire la transposée du conjugué complexe de A.

Par le théorème spectral, les matrices symétriques réelles et les matrices hermitiennes complexes ont une base propre, c'est-à-dire que chaque vecteur est exprimable comme une combinaison linéaire de vecteurs propres. Dans les deux cas, toutes les valeurs propres sont réelles.[24] Ce théorème peut être généralisé à des situations de dimension infinie liées à des matrices avec une infinité de lignes et de colonnes, voir ci-dessous.
Définitude
Matrice A forme quadratique associée à la définition QA(x,y)
ensemble de vecteurs (x,y) tel que QA(x,y)=1
( commencer 1/4 & 0 0 & 1/4fin commencer 1/4 & 0 0 & -1/4fin )
défini positif indéfini
1/4 x2 + 1/4y2 1/4 x2 − 1/4 y2
Ellipse dans le système de coordonnées avec des demi-axes étiquetés.svg
Ellipse Hyperbole2.png
Hyperbole

Une matrice symétrique n×n est dite positive-définie (respectivement négative-définie indéfinie), si pour tous les vecteurs non nuls x Rn la forme quadratique associée donnée par

ne prend que des valeurs positives (respectivement que des valeurs négatives à la fois des valeurs négatives et des valeurs positives).[25] Si la forme quadratique ne prend que des valeurs non négatives (respectivement uniquement non positives), la matrice symétrique est dite positive-semi-définie (respectivement négative-semi-définie) donc la matrice est indéfinie précisément lorsqu'elle n'est ni positive-semi-définie ni négative-semi-définie.

Une matrice symétrique est définie positivement si et seulement si toutes ses valeurs propres sont positives.[26] Le tableau de droite montre deux possibilités pour les matrices 2 par 2.

En admettant en entrée deux vecteurs différents, on obtient à la place la forme bilinéaire associée à A :

En plus de la connaissance théorique des propriétés des matrices et de leur relation avec d'autres domaines, il est important à des fins pratiques d'effectuer des calculs matriciels de manière efficace et précise. Le domaine qui étudie ces questions est appelé algèbre linéaire numérique.[28] Comme pour d'autres situations numériques, deux aspects principaux sont la complexité des algorithmes et leur stabilité numérique. De nombreux problèmes peuvent être résolus par des algorithmes directs ou des approches itératives. Par exemple, trouver des vecteurs propres peut être fait en trouvant une séquence de vecteurs xn convergeant vers un vecteur propre lorsque n tend vers l'infini.[29]

Déterminer la complexité d'un algorithme signifie trouver des limites supérieures ou des estimations du nombre d'opérations élémentaires telles que des additions et des multiplications de scalaires sont nécessaires pour exécuter un algorithme, par exemple, la multiplication de matrices. Par exemple, le calcul du produit matriciel de deux matrices n par n en utilisant la définition donnée ci-dessus nécessite n3 multiplications, car pour n'importe laquelle des n2 entrées du produit, n multiplications sont nécessaires. L'algorithme de Strassen surpasse cet algorithme "naïf", il n'a besoin que de n2.807 multiplications.[30] Une approche affinée intègre également des caractéristiques spécifiques des dispositifs informatiques.

Dans de nombreuses situations pratiques, des informations supplémentaires sur les matrices impliquées sont connues. Un cas important est celui des matrices creuses, c'est-à-dire des matrices dont la plupart des entrées sont nulles. Il existe des algorithmes spécifiquement adaptés pour, par exemple, résoudre les systèmes linéaires Ax = b pour les matrices creuses A, comme la méthode du gradient conjugué.[31]

Un algorithme est, grosso modo, numériquement stable, si de petits écarts (comme des erreurs d'arrondi) ne conduisent pas à de grands écarts dans le résultat. Par exemple, calculer l'inverse d'une matrice via la formule de Laplace (Adj (A) désigne la matrice adjugée de A)

peut conduire à des erreurs d'arrondi importantes si le déterminant de la matrice est très petit. La norme d'une matrice peut être utilisée pour capturer le conditionnement de problèmes algébriques linéaires, tels que le calcul de l'inverse d'une matrice.[32]

Bien que la plupart des langages informatiques ne soient pas conçus avec des commandes ou des bibliothèques pour les matrices, dès les années 1970, certains ordinateurs de bureau d'ingénierie tels que le HP 9830 disposaient de cartouches ROM pour ajouter des commandes BASIC pour les matrices. Certains langages informatiques tels que l'APL ont été conçus pour manipuler des matrices, et divers programmes mathématiques peuvent être utilisés pour faciliter le calcul avec des matrices.[33]
Méthodes de décomposition matricielle
Articles détaillés : décomposition matricielle, diagonalisation matricielle, élimination gaussienne et méthode de Montante

Il existe plusieurs méthodes pour rendre les matrices sous une forme plus facilement accessible. Elles sont généralement appelées techniques de transformation matricielle ou de décomposition matricielle. L'intérêt de toutes ces techniques de décomposition est qu'elles préservent certaines propriétés des matrices en question, comme le déterminant, le rang ou l'inverse, afin que ces quantités puissent être calculées après application de la transformation, ou que certaines opérations matricielles soient algorithmiquement plus faciles à réaliser pour certains types de matrices.

Les matrices de facteurs de décomposition LU en tant que produit de matrices triangulaires inférieures (L) et supérieures (U).[34] Une fois cette décomposition calculée, les systèmes linéaires peuvent être résolus plus efficacement, par une technique simple appelée substitution avant et arrière. De même, les inverses de matrices triangulaires sont algorithmiquement plus faciles à calculer. L'élimination gaussienne est un algorithme similaire, il transforme n'importe quelle matrice en forme d'échelon de ligne.[35] Les deux méthodes procèdent en multipliant la matrice par des matrices élémentaires appropriées, ce qui correspond à permuter des lignes ou des colonnes et à ajouter des multiples d'une ligne à une autre. La décomposition en valeurs singulières exprime toute matrice A comme un produit UDV∗, où U et V sont des matrices unitaires et D est une matrice diagonale.
Une matrice sous forme normale de Jordan. Les blocs gris sont appelés blocs Jordan.

La décomposition propre ou la diagonalisation exprime A comme un produit VDV−1, où D est une matrice diagonale et V est une matrice inversible appropriée.[36] Si A peut s'écrire sous cette forme, il est dit diagonalisable. Plus généralement, et applicable à toutes les matrices, la décomposition de Jordan transforme une matrice en forme normale de Jordan, c'est-à-dire des matrices dont les seules entrées non nulles sont les valeurs propres λ1 à λn de A, placées sur la diagonale principale et éventuellement des entrées égales à un directement au-dessus de la diagonale principale, comme indiqué à droite.[37] Compte tenu de la décomposition propre, la puissance n de A (c'est-à-dire la multiplication matricielle itérée n fois) peut être calculée via

An = (VDV−1)n = VDV−1VDV−1. VDV−1 = VDnV−1

et la puissance d'une matrice diagonale peut être calculée en prenant les puissances correspondantes des entrées diagonales, ce qui est beaucoup plus facile que de faire l'exponentiation pour A à la place. Cela peut être utilisé pour calculer la matrice exponentielle eA, un besoin fréquemment rencontré dans la résolution d'équations différentielles linéaires, de logarithmes matriciels et de racines carrées de matrices.[38] Pour éviter des situations numériquement mal conditionnées, d'autres algorithmes tels que la décomposition de Schur peuvent être utilisés.[39]
Aspects algébriques abstraits et généralisations

Les matrices peuvent être généralisées de différentes manières. L'algèbre abstraite utilise des matrices avec des entrées dans des domaines plus généraux ou même des anneaux, tandis que l'algèbre linéaire codifie les propriétés des matrices dans la notion d'applications linéaires. Il est possible de considérer des matrices avec une infinité de colonnes et de lignes. Une autre extension sont les tenseurs, qui peuvent être considérés comme des tableaux de nombres de dimensions supérieures, par opposition aux vecteurs, qui peuvent souvent être réalisés comme des séquences de nombres, tandis que les matrices sont des tableaux de nombres rectangulaires ou bidimensionnels.[40] Les matrices, soumises à certaines exigences, ont tendance à former des groupes appelés groupes matriciels.
Matrices avec des entrées plus générales

Cet article se concentre sur les matrices dont les entrées sont des nombres réels ou complexes. Cependant, les matrices peuvent être considérées avec des types d'entrées beaucoup plus généraux que les nombres réels ou complexes. Comme première étape de généralisation, tout champ, c'est-à-dire un ensemble où les opérations d'addition, de soustraction, de multiplication et de division sont définies et bien conduites, peut être utilisé à la place de R ou C, par exemple des nombres rationnels ou des corps finis. Par exemple, la théorie du codage utilise des matrices sur des corps finis. Partout où les valeurs propres sont considérées, comme ce sont les racines d'un polynôme, elles peuvent n'exister que dans un domaine plus grand que celui des coefficients de la matrice, par exemple elles peuvent être complexes dans le cas d'une matrice avec des entrées réelles. La possibilité de réinterpréter les entrées d'une matrice comme des éléments d'un champ plus large (par exemple, pour voir une matrice réelle comme une matrice complexe dont les entrées sont toutes réelles) permet alors de considérer que chaque matrice carrée possède un ensemble complet de valeurs propres. Alternativement, on ne peut considérer que des matrices avec des entrées dans un champ algébriquement clos, comme C, dès le départ.

Plus généralement, l'algèbre abstraite fait un grand usage des matrices à entrées dans un anneau R.[41] Les anneaux sont une notion plus générale que les champs dans la mesure où aucune opération de division n'existe. Les mêmes opérations d'addition et de multiplication de matrices s'étendent également à ce paramètre. L'ensemble M(n, R) de toutes les matrices carrées n-par-n sur R est un anneau appelé anneau matriciel, isomorphe à l'anneau d'endomorphisme du R-module gauche Rn.[42] Si l'anneau R est commutatif, c'est-à-dire que sa multiplication est commutative, alors M(n, R) est une algèbre associative unitaire non commutative (sauf si n = 1) sur R. Le déterminant des matrices carrées sur un anneau commutatif R peut encore être défini en utilisant la formule de Leibniz une telle matrice est inversible si et seulement si son déterminant est inversible dans R, en généralisant la situation sur un corps F, où tout élément non nul est inversible.[43] Les matrices sur superanneaux sont appelées supermatrices.[44]

Les matrices n'ont pas toujours toutes leurs entrées dans le même anneau - ou même dans n'importe quel anneau du tout. Un cas particulier mais courant est celui des matrices de blocs, qui peuvent être considérées comme des matrices dont les entrées elles-mêmes sont des matrices. Les entrées n'ont pas besoin d'être des matrices quadratiques, et donc ne doivent pas nécessairement être membres d'un anneau ordinaire, mais leurs tailles doivent remplir certaines conditions de compatibilité.
Relation avec les cartes linéaires

Les applications linéaires Rn → Rm sont équivalentes aux matrices m par n, comme décrit ci-dessus. Plus généralement, toute application linéaire f : V → W entre espaces vectoriels de dimension finie peut être décrite par une matrice A = (aij), après avoir choisi les bases v1, . vn de V, et w1, . wm de W (donc n est la dimension de V et m est la dimension de W), qui est tel que

( f(mathbf_j) = somme_^ je suis_ mathbf_iqquadmboxj=1,ldots,n. )

En d'autres termes, la colonne j de A exprime l'image de vj en fonction des vecteurs de base wi de W donc cette relation détermine uniquement les entrées de la matrice A. Notez que la matrice dépend du choix des bases : différents choix de bases donnent lieu à des matrices différentes mais équivalentes.[45] Bon nombre des notions concrètes ci-dessus peuvent être réinterprétées sous cet angle, par exemple, la matrice de transposition AT décrit la transposition de l'application linéaire donnée par A, par rapport aux bases duales.[46]

Plus généralement, l'ensemble des matrices mxn peut être utilisé pour représenter les applications R-linéaires entre les modules libres Rm et Rn pour un anneau arbitraire R à l'unité. Lorsque n = m la composition de ces cartes est possible, ce qui donne naissance à l'anneau matriciel de n×n matrices représentant l'anneau d'endomorphisme de Rn.
Groupes matriciels
Article principal: groupe Matrix

Un groupe est une structure mathématique constituée d'un ensemble d'objets avec une opération binaire, c'est-à-dire une opération combinant deux objets à un troisième, sous réserve de certaines exigences.[47] Un groupe dans lequel les objets sont des matrices et l'opération de groupe est la multiplication matricielle est appelé un groupe matriciel.[nb 2][48] Puisque dans un groupe chaque élément doit être inversible, les groupes matriciels les plus généraux sont les groupes de tous les inversibles matrices d'une taille donnée, appelées groupes linéaires généraux.

Toute propriété des matrices conservée sous les produits matriciels et les inverses peut être utilisée pour définir d'autres groupes de matrices. Par exemple, les matrices avec une taille donnée et avec un déterminant de 1 forment un sous-groupe de (c'est-à-dire un groupe plus petit contenu dans) leur groupe linéaire général, appelé groupe linéaire spécial.[49] Matrices orthogonales, déterminées par la condition

forment le groupe orthogonal.[50] Ils sont dits orthogonaux car les transformations linéaires associées de Rn préservent les angles dans le sens où le produit scalaire de deux vecteurs est inchangé après leur avoir appliqué M :

Tout groupe fini est isomorphe à un groupe matriciel, comme on peut le voir en considérant la représentation régulière du groupe symétrique.[52] Les groupes généraux peuvent être étudiés à l'aide de groupes matriciels, qui sont relativement bien compris, au moyen de la théorie des représentations.[53]
Matrices infinies

Il est également possible de considérer des matrices avec une infinité de lignes et/ou de colonnes[54] même si, étant des objets infinis, on ne peut pas écrire explicitement de telles matrices. Tout ce qui compte, c'est que pour chaque élément des lignes d'indexation d'ensemble et chaque élément des colonnes d'indexation d'ensemble, il existe une entrée bien définie (ces ensembles d'index n'ont même pas besoin d'être des sous-ensembles des nombres naturels). Les opérations de base d'addition, de soustraction, de multiplication scalaire et de transposition peuvent toujours être définies sans problème, mais la multiplication matricielle peut impliquer des sommations infinies pour définir les entrées résultantes, et celles-ci ne sont pas définies en général.

Si R est un anneau avec unité, alors l'anneau des endomorphismes de M=igoplus_R en tant que module R droit est isomorphe à l'anneau des matrices finies colonnes mathbb_I(R) dont les entrées sont indexées par I imes I, et dont les colonnes ne contiennent chacune qu'un nombre fini d'entrées non nulles. Les endomorphismes de M considérés comme un module R gauche donnent un objet analogue, les matrices finies rangées mathbb_I(R) dont les lignes n'ont chacune qu'un nombre fini d'entrées non nulles.

Si des matrices infinies sont utilisées pour décrire des cartes linéaires, alors seules les matrices peuvent être utilisées dont toutes les colonnes n'ont qu'un nombre fini d'entrées non nulles, pour la raison suivante. Pour qu'une matrice A décrive une application linéaire f : V→W, les bases des deux espaces doivent avoir été choisies, rappelons que par définition cela signifie que chaque vecteur de l'espace peut être écrit uniquement comme une combinaison linéaire (finie) de vecteurs de base, de sorte qu'écrit comme un vecteur (colonne) v de coefficients, seuls un nombre fini d'entrées vi sont non nuls. Maintenant, les colonnes de A décrivent les images par f des vecteurs de base individuels de V dans la base de W, ce qui n'a de sens que si ces colonnes n'ont qu'un nombre fini d'entrées non nulles. Il n'y a cependant aucune restriction sur les lignes de A : dans le produit A·v, il n'y a qu'un nombre fini de coefficients non nuls de v impliqués, donc chacune de ses entrées, même si elle est donnée comme une somme infinie de produits, n'implique qu'un nombre fini de nombreux termes non nuls et est donc bien défini. De plus, cela revient à former une combinaison linéaire des colonnes de A qui n'implique effectivement qu'un nombre fini d'entre elles, d'où le résultat n'a qu'un nombre fini d'entrées non nulles, car chacune de ces colonnes le fait. On voit aussi que les produits de deux matrices du type donné est bien défini (à condition comme d'habitude que les ensembles d'indice de colonne et d'indice de ligne correspondent), est à nouveau du même type, et correspond à la composition d'applications linéaires.

Si R est un anneau normé, alors la condition de finitude de ligne ou de colonne peut être relâchée. Avec la norme en place, des séries absolument convergentes peuvent être utilisées au lieu de sommes finies. Par exemple, les matrices dont les sommes des colonnes sont des suites absolument convergentes forment un anneau. De manière analogue bien sûr, les matrices dont les sommes de lignes sont des séries absolument convergentes forment également un anneau.

Dans cette veine, les matrices infinies peuvent également être utilisées pour décrire des opérateurs sur des espaces de Hilbert, où se posent des questions de convergence et de continuité, ce qui entraîne à nouveau certaines contraintes qui doivent être imposées. Cependant, le point de vue explicite des matrices tend à obscurcir le sujet,[nb 3] et les outils abstraits et plus puissants de l'analyse fonctionnelle peuvent être utilisés à la place.
Matrices vides

Une matrice vide est une matrice dans laquelle le nombre de lignes ou de colonnes (ou les deux) est égal à zéro.[55][56] Les matrices vides aident à traiter les cartes impliquant l'espace vectoriel zéro. Par exemple, si A est une matrice 3-par-0 et B est une matrice 0-par-3, alors AB est la matrice zéro 3-par-3 correspondant à la carte nulle d'un espace tridimensionnel V à lui-même, tandis que BA est une matrice 0 par 0. Il n'y a pas de notation commune pour les matrices vides, mais la plupart des systèmes de calcul formel permettent de créer et de calculer avec elles. Le déterminant de la matrice 0-par-0 est 1 comme suit en considérant le produit vide apparaissant dans la formule de Leibniz pour le déterminant comme 1. Cette valeur est également cohérente avec le fait que la carte d'identité de tout espace de dimension finie à elle-même a déterminant 1, un fait qui est souvent utilisé dans le cadre de la caractérisation des déterminants.
Applications

Il existe de nombreuses applications des matrices, à la fois en mathématiques et dans d'autres sciences. Certains d'entre eux profitent simplement de la représentation compacte d'un ensemble de nombres dans une matrice. Par exemple, en théorie des jeux et en économie, la matrice de gains encode le gain pour deux joueurs, en fonction de celle parmi un ensemble (fini) d'alternatives donné par les joueurs.[57] L'exploration de texte et la compilation automatisée de thésaurus utilisent des matrices document-terme telles que tf-idf pour suivre les fréquences de certains mots dans plusieurs documents.[58]

Les nombres complexes peuvent être représentés par des matrices réelles 2 par 2 particulières via

( a + ib leftrightarrow egin a & -b b & a end, )

sous laquelle l'addition et la multiplication de nombres complexes et de matrices se correspondent. Par exemple, les matrices de rotation 2 par 2 représentent la multiplication avec un nombre complexe de valeur absolue 1, comme ci-dessus. Une interprétation similaire est possible pour les quaternions.[59]

Les premières techniques de cryptage telles que le chiffrement de Hill utilisaient également des matrices. Cependant, en raison de la nature linéaire des matrices, ces codes sont relativement faciles à casser.[60] L'infographie utilise des matrices à la fois pour représenter des objets et pour calculer des transformations d'objets à l'aide de matrices de rotation affines pour accomplir des tâches telles que la projection d'un objet tridimensionnel sur un écran bidimensionnel, correspondant à une observation théorique par caméra.[61] Les matrices sur un anneau polynomial sont importantes dans l'étude de la théorie du contrôle.

La chimie utilise des matrices de diverses manières, en particulier depuis l'utilisation de la théorie quantique pour discuter de la liaison moléculaire et de la spectroscopie. Des exemples sont la matrice de chevauchement et la matrice de Fock utilisées pour résoudre les équations de Roothaan pour obtenir les orbitales moléculaires de la méthode Hartree-Fock.
La théorie des graphes
Un graphe non orienté avec une matrice d'adjacence ( egin 2 & 1 & 0 1 & 0 & 1 0 & 1 & 0 end. )

La matrice d'adjacence d'un graphe fini est une notion de base de la théorie des graphes.[62] Il enregistre quels sommets du graphe sont connectés par une arête. Les matrices contenant seulement deux valeurs différentes (0 et 1 signifiant par exemple "ouy" et "no") sont appelées matrices logiques. La matrice de distance (ou de coût) contient des informations sur les distances des bords.[63] Ces concepts peuvent être appliqués à des sites Web reliés par des hyperliens ou à des villes reliées par des routes, etc., auquel cas (à moins que le réseau routier ne soit extrêmement dense), les matrices ont tendance à être clairsemées, c'est-à-dire qu'elles contiennent peu d'entrées différentes de zéro. Par conséquent, des algorithmes matriciels spécialement adaptés peuvent être utilisés dans la théorie des réseaux.
Analyse et géométrie

La matrice hessienne d'une fonction dérivable ƒ : Rn → R est constituée des dérivées secondes de par rapport aux différentes directions de coordonnées, c'est-à-dire[64]

Au point selle (x = 0, y = 0) (rouge) de la fonction f(x,−y) = x2 − y2, la matrice hessienne egin 2 & 0 0 & -2 end est indéfini.

Il code des informations sur le comportement de croissance locale de la fonction : étant donné un point critique x = (x1, . xn), c'est-à-dire un point où les premières dérivées partielles partial f / partial x_i de ƒ s'annulent, la fonction a une valeur locale minimum si la matrice hessienne est définie positive. La programmation quadratique peut être utilisée pour trouver des minima ou des maxima globaux de fonctions quadratiques étroitement liées à celles attachées aux matrices (voir ci-dessus).[65]

Une autre matrice fréquemment utilisée dans les situations géométriques est la matrice de Jacobi d'une application dérivable f : Rn → Rm. Si f1, . fm désigne les composantes de f, alors la matrice de Jacobi est définie comme [66]

Si n > m, et si le rang de la matrice de Jacobi atteint sa valeur maximale m, f est localement inversible en ce point, par le théorème implicite de la fonction.[67]

Les équations aux dérivées partielles peuvent être classées en considérant la matrice des coefficients des opérateurs différentiels d'ordre le plus élevé de l'équation. Pour les équations aux dérivées partielles elliptiques, cette matrice est définie positive, ce qui a une influence décisive sur l'ensemble des solutions possibles de l'équation en question.[68]

La méthode des éléments finis est une méthode numérique importante pour résoudre les équations aux dérivées partielles, largement appliquée dans la simulation de systèmes physiques complexes. Il tente d'approcher la solution d'une équation par des fonctions linéaires par morceaux, où les morceaux sont choisis par rapport à une grille suffisamment fine, qui à son tour peut être refondue comme une équation matricielle.[69]
Théorie des probabilités et statistiques
Deux chaînes de Markov différentes. Le graphique représente le nombre de particules (sur un total de 1 000) dans l'état "2". Les deux valeurs limites peuvent être déterminées à partir des matrices de transition, qui sont données par egin.7&0.3&1fin (rouge) et egin.7&.2.3&.8fin (le noir).

Les matrices stochastiques sont des matrices carrées dont les lignes sont des vecteurs de probabilité, c'est-à-dire dont les entrées totalisent un. Les matrices stochastiques sont utilisées pour définir des chaînes de Markov avec un nombre fini d'états.[70] Une ligne de la matrice stochastique donne la distribution de probabilité pour la prochaine position d'une particule actuellement dans l'état qui correspond à la ligne. Les propriétés de la chaîne de Markov comme les états absorbants, c'est-à-dire les états que toute particule atteint finalement, peuvent être lues sur les vecteurs propres des matrices de transition.[71]

Les statistiques utilisent également des matrices sous de nombreuses formes différentes.[72] Les statistiques descriptives visent à décrire des ensembles de données, qui peuvent souvent être représentés sous forme de matrice, en réduisant la quantité de données. La matrice de covariance code la variance mutuelle de plusieurs variables aléatoires.[73] Une autre technique utilisant des matrices est celle des moindres carrés linéaires, une méthode qui se rapproche d'un ensemble fini de paires (x1, y1), (x2, y2), . (xN, yN), par une fonction linéaire

qui peut être formulé en termes de matrices, liés à la décomposition en valeurs singulières des matrices.[74]

Les matrices aléatoires sont des matrices dont les entrées sont des nombres aléatoires, soumis à des distributions de probabilité appropriées, telles que la distribution normale matricielle. Au-delà de la théorie des probabilités, ils sont appliqués dans des domaines allant de la théorie des nombres à la physique.[75][76]
Symétries et transformations en physique
Informations complémentaires: Symétrie en physique

Les transformations linéaires et les symétries associées jouent un rôle clé dans la physique moderne. Par exemple, les particules élémentaires dans la théorie quantique des champs sont classées comme des représentations du groupe de Lorentz de la relativité restreinte et, plus précisément, par leur comportement sous le groupe de spin. Les représentations concrètes impliquant les matrices de Pauli et les matrices gamma plus générales font partie intégrante de la description physique des fermions, qui se comportent comme des spineurs.[77] Pour les trois quarks les plus légers, il existe une représentation théorique des groupes impliquant le groupe unitaire spécial SU(3) pour leurs calculs, les physiciens utilisent une représentation matricielle pratique connue sous le nom de matrices de Gell-Mann, qui sont également utilisées pour le SU(3) groupe de jauge qui constitue la base de la description moderne des interactions nucléaires fortes, la chromodynamique quantique. La matrice Cabibbo-Kobayashi-Maskawa, à son tour, exprime le fait que les états de quark de base qui sont importants pour les interactions faibles ne sont pas les mêmes, mais linéairement liés aux états de quark de base qui définissent les particules avec des masses spécifiques et distinctes. ]
Combinaisons linéaires d'états quantiques

Le premier modèle de la mécanique quantique (Heisenberg, 1925) représentait les opérateurs de la théorie par des matrices de dimension infinie agissant sur les états quantiques.[79] On parle aussi de mécanique matricielle. Un exemple particulier est la matrice de densité qui caractérise l'état « mixte » d'un système quantique comme une combinaison linéaire d'états propres « purs » élémentaires.[80]

Une autre matrice sert d'outil clé pour décrire les expériences de diffusion qui forment la pierre angulaire de la physique expérimentale des particules : les réactions de collision comme celles qui se produisent dans les accélérateurs de particules, où des particules sans interaction se dirigent les unes vers les autres et entrent en collision dans une petite zone d'interaction, avec un nouveau ensemble de particules sans interaction comme résultat, peut être décrit comme le produit scalaire des états de particules sortants et une combinaison linéaire d'états de particules entrants. La combinaison linéaire est donnée par une matrice connue sous le nom de matrice S, qui code toutes les informations sur les interactions possibles entre les particules.[81]
Modes normaux

Une application générale des matrices en physique est la description de systèmes harmoniques couplés linéairement. Les équations du mouvement de tels systèmes peuvent être décrites sous forme matricielle, avec une matrice de masse multipliant une vitesse généralisée pour donner le terme cinétique, et une matrice de force multipliant un vecteur de déplacement pour caractériser les interactions. La meilleure façon d'obtenir des solutions est de déterminer les vecteurs propres du système, ses modes normaux, en diagonalisant l'équation matricielle. Des techniques comme celle-ci sont cruciales lorsqu'il s'agit de la dynamique interne des molécules : les vibrations internes des systèmes constitués d'atomes composants mutuellement liés.[82] Ils sont également nécessaires pour décrire les vibrations mécaniques et les oscillations dans les circuits électriques.[83]
Optique géométrique

L'optique géométrique fournit d'autres applications matricielles. Dans cette théorie approximative, la nature ondulatoire de la lumière est négligée. Le résultat est un modèle dans lequel les rayons lumineux sont bien des rayons géométriques. Si la déviation des rayons lumineux par les éléments optiques est faible, l'action d'une lentille ou d'un élément réfléchissant sur un rayon lumineux donné peut être exprimée comme la multiplication d'un vecteur à deux composantes avec une matrice deux par deux appelée matrice de transfert de rayons : la les composantes du vecteur sont la pente du rayon lumineux et sa distance par rapport à l'axe optique, tandis que la matrice code les propriétés de l'élément optique. En fait, il existe deux types de matrices, à savoir. une matrice de réfraction décrivant la réfraction au niveau d'une surface de lentille, et une matrice de translation, décrivant la translation du plan de référence vers la surface de réfraction suivante, où une autre matrice de réfraction s'applique. Le système optique, constitué d'une combinaison de lentilles et/ou d'éléments réfléchissants, est simplement décrit par la matrice résultant du produit des matrices des composants.[84]
Électronique

L'analyse de maillage traditionnelle en électronique conduit à un système d'équations linéaires qui peuvent être décrites avec une matrice.

Le comportement de nombreux composants électroniques peut être décrit à l'aide de matrices. Soit A un vecteur bidimensionnel avec la tension d'entrée v1 du composant et le courant d'entrée i1 comme éléments, et soit B un vecteur bidimensionnel avec la tension de sortie v2 du composant et le courant de sortie i2 comme éléments. Ensuite, le comportement du composant électronique peut être décrit par B = H · A, où H est une matrice 2 x 2 contenant un élément d'impédance (h12), un élément d'admittance (h21) et deux éléments sans dimension (h11 et h22). Calculer un circuit se réduit désormais à multiplier des matrices.
Histoire

Les matrices ont une longue histoire d'application dans la résolution d'équations linéaires. Le texte chinois Les neuf chapitres sur l'art mathématique (Jiu Zhang Suan Shu), entre 300 avant JC et 200 après JC, est le premier exemple de l'utilisation de méthodes matricielles pour résoudre des équations simultanées,[85] y compris le concept de déterminants, sur 1000 ans avant sa publication par le mathématicien japonais Seki en 1683 [citation nécessaire] et le mathématicien allemand Leibniz en 1693. Cramer a présenté sa règle en 1750.

La première théorie des matrices mettait l'accent sur les déterminants plus fortement que sur les matrices et un concept de matrice indépendant apparenté à la notion moderne n'a émergé qu'en 1858, avec le Mémoire de Cayley sur la théorie des matrices.[86][87] Le terme "matrice" (latin pour "matrice", dérivé de mater-mère[88]) a été inventé par Sylvester, qui a compris une matrice comme un objet donnant lieu à un certain nombre de déterminants aujourd'hui appelés mineurs, c'est-à-dire des déterminants de matrices plus petites qui dériver de l'original en supprimant des colonnes et des lignes.[89] Dans un article de 1851, Sylvester explique :

J'ai défini dans des articles précédents une « Matrice » comme un ensemble rectangulaire de termes, à partir desquels différents systèmes de déterminants peuvent être engendrés à partir du ventre d'un parent commun.[90]

L'étude des déterminants est issue de plusieurs sources.[91] Des problèmes de théorie des nombres ont conduit Gauss à relier des coefficients de formes quadratiques, c'est-à-dire des expressions telles que x2 + xy − 2y2, et des applications linéaires en trois dimensions à des matrices. Eisenstein a développé ces notions, y compris la remarque que, dans le langage moderne, les produits matriciels sont non commutatifs. Cauchy fut le premier à prouver des affirmations générales sur les déterminants, en utilisant comme définition du déterminant d'une matrice A = [ai,j] ce qui suit : remplacer les puissances ajk par ajk dans le polynôme

( a_1 a_2 cdots a_n prod_ (a_j - a_i), )

où désigne le produit des termes indiqués. Il montra aussi, en 1829, que les valeurs propres des matrices symétriques sont réelles.[92] Jacobi a étudié les « déterminants fonctionnels » - appelés plus tard les déterminants de Jacobi par Sylvester - qui peuvent être utilisés pour décrire des transformations géométriques à un niveau local (ou infinitésimal), voir ci-dessus Vorlesungen über die Theorie der Determinanten de Kronecker [93] et Zur Determinantentheorie de Weierstrass, [94] tous deux publiés en 1903, traitaient d'abord les déterminants de manière axiomatique, par opposition aux approches antérieures plus concrètes telles que la formule mentionnée de Cauchy. À ce moment-là, les déterminants étaient fermement établis.

De nombreux théorèmes ont d'abord été établis pour les petites matrices uniquement, par exemple le théorème de Cayley-Hamilton a été prouvé pour les matrices 2×2 par Cayley dans les mémoires susmentionnés, et par Hamilton pour les matrices 4×4. Frobenius, travaillant sur les formes bilinéaires, a généralisé le théorème à toutes les dimensions (1898). Également à la fin du XIXe siècle, l'élimination de Gauss-Jordanie (généralisation d'un cas particulier maintenant connu sous le nom d'élimination de Gauss) a été établie par la Jordanie. Au début du 20ème siècle, les matrices ont atteint un rôle central dans l'algèbre linéaire.[95] en partie en raison de leur utilisation dans la classification des systèmes numériques hypercomplexes du siècle précédent.

La création de la mécanique matricielle par Heisenberg, Born et Jordan a conduit à l'étude des matrices avec une infinité de lignes et de colonnes.[96] Plus tard, von Neumann a réalisé la formulation mathématique de la mécanique quantique, en développant davantage les notions analytiques fonctionnelles telles que les opérateurs linéaires sur les espaces de Hilbert, qui, très grossièrement, correspondent à l'espace euclidien, mais avec une infinité de directions indépendantes.
Autres usages historiques du mot « matrice » en mathématiques

Le mot a été utilisé de manière inhabituelle par au moins deux auteurs d'importance historique.

Bertrand Russell et Alfred North Whitehead dans leurs Principia Mathematica (1910-1913) utilisent le mot matrice dans le contexte de leur Axiome de réductibilité. Ils ont proposé cet axiome comme un moyen de réduire n'importe quelle fonction à une de type inférieur, successivement, de sorte qu'au « bas » (ordre 0) la fonction soit identique à son extension :

« Donnons le nom de matrice à toute fonction, quel que soit le nombre de variables, qui n'implique aucune variable apparente. Alors toute fonction possible autre qu'une matrice est dérivée d'une matrice au moyen d'une généralisation, c'est-à-dire en considérant la proposition qui affirme que la fonction en question est vraie avec toutes les valeurs possibles ou avec une valeur de l'un des arguments, l'autre argument ou des arguments restant indéterminés ».[97]

Par exemple, une fonction (x, y) de deux variables x et y peut être réduite à une collection de fonctions d'une seule variable, par exemple, y, en « considérant » la fonction pour toutes les valeurs possibles des « individus » ai substitués dans place de la variable x. Et puis la collection résultante de fonctions de la variable unique y, c'est-à-dire ∀ai : Φ(ai, y), peut être réduite à une « matrice » de valeurs en « considérant » la fonction pour toutes les valeurs possibles des « individus » bi substituée à la variable y :

Alfred Tarski dans son Introduction à la logique de 1946 a utilisé le mot « matrice » comme synonyme de la notion de table de vérité telle qu'elle est utilisée dans la logique mathématique.[98]
Voir également
Icône du portail Portail des mathématiques

Multiplicité algébrique
Multiplicité géométrique
Processus de Gram-Schmidt
Liste des matrices
Calcul matriciel
Ensemble de matrices périodiques
Tenseur

^ Brown 1991, chapitre I.1. Les références alternatives pour ce livre incluent Lang 1987b et Greub 1975
^ Oualline 2003, Ch. 5
^ Brown 1991, Définition I.2.1 (addition), Définition I.2.4 (multiplication scalaire) et Définition I.2.33 (transposition)
^ Brown 1991, Théorème I.2.6
^ Brown 1991, Définition I.2.20
^ Brown 1991, Théorème I.2.24
^ Corne et amp Johnson 1985, Ch. 4 et 5
^ Brown 1991, I.2.21 et 22
^ Greub 1975, Section III.2
^ Brown 1991, Définition II.3.3
^ Greub 1975, Section III.1
^ Brown 1991, Théorème II.3.22
^ Brown 1991, Définition I.2.28
^ Brown 1991, Définition I.5.13
^ Ceci est immédiat à partir de la définition de la multiplication matricielle.

^ Brown 1991, Définition III.2.1
^ Brown 1991, Théorème III.2.12
^ Brown 1991, Corollaire III.2.16
^ Mirsky 1990, Théorème 1.4.1
^ Brown 1991, Théorème III.3.18
^ Brown 1991, Définition III.4.1
^ Brown 1991, Définition III.4.9
^ Brown 1991, Corollaire III.4.10
^ Horn & Johnson 1985, Théorème 2.5.6
^ Horn & Johnson 1985, chapitre 7
^ Horn & Johnson 1985, Théorème 7.2.1
^ Horn & Johnson 1985, Exemple 4.0.6, p. 169
^ Bau III & Trefethen 1997
^ Chef de famille 1975, Ch. 7
^ Golub & Van Loan 1996, Algorithme 1.3.1
^ Golub & Van Loan 1996, chapitres 9 et 10, en particulier. article 10.2
^ Golub & Van Loan 1996, chapitre 2.3
^ Par exemple, Mathematica, voir Wolfram 2003, Ch. 3.7
^ Presse, Flannery & Teukolsky 1992
^ Stoer & Bulirsch 2002, section 4.1
^ Horn & Johnson 1985, Théorème 2.5.4
^ Corne et amp Johnson 1985, Ch. 3.1, 3.2
^ Arnold & Cooke 1992, sections 14.5, 7, 8
^ Bronson 1989, Ch. 15
^ Coburn 1955, Ch. V
^ Lang 2002, chapitre XIII
^ Lang 2002, XVII.1, p. 643
^ Lang 2002, proposition XIII.4.16
^ Reichl 2004, article L.2
^ Greub 1975, Section III.3
^ Greub 1975, Section III.3.13
^ Voir toute référence standard dans le groupe.
^ Boulanger 2003, Def. 1.30
^ Baker 2003, théorème 1.2
^ Artin 1991, chapitre 4.5
^ Artin 1991, Théorème 4.5.13
^ Rowen 2008, exemple 19.2, p. 198
^ Voir toute référence en théorie des représentations ou représentation de groupe.
^ Voir l'article "Matrix" dans Itõ, éd. 1987
^ "Matrice vide : une matrice est vide si sa dimension de ligne ou de colonne est zéro", Glossaire, Guide de l'utilisateur O-Matrix v6
^ "Une matrice ayant au moins une dimension égale à zéro est appelée une matrice vide", MATLAB Data Structures
^ Fudenberg & Tirole 1983, Section 1.1.1
^ Manning 1999, section 15.3.4
^ Quartier 1997, Ch. 2.8
^ Stinson 2005, Ch. 1.1.5 et 1.2.4
^ Association pour les machines informatiques 1979, Ch. 7
^ Godsil & Royle 2004, Ch. 8.1
^ Punnen 2002
^ Lang 1987a, Ch. XVI.6
^ Nocedal 2006, Ch. 16
^ Lang 1987a, Ch. XVI.1
^ Lang 1987a, Ch. X1.5. Pour une déclaration plus avancée et plus générale, voir Lang 1969, Ch. VI.2
^ Gilbarg & Trudinger 2001
^ Šolin 2005, Ch. 2.5. Voir aussi méthode de rigidité.
^ Latouche & Ramaswami 1999
^ Mehata & Srinivasan 1978, Ch. 2.8
^ Healy, Michael (1986), Matrices pour les statistiques, Oxford University Press, ISBN 9780198507024
^ Krzanowski 1988, Ch. 2.2., p. 60
^ Krzanowski 1988, Ch. 4.1
^ Conrey 2007
^ Zabrodin, Brezin & Kazakov et al. 2006
^ Itzykson & Zuber 1980, Ch. 2
^ voir Burgess & Moore 2007, section 1.6.3. (SU(3)), article 2.4.3.2. (matrice Kobayashi-Maskawa)
^ Schiff 1968, Ch. 6
^ Bohm 2001, sections II.4 et II.8
^ Weinberg 1995, Ch. 3
^ Wherrett 1987, partie II
^ Riley, Hobson & Bence 1997, 7.17
^ Guenther 1990, Ch. 5
^ Shen, Crossley & Lun 1999 cité par Bretscher 2005, p. 1
^ Cayley 1889, vol. II, p. 475-496
^ Dieudonné, éd. 1978, vol. 1, ch. III, p. 96
^ Dictionnaire Merriam-Webster, Merriam-Webster, récupéré le 20 avril 2009
^ Selon l'OED, la première utilisation du mot « matrice » en ce qui concerne les mathématiques apparaît dans James J. Sylvester à Londres, Edinb. & Dublin Philos. Mag. 37 (1850), p. 369 : « Nous commençons » avec un arrangement oblong de termes constitué, supposons, de m lignes et n colonnes. Celle-ci ne représentera pas en elle-même un déterminant, mais est, pour ainsi dire, une matrice à partir de laquelle on peut former divers systèmes de déterminants en se fixant sur un nombre p, et en sélectionnant à volonté p lignes et p colonnes, les carrés correspondant auxquels peuvent être qualifiés de déterminants du pième ordre.
^ The Collected Mathematical Papers of James Joseph Sylvester : 1837-1853, Paper 37, p. 247
^ Knobloch 1994
^ Hawkins 1975
^ Kronecker 1897
^ Weierstrass 1915, p. 271-286
^ Bôcher 2004
^ Mehra & Rechenberg 1987
^ Whitehead, Alfred North et Russell, Bertrand (1913) Principia Mathematica à *56, Cambridge à University Press, Cambridge UK (republié en 1962) cf page 162ff.
^ Tarski, Alfred (1946) Introduction à la logique et à la méthodologie des sciences déductives, Dover Publications, Inc, New York NY, ISBN 0-486-28462-X.

^ Eigen signifie "ville" en allemand et en néerlandais.
^ De plus, le groupe doit être fermé dans le groupe linéaire général.
^ « Peu de choses sur la théorie des matrices s'étendent aux espaces de dimension infinie, et ce qui n'est pas si utile, mais cela aide parfois. » Halmos 1982, p. 23, chapitre 5

Arnold, Vladimir I. Cooke, Roger (1992), Équations différentielles ordinaires, Berlin, DE New York, NY : Springer-Verlag, ISBN 978-3-540-54813-3
Artin, Michael (1991), Algèbre, Prentice Hall, ISBN 978-0-89871-510-1
Association for Computing Machinery (1979), Computer Graphics, Tata McGraw-Hill, ISBN 978-0-07-059376-3
Baker, Andrew J. (2003), Matrix Groups: An Introduction to Lie Group Theory, Berlin, DE New York, NY: Springer-Verlag, ISBN 978-1-85233-470-3
Bau III, David Trefethen, Lloyd N. (1997), Algèbre linéaire numérique, Philadelphie, PA: Society for Industrial and Applied Mathematics, ISBN 978-0-89871-361-9
Bretscher, Otto (2005), Algèbre linéaire avec applications (3e éd.), Prentice Hall
Bronson, Richard (1989), Schaum's aperçu de la théorie et des problèmes d'opérations matricielles, New York: McGraw-Hill, ISBN 978-0-07-007978-6
Brown, William A. (1991), Matrices et espaces vectoriels, New York, NY : M. Dekker, ISBN 978-0-8247-8419-5
Coburn, Nathaniel (1955), Analyse vectorielle et tensorielle, New York, NY : Macmillan, OCLC 1029828
Conrey, J. Brian (2007), Rangs de courbes elliptiques et théorie des matrices aléatoires, Cambridge University Press, ISBN 978-0-521-69964-8
Fudenberg, Drew Tirole, Jean (1983), Théorie des jeux, MIT Press
Gilbarg, David Trudinger, Neil S. (2001), Équations aux dérivées partielles elliptiques de second ordre (2e éd.), Berlin, DE New York, NY : Springer-Verlag, ISBN 978-3-540-41160-4
Godsil, Chris Royle, Gordon (2004), Théorie des graphes algébriques, Textes d'études supérieures en mathématiques, 207, Berlin, DE New York, NY : Springer-Verlag, ISBN 978-0-387-95220-8
Golub, Gene H. Van Loan, Charles F. (1996), Matrix Computations (3e éd.), Johns Hopkins, ISBN 978-0-8018-5414-9
Greub, Werner Hildbert (1975), Algèbre linéaire, Textes d'études supérieures en mathématiques, Berlin, DE New York, NY : Springer-Verlag, ISBN 978-0-387-90110-7
Halmos, Paul Richard (1982), A Hilbert space problem book, Graduate Texts in Mathematics, 19 (2e éd.), Berlin, DE New York, NY: Springer-Verlag, ISBN 978-0-387-90685-0, MR675952
Horn, Roger A. Johnson, Charles R. (1985), Matrix Analysis, Cambridge University Press, ISBN 978-0-521-38632-6
Householder, Alston S. (1975), La théorie des matrices en analyse numérique, New York, NY : Dover Publications, MR0378371
Krzanowski, Wojtek J. (1988), Principes de l'analyse multivariée, Oxford Statistical Science Series, 3, The Clarendon Press Oxford University Press, ISBN 978-0-19-852211-9, MR969370
Itõ, Kiyosi, éd. (1987), Dictionnaire encyclopédique des mathématiques. Vol. I-IV (2e éd.), MIT Press, ISBN 978-0-262-09026-1, MR901762
Lang, Serge (1969), Analyse II, Addison-Wesley
Lang, Serge (1987a), Calcul de plusieurs variables (3e éd.), Berlin, DE New York, NY : Springer-Verlag, ISBN 978-0-387-96405-8
Lang, Serge (1987b), Algèbre linéaire, Berlin, DE New York, NY : Springer-Verlag, ISBN 978-0-387-96412-6
Lang, Serge (2002), Algebra, Graduate Texts in Mathematics, 211 (troisième édition révisée), New York : Springer-Verlag, ISBN 978-0-387-95385-4, MR1878556
Latouche, Guy Ramaswami, Vaidyanathan (1999), Introduction aux méthodes analytiques matricielles dans la modélisation stochastique (1ère éd.), Philadelphie, PA: Society for Industrial and Applied Mathematics, ISBN 978-0-89871-425-8
Manning, Christopher D. Schütze, Hinrich (1999), Fondements du traitement statistique du langage naturel, MIT Press, ISBN 978-0-262-13360-9
Mehata, K. M. Srinivasan, S. K. (1978), Processus stochastiques, New York, NY : McGraw-Hill, ISBN 978-0-07-096612-3
Mirsky, Leonid (1990), Une introduction à l'algèbre linéaire, Courier Dover Publications, ISBN 978-0-486-66434-7
Nocedal, Jorge Wright, Stephen J. (2006), Numerical Optimization (2e éd.), Berlin, DE New York, NY : Springer-Verlag, p. 449, ISBN 978-0-387-30303-1
Oualline, Steve (2003), Programmation C++ pratique, O'Reilly, ISBN 978-0-596-00419-4
Press, William H. Flannery, Brian P. Teukolsky, Saul A. Vetterling, William T. (1992), "LU Decomposition and Its Applications", Numerical Recipes in FORTRAN: The Art of Scientific Computing (2e éd.), Cambridge University Press, p. 34-42
Punnen, Abraham P. Gutin, Gregory (2002), Le problème du voyageur de commerce et ses variations, Boston, MA : Kluwer Academic Publishers, ISBN 978-1-4020-0664-7
Reichl, Linda E. (2004), La transition vers le chaos : systèmes classiques conservateurs et manifestations quantiques, Berlin, DE New York, NY : Springer-Verlag, ISBN 978-0-387-98788-0
Rowen, Louis Halle (2008), Graduate Algebra: vue non commutative, Providence, RI: American Mathematical Society, ISBN 978-0-8218-4153-2
Šolin, Pavel (2005), Équations aux dérivées partielles et méthode des éléments finis, Wiley-Interscience, ISBN 978-0-471-76409-0
Stinson, Douglas R. (2005), Cryptographie, Mathématiques discrètes et ses applications, Chapman & Hall/CRC, ISBN 978-1-58488-508-5
Stoer, Josef Bulirsch, Roland (2002), Introduction à l'analyse numérique (3e éd.), Berlin, DE New York, NY : Springer-Verlag, ISBN 978-0-387-95452-3
Ward, J. P. (1997), Quaternions and Cayley numbers, Mathematics and its Applications, 403, Dordrecht, NL : Kluwer Academic Publishers Group, ISBN 978-0-7923-4513-8, MR1458894
Wolfram, Stephen (2003), The Mathematica Book (5e éd.), Champaign, IL: Wolfram Media, ISBN 978-1-57955-022-6

Bohm, Arno (2001), Mécanique quantique : fondements et applications, Springer, ISBN 0-387-95330-2
Burgess, Cliff Moore, Guy (2007), Le modèle standard. A Primer, Cambridge University Press, ISBN 0-521-86036-9
Guenther, Robert D. (1990), Optique moderne, John Wiley, ISBN 0-471-60538-7
Itzykson, Claude Zuber, Jean-Bernard (1980), Théorie quantique des champs, McGraw-Hill, ISBN 0-07-032071-3
Riley, Kenneth F. Hobson, Michael P. Bence, Stephen J. (1997), Méthodes mathématiques pour la physique et l'ingénierie, Cambridge University Press, ISBN 0-521-55506-X
Schiff, Leonard I. (1968), Quantum Mechanics (3e éd.), McGraw-Hill
Weinberg, Steven (1995), La théorie quantique des champs. Volume I : Fondations, Cambridge University Press, ISBN 0-521-550007
Wherrett, Brian S. (1987), Théorie des groupes pour les atomes, les molécules et les solides, Prentice-Hall International, ISBN 0-13-365461-3
Zabrodin, Anton Brezin, Édouard Kazakov, Vladimir Serban, Didina Wiegmann, Paul (2006), Applications of Random Matrices in Physics (NATO Science Series II: Mathematics, Physics and Chemistry), Berlin, DE New York, NY: Springer-Verlag, ISBN 978-1-4020-4530-1

Bôcher, Maxime (2004), Introduction to high algebra, New York, NY: Dover Publications, ISBN 978-0-486-49570-5, réimpression de l'édition originale de 1907
Cayley, Arthur (1889), Les papiers mathématiques rassemblés d'Arthur Cayley, I (1841–1853), Cambridge University Press, pp. 123–126
Dieudonné, Jean, éd. (1978), Abrégé d'histoire des mathématiques 1700-1900, Paris, FR: Hermann
Hawkins, Thomas (1975), "Cauchy et la théorie spectrale des matrices", Historia Mathematica 2: 1–29, doi:10.1016/0315-0860(75)90032-4, ISSN 0315-0860, MR0469635
Knobloch, Eberhard (1994), "De Gauss à Weierstrass : la théorie des déterminants et ses évaluations historiques", L'intersection de l'histoire et des mathématiques, Science Networks Historical Studies, 15, Bâle, Boston, Berlin : Birkhäuser, pp. 51-66, MR1308079
Kronecker, Leopold (1897), Hensel, Kurt, éd., Leopold Kronecker's Werke, Teubner
Mehra, Jagdish Rechenberg, Helmut (1987), Le développement historique de la théorie quantique (1ère éd.), Berlin, DE New York, NY: Springer-Verlag, ISBN 978-0-387-96284-9
Shen, Kangshen Crossley, John N. Lun, Anthony Wah-Cheung (1999), Neuf chapitres de l'art mathématique, compagnon et commentaire (2e éd.), Oxford University Press, ISBN 978-0-19-853936-0
Weierstrass, Karl (1915), worksuvres de collection, 3

Liens externes
Le Wikibook Linear Algebra a une page sur le sujet de
Matrices
Wikiversity a du matériel d'apprentissage sur les matrices à
Algèbre linéaire#Matrices

MacTutor : Matrices et déterminants
Matrices et algèbre linéaire sur les premières pages d'utilisation
Premières utilisations des symboles pour les matrices et les vecteurs

Kaw, Autar K., ISBN 978-0-615-25126-4
The Matrix Cookbook, récupéré le 10 décembre 2008
Brookes, Mike (2005), The Matrix Reference Manual, Londres : Imperial College, consulté le 10 décembre 2008

Calculatrices matricielles en ligne

SuperiorMath (calculatrice matricielle)
Calculatrice matricielle (DotNumerics)
Xiao, Gang, calculatrice matricielle, récupéré le 10 décembre 2008
Calculatrice matricielle en ligne, récupéré le 10 décembre 2008
Calculateur matriciel en ligne (cadre ZK), récupéré le 26 novembre 2009
Oehlert, Gary W. Bingham, Christopher, MacAnova, University of Minnesota, School of Statistics, récupéré le 10 décembre 2008, un progiciel gratuit pour l'algèbre matricielle et les statistiques
Calculatrice matricielle en ligne, récupéré le 14 décembre 2009
Opération avec des matrices dans R (déterminant, piste, inverse, adjoint, transposé)


Évaluation d'une fonction à l'aide d'une matrice

Considérons la fonction f(x) = x 2 - 4x + 3 et la matrice A

La tentative initiale pour évaluer le f(A) serait de remplacer chaque x par un A pour obtenir f(A) = A 2 - 4A + 3. Il y a cependant un léger problème. La constante 3 n'est pas une matrice et vous ne pouvez pas additionner des matrices et des scalaires. Ainsi, nous multiplions la constante par la matrice d'identité.

Évaluez chaque terme de la fonction, puis additionnez-les.

Un 2 = 1 2 * 1 2 = 7 10
3 4 3 4 15 22
-4A = -4 1 2 = -4 -8
3 4 -12 -16
3I = 3 1 0 = 3 0
0 1 0 3
f(A) = 7 10 + -4 -8 + 3 0 = 6 2
15 22 -12 -16 0 3 3 9


Voir la vidéo: Exercice 7 dans matrice et application linéaire (Décembre 2021).