Question:
Qu'est-ce qu'un tenseur?
0x90
2012-07-14 12:34:00 UTC
view on stackexchange narkive permalink

J'ai une assez bonne connaissance de la physique, mais je n'ai pas pu comprendre en profondeur ce qu'est un tenseur et pourquoi il est si fondamental.

Article connexe de Math.SE: http://math.stackexchange.com/q/10282/11127 et liens y afférents.
Dix réponses:
#1
+75
Ron Maimon
2012-07-14 13:50:41 UTC
view on stackexchange narkive permalink

Un tenseur (contravariant de rang 2) est un vecteur de vecteurs. Si vous avez un vecteur, ce sont 3 nombres qui pointent dans une certaine direction. Cela signifie qu'ils tournent l'un dans l'autre lorsque vous effectuez une rotation des coordonnées. Pour que les 3 composantes vectorielles $ V ^ i $ se transforment en

$$ V '^ i = A ^ i_j V ^ j $$

sous une transformation linéaire de coordonnées.

Un tenseur est un vecteur de 3 vecteurs qui tournent l'un dans l'autre sous rotation (et qui tournent également en tant que vecteurs --- l'ordre des deux opérations de rotation n'est pas pertinent). Si un vecteur est $ V ^ i $ où i va de 1-3 (ou 1-4, ou de n'importe quoi à n'importe quoi), le tenseur est $ T ^ {ij} $, où le premier index étiquette le vecteur, et le le deuxième index étiquette la composante vectorielle (ou vice versa). Lorsque vous faites pivoter les coordonnées, T se transforme en

$$ T '^ {ij} = A ^ i_k A ^ j_l T ^ {kl} = \ sum_ {kl} A ^ i_k A ^ j_l T ^ {kl } $$

Où j'utilise la convention de sommation d'Einstein selon laquelle un index répété est additionné, de sorte que l'expression du milieu signifie vraiment la somme à l'extrême droite.

Un tenseur de rang 3 est un vecteur de tenseurs de rang 2, un tenseur de rang quatre est un vecteur de tenseurs de rang 3, donc de rang arbitraire. La notation est $ T ^ {ijkl} $ et ainsi de suite avec autant d'indices supérieurs que vous avez un rang. La loi de transformation est un A pour chaque indice, ce qui signifie que chaque indice se transforme séparément en tant que vecteur.

Un vecteur covariant, ou covecteur, est une fonction linéaire allant des vecteurs aux nombres. Ceci est complètement décrit par les coefficients, $ U_i $, et la fonction linéaire est

$$ U_i V ^ i = \ sum_i U_i V ^ i = U_1 V ^ 1 + U_2 V ^ 2 + U_3 V ^ 3 $$

où la convention d'Einstein est employée dans la première expression, ce qui signifie simplement que si le même nom d'index apparaît deux fois, une fois en bas et une fois en haut, vous comprenez que vous êtes censé faire la somme sur le index, et vous dites que l'indice est contracté. La fonction linéaire la plus générale est une combinaison linéaire des trois composantes avec quelques coefficients, c'est donc le covecteur général.

La loi de transformation d'un covecteur doit être par la matrice inverse

$$ U'_i = \ bar {A} _i ^ j U_j $$

La multiplication matricielle est simple dans la convention d'Einstein:

$$ M ^ i_j N ^ j_k = (MN) ^ i_k $$

Et la définition de $ \ bar {A} $ (la matrice inverse ) fait en sorte que le produit interne $ U_i V ^ i $ reste le même sous une transformation de coordonnées (vous devriez vérifier ceci).

Un tenseur covariant de rang 2 est un covecteur de covecteurs, et ainsi de suite rang arbitrairement élevé.

Vous pouvez également créer un tenseur de rang m, n $ T ^ {i_1 i_2 ... i_m} _ {j_1j_2 ... j_n} $, avec m indices supérieurs et n inférieurs. Chaque index se transforme séparément en vecteur ou en covecteur selon qu'il est à la hausse ou à la baisse. Tout indice inférieur peut être contracté avec n'importe quel indice supérieur dans un produit tensoriel, puisqu'il s'agit d'une opération invariante. Cela signifie que les tenseurs de rang m, n peuvent être visualisés de plusieurs manières:

  • Comme la fonction linéaire la plus générale de m covecteurs et n vecteurs en nombres
  • Comme le plus fonction linéaire générale d'un tenseur covariant de rang m en un tenseur contravariant de rang n
  • En tant que fonction linéaire la plus générale d'un tenseur contravariant de rang n en un tenseur covariant de rang m.

Et ainsi de suite pour un certain nombre d'interprétations qui croissent de façon exponentielle avec le rang. C'est la définition préférée du mathématicien, qui ne met pas l'accent sur les propriétés de transformation, mais plutôt sur les applications linéaires impliquées. Les deux définitions sont identiques, mais je suis heureux d'avoir appris la définition du physicien en premier.

Dans l'espace euclidien ordinaire en coordonnées rectangulaires, vous n'avez pas besoin de distinguer les vecteurs et les covecteurs, car les matrices de rotation ont un inverse qui est leur transposition, ce qui signifie que les covecteurs et les vecteurs transforment les mêmes sous les rotations. Cela signifie que vous ne pouvez avoir que des indices en hausse, ou seulement en baisse, peu importe. Vous pouvez remplacer un index supérieur par un index inférieur en gardant les composants inchangés.

Dans une situation plus générale, la carte entre vecteurs et covecteurs est appelée un tenseur métrique $ g_ {ij} $. Ce tenseur prend un vecteur V et produit un covecteur (traditionnellement écrit avec le même nom mais avec un index inférieur)

$$ V_i = g_ {ij} V ^ i $$

Et cela vous permet de définir une notion de longueur

$$ | V | ^ 2 = V_i V ^ i = g_ {ij} V ^ i V ^ j $$

this est aussi une notion de produit scalaire, qui peut être extraite de la notion de longueur comme suit:

$$ 2 V \ cdot U = | V + U | ^ 2 - | V | ^ 2 - | U | ^ 2 = 2 g _ {\ mu \ nu} V ^ \ mu U ^ \ nu $$

Dans l'espace euclidien, le tenseur métrique $ g_ {ij} = \ delta_ {ij} $ qui est le delta de Kronecker. C'est comme la matrice d'identité, sauf que c'est un tenseur, pas une matrice (une matrice prend des vecteurs en vecteurs, donc elle a un index supérieur et un index inférieur --- notez que cela signifie qu'elle prend automatiquement les covecteurs vers les covecteurs, c'est la multiplication des covector par la matrice de transposition en notation matricielle, mais la notation Einstein subsume et étend la notation matricielle, il est donc préférable de considérer toutes les opérations matricielles comme un raccourci pour certaines contractions d'index).

Le calcul des tenseurs est important, car de nombreuses quantités sont naturellement des vecteurs de vecteurs.

  • Le tenseur des contraintes: Si vous avez une quantité scalaire conservée, la densité de courant de la charge est un vecteur. Si vous avez une quantité conservée vectorielle (comme la quantité de mouvement), la densité actuelle de la quantité de mouvement est un tenseur, appelé tenseur des contraintes
  • Le tenseur d’inertie: Pour le mouvement de rotation d’un objet rigide, la vitesse angulaire est un vecteur et le moment cinétique est un vecteur qui est une fonction linéaire de la vitesse angulaire. La carte linéaire entre eux est appelée le tenseur d'inertie. Ce n'est que pour les corps hautement symétriques que le tenseur est proportionnel à $ \ delta ^ i_j $, de sorte que les deux pointent toujours dans la même direction. Ceci est omis des cours de mécanique élémentaire, car les tenseurs sont considérés comme trop abstraits.
  • Vecteurs axiaux: chaque vecteur axial dans une théorie préservant la parité peut être considéré comme un tenseur antisymétrique de rang 2, en mappant avec le tenseur $ \ epsilon_ {ijk} $
  • Représentations à spin élevé: la théorie des représentations de groupe est incompréhensible sans tenseurs, et est relativement intuitive si vous les utilisez.
  • Courbure: la courbure d'une variété est le changement linéaire d'un vecteur lorsque vous le prenez autour d'une boucle fermée formée de deux vecteurs . C'est une fonction linéaire de trois vecteurs qui produit un vecteur, et est naturellement un tenseur de rang 1,3.
  • tenseur métrique: cela a été discuté auparavant. C'est l'ingrédient principal de la relativité générale
  • Formes différentielles: ce sont des tenseurs antisymétriques de rang n, c'est-à-dire des tenseurs qui ont la propriété que $ A_ {ij} = -A_ {ji} $ et la chose analogue pour rang supérieur, où vous obtenez un signe moins pour chaque transposition.

En général, les tenseurs sont l'outil fondateur des représentations de groupe, et vous en avez besoin pour tous les aspects de la physique, car la symétrie l'est au cœur de la physique.

#2
+20
Calmarius
2012-09-13 01:42:10 UTC
view on stackexchange narkive permalink

Il y a déjà beaucoup de réponses en espérant que je puisse le rendre encore plus clair.

Les tenseurs sont la généralisation des transformations linéaires.

Le tensor est quelque chose qui prend $ m $ vecteurs et en fait $ n $ vecteurs.

Le $ n + m $ est l'ordre (ou le rang) du tenseur.

Leur type est noté $ (n, m) $ (n: vecteurs de sortie, m: vecteurs d'entrée)

Lorsqu'un tenseur prend 0 vecteur, cela signifie qu'il calcule quelque chose à partir d'un scalaire (ou est une constante), si un tenseur fait 0 vecteur, il produit un scalaire.

Quelques exemples de tenseurs par type:

  • (0,0): scalaire, juste un nombre.
  • (1,0): single vector.
  • (2,0): un bivecteur
  • (1,1): transformation linéaire.
  • (0, 2): produit scalaire de deux vecteurs.
  • (1,2): produit croisé de deux vecteurs en 3D.
  • (1,3): tenseur de courbure de Riemann (si vous êtes intéressé par la relativité générale, vous en aurez besoin.)

Les tenseurs peuvent être décrits en utilisant un tableau dimensionnel $ n + m $ de nombres. Ainsi, les éléments du tenseur sont accessibles en utilisant les index $ n + m $.

Par exemple, la transformation linéaire est un tenseur du second ordre.

Les éléments du tenseur multidimensionnel sont accessibles par index, une matrice a évidemment 2 index.

Maintenant, quelque chose sur la notation. Les éléments Tensor ont généralement plusieurs index, certains index supérieurs et d'autres inférieurs. Les index inférieurs pour les vecteurs d'entrée, les index supérieurs sont pour les vecteurs de sortie. Remarque: les index supérieurs n'ont rien à voir avec les exposants!

Donc, un tenseur de transformation linéaire ressemblerait à ceci: $ L_j ^ i $.

Vous effectuez une transformation linéaire (c'est-à-dire en calculant les éléments du vecteur résultant) comme ceci:

$ b ^ i = \ displaystyle \ sum_j L_j ^ ia ^ j $

Supposons donc que vous soyez en 3D et multipliez une matrice 3 × 3 par un vecteur colonne. Dans ce cas, l'index supérieur est pour les lignes et le bas pour les colonnes de la matrice. $ i $ et $ j $ vont de 1 à la dimension dans laquelle vous vous trouvez (généralement 3).

Vous pouvez enchaîner ces transformations linéaires comme ceci:

$ c ^ k = \ displaystyle \ sum_i M_i ^ k \ displaystyle \ sum_j L_j ^ ia ^ j $

Einstein a noté , que dans ces formules de sommation, l'indice sous le signe de sommation apparaît exactement deux fois. Donc, il peut être supprimé. Les deux expressions précédentes ressembleront donc à ceci:

$ b ^ i = L_j ^ ia ^ j $

$ c ^ k = M_i ^ k L_j ^ ia ^ j $

Ce qui est très analogue aux formules matricielles que vous utilisez en algèbre linéaire. L'indice supérieur tue l'indice inférieur pendant le calcul, tandis que les index isolés restent intacts.

Vous pouvez donc multiplier les deux matrices sous forme de tenseurs comme ceci:

$ T_j ^ k = M_i ^ k L_j ^ i = \ displaystyle \ sum_i M_i ^ k L_j ^ i $

Et enfin un produit croisé avec des tenseurs ressemblerait à ceci:

$ r ^ k = C_ { ij} ^ ka ^ ib ^ j $

Le $ C $ est un tableau 3 × 3 × 3 de nombres multiplié par un vecteur produira et une matrice ordinaire, qui multipliée par un autre vecteur produira le vecteur final .

Un produit scalaire dans le langage des tenseurs ressemblerait à ceci:

$ r = D_ {ij} a ^ ib ^ j = \ displaystyle \ sum_ {i, j} D_ {ij} a ^ ib ^ j $

Où $ D_ {ij} $ est une matrice d'identité.

Maintenant, l'article wiki sur les Tensors devrait être plus compréhensible.

J'espère que cela donnera un moment aha à quelqu'un.

Peut-être que je ne comprends pas «prend» et «fait».Dans mon esprit, le produit scalaire prend deux vecteurs et fait un scalaire, donc je pense que ce serait (2,0) basé sur votre description de n et m, mais cela semble être le contraire.
@Calmarius Votre explication est géniale, merci!
#3
+6
prokaryoticeukaryote
2016-07-29 00:11:57 UTC
view on stackexchange narkive permalink

Dans le contexte de la physique, la description la plus éclairante que j'ai trouvée est qu'un tenseur est une grandeur généralisée dont les propriétés algébriques / analytiques ne dépendent pas du système de coordonnées utilisé *

Maintenant, la manière traditionnelle de représenter une quantité généralisée est sous la forme d'une combinaison linéaire de vecteurs de base ou d'un scalaire. Par exemple, l'élan peut être représenté par $ p_x \ mathbf {\ hat {i}} + p_y \ mathbf {\ hat {j}} + p_z \ mathbf {\ hat {k}} $. Si vous changez les coordonnées, disons par une rotation passive, le composant $ p_ \ alpha $ peut changer, et, bien sûr, les vecteurs de base changeront, mais l'élan won pas, précisément parce que both les vecteurs de base et le les composants changent. Vous pouvez imaginer à quel point il est important pour une quantité physique d'avoir cette propriété. Ainsi, les tenseurs servent d'objet mathématique naturel avec lequel faire de la physique théorique.

Vraiment, ils ne sont qu'une formalisation mathématique de la quasi-totalité des grandeurs physiques que vous auriez dû étudier par now. L'utilité de cette formalisation vient au premier plan une fois que vous commencez à étudier des choses comme la relativité, qui est All about le fait que les lois physiques sont indépendantes d'une classe très générale de transformations de coordonnées linéaires.

Ce comportement est peut-être mieux capturé par un (le?) théorème fondamental de Tensors, où tout tenseur dont les composantes sont toutes $ 0 $ dans un système de coordonnées a ses composantes comme $ 0 $ dans tous les autres, ainsi.

Cela implique que si une équation impliquant des tenseurs est vraie dans un système de coordonnées, elle l'est dans tous les autres.

Ce théorème, pour autant que je sache, découle de l'un des nombreux cadres axiomatiques pour définir les tenseurs. Certains frameworks commencent par introduire les tenseurs comme des cartes multilinéaires. Beaucoup commencent par définir les tenseurs covariants / contravariants comme des ensembles multi-indexés de composants qui suivent certaines règles de transformation.

Le résultat final est cependant le même. Vous obtenez quelque chose qui peut être représenté par un tas de composants, et dont les propriétés algébriques / analytiques ne changent pas quel que soit le système de coordonnées que vous utilisez.

Il est important de noter que les Tensors sont des not simplement des collections de composants. En fait, certains traitements de tenseurs sont entièrement sans composant. Par exemple, l'algèbre géométrique représente les opérations tensorielles (pensez généraliser la géométrie) en termes de quelque chose appelé le produit géométrique. Et pourtant, les choses étudiées sont encore des tenseurs précisément parce que leurs propriétés ne dépendent pas de "comment vous les regardez".

* Par système de coordonnées, j'entends un système "typique" qui peut être atteint par des transformations linéaires inversibles.

#4
+5
Arnold Neumaier
2012-07-14 15:53:33 UTC
view on stackexchange narkive permalink

Les tenseurs sont des objets avec généralement des indices multiples, une généralisation de vecteurs et de matrices, avec des propriétés de transformation définies en cas de changement de base. Ils sont introduits différemment dans différentes traditions, avec des notations différentes.

Vous pouvez trouver l'entrée «Comment sont liés les matrices et les tenseurs?» du chapitre B8 de mon FAQ sur la physique théorique pertinente pour démêler certains des problèmes associés.

#5
+5
Nick Alger
2016-09-13 15:00:04 UTC
view on stackexchange narkive permalink

Il existe plusieurs façons équivalentes de définir et de comprendre les tenseurs, et il vaut la peine de comprendre toutes les différentes perspectives et les relations entre elles. La perspective que je trouve la plus intuitive et la plus motivée est la perspective des tenseurs en tant que fonctions multilinéaires.

Un tenseur est une fonction multilinéaire qui prend en entrée une collection de vecteurs et produit un scalaire. Par multilinéaire, on entend que la fonction est linéaire dans chaque entrée indépendamment .

Vous pouvez imaginer des fonctions multilinéaires comme des approximations locales de fonctions non linéaires qui dépendent de plusieurs variables, où l'approximation prend structurellement en compte le fait qu'il existe plusieurs entrées de plusieurs espaces. Tout comme lorsque vous effectuez un zoom avant sur une fonction non linéaire d'un vecteur, cela semble approximativement linéaire, si vous zoomez sur une fonction de nombreux vecteurs, cela semble approximativement multilinéaire.

Si des collections de vecteurs de base sont choisies qui couvrent chaque espace vectoriel d'entrée, alors une fonction multilinéaire est complètement définie par son action sur toutes les combinaisons possibles de vecteurs de base. Les résultats de l'application de la fonction multilinéaire à toutes les combinaisons de vecteurs de base peuvent être arrangés en un tableau multidimensionnel de nombres, et ce tableau peut être considéré comme une représentation de la fonction multilinéaire, par rapport aux bases données.

Si on change les bases, évidemment les entrées dans la représentation du tableau multidimensionnel changeront, mais de manière prévisible. La manière exacte dont les entrées du tableau changent lorsque vous modifiez les bases est connue sous le nom de «règles de transformation». Dans de nombreuses classes de physique, les boîtes de nombres obéissant à ces règles de transformation sont présentées comme la définition d'un tenseur, qui est une définition parfaitement légitime, mais qui peut être discordante et démotivée si le contexte multilinéaire dont ces règles proviennent n'est pas expliqué.

Le fait de conserver certaines des entrées d'une fonction multilinéaire fixe (dans la terminologie du langage de programmation, "fermer" ces entrées) produit une fonction multilinéaire dans les entrées restantes. La représentation de tableau de la fonction multilinéaire induite dans les entrées restantes peut être calculée en effectuant une certaine somme impliquant le tableau d'origine, et les vecteurs de coordonnées pour les vecteurs d'entrée fixes. Ce processus de formation d'une nouvelle fonction multilinéaire en maintenant certaines entrées fixes est connu sous le nom de contraction tenseur.

Puisque la fixation de toutes les entrées sauf une à un tenseur donne une fonction linéaire dans l'entrée restante, et comme les fonctions linéaires sur un espace vectoriel peuvent être identifiées avec des éléments dans le double de cet espace vectoriel, un tenseur peut être également considéré comme un fonction multilinéaire qui prend un de moins que la quantité originale de vecteurs en entrée et produit un vecteur (double) en sortie. Cette sortie peut ensuite être utilisée comme l'une des entrées d'un autre tenseur qui a une tache d'entrée pour un vecteur dans l'espace double qui a été produit. Plus généralement, des réseaux complexes peuvent être construits où diverses entrées d'un tenseur sont réinterprétées en tant que sorties, puis ces sorties sont utilisées comme entrées dans d'autres tenseurs du réseau (voir Notation graphique de Penrose).

Si on attache un tenseur différent à chaque point sur une surface (ou une variété), la collection de tous ces tenseurs est un champ tenseur (tout comme si l'on attache des vecteurs à tous les points d'une variété on obtient un champ vectoriel) . Un cas particulier courant est celui où les espaces vectoriels d'entrée qui forment le domaine du tenseur en un point sont des copies de l'espace tangent et de l'espace cotangent de la variété en ce point. Dans ce cas, des bases pratiques à utiliser peuvent être formées à partir des vecteurs tangents (ou co-tangents) en chaque point associé à certains tableaux de coordonnées préexistants pour la variété. Si l'on change le paramétrage de la variété, les diagrammes de coordonnées changeront, donc les bases du champ tensoriel à chaque point changeront, donc les représentations matricielles des tenseurs à chaque point changeront (mais de manière prévisible ..).

Puisque les champs tensoriels apparaissent en physique beaucoup plus souvent que les tenseurs simples, le terme «tenseur» est souvent utilisé pour désigner un champ tensoriel. Cette terminologie fonctionne car la plupart des termes pour les opérations sur les tenseurs peuvent également être utilisés pour les champs de tenseurs, étant entendu que l'opération est effectuée simultanément sur tous les tenseurs du champ, de manière ponctuelle.

J'espère que cela aide avec l'intuition. Cette perspective s'est forgée lentement au cours d'années de combats pour comprendre moi-même les tenseurs à partir des premiers principes; passer de complètement confus au début, à avoir des tenseurs naturels et clairs maintenant. Ce message est ce que j'aurais aimé que quelqu'un me dise au début.

«Un tenseur est une fonction multilinéaire qui prend comme entrée une collection de vecteurs, et produit un scalaire.» «<- Cela semble contredire une autre réponse hautement votée ici, qui déclare que:« Le tenseur est quelque chose qui prend des vecteurset en fait des vecteurs. "`
@kennysong Ce sont les mêmes en raison de l'isomorphisme multilinéaire: $ \ mathcal {L} ^ {n} \ left (X_1 \ times \ dots \ times X_n, \ mathcal {L} ^ m \ left (X_ {n + 1} \fois \ points \ fois X_ {n + m} \ droite) \ droite) \ simeq \ mathcal {L} ^ {n + m} \ gauche (X_1 \ fois X_2, \ points \ fois X_ {n + m}, \mathbb {F} \ right) $, où $ \ mathbb {F} $ est le champ de base comme $ \ mathbb {R} $ ou $ \ mathbb {C} $.Ici $ \ mathcal {L} ^ k (A, B) $ est l'espace des $ k $ -mappages multilinéaires de $ A $ à $ B $.L'isomorphisme se fait par currying (traitant certaines entrées comme des constantes fixes, ce qui donne une fonction multilinéaire dans les entrées restantes)
#6
+4
Larry Harson
2015-01-17 00:22:54 UTC
view on stackexchange narkive permalink

Voici ce que dit A.Zee à propos d'un tenseur de son livre Einstein Gravity in a Nutshell (Couverture rigide)

Un tenseur est quelque chose qui transforme comme un tenseur

Il y a longtemps, un étudiant de premier cycle devenu plus tard un éminent physicien de la matière condensée est venu me voir après un cours de théorie des groupes et m'a demandé: «Qu'est-ce qu'un tenseur exactement? Je lui ai dit que un tenseur est quelque chose qui se transforme comme un tenseur . Quand je suis tombé sur lui plusieurs années plus tard, il m'a régalé avec l'histoire suivante. À la fin de ses études, son père, peut-être encore maltraité par la lourde somme qu'il avait versée à la prestigieuse université privée que fréquentait son fils, lui a demandé quelle était la connaissance la plus mémorable qu'il avait acquise au cours de ses quatre années à l'université. Il a répondu: "Un tenseur est quelque chose qui se transforme comme un tenseur."

#7
+2
Joebevo
2012-07-14 12:59:36 UTC
view on stackexchange narkive permalink

Un tenseur est une généralisation de la notion de scalaires et de vecteurs. Un tenseur de rang 0 est un scalaire (il a $ 3 ^ 0 $ compenent), tandis qu'un tenseur de rang 1 est un vecteur (qui a des composantes $ 3 ^ 1 $). En général, un tenseur de rang $ n $ a des composantes $ 3 ^ n $.

Voir http://www.grc.nasa.gov/WWW/k-12/Numbers/Math/documents/Tensors_TM2002211716.pdf pour une belle introduction.

Pourquoi un vecteur doit-il avoir 3 composantes?
#8
+2
Chiral Anomaly
2018-11-14 08:37:30 UTC
view on stackexchange narkive permalink

(Cette réponse a été publiée à l'origine pour une question plus récente, posée le 26 octobre 2018, qui a ensuite été marquée comme une question en double. Cette question plus récente concernait spécifiquement le contexte de la dynamique de rotation. l'avantage des autres visiteurs à la recherche d'une réponse spécifique à ce contexte.)

Dans le contexte de la dynamique de rotation, un vecteur $ v $ est quelque chose dont les composants $ v_i $ transformer sous des rotations comme $$ v_i \ mapsto \ sum_j R_ {ij} v_j $$ $ R $ est une matrice de rotation. Un tenseur (tel que le tenseur du moment d'inertie) est quelque chose dont les composants $ I_ {ij} $ se transforment sous des rotations comme $$ I_ {ij} \ mapsto \ sum_ {k, \ ell} R_ {ik} R_ {j \ ell} I_ {k \ ell}. $$ Plus précisément, il s'agit d'un tenseur $ 2 $ -index. Un vecteur est un tenseur $ 1 $ . En général, un tenseur $ N $ -index est une quantité avec des indices $ N $ (bien sûr) qui se transforme sous rotations selon le modèle illistré ci-dessus, avec un $ R $ par index.

Un exemple simple de tenseur avec des indices $ 3 $ est $ T_ {ijk} = a_i b_j c_k $ span>, où $ a, b, c $ sont des vecteurs. Cela se transforme automatiquement correctement sous les rotations en raison de la façon dont $ a, b, c $ se transforme.

Les tenseurs ont souvent des symétries spéciales. Par exemple, le moment d'inertie tenseur $ I_ {ij} $ est symétrique: $ I_ {ij} = I_ {ji } $ .

De telles symétries n'affectent pas la règle générale de transformation du tenseur sous les rotations, mais elles peuvent conduire à des coïncidences intéressantes. Par exemple, la généralisation appropriée du moment cinétique à l'espace $ D $ -dimensionnel est représentée par un $ 2 $ span antisymétrique > -index tenseur, $ L_ {ij} = - L_ {ji} $ . En raison de l'antisymétrie, cela a des composants indépendants $ D (D-1) / 2 $ , à savoir ceux avec $ i<j $ . (Ceux avec $ j>i $ sont déterminés par l'antisymétrie, et ceux avec $ i = j $ sont nuls par antisymétrie.) Dans le cas physiquement pertinent $ D = 3 $ , $ L_ {ij} $ se produit pour avoir des composants $ 3 $ , comme un vecteur. Plus intéressant encore (et moins trivialement), ces trois composantes se transforment comme les trois composantes d'un vecteur sous rotations, même si la règle générale pour transformer un tenseur à deux indices implique deux matrices de rotation au lieu d'une seule! C'est pourquoi la plupart des formulations de la dynamique de rotation représentent des choses comme le moment cinétique, la vitesse angulaire et le couple comme s'il s'agissait de vecteurs, même s'ils seraient plus correctement représentés comme des tenseurs antisymétriques à deux indices.

En fait, même dans $ D = 3 $ , il y a un symptôme clair que des quantités comme la vitesse angulaire (etc.) ne sont pas vraiment des vecteurs: elles se transforment comme des vecteurs quand $ R $ est une rotation ordinaire, mais pas lorsque $ R $ est une réflexion . Des termes tels que "vecteur axial" ou "pseudovecteur" font référence à cette situation. La direction de la vitesse angulaire ne peut pas être inversée par une réflexion miroir (car un tenseur à deux index se transforme avec deux facteurs de $ R $ , donc les signes moins s'annulent), mais la direction d'un vecteur légitime (tenseur à un index) peut être inversée par une réflexion miroir.

Un symptôme plus subtil que le moment cinétique devrait être représenté comme un tenseur antisymétrique à deux indices (au lieu d'un vecteur = tenseur à un index) est la façon dont il est construit. Par exemple, un objet avec un élan $ p $ (un vecteur) à l'extrémité d'une tige rotative sans masse de longueur $ r $ (un vecteur) est généralement écrit comme $ L = r \ times p $ , ou quelque chose comme ça (le signe est une question de convention). Le produit croisé n'a de sens que dans un espace tridimensionnel. Il devrait vraiment être écrit $ L_ {ij} = r_i p_j-r_j p_i $ à la place. Dans l'espace tridimensionnel, cela a la même liste de composants indépendants que le produit croisé, mais la représentation du tenseur à deux indices a un sens dans n'importe quel nombre de dimensions.

Dans d'autres contextes, comme la relativité, la définition est analogue mais avec le groupe des transformations de Lorentz (en relativité restreinte) ou toutes les transformations de coordonnées (en relativité générale) à la place du groupe de rotations.

#9
+1
wbg
2012-07-28 02:50:17 UTC
view on stackexchange narkive permalink

Ma réponse très simple n'est en réalité qu'une des nombreuses situations où un tenseur est pratique pour décrire les forces sur un corps ... ils sont cependant utilisés presque partout en physique ... ceci juste un exemple SIMPLE.

Un corps cubique se déplace dans l'air et ressent la résistance au mouvement orthogonale à sa trajectoire. Cette force normale peut se produire sur n'importe quel CÔTÉ du cube. OU, si le cube reste immobile, il subit la pression de l'atmosphère, la pression peut être décomposée en forces normales de chaque côté.

Maintenant, il y a la force de CISAILLEMENT, de l'air viscose qui s'accroche au sommet de le cube et le glissement déforment le haut du cube. Cette force de cisaillement est sur les côtés parallèles au mouvement du cube en mouvement. Cela peut se produire POUR TOUTES les surfaces parallèles.

Les tenseurs sont pratiques lorsque TOUTES les possibilités sont réellement possibles et se produisent. Ensuite, il y a des astuces pour additionner les forces. C'est ce sur quoi portent toutes les mathématiques sophistiquées ci-dessus.

Un grand professeur de mécanique des fluides m'a dit que les tenseurs ne devraient être utilisés que lorsque nous comprenons bien les forces et / ou le système. En règle générale, lorsque nous apprenons quelque chose de nouveau, nous commençons par chaque dimension séparément et travaillons fastidieusement tous les calculs ... puis lorsque nous savons ce qui se passe, des tenseurs peuvent être utilisés.

#10
+1
sanjeev kumar
2020-08-02 05:25:54 UTC
view on stackexchange narkive permalink

Tensor est un vecteur multidimensionnel dans un langage familier.

Où les variations dans une direction affectent l'autre.

En mécanique newtonienne, nous supposons toutes les forces, vitesses, etc. qui sont mutuellement orthogonales $ \ Rightarrow $ mutuellement indépendantes.

$$ F = F_x \ vec i + F_y \ vec j + F_z \ vec k $$

$ F_x \ vec i. F_y \ vec j = 0 $ depuis $ \ vec i. \ vec j = 0 $ Chaque fois que nous appliquons une certaine force, nous résolvons en composants et calculons le réseau fait pour être nul si les composants contribuent à zéro dans une direction donnée.

C'est-à-dire que la force appliquée dans une direction n'aura aucun effet dans une direction perpendiculaire à celle-ci.

Alors que certaines grandeurs physiques comme la pression appliquée dans une direction peuvent également produire un effet dans d'autres directions. La quantité directionnelle correspondante est le tenseur des contraintes.

Si nous pressons un ballon dans une direction, nous pouvons voir une expansion dans d'autres directions qui sont également perpendiculaires entre elles.

Si nous poussons un cube solide sur un mur, il ne montera pas alors qu'un ballon se lève. C'est une analogie simple qui pourrait distinguer un vecteur et un tenseur.

Toute variation de la composante x du tenseur des contraintes a également ses effets se reflétant dans les directions y z.

$$ σ = \ begin {pmatrix} σ_ {11} & σ_ {12} & σ_ {13} \\ σ_ {21} & σ_ {22} & σ_ { 23} \\ σ_ {31} & σ_ {32} & σ_ {33} \ end {pmatrix} $$

Le cas du moment d'inertie est similaire.

Ici encore, nous traitons indépendamment les effets de la cause sur d'autres directions.

En d'autres termes, nous traitons les effets dans les directions y, z indépendamment.

Par conséquent, la contrainte, le moment d'inertie sont des tenseurs de rang 2.

Autrement dit, à la fois, nous ne pouvions connecter que 2 dimensions spatiales.

Levi-Civita est un tenseur de rang 3 que nous utilisons dans le moment cinétique

$$ [L_i, L_j] = i \ hbar \ epsilon_ {ijk} L_k $$

Ici, l'ordre des trois i, j, k décide de la valeur / signe de la fonction $ \ epsilon_ {ijk} $ .

En électrodynamique et en mécanique relativiste, nous pouvons également rencontrer des tenseurs de rang 4.



Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 3.0 sous laquelle il est distribué.
Loading...