Dieser Artikel behandelt das Kronecker-Produkt von Matrizen, für das Kronecker-Produkt von Kohomologie- und Homologie-Klassen siehe
Kronecker-Paarung .
Das Kronecker-Produkt ist in der Mathematik ein spezielles Produkt zweier Matrizen beliebiger Größe. Das Ergebnis des Kronecker-Produkts ist eine große Matrix, die durch Betrachtung aller möglichen Produkte von Einträgen der beiden Ausgangsmatrizen entsteht. Es ist nach dem deutschen Mathematiker Leopold Kronecker benannt.
(
1
2
3
4
5
6
)
⊗
(
7
8
9
0
)
=
(
1
⋅
(
7
8
9
0
)
2
⋅
(
7
8
9
0
)
3
⋅
(
7
8
9
0
)
4
⋅
(
7
8
9
0
)
5
⋅
(
7
8
9
0
)
6
⋅
(
7
8
9
0
)
)
=
(
7
8
14
16
9
0
18
0
21
24
28
32
27
0
36
0
35
40
42
48
45
0
54
0
)
{\displaystyle {\begin{pmatrix}1&2\\3&4\\5&6\end{pmatrix}}\otimes {\begin{pmatrix}7&8\\9&0\end{pmatrix}}={\begin{pmatrix}1\cdot {\begin{pmatrix}7&8\\9&0\end{pmatrix}}&2\cdot {\begin{pmatrix}7&8\\9&0\end{pmatrix}}\\\\3\cdot {\begin{pmatrix}7&8\\9&0\end{pmatrix}}&4\cdot {\begin{pmatrix}7&8\\9&0\end{pmatrix}}\\\\5\cdot {\begin{pmatrix}7&8\\9&0\end{pmatrix}}&6\cdot {\begin{pmatrix}7&8\\9&0\end{pmatrix}}\end{pmatrix}}={\begin{pmatrix}7&8&\!\!\!&14&16\\9&0&\!\!\!&18&0\\[0.6em]21&24&\!\!\!&28&32\\27&0&\!\!\!&36&0\\[0.6em]35&40&\!\!\!&42&48\\45&0&\!\!\!&54&0\end{pmatrix}}}
Das Kronecker-Produkt ist nicht kommutativ , das heißt, im Allgemeinen gilt
A
⊗
B
≠
B
⊗
A
{\displaystyle A\otimes B\neq B\otimes A}
.
Es gibt jedoch Permutationsmatrizen
P
,
Q
{\displaystyle P,Q}
so dass
A
⊗
B
=
P
(
B
⊗
A
)
Q
{\displaystyle A\otimes B=P(B\otimes A)Q}
gilt. Sind dabei
A
{\displaystyle A}
und
B
{\displaystyle B}
quadratisch, so kann
P
=
Q
T
{\displaystyle P=Q^{T}}
gewählt werden.
Das Kronecker-Produkt ist assoziativ . Das heißt, es gilt
A
⊗
(
B
⊗
C
)
=
(
A
⊗
B
)
⊗
C
{\displaystyle A\otimes (B\otimes C)=(A\otimes B)\otimes C}
.
Für die Transposition gilt
(
A
⊗
B
)
T
=
A
T
⊗
B
T
{\displaystyle (A\otimes B)^{T}=A^{T}\otimes B^{T}}
.
Für die konjugierte Matrix gilt
A
⊗
B
¯
=
A
¯
⊗
B
¯
{\displaystyle {\overline {A\otimes B}}={\overline {A}}\otimes {\overline {B}}}
.
Für die adjungierte Matrix gilt
(
A
⊗
B
)
∗
=
A
∗
⊗
B
∗
{\displaystyle (A\otimes B)^{*}=A^{*}\otimes B^{*}}
.
Das Kronecker-Produkt ist bilinear mit der Matrizenaddition , das heißt, es gilt
A
⊗
(
B
+
C
)
=
A
⊗
B
+
A
⊗
C
{\displaystyle A\otimes (B+C)=A\otimes B+A\otimes C}
,
(
B
+
C
)
⊗
A
=
B
⊗
A
+
C
⊗
A
{\displaystyle (B+C)\otimes A=B\otimes A+C\otimes A}
und
λ
(
A
⊗
B
)
=
(
λ
A
)
⊗
B
=
A
⊗
(
λ
B
)
{\displaystyle \lambda (A\otimes B)=(\lambda A)\otimes B=A\otimes (\lambda B)}
Sind die Matrizenprodukte
A
C
{\displaystyle AC}
und
B
D
{\displaystyle BD}
definiert, so gilt[ 1]
A
C
⊗
B
D
=
(
A
⊗
B
)
(
C
⊗
D
)
{\displaystyle AC\otimes BD=(A\otimes B)(C\otimes D)}
.
Sind
A
{\displaystyle A}
und
B
{\displaystyle B}
quadratische Matrizen, so gilt für die Spur
S
p
u
r
(
A
⊗
B
)
=
S
p
u
r
(
A
)
⋅
S
p
u
r
(
B
)
{\displaystyle \mathrm {Spur} (A\otimes B)=\mathrm {Spur} (A)\cdot \mathrm {Spur} (B)}
.
Für den Rang gilt
R
a
n
g
(
A
⊗
B
)
=
R
a
n
g
(
A
)
⋅
R
a
n
g
(
B
)
{\displaystyle \mathrm {Rang} (A\otimes B)=\mathrm {Rang} (A)\cdot \mathrm {Rang} (B)}
.
Ist
A
{\displaystyle A}
eine
n
×
n
{\displaystyle n\times n}
und
B
{\displaystyle B}
eine
m
×
m
{\displaystyle m\times m}
Matrix, so gilt für die Determinante
det
(
A
⊗
B
)
=
det
m
(
A
)
det
n
(
B
)
{\displaystyle \det(A\otimes B)={\det }^{m}(A)\,{\det }^{n}(B)}
.
Sind
(
λ
i
)
i
=
1
,
…
,
n
{\displaystyle (\lambda _{i})_{i=1,\dotsc ,n}\,}
die Eigenwerte von
A
{\displaystyle A}
und
(
μ
j
)
j
=
1
,
…
,
m
{\displaystyle (\mu _{j})_{j=1,\dotsc ,m}\,}
die
Eigenwerte von
B
{\displaystyle B}
, dann gilt:
(
λ
i
μ
j
)
i
=
1
,
…
,
n
j
=
1
,
…
,
m
{\displaystyle (\lambda _{i}\,\mu _{j})_{i=1,\dotsc ,n \atop j=1,\dotsc ,m}}
sind die Eigenwerte von
A
⊗
B
{\displaystyle A\otimes B}
.
Für die Spektralnorm gilt demnach
‖
A
⊗
B
‖
2
=
‖
A
‖
2
⋅
‖
B
‖
2
{\displaystyle \|A\otimes B\|_{2}=\|A\|_{2}\cdot \|B\|_{2}}
.
Sind
A
,
B
{\displaystyle A,B}
invertierbar , so ist auch
(
A
⊗
B
)
{\displaystyle (A\otimes B)}
invertierbar mit Inverser
(
A
⊗
B
)
−
1
=
A
−
1
⊗
B
−
1
{\displaystyle (A\otimes B)^{-1}=A^{-1}\otimes B^{-1}}
.
Für die Moore-Penrose-Inverse gilt außerdem
(
A
⊗
B
)
+
=
A
+
⊗
B
+
{\displaystyle (A\otimes B)^{+}=A^{+}\otimes B^{+}}
.
Allgemeiner gilt: Sind
A
−
{\displaystyle A^{-}}
und
B
−
{\displaystyle B^{-}}
verallgemeinerte Inversen von
A
{\displaystyle A}
und
B
{\displaystyle B}
, so ist
A
−
⊗
B
−
{\displaystyle A^{-}\otimes B^{-}}
eine verallgemeinerte Inverse von
A
⊗
B
{\displaystyle A\otimes B}
.
Es seien die Matrizen
A
∈
Mat
(
k
×
ℓ
)
,
B
∈
M
a
t
(
m
×
n
)
,
C
∈
M
a
t
(
k
×
n
)
{\displaystyle A\in \operatorname {Mat} (k\times \ell ),\,B\in \mathrm {Mat} (m\times n),\,C\in \mathrm {Mat} (k\times n)}
gegeben und eine Matrix
X
∈
Mat
(
ℓ
×
m
)
{\displaystyle X\in \operatorname {Mat} (\ell \times m)}
gesucht, so dass
A
X
B
=
C
{\displaystyle AXB=C\,}
gilt. Dann gilt folgende Äquivalenz:
A
X
B
=
C
⟺
(
B
T
⊗
A
)
vec
(
X
)
=
vec
(
C
)
{\displaystyle AXB=C\iff (B^{T}\otimes A)\,\operatorname {vec} (X)=\operatorname {vec} (C)}
.
Hierbei steht
vec
{\displaystyle \operatorname {vec} }
für die spaltenweise Vektorisierung einer Matrix zu einem Spaltenvektor: Sind
x
→
1
,
…
,
x
→
m
{\displaystyle {\vec {x}}_{1},\dotsc ,{\vec {x}}_{m}}
die Spalten der Matrix
X
∈
Mat
(
ℓ
×
m
)
{\displaystyle X\in \operatorname {Mat} (\ell \times m)}
, so ist
vec
(
X
)
=
(
x
→
1
⋮
x
→
m
)
{\displaystyle \operatorname {vec} (X)={\begin{pmatrix}{\vec {x}}_{1}\\\vdots \\{\vec {x}}_{m}\end{pmatrix}}}
ein Spaltenvektor der Länge
ℓ
⋅
m
{\displaystyle \ell \cdot m}
. Analog ist
vec
(
C
)
{\displaystyle \operatorname {vec} (C)}
ein Spaltenvektor der Länge
k
⋅
n
{\displaystyle k\cdot n}
.
Hat man den Vektor
vec
(
X
)
{\displaystyle \operatorname {vec} (X)}
ermittelt, so ergibt sich daraus unmittelbar die zugehörige
isomorphe Matrix
X
∈
M
a
t
(
ℓ
×
m
)
{\displaystyle X\in \mathrm {Mat} (\ell \times m)}
.
Es ist
A
X
B
=
C
⟺
A
X
(
b
→
1
,
…
,
b
→
n
)
=
(
c
→
1
,
…
,
c
→
n
)
⟺
A
X
b
i
→
=
c
i
→
⟺
(
A
X
b
→
1
⋮
A
X
b
→
n
)
=
vec
(
C
)
{\displaystyle AXB=C\iff AX\left({\vec {b}}_{1},\dotsc ,{\vec {b}}_{n}\right)=\left({\vec {c}}_{1},\dotsc ,{\vec {c}}_{n}\right)\iff AX{\vec {b_{i}}}={\vec {c_{i}}}\iff {\begin{pmatrix}AX{\vec {b}}_{1}\\\vdots \\AX{\vec {b}}_{n}\end{pmatrix}}=\operatorname {vec} (C)}
.
Dabei ist
(
A
(
x
→
1
,
…
,
x
→
m
)
b
→
1
⋮
A
(
x
→
1
,
…
,
x
→
m
)
b
→
n
)
=
(
A
(
b
11
x
→
1
+
…
+
b
m
1
x
→
m
)
⋮
A
(
b
1
n
x
→
1
+
…
+
b
m
n
x
→
m
)
)
=
(
A
b
11
⋯
A
b
m
1
⋮
⋱
⋮
A
b
1
n
⋯
A
b
m
n
)
(
x
→
1
⋮
x
→
m
)
=
(
B
T
⊗
A
)
vec
(
X
)
{\displaystyle {\begin{pmatrix}A({\vec {x}}_{1},\dotsc ,{\vec {x}}_{m}){\vec {b}}_{1}\\\vdots \\A({\vec {x}}_{1},\dotsc ,{\vec {x}}_{m}){\vec {b}}_{n}\end{pmatrix}}={\begin{pmatrix}A(b_{11}{\vec {x}}_{1}+\dotsc +b_{m1}{\vec {x}}_{m})\\\vdots \\A(b_{1n}{\vec {x}}_{1}+\dotsc +b_{mn}{\vec {x}}_{m})\end{pmatrix}}={\begin{pmatrix}A\,b_{11}&\cdots &A\,b_{m1}\\\vdots &\ddots &\vdots \\A\,b_{1n}&\cdots &A\,b_{mn}\end{pmatrix}}{\begin{pmatrix}{\vec {x}}_{1}\\\vdots \\{\vec {x}}_{m}\end{pmatrix}}=(B^{T}\otimes A)\,\operatorname {vec} (X)}
.
Gleichungssystem mit Matrixkoeffizienten
Bearbeiten
Für
i
=
1
,
.
.
.
,
r
{\displaystyle i=1,...,r\,}
und
j
=
1
,
.
.
.
,
s
{\displaystyle j=1,...,s\,}
seien die Matrizen
A
i
j
∈
M
a
t
(
k
×
ℓ
)
,
B
i
j
∈
M
a
t
(
m
×
n
)
,
C
i
∈
M
a
t
(
k
×
n
)
{\displaystyle A_{ij}\in \mathrm {Mat} (k\times \ell ),\,B_{ij}\in \mathrm {Mat} (m\times n),\,C_{i}\in \mathrm {Mat} (k\times n)}
gegeben.
Gesucht sind die Matrizen
X
i
∈
M
a
t
(
ℓ
×
m
)
{\displaystyle X_{i}\in \mathrm {Mat} (\ell \times m)}
, welche das Gleichungssystem
[
A
11
X
1
B
11
+
.
.
.
+
A
1
s
X
s
B
1
s
=
C
1
⋮
A
r
1
X
1
B
r
1
+
.
.
.
+
A
r
s
X
s
B
r
s
=
C
r
]
{\displaystyle {\begin{bmatrix}A_{11}X_{1}B_{11}+...+A_{1s}X_{s}B_{1s}&=&C_{1}\\&\vdots &\\A_{r1}X_{1}B_{r1}+...+A_{rs}X_{s}B_{rs}&=&C_{r}\\\end{bmatrix}}}
lösen. Diese Aufgabenstellung ist äquivalent zum Lösen des Gleichungssystems
(
B
11
T
⊗
A
11
⋯
B
1
s
T
⊗
A
1
s
⋮
⋱
⋮
B
r
1
T
⊗
A
r
1
⋯
B
r
s
T
⊗
A
r
s
)
(
vec
X
1
⋮
vec
X
s
)
=
(
vec
C
1
⋮
vec
C
r
)
{\displaystyle {\begin{pmatrix}B_{11}^{T}\otimes A_{11}&\cdots &B_{1s}^{T}\otimes A_{1s}\\\vdots &\ddots &\vdots \\B_{r1}^{T}\otimes A_{r1}&\cdots &B_{rs}^{T}\otimes A_{rs}\\\end{pmatrix}}{\begin{pmatrix}\operatorname {vec} \,X_{1}\\\vdots \\\operatorname {vec} \,X_{s}\end{pmatrix}}={\begin{pmatrix}\operatorname {vec} \,C_{1}\\\vdots \\\operatorname {vec} \,C_{r}\end{pmatrix}}}
Gegeben seien zwei lineare Abbildungen
φ
1
:
V
1
⟶
W
1
{\displaystyle \varphi _{1}\colon V_{1}\longrightarrow W_{1}}
und
φ
2
:
V
2
⟶
W
2
{\displaystyle \varphi _{2}\colon V_{2}\longrightarrow W_{2}}
zwischen endlichdimensionalen Vektorräumen . Dann gibt es immer genau eine lineare Abbildung
φ
1
⊗
φ
2
:
V
1
⊗
V
2
⟶
W
1
⊗
W
2
{\displaystyle \varphi _{1}\otimes \varphi _{2}\colon V_{1}\otimes V_{2}\longrightarrow W_{1}\otimes W_{2}}
zwischen den Tensorprodukten mit
[
φ
1
⊗
φ
2
]
(
v
1
⊗
v
2
)
=
φ
1
(
v
1
)
⊗
φ
2
(
v
2
)
{\displaystyle [\varphi _{1}\otimes \varphi _{2}](v_{1}\otimes v_{2})=\varphi _{1}(v_{1})\otimes \varphi _{2}(v_{2})}
.
Wenn wir auf den Vektorräumen
V
1
,
W
1
,
V
2
{\displaystyle V_{1},W_{1},V_{2}}
und
W
2
{\displaystyle W_{2}}
je eine Basis auswählen, so können wir der Abbildung
φ
1
{\displaystyle \varphi _{1}}
ihre Darstellungsmatrix
A
{\displaystyle A}
zuordnen. Es sei
B
{\displaystyle B}
die Darstellungsmatrix von
φ
2
{\displaystyle \varphi _{2}}
.
Das Kronecker-Produkt
A
⊗
B
{\displaystyle A\otimes B}
der Darstellungsmatrizen entspricht nun genau der Darstellungsmatrix der tensorierten Abbildung
φ
1
⊗
φ
2
{\displaystyle \varphi _{1}\otimes \varphi _{2}}
, wenn man auf
V
1
⊗
V
2
{\displaystyle V_{1}\otimes V_{2}}
und
W
1
⊗
W
2
{\displaystyle W_{1}\otimes W_{2}}
die Basis zugrunde legt, welche sich aus den lexikographisch angeordneten Paaren von Basisvektoren der am Tensorprodukt beteiligten Vektorräume ergibt: Sind
(
e
1
,
e
2
,
…
,
e
n
)
{\displaystyle (e_{1},e_{2},\ldots ,e_{n})}
die ausgewählte Basis von
V
1
{\displaystyle V_{1}}
und
(
f
1
,
f
2
,
…
,
f
p
)
{\displaystyle (f_{1},f_{2},\ldots ,f_{p})}
die Basis von
V
2
{\displaystyle V_{2}}
, so nehmen wir
(
e
1
⊗
f
1
,
e
1
⊗
f
2
,
…
,
e
1
⊗
f
p
,
e
2
⊗
f
1
,
…
,
e
n
⊗
f
p
−
1
,
e
n
⊗
f
p
)
{\displaystyle (e_{1}\otimes f_{1},e_{1}\otimes f_{2},\ldots ,e_{1}\otimes f_{p},e_{2}\otimes f_{1},\ldots ,e_{n}\otimes f_{p-1},e_{n}\otimes f_{p})}
als Basis für das Tensorprodukt
V
1
⊗
V
2
{\displaystyle V_{1}\otimes V_{2}}
. Analog für
W
1
⊗
W
2
{\displaystyle W_{1}\otimes W_{2}}
.
Das Kronecker-Produkt ist nach Leopold Kronecker benannt, obwohl Georg Zehfuss die Definition des Produktes schon 1858 leistete, weshalb das Kronecker-Produkt manchmal auch Zehfuss-Produkt genannt wird.[ 2]