1. Intro : Tensor Calc${}_\mathbf{u}$l${}^\mathbf{u}$s
Riemannian geometry나 general relativity에서는 rank 2 이상의 tensor를 주로 다룰 필요가 있다. 이 게시물에는 higher rank tensor에 대한 기본적인 개념들을 기록함과 동시에 미적분학에서 배워왔던 결과들 (curl, divergence, gradient, ...)과 잘 맞는지 적용해본다. 가장 중요한 목적은 학부과정에서 다뤄왔던 Cartesian이나 spherical coordinate와 같은 좌표계를 넘어 더 일반적인 좌표계를 다루는 것에 있다. 가장 먼저 벡터를 array로 표현하는 방식에 따라 세 가지로 분류할 수 있다.
먼저 위치의 미소변화($d\vec{r}$)를 $\{ \hat{r}, \: \hat{\theta}, \: \hat{\phi} \}$의 basis에서, 각 basis에 대응하는 성분은 다음과 같음을 알 것이다.
$$d\vec{r} = (dr,\:rd\theta,\:r\sin{\theta}d\phi) = dr \hat{r} + rd\theta \hat{\theta} + r\sin{\theta} d\phi \hat{\phi}$$
이렇게 $d\vec{r} = (dr,\:rd\theta,\:r\sin{\theta}d\phi)$로 표기하는 것을 physical form이라 하고 이 때의 unit basis $\{ \hat{r}, \: \hat{\theta}, \: \hat{\phi} \}$를 physical basis라 한다.
혹자는 basis를 $\{ \hat{r}, \: r \hat{\theta}, \: r\sin{\theta} \hat{\phi} \}$로 잡아 다음과 같이 표기할 수도 있을 것이다.
$$d\vec{r} = (dr,\: d\theta,\: d\phi)$$
이렇게 표현하는 것을 contravariant form이라 하고, 이와 같이 표현할 수 있는 basis $\{ \hat{r}, \: r \hat{\theta}, \: r\sin{\theta} \hat{\phi} \}$를 covariant basis라 한다.
또 누군가는 basis를 $\{ \hat{r}, \: \frac{1}{r} \hat{\theta}, \: \frac{1}{r\sin{\theta}} \hat{\phi} \}$로 잡고싶어 할 수도 있다. 이 경우에는 그 성분 표기는 다음과 같을 것이다.
$$d\vec{r} = (dr,\: r^2 d\theta,\: r^2 \sin^2{\theta} d\phi)$$
조금 억지같아 보일 수 있겠지만 이렇게 쓰는 것을 covariant form이라 하고, 이 때의 basis $\{ \hat{r}, \: \frac{1}{r} \hat{\theta}, \: \frac{1}{r\sin{\theta}} \hat{\phi} \}$를 contravariant basis라 한다. 각 용어들의 의미는 우선 뒤에서 살표보도록 하자.
2. Definition of a tensor
두 개의 coordinate system $x_i$와 $\tilde{x}_i$를 생각하자. 두 coordinate간의 변환은 다음과 같을 것이다. (예를 들면 spherical과 Cartesian의 관계를 생각해보자.)
$$\tilde{x}_i = \tilde{x}_i (x_1, x_2,\cdots, x_n)$$
$$x_i = x_i ( \tilde{x}_1, \tilde{x}_2, \cdots, \tilde{x}_n)$$
infinitesimal position $d\vec{r}$의 성분 $dx_i$의 좌표변환 관계는 chain rule에 의해 다음과 같다.
$$d\tilde{x}_i = \sum_j \frac{\partial \tilde{x}_i}{\partial x_j} dx_j$$
다음으로 $\frac{\partial f}{\partial x_i}$의 좌표변환 관계도 생각해 볼 수 있을 것이다. (참고로 이것은 Cartesian에서만 gradient이고, 일반적으로 gradient가 아니다. spherical coordinate를 생각해보라.) 이것의 좌표변환 관계 역시 chain rule에 의해 다음과 같다.
$$\frac{\partial f}{\partial \tilde{x}_i} = \sum_j \frac{\partial x_j}{\partial \tilde{x}_i} \frac{\partial f}{\partial x_j}$$
두 경우를 가만히 살펴보면 좌표변환에 대해서 변화하는 방식이 다르다. 좌표 변환에 대해서 $dx_i$와 같이 변하는 벡터를 contravariant vector라 하고, $\frac{\partial f}{\partial x_i}$와 같이 변하는 벡터를 covariant vector라 한다.
DEF 2.1. The components of a covariant vector transform like a cartesian gradient and obey the transformation rule :
$$ \tilde{A}_i = \sum_{j} \frac{\partial x^j}{\partial \tilde{x}^i} A_j$$
DEF 2.2. The components of a contravariant vector transform like a coordinate differential and obey the transformation rule :
$$ \tilde{A}^i = \sum_{j} \frac{\partial \tilde{x}^i}{\partial x^j} A^j$$
DEF를 잘 살펴보면 contravariant vector의 index를 위로 올려 쓴 것을 볼 수 있을 것이다. 일반적인 관례로 contravariant 성분은 위로 올려쓰고, covariant 성분은 아래로 내려쓰는데, 분모에 covariant 성분이 오면 그 index는 contravariant한 것으로 취급한다. 또, notation의 편의성을 위해 covariant index와 contravariant index가 서로 summation이 되어 있으면 사실상 그 index는 dummy이고, summation기호를 써주지 않는다. 이것을 Einstein summation convention이라 한다. 예를들어 $A_i B^i$는 index i에 대해서 summation이 취해진 것으로 생각하지만, $A_i B_i$나 $A_{(i)} B_{(i)}$는 그렇지 않다. 이 convention을 이용하여 DEF 2.1~2를 다시 써 보면 다음과 같다.
$$\tilde{A}_i=\frac{\partial x^j}{\partial \tilde{x}^i} A_j, \:\:\:\:\: \tilde{A}^i = \frac{\partial \tilde{x}^i}{\partial x^j} A^j$$
흔히들 헷갈리는 것으로 $dx^i$는 전형적인 rank 1 contravariant tensor이지만, $x^i$는 DEF 2.1의 변환규칙을 따르지 않고, 이것은 tensor가 아니다. 변환식에 들어간 편미분 항에서 $x^i$와 같이 표기한 것은 그저 편의성을 위한 것이지, $x^i$가 contravariant vector임을 의미하는 것은 이니다. 또 kronecker delta나 levi-civita symbol도 Einstein summation convention을 위해 위 아래 index를 섞어 쓰는데, 이 index역시 contra/co-variant를 의미하지는 않는다. 마찬가지로 tensor가 아니다.
마찬가지 규칙으로 higher rank tensor에 대해 일반화 해보면, rank n tensor의 coordinate transformation rule은 다음과 같다.
$$\tilde{T}_{i_1 \cdots i_p}^{\;\;\;\;\;\;\;k_1 \cdots k_q}= \frac{\partial x^{j_1}}{\partial \tilde{x}^{i_1}} \cdots \frac{\partial x^{j_p}}{\partial \tilde{x}^{i_p}} \frac{\partial \tilde{x}^{k_1}}{\partial x^{l_1}} \cdots \frac{\partial \tilde{x}^{k_q}}{\partial x^{l_q}} T_{j_1 \cdots j_p}^{\;\;\;\;\;\;\;l_1 \cdots l_q}$$
여기서 $p+q=n$이 성립해야 할 것이다. tensor를 더하거나 양변에 등식을 쓸 때는 dummy indices를 제외하고 식을 구성하는 tensor의 알짜 indices는 같은 순서에, 같은 up/down position에 존재해야 한다. 일부 책에서는 tensor $T_{i \: kl}^{\:j\:\:m}$의 index를 순서 상관없이 $T_{ikl}^{jm}$과 같이 쓰기도 하나, 엄연히 이 물리량이 tensor라면 이렇게 쓰면 안 된다. 허나 뒤에 나올 Christoffel symbol과 같이 tensor가 아닌 경우에는 이와 같이 순서를 무시하고 섞어 쓰기도 한다.
THM 2.1. The sum of two like-tensor is a like-tensor of the same type.
한 가지 주의해야 할 점으로, 우리가 흔히 vector "identities" 라고 배운 것들은 좌표계와 상관없이 참이다. 예를 들자면, $\nabla \cdot f\vec{A} = f \nabla \cdot \vec{A} + \vec{A} \cdot \nabla f$는 어느 좌표계든지 성립한다. 그러나, (당연하겠지만) 성분으로 쓴 식들은 보통 Cartesian에서만 성립하므로, 좌표계의 선택에 따라 성분별 표기는 언제든지 달라질 수 있다. 즉 일반적인 좌표계에서는 $(A \times B)^i \neq \epsilon^{ijk} A_j B_k$이다. 이것은 오로지 Cartesian에서만 등호가 성립한다.
특별히 rank 1 tensor (vector) 두 개의 product를 dyad라 한다.
DEF 2.3. A rank 2 dyad, $\mathbf{D}$, results from taking the dyadic product of 2 vectors, $\vec{A}$ and $\vec{B}$.
$$\mathbf{D}=\vec{A}\vec{B}, \:\:\: D_i^{\:j}=A_iB^j, \:\:\: D^i_{\:j}=A^i B_j, \:\:\: D^{ij}=A^iB^j,\:\:\: D_{ij}=A_iB_j$$
THM 2.2. A rank 2 dyad is a rank 2 tensor.
이것의 증명은 간단하므로 생략한다. 다음으로 tensor끼리의 inverse relation을 살펴보자. (matrix처럼 생각하면 된다.)
DEF 2.4. If $A_{ij}$ is a rank 2 covariant tensor and $B^{kl}$ is a rank 2 contravariant tensor, then they are each other's inverse if $A_{ij} B^{jk} = \delta_i^{\:k}$.
THM 2.3. The derivatives $\partial x^i / \partial \tilde{x}^j$ and $\partial \tilde{x}^j / \partial x^k$ are each other's inverse. That is, $\frac{\partial x^i}{\partial \tilde{x}^j} \frac{\partial \tilde{x}^j}{\partial x^k} = \delta^i_{\:k}$.
이것의 증명은 chain rule을 이용하면 자명하므로 생략한다.
DEF 2.5. A tensor contraction occurs when one of a tensor's free covariant indices is set equal to one of its free contravariant indices. In this case, a sum is performed.
예를들어서 $T_{ij}^{\:\:j}$는 rank 1 tensor이고, 어느 책에서는 줄여서 $T_{ij}^{\:\:j}=T_i$로 적기도 한다. 마찬가지로 $T_i^{\:i}$는 matix T의 trace이고 coordinate system에 무관한 scalar이다.
THM 2.4. A contraction of a rank 2 tensor (its trace) is a scalar (rank 0 tensor) whose value is independent of the coordinate system chosen.
증명은 간단하다.
$$\tilde{T}_k^{\:k} = \frac{\partial x^i}{\partial \tilde{x}^k} \frac{\partial \tilde{x}^k}{\partial x^j} T_i^{\:j}=\delta^i_{\:j}T_i^{\:j}=\mathrm{tr}\:T$$
3. Metric
이제 본격적으로 좌표계를 구체화해보는 과정이다. 일반적인 m차원 unit basis에서 미소변위는 다음과 같이 표기한다.
$$d\vec{r}=(h_{(1)}dx^1,h_{(2)}dx^2,\cdots,h_{(m)}dx^m)=\sum_{i} h_{(i)}dx^i \hat{e}_{(i)}$$
여기서 $\hat{e}_{(i)}$는 physical unit basis로, spherical로 치면 $\hat{r}, \hat{\theta}, \hat{\phi}$이다. (일반적으로 지금까지 basis라고 칭했던 것들을 생각하면 된다.) physical basis는 covariant하지도, contravariant하지도 않으며, weight function $h_{(i)}$ 역시 마찬가지다. 따라서 이것은 일반적으로 Einstein convention을 따르지 않으며, summation 표시를 취해주었다. 아래 표는 대표적으로 많이 써 왔던 좌표계들에 대한 weight를 보여준다.
Table : Nomenclature for the most common coordinates. (from David A. Clarke (2011). A Primer on Tensor Calculus) (Typo : cylinderical -> cylindrical)
$d\vec{r}$의 자기자신에 대한 dot product를 취해주면 우리는 coordi-system에 대한 정보로 metric을 얻을 수 있다.
$$dr^2 = \sum_{ij} h_{(i)}h_{(j)} \hat{e}_{(i)} \cdot \hat{e}_{(j)} dx^i dx^j \equiv g_{ij} dx^i dx^j$$
여기서 physical basis의 내적 $\hat{e}_{(i)} \cdot \hat{e}_{(j)} =\cos{\theta_{(ij)}}$로 흔히 말하던 directional cosine이다. 당연하게도 orthogonal basis면 kronecker delta가 될 것이고 따라서 metric은 diagonal할 것이다.
DEF 3.1. The metric $g_{ij}$ is given by $g_{ij}=h_{(i)}h_{(j)} \hat{e}_{(i)} \cdot \hat{e}_{(j)}$, which by inspection, is symmetric under the interchange of its indices.
THM 3.1. The metric is a rank 2 covariant tensor.
$dr^2$은 두 점간의 거리로 좌표변환에 무관한 scalar이다. 따라서
$$dr^2=\tilde{g}_{ij} d\tilde{x}^i d\tilde{x}^j = g_{kl} dx^k dx^l \;\;\;\; \Rightarrow \;\;\;\; dx^k dx^l \left( g_{kl} - \frac{\partial \tilde{x}^i}{\partial x^k} \frac{\partial \tilde{x}^j}{\partial x^l} \right) = 0 $$
모든 $dx^k dx^l$에 대하여 성립해야 하므로 metric은 rank 2 tensor의 변환규칙을 따른다.
DEF 3.2. The conjugate metric, $g^{kl}$, is the inverse to the metric tensor, then satisfies $g^{kl}g_{lq} = \delta^k_{\:q}$.
DEF 3.3. A conjugate tensor is the result of multiplying a tensor with the metric, then contracting one of the indices of the metric with one of the indices of the tensor.
metric과 tensor의 index가 결합하여 index를 내리거나 올리는데, $p+q=n$인 rank $n$ tensor $T_{i_1\cdots i_p}^{\;\;\;\;\;\;j_1\cdots j_q}$를 예시로 들어보자.
$$g^{ki_r}T_{i_1\cdots i_p}^{\;\;\;\;\;\;j_1\cdots j_q} = T_{i_1\cdots i_{r-1} \:\: i_{r+1} \cdots i_p}^{\;\;\;\;\;\;\;\:k\;\;\;\;\;\;\;\:\:j_1\cdots j_q}$$
$$g_{lj_s}T_{i_1\cdots i_p}^{\;\;\;\;\;\;j_1\cdots j_q} = T_{i_1\cdots i_p\;\;\;\;\;\;\;\;\;l}^{\;\;\;\;\;\;j_1\cdots j_{s-1} \:\: j_{s+1} \cdots j_q}$$
따라서 우리는 metric만 결정해 내면 $dx^i$같은 contravariant 성분도 covariant하게 바꿀 수 있고 반대도 역시 마찬가지다. 만약 $X^i$를 Euclidean이라 하면 metric은 $\delta_{ij}$이고,
$$dr^2=\delta_{ij}dX^i dX^j = \delta_{ij} \frac{\partial X^i}{\partial x^k} \frac{\partial X^j}{\partial x^l} dx^k dx^l=g_{kl} dx^k dx^l$$
이므로, 만약 우리가 embedding function $X^i(x^j)$를 안다면, metric을 다음과 같이 나타낼 수도 있다.
$$g_{ij}=\delta_{kl} \frac{\partial X^k}{\partial x^i} \frac{\partial X^l}{\partial x^j}, \;\;\;\;\; g^{ij}=\delta^{kl} \frac{\partial x^i}{\partial X^k} \frac{\partial x^j}{\partial X^l}$$
4. Physical components & basis vectors
Unit basis vector $\hat{e}^{(i)}$로 span된 $\mathbb{R}^m$ Euclidean space에 속하는 벡터 $\vec{A}$는 항상 유일한 component-set $A_{(i)}$가 존재하여 다음을 만족함을 알 것이다. (꼭 $\hat{e}^{(i)}$가 orthogonal할 필요는 없다.)
$$\vec{A}=\sum_i A_{(i)}\hat{e}_{(i)}$$
DEF 4.1. The weights $A_{(i)}$ in the previous eqn are the physical components of $\vec{A}$ relative to the basis set $\hat{e}_{(i)}$.
앞에서도 설명했지만 우리가 지금껏 단위벡터를 기준으로 나타내었던 것들이 모두 physical component이다. 이 성분들은 일반적으로 contravariant하지도 covariant하지도 않다. 굳이 위의 식에서 summation을 넣어 준 것은 Einstein summation의 index matching조건에 맞지 않기 때문이다. $A_{(i)}$는 간단하게 $A_{(i)}=\vec{A} \cdot \hat{e}_{(i)}$로 간단하게 구할 수 있다. 이 성분들을 contravariant한 성분 $A^i$와 $A_{(i)}=h_{(i)}A^i$의 관계를 가진다고 생각하자. (예를 들면 $dr, \: d\theta, \: d\phi$와 같은 것을 생각하자. 위치벡터 성분 자체는 일반적으로 contravariant하지 않다.) 그럼 벡터는 다음과 같이 표현될 수 있을 것이다.
$$\vec{A}=\sum_i h_{(i)} A^i \hat{e}_{(i)}$$
metric을 이용하면 index를 아래로 내릴 수 있으므로 contravariant / covariant components는 각각 physical components와 다음의 관계가 성립한다.
$$A^i=\frac{1}{h_{(i)}}A_{(i)}, \;\;\;\;\;\;\; A_j=\sum_j \frac{g_{ij}}{h_{(i)}}A_{(i)} \;\;\;\;(general)$$
$$A^i=\frac{1}{h_{(i)}}A_{(i)}, \;\;\;\;\;\;\; A_j=h_{(j)}A_{(i)} \;\;\;\;(orthogonal)$$
마찬가지로 higher rank tensor도 아래와 같은 관계가 성립한다.
$$T_{(ij)}=h_{(i)}h_{(j)}T^{ij}=h_{(i)}h_{(j)}g^{ik}T_k^{\:j}=h_{(i)}h_{(j)}g^{jl}T^i_{\:l} = h_{(i)}h_{(j)}g^{ik}g^{jl}T_{kl}$$
이렇게 벡터의 성분을 contravariant, covariant, physical로 나누는 것처럼 basis역시 contravariant, covariant, physical로 나눌 수 있을 것 같다. 먼저 covariant basis vector를 다음과 같이 정의하자.
DEF 4.2. Let $\vec{r}_x$ be a displacement vector whose components are expressed in terms of the coordinate system $x^i$. Then the covariant basis vector $\vec{e}_i$ is defined to be $\vec{e}_i \equiv \frac{d\vec{r}_x}{dx^i}$.
주의하자. 이것은 $A^i$와 같은 component와 같이 생각하면 안 된다. 서로 다른 basis를 구분짓는 역할을 한다. $\vec{e}_i$가 covariant함은 그 정의로부터 다음과 같이 쉽게 보일 수 있다.
$$\vec{\tilde{e}}_i =\frac{d\vec{r}_{\tilde{x}}}{d\tilde{x}^i}=\frac{\partial x^j}{\partial \tilde{x}^j} \frac{d\vec{r}_x}{dx^i}=\frac{\partial x^j}{\partial \tilde{x}^j} \vec{e}_i$$
앞서 $d\vec{r}=\sum_{i} h_{(i)}dx^i \hat{e}_{(i)}$라 했으므로 DEF 4.2.로부터 physical basis와 covariant basis의 관계를 얻을 수 있다. 또한 metric과 결합하여 contravariant basis를 정의하면 contravariant basis와 physical basis사이의 관계 역시 얻어진다.
$$\vec{e}_i = h_{(i)} \hat{e}_{(i)}, \;\;\;\;\;\; \vec{e}^j=\sum_{i} g^{ij} h_{(i)}\hat{e}_{(i)}\;\;\;\;(general)$$
$$\vec{e}_i = h_{(i)} \hat{e}_{(i)}, \;\;\;\;\;\; \vec{e}^j= \frac{1}{h_{(j)}} \hat{e}_{(j)}\;\;\;\;(orthogonal)$$
세 가지 종류의 basis중에 유일하게 physical basis만 unit vector이고 따라서 hat표시를 한 것이 보이는가? 크기가 1이므로 physical basis만이 세 종류의 basis중 유일하게 unitless이다. covariant basis는 $h_{(i)}$의 unit, contravariant basis는 $h_{(i)}^{-1}$의 unit을 갖는다. basis를 이렇게 잡으면 직교관계도 자명해진다.
THM 4.1. Regardless of whether the coordinate system is orthogonal, $\vec{e}_i \cdot \vec{e}^j = \delta_i^{\:j}$.
증명은 매우 간단하다.
$$\vec{e}_i \cdot \vec{e}^j = h_{(i)} \hat{e}_{(i)} \cdot \sum_k g^{kj} h_{(k)} \hat{e}_{(k)} = g^{kj} g_{ik} = \delta_i^{\:j}$$
또 metric의 정의로부터 $g_{ij}=\vec{e}_i \cdot \vec{e}_j$, $g^{ij}=\vec{e}^i \cdot \vec{e}^j$이다.
또 한가지 중요한 것은 이제 vector를 physical form이 아니라 contravariant $\times$ covariant의 꼴로 나타낼 수 있다는 것이다.
$$\vec{A}=\sum_i A_{(i)}\hat{e}_{(i)} = \sum_i h_{(i)} A^i \frac{1}{h_{(i)}} \vec{e}_i = A^i \vec{e}_i$$
$$\vec{A}=\sum_i A_{(i)}\hat{e}_{(i)} = \sum_i h_{(i)} g^{ij}A_j \frac{g_{ik}}{h_{(i)}} \vec{e}^k = \delta^j_{\:k}A_j\vec{e}^k=A_j \vec{e}^j$$
성분의 위치가 위든 아래든 성분을 구하는 방법은 마찬가지 $A_i=\vec{A}\cdot \vec{e}_i$와 같이 구할 수 있다.
Intro에서 언급했던 것을 기억해보자. $d\vec{r} = (dr,\:rd\theta,\:r\sin{\theta}d\phi)$과 같이 표현한 것은 physical basis에서 나타낸 physical component이고, $d\vec{r} = (dr,\: d\theta,\: d\phi)$라고 적은 것은 그저 좌표계만 덜렁 올려놓은 contravariant component에 covariant basis이다. 잘 쓰지는 않으나 $d\vec{r} = (dr,\: r^2 d\theta,\: r^2 \sin^2{\theta} d\phi)$와 같이 covariant성분에 contravariant basis를 사용해도 무방하다. 즉 vector 자체는 covariant와 contravariant의 결합이므로 좌표계에 따라 불변이다. 그 성분만이 basis에 따라 변할 뿐이고, 좌표변환에 대한 변환 룰에 따라 covariant, contravariant가 결정될 뿐인 것이다.
5. Scalar & product
두 벡터의 inner product는 다음과 같이 정의한다.
DEF 5.1. The covariant and contravariant scalar products of 2 rank 1 tensors, $\vec{A}$ and $\vec{B}$, are defined as $g^{ij}A_iB_j$ and $g_{ij}A^iB^j$ respectively.
이것이 우리가 미적분학에서 했던 내적과 동일한 것이다.
$$\vec{A} \cdot \vec{B} = \sum_{ij} \left( A_{(i)}\hat{e}_{(i)} \right) \cdot \left( B_{(j)}\hat{e}_{(j)} \right) = \sum_{ij} A_{(i)}B_{(j)}\frac{g_{ij}}{h_{(i)}h_{(j)}}=\sum_i \frac{A_{(i)}}{h_{(i)}} \sum_j \frac{g_{ij}B_{(j)}}{h_{(j)}}=A^iB_i$$
DEF 5.2. The covariant and contravariant scalar products of 2 rank 2 tensors, $\mathbf{S}$ and $\mathbf{T}$, are defined as $g^{ik}g^{jl}S_{kl}T_{ij}$ and $g_{ik}g_{jl}S^{ij}T^{kl}$ respectively.
이런 rank 2 tensor끼리의 scalar product를 colon product라고도 한다. colon product는 마찬가지로 다음이 성립함을 간단하게 보일 수 있다.
$$\mathbf{S} : \mathbf{T} = S^{ij}T_{ij} = \sum_{ij} S_{(ij)} T_{(ij)}$$
다음으로 두 tensor의 rank가 일반적으로 다른 경우 (같아도 됨) product 방법 중 inner product는 component 순서대로 곱하는 것이 아닌, 서로 안쪽의 component를 곱해주는 방식이다.
DEF 5.3. The inner product btw 2 tensors of any rank is the cotraction of the inner indices, namely the last index if the first tensor and the first index of the last tensor.
이 정의에 따르면 $A^jT^i_{\:j}$는 적절히 순서를 바꿔 $T^i_{\:j}A^j$로 맞춰주고 나면 inner product가 된다. 즉, $A^jT^i_{\:j}=T^i_{\:j}A^j=(\mathbf{T} \cdot \vec{A})^i$ 이다. 순서에 주의하자. scalar product를 좀 더 일반화 한 방법이고 그 결과는 일반적으로 scalar가 아니다. 또 이것 역시 당연하게도 physical component로 나타낼 수 있는데,
$$T^i_{\:j}A^j=g_{jk}T^{ik}A^j=\sum_{jk} g_{jk}\frac{T_{(ik)}}{h_{(i)}h_{(k)}} \frac{A_{(j)}}{h_{(j)}}=\frac{1}{h_{(i)}}\sum_{jk} T_{(ik)} A_{(j)} \hat{e}_{(j)} \cdot \hat{e}_{(k)}$$
$$\Rightarrow \;\;\; (\mathbf{T} \cdot \vec{A})_{(i)} = \sum_{jk} T_{(ik)} A_{(j)} \hat{e}_{(j)} \cdot \hat{e}_{(k)}$$
마지막 항은 orthogonal일 때만 $\sum_j T_{(ij)}A_{(j)}$와 같다.
6. Invariance of tensor expressions
텐서식의 장점은 좌표변환에 대해서 방정식이 불변이라는 것이다. $x$ coordinate에서 기술된 다음의 방정식을 생각하자.
$$T_{i\:kl}^{\:j}=A_i^{\:j}B_{kl}+C_m^{\;mj}D_{ikl}$$
이것을 각각 $\tilde{x}$ coordinate에서 나타내면
$$T_{i\:kl}^{\:j}=\frac{\partial \tilde{x}^{i'}}{\partial x^i} \frac{\partial x^j}{\partial \tilde{x}^{j'}} \frac{\partial \tilde{x}^{k'}}{\partial x^k} \frac{\partial \tilde{x}^{l'}}{\partial x^l} \tilde{T}_{i'\;k'l'}^{\;\,j'}$$
$$A_i^{\:j}B_{kl}+C_m^{\;mj}D_{ikl} = \frac{\partial \tilde{x}^{i'}}{\partial x^i} \frac{\partial x^j}{\partial \tilde{x}^{j'}} \tilde{A}_{i'}^{\;j'} \frac{\partial \tilde{x}^{k'}}{\partial x^k} \frac{\partial \tilde{x}^{l'}}{\partial x^l} \tilde{B}_{k'l'} + \frac{\partial \tilde{x}^{m'}}{\partial x^m} \frac{\partial x^m}{\partial \tilde{x}^{m''}} \frac{\partial x^j}{\partial \tilde{x}^{j'}} \tilde{C}_{m'}^{\:\,m''j'} \frac{\partial \tilde{x}^{i'}}{\partial x^i} \frac{\partial \tilde{x}^{k'}}{\partial x^k} \frac{\partial \tilde{x}^{l'}}{\partial x^l} \tilde{D}_{i'k'l'}$$
$$\Rightarrow \;\;\;\; \frac{\partial \tilde{x}^{i'}}{\partial x^i} \frac{\partial x^j}{\partial \tilde{x}^{j'}} \frac{\partial \tilde{x}^{k'}}{\partial x^k} \frac{\partial \tilde{x}^{l'}}{\partial x^l} \left( \tilde{T}_{i'\;k'l'}^{\;\,j'} - \tilde{A}_{i'}^{\;j'} \tilde{B}_{k'l'} - \tilde{C}_{m'}^{\:\,m'j'} \tilde{D}_{i'k'l'} \right) = 0$$
따라서 좌표변환에 대해서 텐서방정식 자체는 불변이다. 명제의 역으로 다음의 정리 역시 성립한다.
THM 6.1. (Quotient Rule) If $\mathbf{A}$ and $\mathbf{B}$ are tensors, and if the expression $\mathbf{A}=\mathbf{B}\mathbf{T}$ is invariant under coordinate transformation, then $\mathbf{T}$ is a tensor.
특수한 경우에 한해 위 정리를 증명해 볼 수 있다. 예를들어 $A^i=B_jT^j_{/;i}$라 하자. 가정이 전제되었을 때,
$$\tilde{B}_l \tilde{T}^l_{\;k} = \tilde{A}_k = \frac{\partial x^i}{\partial \tilde{x}^k}A_i=\frac{\partial x^i}{\partial \tilde{x}^k}B_jT^i_{\;i}=\frac{\partial x^i}{\partial \tilde{x}^k} \frac{\partial \tilde{x}^l}{\partial x^j} \tilde{B}_l \tilde{T}^j_{\;i}$$
$$\Rightarrow \;\;\;\;\; \tilde{B}_l \left( \tilde{T}^l_{\; k} - \frac{\partial x^i}{\partial \tilde{x}^k} \frac{\partial \tilde{x}^l}{\partial x^j} T^j_{\;i} \right)=0$$
$\forall \tilde{B}_l$, 위 식이 성립해야 하므로 괄호 안의 등식이 0이고 간단히 증명이 끝났다.
7. Permutation symbol / tensor
흔히 잘 알려진 Levi-Civita symbol은 다들 잘 알 것이다. 예시로 3차원 permutation parameter는 다음과 같이 정의한다.
$$\varepsilon_{ijk}=\varepsilon^{ijk}=\begin{cases} 1 & for \; i,j,k \; an \; even \; permutation\; of \; 1,2,3 \\ -1 & for \; i,j,k \; an \; odd \; permutation\; of \; 1,2,3 \\ 0 & if \; any \; of \; i,j,k\; are\; same \end{cases}$$
이것은 당연히 parameter에 불과하므로 tensor가 아니다. 단지 Einstein summation convention을 위해서 위첨자/아래첨자를 가려서 쓴다. 또 관례적으로 epsilon이 아니라 varepsilon을 levi-civita symbol로 사용하고, epsilon은 뒤에서 소개할 levi-civita tensor에 사용한다. varepsilon이 사용되는 대표적인 예시로는 잘 알겠지만 Cartesian에서의 cross product이다.
$$(\vec{A} \times \vec{B})_i = \varepsilon_{ijk}A^jB^k$$
또, matrix $\mathbf{A}$의 determinant $A$를 다음과 같이 표현할 수 있다.
$$A=\epsilon^{ijk}=\varepsilon^{ijk} A_{1i}A_{2j}A_{3k} \;\;\;\; \Leftrightarrow \;\;\;\; \varepsilon_{pqr}A=\varepsilon^{ijk} A_{pi}A_{qj}A_{rk}$$
위의 두 표현은 서로 동치이다. (조금 생각해보면 동치임을 밝힐 수 있다.) 이것을 higher dimension으로 확장하면 $B=\varepsilon^{i_1i_2 \cdots i_m}B_{1i_1}B_{2i_2}\cdots B_{mi_m}$이다. (B의 rank는 여전히 2이다.)
또 coordinate transformation matrix의 determinant는 Jacobian이고 기호로 다음과 같이 표기한다.
$$\mathcal{J}_{x/\tilde{x}} = \left| \frac{\partial x^i}{\partial \tilde{x}^j} \right| $$
Jacobian과 두 좌표계에서 정의된 동일한 rank 2, 3-dim tensor $\mathbf{A}$와 $\tilde{\mathbf{A}}$사이에는 다음과 같은 관계가 있다.
THM 7.1. If $\mathbf{A}$ and $\tilde{\mathbf{A}}$ are the same rank 2, 3-dim tensor in each of the two coordinate systems, then $\mathcal{J}_{x/\tilde{x}}=\sqrt{\tilde{A}/A}$.
$\varepsilon_{pqr}A=\varepsilon^{ijk} A_{pi}A_{qj}A_{rk}$로부터 출발하자.
$$\begin{align*} \varepsilon_{p'q'r'} \tilde{A} & =\varepsilon^{i'j'k'} \tilde{A}_{p'i'} \tilde{A}_{q'j'} \tilde{A}_{r'k'} \\ &=\varepsilon^{i'j'k'} \frac{\partial x^p}{\partial \tilde{x}^{p'}} \frac{\partial x^i}{\partial \tilde{x}^{i'}}A_{pi} \frac{\partial x^q}{\partial \tilde{x}^{q'}} \frac{\partial x^j}{\partial \tilde{x}^{j'}} A_{qj} \frac{\partial x^r}{\partial \tilde{x}^{r'}} \frac{\partial x^k}{\partial \tilde{x}^{k'}} A_{rk} \\ &=\underbrace{\varepsilon^{i'j'k'} \frac{\partial x^i}{\partial \tilde{x}^{i'}} \frac{\partial x^j}{\partial \tilde{x}^{j'}} \frac{\partial x^k}{\partial \tilde{x}^{k'}}}_{\varepsilon^{ijk} \mathcal{J}_{x/\tilde{x}}} A_{pi} A_{qj} A_{rk} \frac{\partial x^p}{\partial \tilde{x}^{p'}} \frac{\partial x^q}{\partial \tilde{x}^{q'}} \frac{\partial x^r}{\partial \tilde{x}^{r'}} \\ &=\underbrace{\varepsilon^{ijk} A_{pi} A_{qj} A_{rk}}_{\varepsilon_{pqr} A} \frac{\partial x^p}{\partial \tilde{x}^{p'}} \frac{\partial x^q}{\partial \tilde{x}^{q'}} \frac{\partial x^r}{\partial \tilde{x}^{r'}} \mathcal{J}_{x/\tilde{x}} \\ &= \underbrace{\varepsilon_{pqr} \frac{\partial x^p}{\partial \tilde{x}^{p'}} \frac{\partial x^q}{\partial \tilde{x}^{q'}} \frac{\partial x^r}{\partial \tilde{x}^{r'}}}_{\varepsilon_{p'q'r'} \mathcal{J}_{x/\tilde{x}}} \mathcal{J}_{x/\tilde{x}} A \\ &= \varepsilon_{p'q'r'} (\mathcal{J}_{x/\tilde{x}})^2 A \end{align*}$$
$$\Rightarrow \;\;\;\;\; \varepsilon_{p'q'r'} \left( \tilde{A} - (\mathcal{J}_{x/\tilde{x}})^2 A \right)=0 \;\;\;\;\; \Rightarrow \;\;\;\;\; \mathcal{J}_{x/\tilde{x}}=\sqrt{\tilde{A}/A} $$
THM 7.2. If $g=\det g_{ij}$ is the determinant of the metric, then the entities $\epsilon^{ijk}=\frac{1}{\sqrt{g}}\varepsilon^{ijk}$ and $\epsilon_{ijk}=\sqrt{g} \varepsilon_{ijk}$ are rank 3 tensors. Each of them is known as the contravariant and covariant permutation tensors.
tensor처럼 변환룰이 적용되는지 확인하자.
$$\tilde{\epsilon} \frac{\partial x^i}{\partial \tilde{x}^{i'}} \frac{\partial x^j}{\partial \tilde{x}^{j'}} \frac{\partial x^k}{\partial \tilde{x}^{k'}} = \frac{1}{\sqrt{\tilde{g}}} \varepsilon^{i'j'k'} \underbrace{\frac{\partial x^i}{\partial \tilde{x}^{i'}} \frac{\partial x^j}{\partial \tilde{x}^{j'}} \frac{\partial x^k}{\partial \tilde{x}^{k'}}}_{\varepsilon^{ijk} \mathcal{J}_{x/\tilde{x}}} = \frac{1}{\sqrt{\tilde{g}}} \varepsilon^{ijk} \sqrt{\frac{\tilde{g}}{g}} = \epsilon^{ijk}$$
마찬가지로 covariant permutation도 covariance를 보일 수 있다.
8. Tensor derivatives
우리는 벡터 그 자체가 coordi-system에 관계없이 불변임을 알고 있다. 벡터는 co-basis, contra-component 혹은 contra-basis, co-component의 합으로 표현할 수 있으므로, 벡터의 미분은 당연하게도 basis의 미분 역시 포함해야 한다. (단순히 성분만 미분해줘서는 안 된다.) 먼저 벡터 성분($A^i$)의 미분($\partial_j A^i$)이 tensor가 아님을 확인하자.$$\frac{\partial \tilde{A^p}}{\partial \tilde{x}^q} = \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial}{\partial x^j} \left( \frac{\partial \tilde{x}^p}{ \partial x^i} A^i \right) = \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial \tilde{x}^p}{ \partial x^i} \frac{\partial A^i}{\partial x^j} + \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial^2 \tilde{x}^p}{\partial x^j \partial x^i} A^i $$만약 $\partial_j A^i$가 tensor였다면 뒤의 항은 없어야 한다. 따라서 일반적인 좌표계에서는 $\partial_j A^i$를 tensor라 볼 수 없다. basis를 포함하지 않는 notation (벡터의 성분만을 표기)으로 vector의 미분을 어떻게 적을 수 있을까? 우선 vector자체를 좌표에 대해서 미분하면 다음과 같을 것이다.$$\frac{\partial \vec{A}}{\partial x^j} = \frac{\partial \left( A^i \vec{e}_i \right)}{\partial x^j} = \frac{\partial A^i}{\partial x^j} \vec{e}_i + \frac{\partial \vec{e}_i}{\partial x^j} A^i$$여기서 basis의 미분을 다른 basis들의 선형결합으로 나타낸다면 위의 식에서 basis를 제외하여 벡터의 미분을 표기할 수 있을 것이다.
DEF 8.1. The Christoffel symbols (second kind), $\Gamma^k_{ij}$, are the components of the vector $\partial \vec{e}_i / \partial x^j$ relative to the basis $\vec{e}_k$. Thus
$$ \frac{\partial \vec{e}_i}{ \partial x^j} = \Gamma^k_{ij} \vec{e}_k$$
여기서 $\Gamma^k_{ij}$의 indices order를 공백으로 적절하게 표기하지 않은 데는 이유가 있다. 이것은 tensor가 아니라 그저 basis의 미분을 basis의 선형결합으로 나타냄에 따라 생겨나는 계수들로, 그저 symbol에 불과하기 때문이다. 이것이 tensor가 아님은 뒤에서 볼 것이다. $\Gamma^k_{ij}$의 값을 표현하는 방법중 한가지를 소개한다. 가장 간단하게 dot product를 이용하여
$$\Gamma^k_{ij}=\Gamma^l_{ij} \delta^k_l = \Gamma^l_{ij} \vec{e}_l \cdot \vec{e}^k = \frac{\partial \vec{e}_i}{\partial x^j} \cdot \vec{e}^k$$와 같이 표현할 수 있다.
THM 8.1. The Christoffel symbol (2nd kind) is symmetric in its lower indices.
basis의 정의로부터 간단하게 증명가능하다.
$$\Gamma^k_{ij}=\frac{\partial \vec{e}_i}{\partial x^j} \cdot \vec{e}^k = \frac{\partial}{\partial x^j} \frac{\partial \vec{r}_x}{\partial x^i} \cdot \vec{e}^k$$위에서 $x^i$와 $x^j$는 서로 독립변수로 미분순서를 바꿔줄 수 있으므로 symmetric하다.
DEF 8.2. The Christoffel symbol (1st kind), $\Gamma_{ij\:k}$, are given by $\Gamma_{ij\:k}=g_{lk}\Gamma_{ij}^l, \;\; \Gamma_{ij}^l = g^{lk} \Gamma_{ij\:k}$.
마찬가지로 1st kind도 ij에 대해서 symmetric하다. symmetric indices ij와 non-symmetric index k가 서로 약간의 공백을 사이에 둔 것이 보일 것이다. 이것은 Christoffel symbol (1st kind)의 index symmetry를 시각적으로 보여주기 위함이다. 유념해야 할 점은 Christoffel symbol의 오직 non-symmetric index만 올리고 내리고 할 수 있으며 상황에따라 두 종류 중 편한 것을 사용하면 된다.
Christoffel symbol의 유용한 몇 가지 관계식을 소개한다. 먼저 $g_{ij}=\vec{e}_i \cdot \vec{e}_j$이므로 metric의 미분은 다음과 같이 표현될 수 있다.
$$\frac{\partial g_{ij}}{\partial x^k}=\vec{e}_i \cdot \frac{\partial \vec{e}_j}{\partial x^k} + \vec{e}_j \cdot \frac{\partial \vec{e}_i}{\partial x^k}=\Gamma_{jk\;i} + \Gamma_{ik\;j}$$
이 식은 metric의 미분을 Christoffel로 나타낸 것이다. indices permuting을 통해 똑같은 세 가지 식을 얻을 수 있고, 세 식을 적당히 잘 더하고 빼주면 반대의 관계 (Christoffel을 metric의 미분으로)를 얻을 수 있다.
$$\Gamma_{ij\:k}=\frac{1}{2} \left( \frac{\partial g_{ik}}{\partial x^j} + \frac{\partial g_{jk}}{\partial x^i} - \frac{\partial g_{ij}}{\partial x^k} \right),\;\;\;\; \Gamma_{ij}^l=\frac{g^{lk}}{2} \left( \frac{\partial g_{ik}}{\partial x^j} + \frac{\partial g_{jk}}{\partial x^i} - \frac{\partial g_{ij}}{\partial x^k} \right)$$
일반적인 3-dim coordinate의 경우 27개의 값을 가지며(symmetry때문에 15개만 독립이다), orthogonal coordinate라면 $g_{ij} \propto \delta_{ij}$이고, $g_{ii}=h_{(i)}^2=1/g^{ii}$이기 때문에 다음의 세 가지 종류의 값만 가진다.
$$\Gamma_{ij\;i}=g_{ii} \Gamma_{ij}^i=\frac{1}{2}\frac{\partial g_{ii}}{\partial x^j} \;\;(i,j=1,2,3)\\ \Gamma_{ii\;j}=g_{ii}\Gamma^j_{ii}=-\frac{1}{2}\frac{\partial g_{ii}}{\partial x^j} \;\;(i\neq j)\\ \Gamma_{ij\;k}=g_{kk}\Gamma^k_{ij}=0\;\;(i\neq j \neq k)$$
우리가 알고있는 cylindrical이나 3-dim spherical에서 이것을 이용하여 간단히 모든 Christoffel symbol을 계산해볼 수 있을것이다.
앞에서 Christoffel symbol을 소개하면서 이것이 tensor가 아니라고 했다. Christoffel을 metric의 미분으로 분해하여 각각 이것이 좌표변환에 대해서 어떻게 변하는지 살펴보자.
$$\frac{\partial \tilde{g}_{pq}}{\partial \tilde{x}^r}=\frac{\partial }{\partial \tilde{x}^r} \left( \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} g_{ij} \right) = \frac{\partial g_{ij}}{\partial x^k} \frac{\partial x^k}{\partial \tilde{x}^r} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} + g_{ij} \frac{\partial^2 x^i}{\partial \tilde{x}^r \partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} + g_{ij} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial^2 x^j}{\partial \tilde{x}^r \partial \tilde{x}^q}$$
index permuting을 통해 아래 두 식도 얻는다.
$$\begin{align*} 2 \tilde{\Gamma}_{pq\:r} & =\frac{\partial g_{jk}}{\partial x^i} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} + g_{jk} \frac{\partial^2 x^j}{\partial \tilde{x}^p \partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} + g_{jk} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial^2 x^k}{\partial \tilde{x}^p \partial \tilde{x}^r} \\ & +\frac{\partial g_{ki}}{\partial x^j} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} \frac{\partial x^i}{\partial \tilde{x}^p} + g_{ki} \frac{\partial^2 x^k}{\partial \tilde{x}^q \partial \tilde{x}^r} \frac{\partial x^i}{\partial \tilde{x}^p} + g_{ki} \frac{\partial x^k}{\partial \tilde{x}^r} \frac{\partial^2 x^i}{\partial \tilde{x}^q \partial \tilde{x}^p} \\ & -\frac{\partial g_{ij}}{\partial x^k} \frac{\partial x^k}{\partial \tilde{x}^r} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} - g_{ij} \frac{\partial^2 x^i}{\partial \tilde{x}^r \partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} - g_{ij} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial^2 x^j}{\partial \tilde{x}^r \partial \tilde{x}^q} \end{align*}$$
위 식의 세 번째 항에서 index i와 j를 서로 바꾸고, metric은 symmetric하므로 다시 원래대로 바꾼다. 같은작업을 6, 9번째 항에도 수행해주면
$$\begin{align*} \tilde{\Gamma}_{pq\:r} & =\frac{1}{2} \left( \frac{\partial g_{jk}}{\partial x^i} + \frac{\partial g_{ki}}{\partial x^j} -\frac{\partial g_{ij}}{\partial x^k} \right) \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} + g_{ij} \frac{\partial x^j}{\partial \tilde{x}^r} \frac{\partial^2 x^i}{\partial \tilde{x}^p \partial \tilde{x}^q} \\ &=\Gamma_{ij\:k} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} + g_{ij} \frac{\partial x^j}{\partial \tilde{x}^r} \frac{\partial^2 x^i}{\partial \tilde{x}^p \partial \tilde{x}^q} \end{align*}$$
이처럼 tensor-like하게 변환되지 않는다. 유일한 규칙은 non-symmetric index만 tensor처럼 올리거나 내릴 수 있다는 것 뿐, (사실 우리가 정의를 그렇게 했을 뿐이다) tensor처럼 생각하면 안 된다. 마찬가지로 1st kind의 변환을 살펴보기위해
$$\frac{\partial \tilde{g}_{pq}}{\partial \tilde{x}^r}=\frac{\partial }{\partial \tilde{x}^r} \left( \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} g_{ij} \right) = \frac{\partial g_{ij}}{\partial x^k} \frac{\partial x^k}{\partial \tilde{x}^r} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} + g_{ij} \frac{\partial^2 x^i}{\partial \tilde{x}^r \partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} + g_{ij} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial^2 x^j}{\partial \tilde{x}^r \partial \tilde{x}^q}$$
index permuting을 통해 아래 두 식도 얻는다.
$$\frac{\partial \tilde{g}_{qr}}{\partial \tilde{x}^p}=\frac{\partial g_{jk}}{\partial x^i} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} + g_{jk} \frac{\partial^2 x^j}{\partial \tilde{x}^p \partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} + g_{jk} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial^2 x^k}{\partial \tilde{x}^p \partial \tilde{x}^r}$$
$$\frac{\partial \tilde{g}_{rp}}{\partial \tilde{x}^q}=\frac{\partial g_{ki}}{\partial x^j} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} \frac{\partial x^i}{\partial \tilde{x}^p} + g_{ki} \frac{\partial^2 x^k}{\partial \tilde{x}^q \partial \tilde{x}^r} \frac{\partial x^i}{\partial \tilde{x}^p} + g_{ki} \frac{\partial x^k}{\partial \tilde{x}^r} \frac{\partial^2 x^i}{\partial \tilde{x}^q \partial \tilde{x}^p}$$
따라서, $\Gamma_{ij\:k}$를 전개해보면,$$\begin{align*} 2 \tilde{\Gamma}_{pq\:r} & =\frac{\partial g_{jk}}{\partial x^i} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} + g_{jk} \frac{\partial^2 x^j}{\partial \tilde{x}^p \partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} + g_{jk} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial^2 x^k}{\partial \tilde{x}^p \partial \tilde{x}^r} \\ & +\frac{\partial g_{ki}}{\partial x^j} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} \frac{\partial x^i}{\partial \tilde{x}^p} + g_{ki} \frac{\partial^2 x^k}{\partial \tilde{x}^q \partial \tilde{x}^r} \frac{\partial x^i}{\partial \tilde{x}^p} + g_{ki} \frac{\partial x^k}{\partial \tilde{x}^r} \frac{\partial^2 x^i}{\partial \tilde{x}^q \partial \tilde{x}^p} \\ & -\frac{\partial g_{ij}}{\partial x^k} \frac{\partial x^k}{\partial \tilde{x}^r} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} - g_{ij} \frac{\partial^2 x^i}{\partial \tilde{x}^r \partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} - g_{ij} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial^2 x^j}{\partial \tilde{x}^r \partial \tilde{x}^q} \end{align*}$$
위 식의 세 번째 항에서 index i와 j를 서로 바꾸고, metric은 symmetric하므로 다시 원래대로 바꾼다. 같은작업을 6, 9번째 항에도 수행해주면
$$\begin{align*} \tilde{\Gamma}_{pq\:r} & =\frac{1}{2} \left( \frac{\partial g_{jk}}{\partial x^i} + \frac{\partial g_{ki}}{\partial x^j} -\frac{\partial g_{ij}}{\partial x^k} \right) \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} + g_{ij} \frac{\partial x^j}{\partial \tilde{x}^r} \frac{\partial^2 x^i}{\partial \tilde{x}^p \partial \tilde{x}^q} \\ &=\Gamma_{ij\:k} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} + g_{ij} \frac{\partial x^j}{\partial \tilde{x}^r} \frac{\partial^2 x^i}{\partial \tilde{x}^p \partial \tilde{x}^q} \end{align*}$$
이처럼 tensor-like하게 변환되지 않는다. 유일한 규칙은 non-symmetric index만 tensor처럼 올리거나 내릴 수 있다는 것 뿐, (사실 우리가 정의를 그렇게 했을 뿐이다) tensor처럼 생각하면 안 된다. 마찬가지로 1st kind의 변환을 살펴보기위해
$$g^{rs}=g^{ml} \frac{\partial \tilde{x}^r}{\partial x^m} \frac{\partial \tilde{x}^s}{\partial x^l}$$을 이용하면$$\begin{align*} \tilde{\Gamma}^s_{pq} &=\Gamma_{ij\:k} g^{ml} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} \underbrace{ \frac{\partial x^k}{\partial \tilde{x}^r} \frac{\partial \tilde{x}^r}{\partial x^m} }_{\delta^k_m} \frac{\partial \tilde{x}^s}{\partial x^l} + g^{ml} g_{ij} \underbrace{ \frac{\partial x^j}{\partial \tilde{x}^r} \frac{\partial \tilde{x}^r}{\partial x^m} }_{\delta^j_m} \frac{\partial \tilde{x}^s}{\partial x^l} \frac{\partial^2 x^i}{\partial \tilde{x}^p \partial \tilde{x}^q} \\ &= \Gamma^l_{ij} \frac{\partial x^i}{\partial \tilde{x}^p} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial \tilde{x}^s}{\partial x^l} + \frac{\partial \tilde{x}^s}{\partial x^l} \frac{\partial^2 x^l}{\partial \tilde{x}^p \partial \tilde{x}^q} \end{align*}$$
지금까지 우리는 basis의 미분을 basis의 선형결합으로 썼을 때 그 계수가 Christoffel Symbol임을 알았고, metric과 Christoffel사이의 관계도 알아냈다. 이제 본격적으로 벡터를 미분해 볼 차례이다.$$\frac{\partial \vec{A}}{\partial x^j} = \frac{\partial A^i}{\partial x^j} \vec{e}_i + \Gamma^k_{ij}\vec{e}_k A^i = \left( \frac{\partial A^i}{\partial x^j} + \Gamma^i_{jk}A^k \right) \vec{e}^i$$이제 이걸 co-basis를 떼고 성분만으로 적어서 벡터의 미분을 정의하자.
DEF 8.3. The covariant derivative of a contravariant vector, $A^i$, is given by
$$\nabla_j A^i \equiv \frac{\partial A^i}{\partial x^j} + \Gamma^i_{jk}A^k$$
$$\nabla_j A^i \equiv \frac{\partial A^i}{\partial x^j} + \Gamma^i_{jk}A^k$$
이것은 그냥 벡터의 자연스러운 미분일 뿐이다. 기존 스칼라량에 대한 미분 처럼 벡터를 미분하는 방법으로 basis의 변화까지 고려한 자연스러운 벡터의 미분인 것이다.
$$\frac{\partial \vec{A}}{\partial x^j} = \nabla_j A^i \vec{e}_i$$
벡터장이 아닌 스칼라장이라면 당연히 covariant derivative는 그냥 partial derivative와 같을 것이다.
벡터의 미분을 성분으로만 쓰게 되면 성분만 미분해서는($\partial_j A^i$) covariant하지 않음을 쉽게 확인할 수 있을 것이다. covariant derivative는 이름에서부터 covariant할 것 같다.
$$\begin{align*} \tilde{\nabla}_q \tilde{A}^p &= \frac{\partial \tilde{A}^p}{\partial \tilde{x}^q} + \tilde{\Gamma}^p_{qr} \tilde{A}^r \\ &= \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial \tilde{x}^p}{\partial x^i} \frac{\partial A^i}{\partial x^j} + \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial^2 \tilde{x}^p}{\partial x^j \partial x^i} A^i + \left( \Gamma^i_{jk} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial x^k}{\partial \tilde{x}^r} \frac{\partial \tilde{x}^p}{\partial x^i} + \frac{\partial \tilde{x}^p}{\partial x^i} \frac{\partial^2 x^i}{\partial \tilde{x}^q \partial \tilde{x}^r} \right) \frac{\partial \tilde{x}^r}{\partial x^l} A^l \\ &= \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial \tilde{x}^p}{\partial x^i} \frac{\partial A^i}{\partial x^j} + \Gamma^i_{jk} \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial \tilde{x}^p}{\partial x^i} \underbrace{ \frac{\partial x^k}{\partial \tilde{x}^r} \frac{\partial \tilde{x}^r}{\partial x^l} }_{\delta^k_{\;l}} A^l + \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial^2 \tilde{x}^p}{\partial x^j \partial x^i} A^i + \frac{\partial \tilde{x}^p}{\partial x^i} \frac{\partial^2 x^i}{\partial \tilde{x}^q \partial \tilde{x}^r} \frac{\partial \tilde{x}^r}{\partial x^l} A^l \end{align*}$$
마지막 항을 다시 써보자.
$$ \frac{\partial \tilde{x}^p}{\partial x^i} \frac{\partial \tilde{x}^r}{\partial x^l} \frac{\partial}{\partial \tilde{x}^r} \left( \frac{\partial x^i}{\partial \tilde{x}^q} \right) A^l = \frac{\partial \tilde{x}^p}{\partial x^i} \frac{\partial}{\partial \tilde{x}^l} \left( \frac{\partial x^i}{\partial \tilde{x}^q} \right) A^l \\ = A^l \left( \frac{\partial}{\partial \tilde{x}^l} \left( \frac{\partial \tilde{x}^p}{\partial x^i} \frac{\partial x^i}{\partial \tilde{x}^q} \right) - \frac{\partial x^i}{\partial \tilde{x}^q} \frac{\partial^2 \tilde{x}^p}{\partial x^l \partial x^i} \right) = - \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial^2 \tilde{x}^p}{\partial x^j \partial x^i} A^i$$
따라서 cancel되고 남은 항만 정리하면 covariance를 보일 수 있다.
$$\tilde{\nabla}_q \tilde{A}^p = \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial \tilde{x}^p}{\partial x^i} \left( \frac{\partial A^i}{\partial x^j} + \Gamma^i_{jk} A^k \right) = \frac{\partial x^j}{\partial \tilde{x}^q} \frac{\partial \tilde{x}^p}{\partial x^i} \nabla_j A^i$$
이번에는 contra-basis의 미분을 보자. delta의 미분은 자명하게 0이므로
$$0=\frac{\partial}{\partial x^j} \left( \vec{e}_i \cdot \vec{e}^l \right) = \frac{\partial \vec{e}_i}{\partial x^j} \cdot \vec{e}^l + \vec{e}_i \cdot \frac{\partial \vec{e}^l}{\partial x^j} \;\;\;\; \Rightarrow \;\;\;\; \frac{\partial e^i}{\partial x^j} = -\Gamma^i_{jk} \vec{e}^k$$
이것을 이용하면 co-vector의 미분도 다음과 같이 정의할 수 있다.
DEF 8.4. The covariant derivative of a covariant vector, $A_i$, is given by
$$\nabla_j A_i \equiv \frac{\partial A_i}{\partial x^j}-\Gamma^k_{ij}A_k$$
$\nabla_j A^i$가 rank 2 tensor임을 보였던 것처럼 마찬가지로 $\nabla_j A_i$역시 rank 2 tensor임을 보일 수 있다. 형식적으로는 contravariant derivative $\nabla^j$도 정의할 수 있으나 실제로는 잘 사용하지 않는다. 종종 쓰는 notation으로, 성분에 대한 미분과 벡터 전체에 대한 미분(covariant derivative)을 줄여서 다음과 같이 쓰기도 한다.
$$\nabla_j A_i = A_{i;j}, \;\;\;\; \frac{\partial A_i}{\partial x^j} = \partial_j A_i = A_{i,j}$$
여기서는 이와같은 notation을 사용하지는 않을 것이지만 이 뒤부터는 $\frac{\partial}{\partial x^j}$를 앞으로 $\partial_j$와 같이 줄여 쓰겠다.
THM 8.2. The covariant derivatives of the contravariant & covariant basis vectors are zero.
직접 해보면 간단하다.
$$\nabla_j \vec{e}^i = \partial_j \vec{e}^i + \Gamma^i_{jk} \vec{e}^k = 0 \\ \nabla_j \vec{e}_i = \partial_j \vec{e}_i - \Gamma^k_{ij}\vec{e}_k = 0$$
higher rank tensor에 대해서도 마찬가지 규칙을 적용할 수 있다. (보이기 힘들다면 basis 두 개를 마찬가지로 양변에 붙였다가 떼보자.) 예를 들어 rank 2 tensor의 covariant derivative는 다음과 같다.
$$\nabla_k T^i_{\;j}=\partial_k T^i_{\;j}+\Gamma^i_{kp}T^p_{\;j} - \Gamma^q_{kj} T^i_{\;q}$$
다음은 covariant derivative의 합규칙과 곱규칙을 설명한다.
THM 8.3. If $\mathbf{A}$ and $\mathbf{B}$ are two tensors of the same rank, dimensionality, and type, then $\nabla_i (A+B)=\nabla_i A + \nabla_i B$, where the indices have been omitted for generality.
THM 8.4. If $\mathbf{A}$ and $\mathbf{B}$ are two tensors of the same rank, dimensionality, and type, then $\nabla_i (AB)=A\nabla_i B + B\nabla_i A$.
증명은 간단하므로 생략한다. rank 2 tensor의 대표적인 예시로 metric이 있다. 이 metric의 covariant derivative가 어떻게 되는지 살펴보자.
THM 8.5. (metric compatibility) The covariant derivative of the metric and its inverse vanish.
$$\nabla_k g_{ij} = \partial_k g_{ij} - \Gamma^p_{ki}g_{pj} - \Gamma^p_{kj}g_{pi} = \partial_k g_{ij} - \Gamma_{ki\:j} - \Gamma_{kj\:i} = 0$$
마찬가지로 $\nabla_k g^{ij}=0$임도 보일 수 있다. metric의 co-derivative는 항상 0이기 때문에 연산자의 관점에서 보면 $[\nabla_k, g_{ij}]=0$이 성립한다. 이것은 co-derivative와 metric의 순서를 그저 바꾸어 써도 된다는 의미이다.
COR 8.1. The metric pass through a covariant derivative operator.
2nd order covariant derivative를 생각하자. 이것이 과연 commute할까?
$$\begin{align*} \nabla_k \nabla_j A^i \equiv \nabla_{kj} A^i & = \nabla_k (\partial_j A^i + \Gamma^i_{ja}A^a \\ & = \partial_{jk} A^i + \Gamma^i_{ja} \partial_k A^a - \Gamma^a_{kj} \partial_a A^i + \Gamma^i_{ka} \partial_j A^a + A^a (\partial_k \Gamma^i_{ja} - \Gamma^b_{kj} \Gamma^i_{ba}+\Gamma^i_{kb} \Gamma^b_{ja}) \end{align*}$$
$x^j$와 $x^k$가 서로 independent라면 $\partial_{jk}A^i = \partial_{kj}A^i$가 성립하지만, 일반적으로 $\nabla_{jk}A^i \neq \nabla_{kj} A^i$이다.
COR 8.2. $\nabla_{[i,j]} A^k \neq 0$ in general.
한가지 Christoffel symbol에 대하여 일러둘 것이 있다. flat coordinate $y$, arbitrary coordinate $x$에 대하여 한 점 $x_0$에 대한 Taylor expansion을 생각하자.
$$y^i (x) = K^i_j(x_0) \left[ (x^j-x_0^j) + \frac{1}{2} \Gamma^j_{kl}(x_0) (x^k-x_0^k) (x^l-x_0^l) + \cdots \right]$$
여기서 $K^i_j(x_0) = \frac{\partial y^i}{\partial x^j}(x_0)$이다. 이렇게 쓸 수 있는 근거를 생각해보자. coordinate transform에 대하여
$$\Gamma^s_{pq}(x)=\Gamma^l_{ij}(y)\frac{\partial y^i}{\partial x^p} \frac{\partial y^j}{\partial x^q} \frac{\partial x^s}{\partial y^l} + \frac{\partial x^s}{\partial y^l} \frac{\partial^2 y^l}{\partial x^p \partial x^q}$$
그런데 flat coordinate $y$에 대하여 $\Gamma^l_{ij}(y)=0$이므로 다음이 성립한다.
$$\Gamma^s_{pq}(x)=\frac{\partial x^s}{\partial y^l} \frac{\partial^2 y^l}{\partial x^p \partial x^q}$$
여기에 $K^i_j(x_0) = \frac{\partial y^i}{\partial x^j}(x_0)$를 곱하면 바로 2nd order term이 된다. 따라서 Christoffel symbol은 flat coordinate로의 좌표변환식의 2nd order term의 계수로 생각할 수 있다.
COR 8.3. The Christoffel symbol is related to a set of 2nd order coefficients in Taylor expansion of coordinate transform.
covariant derivative를 벡터장에 대한 방향미분(directional derivative)로 생각할 수 있다. 우리가 $\nabla_j A^i$라고 쓰는것은 사실 $\vec{e}_j$에 대한 벡터장 $\vec{A}$의 미분(의 성분)에 해당하고 다음과 같이 표기하기도 한다.
$$\nabla_{\vec{e}_j} \vec{A}=\nabla_j \vec{A}$$
좌변의 notation을 이용하면 이것은 다른 directional derivative이기 때문에 다음의 분배법칙역시 성립한다.
$$\nabla_{a\vec{v}+b\vec{w}} \vec{A}=a\nabla_{\vec{v}} \vec{A}+b\nabla_{\vec{w}} \vec{A}$$
따라서 general vector field $\vec{v}$, $\vec{u}$에 대하여 $\vec{v}$방향에 대한 vector field $\vec{u}$의 directional derivative는 다음과 같다.
$$\nabla_{\vec{v}} \vec{u} = \nabla_{v^j \vec{e}_j} u^i \vec{e}_i = v^j u^i \underbrace{\nabla_j \vec{e}_i}_{0} + v^j \vec{e}_i \nabla_j u^i = \left( v^j \partial_j u^i + v^j u^k \Gamma^i_{jk} \right) \vec{e}_i$$
COR 8.4. Covariant derivative means directional derivative.
9. Vector calculus expressions
가장 먼저 gradient부터 살펴보자. scalar의 covariant derivative는 basis를 포함하지 않으므로 그냥 partial derivative와 같다. 일반적으로 $(\nabla f)_{(i)}=h_{(i)}g^{ij}\partial_j f$인데, orthogonal한 좌표계로 잡으면 $(\nabla f)_{(i)}=(\partial_i f)/h_{(i)}$으로 간단해진다. 따라서 gradient를 physical component로 다음과 같이 간단히 쓸 수 있다.
THM 9.1. The gradient of a scalar is expressed by
$$\begin{align*} (\nabla f)_{(i)} &=h_{(i)} g^{ij} \partial_j f & (general) \\ &=\partial_i f/h_{(i)} & (orthogonal) \end{align*}$$
vector의 divergence는 basis의 미분 역시 고려해야하므로, covariant derivative의 정의에 의해 다음과 같은 꼴이 된다.
$$\nabla_i A^i = \partial_i A^i + \Gamma^i_{ij}A^j$$
그런데 여기서 last term을 다음과 같이 쓰고 나면
$$\begin{align*} \Gamma^i_{ij} &=\frac{1}{2}g^{ki}(\partial_i g_{jk} + \partial_j g_{ki} - \partial_k g_{ij}) \\ &= \frac{1}{2}(g^{ki}\partial_i g_{jk}+g^{ki}\partial_j g_{ki}-g^{ik}\partial_i g_{kj} = \frac{1}{2}g^{ki}\partial_j g_{ki} \end{align*}$$
divergence는 다시 다음과같은 모양이 된다.
$$\nabla_i A^i = \partial_i A^i + \frac{A^i}{2}g^{ik}\partial_i g_{jk}$$
마지막 항이 triple sum으로 상당히 계산이 힘들다. 이것을 다음의 Jacobi formula로 간단히 나타낼 수 있다.
THM 9.2. (Jacobi formula) Let $A_{ij}$ be a rank 2 covariant tensor of dimension $m$ ($m\times m$ matrix), and let $A=\det{A_{ij}}$ be its determinant. Let $cf(A_{ij})=\mathcal{A}^{ji}$ be the cofactor of $A_{ij}$ ($(-1)^{i+j}$ times determinants of the submatrix obtained from $A$ by deleting $i^{th}$ row and $j^{th}$ columns of $A$). Then $\partial_k A = \mathcal{A}^{ji} \partial_k A_{ij}$.
$A$를 $A_{ij}$의 함수로 보면,
$$\partial_k A = \frac{\partial A}{\partial A^{ij}} \partial_k Q_{ij}$$
그런데 여기서 determinant는 한 row나 column아무거나 잡아서 그 성분들과 cofactor들을 곱해주면 얻을 수 있다.
$$A=\sum_{j=1}^{m}A_{ij} cf(A_{ij}) = \sum_{j=1}^m A_{ij} \mathcal{A}^{ji} \;\;\;\; for\;\;any\;\;i=1,2,\cdots,m \;\;(no\;\;sum\;\;on\;\;i) \\ \Rightarrow \;\;\;\; \frac{\partial A}{\partial A_{ik}}=\sum_{j} \left( \frac{\partial A_{ij}}{\partial A_{ik}} \mathcal{A}^{ji}+A_{ij}\frac{\partial \mathcal{A}^{ji}}{\partial A_{ik}} \right)$$
$\mathcal{A}^{ji}$는 i-row, j-column을 제외한 나머지들을 변수로 받는다. 따라서 $\partial\mathcal{A}^{ji}/\partial A_{ik}=0$이다. 따라서 위의 정리가 증명된다.
$$\frac{\partial A}{\partial A_{ik}}=\sum_{j} \delta_j^{\;k} \mathcal{A}^{ji} = \mathcal{A}^{ki}$$
이제 $A_{ij}=g_{ij}$라 해보자. THM 9.1.에 따르면 $\partial_k g = \mathcal{G}^{ji} \partial_k g_{ij}$ 이다. 여기서 $\mathcal{G}^{ji}$는 $g_{ij}$의 cofactor이고 $g_{ij}$의 inverse는 $g^{ji}$이므로 inverse matrix formula를 생각해보면
$$g^{ji}=\frac{1}{g} \mathcal{G}^{ji} \;\;\;\; \Rightarrow \;\;\;\; \mathcal{G}^{ji}=g g^{ji}$$
이것을 그대로 대입하여 $\partial_k g = g g^{ij} \partial_k g_{ij}$를 얻는다. 따라서
$$g^{jk} \partial_i g_{jk} = \frac{1}{g} \partial_i g$$
이 식을 우리가 처음에 찾은 divergence에 대입하면 다음과 같은 간결한 표현을 얻는다.
THM 9.3. The divergence of a vector is expressed by
$$\nabla_i A^i = \partial_i A^i + A^i \frac{1}{2g}\partial_i g = \frac{1}{\sqrt{g}} \partial_i (\sqrt{g} A^i)$$
COR 9.1. For orthogonal coordinates only, $g_{ij}$ is diagonal and $\sqrt{g}=h_{(1)} h_{(2)} h_{(3)}$. Thus, the eq in DEF 9.2. becomes
$$\nabla_i A^i =\frac{1}{h_{(1)}h_{(2)}h_{(3)}} \sum_{i} \partial_i \left( \frac{h_{(1)}h_{(2)}h_{(3)}}{h_{(i)}} A_{(i)} \right) = \nabla \cdot \vec{A}$$
rank 2 tensor의 경우 내적은 바로 인접한 index끼리의 합이다. contravariant tensor로 예시를 들면 $(\nabla \cdot \mathbf{T})^j \equiv \nabla_i T^{ij}$이다.
DEF 9.1. The divergence of a contravariant tensor, $\mathbf{T}$, is the contraction of the covariant derivative with the 1st index of the tensor, and is itself a contravariant tensor of rank on less than $\mathbf{T}$. Specifically, for a rank 2 tensor,
$$(\nabla \cdot \mathbf{T})^j \equiv \nabla_i T^{ij}$$
성분은 언제나 physical component로 바꿀 수 있으므로, rank 2 tensor divergence의 physical component는
$$(\nabla \cdot \mathbf{T})_{(j)}=h_{(j)} \nabla_i T^{ij}$$
여기서 covariant derivative를 전개하면
$$\nabla_i T^{ij}=\partial_i T^{ij}+\Gamma^i_{ik} T^{kj}+\Gamma^j_{ik} T^{ik} = \frac{1}{\sqrt{g}} \partial_i (\sqrt{g} T^{ij}) + \Gamma^j_{ik} T^{ik}$$
$T_{(ik)}=h_{(i)} h_{(k)} T^{ik}$를 이용하고 orthogonal coordinate를 가정하면 다음을 얻는다. (자세한 과정은 생략한다.)
$$\Gamma^j_{ik}T^{ik} = \sum_i \frac{1}{h_{(j)}^2 h_{(i)}} \left( \left( T_{(ji)}+T_{(ij)} \right) \partial_i h_{(j)} - T_{(ii)} \partial_j h_{(i)} \right)$$
$$\frac{1}{\sqrt{g}}\partial_i (\sqrt{g} T^{ij})=\frac{1}{h_{(1)}h_{(2)}h_{(3)}} \sum_i \partial_i \left( \frac{h_{(1)}h_{(2)}h_{(3)}}{h_{(i)}h_{(j)}} \right)$$
따라서 다음과 같이 physical component로 tensor divergence를 표현할 수 있다.
COR 9.2. For the orthogonal coordinates only, divergence of a rank 2 tensor is expressed by
$$\begin{align*} (\nabla \cdot \mathbf{T})_{(j)} & = \frac{1}{h_{(1)}h_{(2)}h_{(3)}} \sum_i \partial_i \left( \frac{h_{(1)}h_{(2)}h_{(3)}}{h_{(i)}h_{(j)}} \right) \\ & + \sum_i \frac{1}{h_{(j)}^2 h_{(i)}} \left( \left( T_{(ji)}+T_{(ij)} \right) \partial_i h_{(j)} - T_{(ii)} \partial_j h_{(i)} \right) \end{align*}$$
이제 scalar의 laplacian을 생각해보자. gradient의 divergence이므로
$$\nabla^2 f = \nabla \cdot \nabla f$$
covariant derivative와 contravariant성분이 결합해야 하므로 $(\nabla f)^i = g^{ij} \partial_j f$를 divergence식에 대입하면 된다.
THM 9.4. The Laplacian of a scalar is expressed by
$$\nabla^2 f = \nabla_i (g^{ij} \partial_j f)=\frac{1}{\sqrt{g}}\partial_i (\sqrt{g} g^{ij} \partial_j f)$$
마찬가지로 orthogonal coordinate에선 $g^{ij}=\delta^{ij}/h_{(i)}h_{(j)}$이고 $\sqrt{g}=h_{(1)}h_{(2)}h_{(3)}$이므로 laplacian은 다음과 같이 정리된다.
COR 9.3. For the orthogonal coordinates only, Laplacian of a scalar is expressed by
$$\nabla^2 f = \frac{1}{h_{(1)}h_{(2)}h_{(3)}} \sum_i \partial_i \left( \frac{h_{(1)}h_{(2)}h_{(3)}}{h_{(i)}^2} \partial_i f \right)$$
다음으로 vector의 curl을 생각해보자. 1-form to 2-form이므로 3차원이 아닌 한 tensor form이 될 것임을 짐작할 수 있는데 아래와 같은 꼴을 생각해보자.
$$\nabla_j A^i-\nabla_i A^j = \partial_j A^i + \Gamma^i_{jk} A^k - \partial_i A^j - \Gamma^j_{ik} A^k$$
이 식은 Christoffel symbol이 서로 사라지지 않는다. 따라서 $\partial_j A^i - \partial_i A^j$는 tensor가 아니다. 하지만 index를 내려주면,
$$\nabla_j A_i - \nabla_i A_j = \partial_j A_i + \Gamma^k_{ij} A_k - \partial_i A_j - \Gamma^k_{ji} A_k = \partial_j A_i- \partial_i A_j$$
따라서 $\partial_j A_i- \partial_i A_j$는 성공적으로 rank 2 tensor의 선형결합으로 표현되었으므로 rank 2 tensor가 된다. 이것을 rank 2에서 rank 1(vector)로 만들어주기 위해 cross product에서 했던 것과 비슷하게 permutation을 이용한다.
DEF 9.2. Given a rank 1 covariant tensor, $A_j$, the contravariant rank 1 tensor curl is defined by
$$C^k \equiv \epsilon^{ijk}\partial_i A_j \;\;\;\; \Leftrightarrow \;\;\;\; C_{(k)}=\frac{h_{(k)}}{\sqrt{g}} \sum_{ijl} \varepsilon^{ijk} \partial_i \left( \frac{g_{lj}}{h_{(l)}} A_{(l)}\right)$$
마찬가지로 orthogonal coordinate에서는 정리하면 더 간단해진다.
COR 9.4. For the orthogonal coordinates only, physical curl is expressed by
$$C_{(k)}=\frac{h_{(k)}}{\sqrt{g}} \sum_{ij} \varepsilon^{ijk} \partial_i (h_{(j)}A_{(j)}) = (\nabla \times \vec{A})_{(k)}$$
vector 성분별로 laplacian을 취하는 경우(vector laplacian), 다음과 같은 invariant form (어느 좌표계든 관계없이 성립하는 identity)으로 전개하여 해석할 수 있다.
COR 9.5. The Laplacian of a vector can be written down by using the identity
$$\nabla^2 \vec{A}=\nabla ( \nabla \cdot \vec{A} ) - \nabla \times (\nabla \times \vec{A} )$$
비슷한 아이디어로 vector gradient도 $\nabla_i A_j = \partial_i A_j - \Gamma^k_{ij}A_k = (\nabla \vec{A})_{ij}$와 같이 쓸 수 있고 아주 단순하고 귀찮은 계산에 따르면 이것 역시 physical component로 바꾸어볼 수 있다. 11성분과 12성분을 계산한 뒤 일반화하면 다음을 얻는다.
COR 9.6. The vector gradient can be expressed by
$$(\nabla \vec{A})_{(ij)}=\begin{cases} \partial_i \left( \frac{A_{(i)}}{h_{(i)}} + \frac{\vec{A}\cdot \nabla h_{(i)}}{h_{(i)}}\right) & i=j \\ \frac{1}{h_{(i)}} \left( \partial_i A_{(j)} - \frac{A_{(i)}}{h_{(j)}} \partial_j h_{(i)} \right) & i\neq j \end{cases}$$
본 게시물은 A. Zee (2013). Einstein Gravity in a Nutshell와 David A. Clarke (2011). A Primer on Tensor Calculus을 참고하였음.
0 개의 댓글