[선형대수학] 역행렬, 대각행렬, 직교행렬
목차01. Matirx Inversion(역행렬)02. Diagonal Matrix(대각행렬)03. Orthogonal Matix(직교행렬) 01. Matrix Inversion(역행렬) 선행 방정식을 풀이에 사용되는 연산법X에 위첨자 -1로 표기X = np.array([[4, 2], [-5, -3]])X# array([[ 4, 2],# [-5, -3]])Xinv = np.linalg.inv(X)Xinv# array([[ 1.5, 1. ],# [-2.5, -2. ]])y = np.array([4, -7])y# array([ 4, -7])w = np.dot(Xinv, y)w# array([-1., 4.])np.dot(X, w)# array([ 4., -7.]) ..
2023. 11. 7.
[선형대수학] 프로베니우스 노름, 행렬곱
목차01. Frobenius norm(프로베니우스 노름)02. Matrix Multiplication(행렬곱) 01. Frobenius norm(프로베니우스 노름) 모든 element 절대값을 제곱한 총합의 제곱근X = np.array([[1, 2], [3, 4]])# array([[1, 2],# [3, 4]])np.linalg.norm(X) # (1**2 + 2**2 + 3**2 + 4**2)**(1/2)# 5.477225575051661 X_pt = torch.tensor([[1, 2], [3, 4.]])torch.norm(X_pt)# tensor(5.4772)X_tf = tf.Variable([[1, 2], [3, 4.]])tf.norm(X_t..
2023. 9. 7.
[선형대수학] 아마다르 곱, 내각
목차01. Hadamard product(아마다르 곱)02. Dot Product(내각) 01. Hadamard product(아마다르 곱) 두 벡터가 동일한 사이즈일 때, 각각의 element를 곱하는 방법X# array([[25, 2],# [ 5, 26],# [ 3, 7]])A = X+2# array([[27, 4],# [ 7, 28],# [ 5, 9]])A + X# array([[52, 6],# [12, 54],# [ 8, 16]])A * X# array([[675, 8],# [ 35, 728],# [ 15, 63]])A_pt * X_pt# tensor([[675, 8],# ..
2023. 9. 5.