반응형

분류 전체보기 823

[선형대수학] 2.4 분할 행렬, 블록 행렬 - Partitioned Matrix, Block matrix - 분할 행렬의 곱, 열-행 확장, 분할 행렬의 역행렬

이번 포스팅에서는 분할 행렬(Partitioned matrix) or 블록 행렬(Block matrix)에 대해 알아보겠습니다. 분할 행렬 or 블록 행렬 - Partitioned Matrix of Block Matrix 덧셈과 스칼라 곱 - Addition and Scalar Multiplication 분할 행렬의 곱 - Multiplication of Partitioned Matrix AB의 열-행 확장 - Column-row expansion of AB 분할 행렬의 역행렬 - Inverse of partitioned matrix 1. 분할 행렬 or 블록 행렬 - Partitioned Matrix or Block Matrix matrix가 주어졌을 때 임의로 row와 column을 나눕니다. 이를 ..

[선형대수학] 2.3 역행렬의 특징 - Characterizations of Invertible Matrices - 역행렬 이론, 역선형 변환(invertible linear transformation)

이번 포스팅에서는 역행렬이 존재하는 행렬의 특징에 대해 알아보겠습니다. 1. 이론 8. 역행렬 이론 - Theorem 8. The Invertible Matrix Theorem A가 invertible이면 위 조건을 다 만족하고 not invertible이면 위 조건을 만족하지 않습니다. Ax = 0은 trivialsolution만을 갖으므로 independent, n pivot position을 만족합니다. n개의 pivot position을 만족하므로 one-to-one도 성립하며 A는 solution이 있으므로 A는 R공간에 span하고, onto도 성립하게 됩니다. 2. 역선형 변환 - Invertible Linear Transformation linear Transformation이 invert..

[선형대수학] 2.2 역행렬 - The Inverse of a Matrix - 역행렬이 존재하는 행렬(invertible), 결정자(determinant), 기본 행렬(elementary matrix)

이번 포스팅에서는 역행렬에 대해 알아보겠습니다. 역행렬이 존재하는 행렬 - Invertible Matrix 2x2 행렬에서의 결정자 (ad - bc) - determinant 기본 행렬 - Elementary matrix $A^{-1}$를 찾는 알고리즘 - Algorithm for Finding $A^{-1}$ 1. 숫자의 승수 역수 - Multiplicative Inverse of a Number 역행렬을 알아보기 전에 숫자의 승수 역수(multiplicative inverse of a number)를 살펴보겠습니다. 5의 역수는 1/5 입니다. 2. 역행렬이 존재하는 행렬 - Invertible Matrix invertible의 첫번째 조건은 row와 column의 size가 동일해야 합니다. 또한 ..

[선형대수학] 2.1 행렬 연산 - Matrix Operations - 행렬 표기법, 덧셈, 곱, 전치

이번에 공부할 내용은 행렬 연산(Matrix Operations)입니다. 행렬 표기법 - Matrix Notation 행렬 덧셈 - Matrix Sum 스칼라 곱 - Scalar Multiple 행렬 곱 - Matrix Multiplication 행렬의 전치 - The transpose of a matrix 1. 행렬 표기법 - Matrix Notation A가 mxn 행렬이면 i번째 행, j번째 열에 있는 스칼라 항목은 $a_{ij}$로 표기합니다. 또한 A의 (i,j) 항목이라고 부릅니다. 2. 행렬 덧셈 - Matrix Sum 같은 사이즈 행렬 A와 B가 있으면 행렬 덧셈을 할 수 있습니다. 각각 모든 entry를 더하면 됩니다. 3. 스칼라 곱 - Scalar Multiple r 스칼라와 A 행렬..

[PyTorch 튜토리얼] 자동 미분 - AUTOGRAD : Automatic differentiation - backward, requires_grad, detach, autograd

공부 목적으로 PyTorch 튜토리얼 홈페이지를 변역해보았습니다. Autograd: Automatic Differentiation — PyTorch Tutorials 1.7.0 documentation Note Click here to download the full example code Autograd: Automatic Differentiation Central to all neural networks in PyTorch is the autograd package. Let’s first briefly visit this, and we will then go to training our first neural network. The autogra pytorch.org 자동미분 - AUTOGRAD : ..

[PyTorch 튜토리얼] 파이토치에 대해서 - What is PyTorch

공부 목적으로 파이토치 튜토리얼 홈페이지를 번역해보았습니다. What is PyTorch? — PyTorch Tutorials 1.7.0 documentation Note Click here to download the full example code What is PyTorch? It’s a Python-based scientific computing package targeted at two sets of audiences: A replacement for NumPy to use the power of GPUs a deep learning research platform that provides maximu pytorch.org 파이토치에 대해서 - What is PyTorch? 2개의 집단을 목표로..

[선형대수학] 1.8 선형 변환의 행렬 - The matrix of a Linear Transformation - 표준 행렬, onto, one-to-one, 행렬 변환

저번 포스팅에서 모든 matrix transformation은 linear transformation이므로 T(u+v) = T(u) + T(v)와 cT(u) = T(cu) 두 가지 linear 성질을 만족한다는 것을 배웠습니다. 이번 포스팅에서 공부할 내용은 다음과 같습니다. 행렬 변환 - matrix transformation 표준 행렬 - standad matrix 선형 변환 - linear transformation onto one-to-one 1. 행렬 변환 결정 방법 - How to determine a matrix transformation Ax = T(x)에서 A를 모를 때 A가 어떤 요소로 이루어져있는지 알아보는 방법에 대해 공부하겠습니다. I는 항등 행렬(Identity matrix)를 ..

[선형대수학] 1.7 선형 변환 개요 - Introduction to Linear Transformation - 행렬 곱셈, 행렬 변환, 선형 변환

이번 포스팅에서는 선형 변환(Linear Transformation)에 대해 알아보겠습니다. 공부할 내용은 다음과 같습니다. 행렬 곱셈 - Matrix Multiplication 변환 - Transformation 행렬 변환 - matrix transforamtion 선형 변환 - linear transformation 1. 행렬 곱셈 - Matrix Multiplication x가 A vector에 의해 b가 되었습니다. u가 A vector에 의해 0이 되었습니다. A vector가 $R^4$ space에 있는 x vector를 $R^2$ space로 변환시켰습니다. 이를 변환(Transformation)이라고 합니다. 이처럼 변환(Transformation)은 행렬 곱셈(Matrix Multipli..

[선형대수학] 1.6 선형 독립과 선형 종속 - Linear Independence and linear dependence - 하나의 벡터 집합, 두 벡터의 집합

1장에서 가장 중요한 내용이 선형 독립(Linear Independence) 라고 생각합니다. 이번 포스팅에서 공부할 내용은 다음과 같습니다. 선형 독립(linearly independent) 선형 종속(linearly dependent) 하나의 벡터 집합(sets of one vector) 두 벡터의 집합(sets of two vectiors) 이론 7~9(Theorem 7~9) 1. 선형 독립 - Linearly Independent $R^n$ 공간에서 vector {$v_1$, ... , $v_p$}가 있을 때 만약 벡터 방정식이 trivial solution(자명해)만 갖고 있을 시에 선형 독립이라고 합니다. 즉, trivial solution만 있으면 linearly independent 입니다..

[OpenCV 딥러닝] OpenCV에서 제공하는 DNN 모듈로 GoogLeNet 모델을 실행하여 영상 인식하기 - cv2.dnn.readNet

GoogLeNet 영상 인식 저번 포스팅에서는 CNN 모델을 OpenCV DNN 모듈로 실행하는 것을 해보았습니다. 이번에는 OpenCV DNN 모듈을 이용해서 GoogLeNet 모델을 실행하는 것을 해보겠습니다. OpenCV에서는 GoogLeNet 모델을 학습을 시키는 것이 아니라 미리 학습해둔 파일을 받아와서 추론을 진행할 수 있습니다. 학습이 어떻게 진행되었는지를 알아야 DNN 모듈에 적절한 입력값을 설정할 수 있습니다. GoogLeNet의 입력 : 224x224, BGR 컬러 영상, 평균 값 = (104,117,123) GoogLeNet의 출력 : 1x1000 행렬, 1000개 클래스에 대한 확률값 미리 학습된 GoogLeNet 학습 모델 및 구성 파일 다운로드 Model Zoo에서 미리 학습되어..

반응형