라벨이 필터 및 통계인 게시물 표시

Pharos University ME 253 Fluid Mechanics II - ppt video online download

Pharos University ME 253 Fluid Mechanics II - ppt video online download : External External Flows Bodies in motion, experience fluid forces and moments. Examples include: aircraft, automobiles, buildings, ships, submarines, turbo machines. Fuel economy, speed, acceleration, stability, and control are related to the forces and moments. Airplane in level steady flight: drag = thrust & lift = weight.

Fisher Information Matrix

Fisher Information matrix 는 KL divergence에서 "Gradient만 가지고도 Hessian을 만들 수 있다." 는 매우 중요한 정보를 주고 있다. 다음과 같은 확률 이 있음을 가정해보겠습니다. p(x |\theta) , x\in\mathbb{R}^n \,where, \theta \text{ is parameter vector} Score function M aximum Likelihood 를 통해 \theta 값을 추정할 수 있습니다. 최대우도법(Maximum likelihood, ML)에서는 log 확률에 대하여 미분하여 최대 값을 구하게 됩니다. 이 미분 값을 Score function으로 정의합니다. score\ function =s(\theta) =\nabla_{\theta}log{p(x|\theta)} score function의 경우 다음과 같은 성질을 만족합니다. \begin{align}\mathbb{E}_{p(x|\theta)}[s(\theta)] &=\mathbb{E}_{p(x|\theta)} [\nabla log{p(x|\theta)}] \\& =\int \nabla log{p(x|\theta)} p(x|\theta)dx \\& =\int\frac{ \nabla p(x|\theta)}{p(x|\theta)} p(x|\theta)dx \because\nabla log{p(x|\theta)} = \frac{\nabla p(x|\theta)}{p(x|\theta)} \\& =\nabla_{\theta} \int p(x|\theta)dx =0\end{align} x와 \theta 는 독립적이기 때문에 식 (3)에서 식(4)로 넘어갈 때, Gradient는 밖으로 나올 수 있습니다. 여기에서 Score function의 Covariance는 다음과 같이 정의해줄 수 있습니다. \begin{equation} \mathbb{E}_{p(x|\theta)} [s(\thet...

3D Gaussian Distribution with python

이미지
Multivariate Gaussian distributions are widely used in machine learning. However, that distributions are not easily understood. This post covers how to visualize 2d multivariate distributions with python. 3D Gaussian Distribution can help you to understand that easily. Case I (independent) \begin{align}Let \, \mu_x= \begin{bmatrix}0 \\ 0\\ \end{bmatrix}, cov =R= \begin{bmatrix}1 & 0\\ 0 & 1\\ \end{bmatrix}\end {align} In this case we know multivariate Gaussian distribution is given by p(x)=\frac{1}{\sqrt{(2\pi)^n}det R} exp(-\frac{1}{2}(x-\mu_x)^TR^{-1}(x-\mu_x)) . The result represents the result when both x_1 and x_2 are independent probabilities. The shape of a circle indicates that the probabilities are randomly distributed. The shape relates to off-diagonal matrix elements. 3d surface indicates probability of combination of two variables such as (0,1), (0,0)-Very high, or (2,2)-very low. Let’s think second case (off-diagonal elements is not zero) Case II The def...

칼만 필터 최적화

이전에 칼만 필터 알고리즘에 대해 다뤘습니다. 오늘은 이에 대한 추가 내용을 다뤄 보고자 합니다. Defense 때문에 공부할 시간이 너무 부족했던 ㅜㅜ… 아무튼, 칼만 필터 최적화 과정은 KL Divergence, Cross Entropy 까지 연관이 되니 매우 중요한 내용이 됩니다. 칼만 필터 최적화 과정 칼만 필터 최적화 과정을 통해, 칼만 필터가 어떻게 Update가 되는지? 어떠한 의미를 가지고 있는지 보여드리고자 합니다. 칼만 게인 먼저, 칼만 게인은 다음과 같이 정의 됩니다. (칼만 필터를 얻는 식) \begin {align}K_k &=\Sigma_0(\Sigma_0+\Sigma_1)^{-1} \\K_k &=P_k^-H^T(HP_k^-H^T+R_k)^{-1} \\\text{ for scalar case } K_k &=\frac{P_k^-H^T}{(HP_k^-H^T+R_k)}\\\end {align} (1)의 컨셉을 가지고, 칼만 게인은 (2)식으로 얻어집니다. 여기서 H가 하나 사라지는 것을 볼 수 있는데, 이는 P_k 식을 구하는 과정에서 약분되기 때문입니다. 식 (2)에서 (3)으로 넘어가는 것은 쉽게 해석을 하기 위함입니다. Matrix보다는 스칼라 값을 이용하는 것이 해석적인 측면에서 매우 유리합니다. 최적화 알고리즘 \begin{align}f(x) &\sim f(x_i)+\braket{\nabla f(x_i),x-x_i} +\frac{1}{2}\braket{x-x_i,H(x-x_i)} \end{align} 여기에서 최소점은 Gradient가 0이되는 포인트가 됩니다. 그러면 최적점 x^* 에 대해서 식 (5)와 같은 Update 방식을 가지게 됩니다. \begin {align}\nabla f(x)&=0= \nabla f(x_i)+ H(x-x_i) \Rightarrow x^*=x_i-H^{-1}\nabla f(x_i)\end{align} 칼만 필터 최적화 칼만 필터는 공분산을 최소화 ...

최대우도법 (Maximize Likelihood)

이미지
최대우도법 (Maximum likelihood Method) 칼만필터 알고리즘은 Predict 하고 Correct 하는 과정입니다. Predict 과정은 Prior를 얻는 Maximum Likelihood method가 되며, Correct하는 과정은 Bayesian의 Posterior를 얻는 과정입니다. 최대우도법 (Maximum likelihood)은 확률 적인 개념에서 파라미터를 추정하는 과정입니다. 이는 Error를 최소화 시키는 것 뿐만 아니라 분산을 최소화 시키는 목적이 있습니다. 결론은 파라미터 추정에 있어서 정규분포를 따른다는 가정으로 인해, 최대우도법과 Error를 최소화 시키는 과정인 Least square error랑 동일하게 됩니다. 조건부 확률 (Conditional Probability) 조건부 확률은 베이지안과 MLE(최대우도법)을 이해하는데 있어 가장 기초적인 지식입니다. 조건부 확률이란 밑밥을 깔아두고 확률을 계산하는 과정입니다. 조금 더 정확한 이론으로 말씀드리면 어떠한 사건(B)가 일어났을 때, (A)가 일어날 확률은 얼마 인가? 를 계산하는 것입니다. P(A|B)= \frac{A(A \cap B)}{P(B)}=\frac{A(A , B)}{P(B)} \tag{1} 가정사항이 분모로 나누고, B가 일어났을 뒤 A가 일어나게 되니 분자에는 교집합 형태의 확률이 나타납니다. Likelihood (칼만필터) Likelihood는 최대 가능도라고 해서, 어떠한 파라미터를 예측하는데 사용하게 됩니다. 이는 A,B,C… 사건들이 동시에 일어날 확률들을 추론할 때 사용됩니다. 즉, 교집합에 대한 확률을 예측하는 정도가 됩니다. 교집합의 표현은 식 (1)의 연장선이 됩니다. 교집합 형태의 식을, 조건부 확률과 P(B)의 형태로 표현하여 식 (2)의 형태로 변형 시켜줄 수 있습니다. P(A,B)=P(B)P(A|B) \tag {2} 식 (2) 의 변수량을 늘리게되면, 실험 데이터 값에 대하여 확률적인 표현을 해주게 됩니다. 이는 Lik...

확률미분방정식-Stochastic Differential Equation (SDE)

이미지
확률미분방정식 Stochastic Differential Equation (SDE)는 Wiener Process의 연장선이라고 말할 수 있습니다. 먼저 Wiener Process에 대해서는 여기 를 클릭해서 확인할 수 있습니다. Introduction 확률미분방정식 SDE는 보통적인 방법으로는 미분이 어렵습니다. 평균에 대한 미분 값을 가지고 해석을 해주게 됩니다. 이를 잘 정의하기 위해서 ITO가 식을 정리하게 되었는데, 이는 Wiener process에서는, 분산은 시간의 값으로 나타나는 성질을 응용한 것입니다. SDE를 해석 과정은 martingale이라는 것인지 확인을 해주게 됩니다. 해설 결과를 보게되면, Boundary Condition에 의존하는 것을 알 수 있습니다. 이는 금융상품에서 발행하는 옵션, 펀드상품에 해당합니다. 즉, 증권사에서 펀드나 옵션상품은 겉으론 좋아보일 순 있지만, 사는 고객들은 모두 손해보는 시스템이 됩니다. Martingale Martingale 특성은 t 도메인에서 s 도메인으로 바로 해석할수 있다는 장점이 있습니다. Martingale 특성을 통해 평균 값이 어떻게 표현 되는지 분석하는데 사용 됩니다. 특성 분석은 일반적인 함수가 확률 변수에 대하여 어떻게 나타나는지 알수 있습니다. Wiener Process 여러가지 성질들은 martingale 특성이 있습니다. \begin {align}E(W_t | \mathcal{F}_s) & =W_s \\ E(W_t^2 -t | \mathcal{F}_s) & =W_s^2-s \\E(exp(W_t -\frac{t}{2}) | \mathcal{F}_s) & =exp(W_s -\frac{s}{2})\\\end {align} 증명 과정은 간단하게 해볼 수 있는데 핵심 idea만 보이도록 하겠습니다. E(W_t - W_s +W_s \ \mathcal{F}_s) 여기서, t-s와 s는 서로 독립적( Orthogonal) 하기 때문에 0으로 나오게됩니다. pro...

Wiener process (비너 프로세스)

이미지
Wiener Process 는 연속적인 시간 에서 Simple한 Random walk를 말해줍니다. Wiener는 MIT 교수로 Brownian Motion을 가지고 주식과 옵션을 해석하려고 했던 분입니다. Brownian motion은 확률 적인 해석을 하는 대표적인 물리현상입니다. 확률 프로세스에서는 물리적 현상이 많이 응용됩니다. (연구가 많이 되어서 여러가지 이론들이 접목이 가능함) 또한, 확률 프로세스를 배우다보면, 옵션 을 하면 안되는 것임 을 알 수 있습니다. Random walk Random Walk는 확산 법칙을 배우다 보면, 한번씩 접해 보셨을 수도 있습니다. 가장 쉬운 1D 공간에서 알아보겠습니다. 동전을 던져서 앞면이 나오면 옆으로 한칸, 뒷면이 나오면 뒤로 한칸 이동한다고 하겠습니다. 기준점에서 n번 시행 후 얼마나 이동했을 지에 대한 평균 값은 E(X)=0 될 것입니다. 이 경우보다 조금 더 복잡한 과정이라고 한다면, 앞면이 나올 확률과 뒷면이 나올 확률이 다른 경우가 됩니다. 또한, 한칸이 아니라 \Delta x 만큼 이동한다고 보겠습니다. \begin{aligned}E(X) &=\Delta x p -\Delta x(1-p)\end{aligned} Random walk 시스템에 대해서 평균 값과 분산은 위 정의에 따라 쉽게 구해줄 수 있게 됩니다. Wiener Process Random Walk에서 간단하게 평균 값을 구해보았고, 여기서 조금 더 확장해서 연속적인 시간에 대해서 해석을 한것이 Wiener Process라고 할 수 있겠습니다. \begin{aligned}X(t) &=\Delta x (X_1+X_2+...X_{\frac{t}{\Delta t}}) \\E(X(t)) &=\Delta x p -\Delta x(1-p) = \Delta x \frac{t}{\Delta t} (2p-1)\\\end{aligned} 어려워 보이지만, t/\Delta t =총 동전 던진 횟수 로 해석하면 쉽게 해석이 ...