본문 바로가기

전체 글13

[Outlier Detection in High-Dimensional Data] (SOD) Outlier Detection in Axis-Parallel Subspaces of High Dimensional Data 리뷰 Paper www.dbs.ifi.lmu.de/~zimek/publications/PAKDD2009/pakdd09-SOD.pdf Introduction SOD (Subspace Outlier Degree)는 High-dimensional 데이터에서 outlier detection의 문제를 극복하기 위해 각 observation에 대한 relevant subspace를 탐색하여 outlier score (degree)를 계산하는 방법을 제안합니다. Outlier detection의 기본 아이디어는 전체 데이터셋에 어울리지 않는, 다른 매커니즘을 통해 발생한 것으로 추측되는, object들을 발견하는 것입니다. 따라서 대부분의 outlier detection 방법론은 object가 다른 (local) obje.. 2020. 9. 16.
[Outlier Detection in High-Dimensional Data] (FB) Feature Bagging 리뷰 Paper dl.acm.org/doi/abs/10.1145/1081870.1081891?casa_token=fJmH04B3mzMAAAAA:Qpesfom07GOIXjeXBWxcIkHNmHrdFTDtJyjE1VXV3HmWQtyeeTKQlb2RE3GQa7ALJ-lFWnYzSPPu Introduction Feature Bagging은 supervised learning에서 널리 사용되는 Bagging 아이디어에 착안하여 High-Dimensional 데이터에서 Unsupervised learning 관점으로 Outlier를 탐지하는 새로운 방법을 제안합니다. Motivation 기존 outlier detection 방법론의 경우 데이터의 전체 변수 (full-dimension)를 모두 이용해 이상치를 탐지합니다.. 2020. 9. 12.
[Optimization] Bisection algorithm (이분법) 정리 / 설명 Bisection algorithm Assumption Function $g(x) : D \subset \mathbb{R} \rightarrow \mathbb{R}$ 하고자 하는 것 find a root or solution $x^{*}$ of the equation $g(x)=0, x\in[a,b]$ where $g$ is continuous and g(a)g(b) 0, s.t. |x_{n}-x^{*}| < \epsilon$, where $x^{*}$ is the solution of $g(x)=0$ 위 조건을 만족하는 $x_{n}$ 찾아 $\hat{x}$ (approximated solution)으로 채택 (Intermediate valu.. 2020. 7. 21.
[Optimization] Optimization of Univariate Functions 일변량 함수 최적화 정리 / 설명 Optimization of Univariate Functions 이 글에선, 추후 Univariate function optimization 알고리즘을 설명하기 앞서 알고리즘이 설정하는 상황을 설명하고자 한다. 한국어로 일변수 함수 최적화인 Univariate function optimization은 인풋받는 변수의 형태가 univariate이고 아웃풋의 형태가 scalar인 함수의 최솟값 혹은 최댓값을 찾는 문제이다. 본문에선 이 문제를 풀기위해 설정하는 구체적 가정을 설명한다. 가정 함수 f is a univariate real fuction $f: D \subset \mathbb{R} \rightarrow \mathbb{R}$ that has only one exact minimizer $x^{*.. 2020. 7. 21.