AI(4)
-
[논문리뷰]MSeg: A Composite Dataset for Multi-domain Semantic Segmentation
개요 Mseg는 다른 도메인으로부터 복잡한 데이터셋을 시멘틱(의미 있는) 세그멘테이션으로 통일 시키는 것을 보여줄것이다. 구성 데이터들의 단순 병합은 그것들의 일치하지않는 분류체계와 주석관행으로인해 별로 좋지 않은 성능을 보였는데, 그런 분류법을 조정하고, 8만개이상의 이미지들에서 22만개의 오브젝트 마스크를 다시 레이블링 함으로써 픽셀레벨에서의 어노테이션 조정을 했다. 컴포지트(복잡한) 데이터 셋에서 도메인을 넘어서서 효율적으로 트레이닝동안 보지 못했던 데이터를 하나의 시멘틱 세그멘테이션모델로 하여금 만들어내는 결과를 도출 했다. 우리는 zero-shot(한번도 보지 못한 데이터를 그대로 훈련하는) cross-dataset transfer를 체계적으로 모델의 견고함을 평가하기 위한 벤치마크로 도입했고,..
2020.07.07 -
[ML] 머신러닝 개요
Machine Learning 머신러닝이란 무엇인가? 머신러닝은 컴퓨터를 데이터로부터 배울수 있게 하는 프로그래밍의 과학 혹은 예술이다. 배운다는 의미가, 예시로 단순히 위키피디아의 데이터들을 다운받고, 많은 데이터들을 가지고 있는 상태이다. 그러나 모든 일에 대해, 성능이 비약적으로 상승한 것은 아니므로, 이것은 머신러닝이 아니다. 왜 머신러닝을 사용하는가? 전통적인 문제 접근 해결 방법 1. 문제를 인식함 2. 문제의 규칙을 프로그래밍한다. 3. 만들어진 모델을 평가하고, 런칭을 하거나 에러를 수정함. 4. 1-3 반복 이 전통적인 해결법은 한가지 문제가 있다. 특정 규칙을 프로그래밍화 하여, 어떤 문제를 해결하는 것은 당장에 좋은 퍼포먼스를 발휘할 수 있지만, 같은 패러다임을 가지고 있고, 필터링에..
2019.11.28 -
Variational Autoencoder의 여정 Chap.2 MLE 와 KLD [목적지는:VAE의 구현]
VAE를 이해하기 위해 우선 알아야할것이 maximum likelihood estimation의 개념과 kld(kullback leibler divergence) 입니다. 들어가기전 우도(likelihood)에 대해서 알아보겠습니다. 데이터사이언스스쿨의 자료를 인용하면 '확률 변수 X에 대한 확률 모형은 확률 밀도 함수fX에 의해 정의된다. 확률 밀도 함수는 일반적으로fX(x;θ) 와 같은 형태를 가진다. 여기에서 x는 확률 변수가 가질 수 있는 실수값이고 θ는 확률 밀도 함수 즉, 확률 모형의 모수(parameter) 집합을 대표하는 기호'이다. 예를 들어 가우시안 확률 변수 X의 확률 밀도 함수는 다음과 같은 형태를 가진다. 이 식에서θ=(μ,σ2), fX(x,θ)이다 fX(x;θ)=fX(x;μ,σ2..
2019.01.17 -
Autoencoder의 여정 Chap.1 [목적지는:VAE의 구현]
오늘은 Auto-encoder에 다뤄보도록 하겠습니다.대략적인 구조는 아래와 같습니다. 매커니즘.-Input이 있을 때 이값들에 대한 피쳐들을 학습 한 후 다시 출력한 결과의 output값이 Input과 같아야 합니다. 무슨 말인고 하니 Input을 분해하여 hidden layers를 통과 시켰을때 똑같은 Input으로 재구성하여야한다 이말입니다. 즉, 정답이 필요없는 Unsupervised 학습인거죠. 그러면 이 모델의 구성은 어떻게 되어있을까요?- 위 사진을 유심히 살펴보시면 눈치 채셨겠지만, '입력->인코더->약간의 은닉층->디코더->결과' 로 구성되어있습니다. autoencoder는 여러가지에서 쓰이지만, data compression 특성이 강하기 때문에 주로 analysis를 위한 classi..
2019.01.17