1 minute read

week 2 Mon 0809

데이터 시각화 개요

  • 데이터를 그래픽 요소로 매핑해서 시각적으로 표현
  • 목적: 데이터의 이 부분을 봐서 다음 스텝을 어떻게? 인사이트를 어떻게 독자에게 전달할지?
  • 데이터: 원본이 아니라 전처리한 후에 필요한 데이터를 적용
  • 스토리: 데이터의 스토리
  • 방법: 어떤 그래프를 사용할지
  • 디자인: 만족스러운 디자인 아웃풋도 구성요소

  • 100점이 없다.
  • 연구 시각화와 개발 시각화가 다르다.
  • 독자도 다르다.
  • 따라서 연구 사례 및 모범 사례를 통해서 만들면 쉽다!

  • 강의 목표
  • 목표에 따라 시각화를 선택하고 사용
  • 시각화의 결과를 효과적으로 수용할 수 있다

  • NA groups in GroupBy are automatically excluded. This behavior is consistent with R

딥러닝 History View

  • 좋은 딥러닝 learner?
  • implementation skills
  • math skills

  • 인공지능: 사람의 지능을 모방하는 것

  • key components of deep learning
  • 데이터. 모델이 배울 데이터
  • 모델. 학습하고자 하는 것. 입력은 사진. 결과는 이 이미지가 강아지인지 고양이인지 판단한 결과. cnn, rnn, …
  • loss function: 문제를 풀 ㄸ 사용하는것
  • algorithm: loss을 최소화하는 알고리즘.
  • 왜 4개가 필요? 4개 항목에 대해서 논문을 보면 어느 면에서 더 진보했는지 파악 가능

데이터

  • classification
  • segmentation: 픽셀 단위
  • detection: 영역 단위. bounding box
  • pose estimation: 2차원 3차원 스켈레톤 정보
  • visual QnA: 사진에서 질문에 대한 답. 여자의 옷은?

  • 모델: 입력이 주어졌을 때 알고 싶어하는 결과로 바꿔주는 것. 모델의 성질에 따라서 좋은 결과/ 나쁜 결과.

  • loss: 파라미터들을 어떻게 업데이트 할지 기준이 되는 loss function
  • Regressoin task: MSE
  • classification: CrossEntropy
  • probability task: MLE(=MSE)
  • 관점에 따라 다른 loss 사용. loss가 줄어든다는 것이 우리가 원하는 결과가 항상 나오는 것이 아니다. e.g. regression을 푼다고 가장해보자. 그런데 데이터에 노이즈가 많다. 이때 아무 생각 없이 MSE을 쓰면, 제곱이 전체적인 네트워크 학습을 줄이게 된다. normalize을 해서 loss을 짜던가. L1 norm을 쓴다거나. robust regression을 쓴다던가 해야 한다. 각 loss가 어떤 특징이 있고 어떤 데이터를 학습하기에 좋은지 알아야 풍부하고 성능 좋은 모델을 만들 수 있다.

https://heartbeat.fritz.ai/5-regression-loss-functions-all-machine-learners-should-know-4fb140e9d4b0

  1. outlier가 있다
  2. $y_i - \hat y_i$을 엄청 크게 만든다.
  3. MSE(L2 norm)을 쓰면 제곱이 되어서 loss가 더더 커진다!
  4. 모델은 여기에 연결된 가중치를 아주 크게 업데이트 한다.
  5. 학습이 잘 안됨!
  6. L1 norm(MAE)을 쓰면… L2 norm에 비해 outlier의 에러가 줄어든다. 비교적 학습이 잘 되는 듯. \(M A E=\frac{\sum_{i=1}^{n} | y_{i}- \hat y_{i} |}{n}\)

최적화

data, model, loss가 정해졌을 때 어떻게 최적화할 것인지

2020 최근 연구

SimCLR: 레이블이 없는 데이터까지 함꼐 넣어서 레이블이 있는 데이터 학습을 더 좋게 만든다. BYON:

self supervised data sampling: 도메인을 잘 알고 있을 때 데이터를 만들어낸다.

  1. Historical Review
  2. Neural Networks & Multi-Layer Perceptron 3. Optimization Methods
  3. Convolutional Neural Networks
  4. Modern CNN
  5. Computer Vision Applications
  6. Recurrent Neural Networks
  7. Transformer
  8. Generative Models Part1 10.Generative Models Part2
  • Denny Britz historical review

  • VIF 어텐션 트랜스포머 선행 지식

Comments