728x90
반응형

classification 8

7. Loss Function( 손실 함수 )

안녕하세요, MoonLight입니다.​이번 Post에서는 모델이 학습을 잘하고 있는지 정량적으로 표현할 수 있게 해주는 손실함수(Loss Function)에 대해서 알아보도록 하겠습니다.​​ 1. Loss Function ​ 1.1. Loss Function의 정의 Loss Function은 딥러닝 모델이 학습을 올바르게 수행하고 있는지를 정량적으로 평가하는 역할을 합니다.딥러닝 모델이 제대로 학습하고 있는지를 평가하려면, 우리가 원하는 결과(정답)와 모델이 예측한 값(출력값)이 얼마나 차이가 나는지를 정량적으로 측정해야 합니다.이 차이를 수치화한 것이 바로 손실(loss)이며, 이를 계산하는 함수가 손실 함수(Loss Function) 입니다.​예를 들어, 집값을 예측하는 모델을 만든다고 가정해..

PyTorch 2025.03.03

I3D - Quo Vadis, Action Recognition? A New Model and the Kinetics Dataset

0. Introduction 최근 Video Classification을 공부하는 도중 Two Stream 방식의 대표적인 Model을 사용해 보고자 마음 먹게되었습니다. 이번에 Review해 볼 Paper는 I3D 방식(Inflated 3D)을 제시한 것을 알아보도록 하겠습니다. 제목은 'Quo Vadis, Action Recognition? A New Model and the Kinetics Dataset'이며 Link에서 확인 가능합니다. 실제 구현은 https://github.com/deepmind/kinetics-i3d에서 구할 수 있습니다. 1. The old ones 먼저 I3D가 나오기 전에 사용하던 방식들에 대해서 알아보기로 하겠습니다. 1.1. The old 1 : ConvNet + L..

Deep_Learning 2023.09.24

트랜스포머를 활용한 자연어 처리

한빛미디어 '나는 리뷰어다' 활동을 위해서 책을 제공받아 작성된 서평입니다. 0. 소개 Image 분야의 Deep Learning에 CNN 구조가 있다면, Text 분야의 Deep Learning에서의 대세는 역시 Transformer입니다. 2017년에 Google에 의해 'Attention Is All You Need' Paper가 발표되고 난 후, NLP 분야는 Transformer로 인해 그야말로 비약적인 발전을 이루게 됩니다. Paper 발표 이후, Text Classification , Summarization , Translation , QA, NLU , NER 등 모든 Text 관련 부분에서 SOTA를 이루어 냈고, 지금도 그 위력은 여전합니다. Transformer 구조 자체가 약간 어려..

Book Review 2023.09.22

Deep Learning for 3D Point Clouds: A Survey

Regularly updated project page : https://github.com/The-Learning-And-Vision-Atelier-LAVA/SoTA-Point-Cloud 1. INTRODUCTION 2. BACKGROUND 2.1 Datasets 2.1.1 Dataset for 3D shape classification 3D Shape Classification Dataset에는 크게 2가지 Type이 있다. Synthetic datasets & Real-world datasets Synthetic dataset에 있는 Object는 겹침이나 배경같은 Data가 없이 깔끔하다 반면에, real-world dataset에 있는 Object들은 다른 층의 Object에 가려지고 일부 Ob..

Deep_Learning 2023.09.17

Kaggle - Paddy Disease Classification

https://www.kaggle.com/competitions/paddy-disease-classification/overview 쌀의 잎 모양을 보고 현재 질병을 있는 없는지, 질병이 있으면 어떤 질병인지 판단하는 Competition입니다. 기본적으로 Image Classification으로 진행해 보도록 하겠습니다. 0. Train import pandas as pd import os import numpy as np from sklearn.preprocessing import LabelEncoder from sklearn.model_selection import train_test_split import tensorflow as tf from tensorflow.keras.models impor..

Deep_Learning 2023.09.12

Age / Gender Detection Deep Learning Model

Repository for this project 0. Introduction 사람의 얼굴 Image로 성별 / 나이대를 판별하는 Model은 상점 등과 같은 고객의 통계 정보를 필요로 하는 곳에 유용하게 사용할 수 있을 것 같아서 이 Project를 진행하게 되었습니다. 0.1. Face Detector K-Face Dataset에서 사람 얼굴 부분만을 추출하기 위해서 Face Detector를 사용하여야 합니다. 여기서는 DNN Face Detector in OpenCV를 사용합니다. 참고 : https://pyimagesearch.com/2018/02/26/face-detection-with-opencv-and-deep-learning/ Face Detector는 Input으로 Image를 넣어주면..

Deep_Learning 2023.09.10

Mask Detection Deep Learning Model

이 Project의 Github Repository Link 0. Introduction 0.0. Motivation COVID-19 상황속에서 Deep Learning을 이용하여 RGB Cam.으로 실시간으로 Mask 착용 여부를 확인할 수 있는 Model을 만들어 보겠습니다. 0.1. Face Detector Dataset에서 사람 얼굴 부분만을 추출하기 위해서 Face Detector를 사용하여야 합니다. 우선 사람의 얼굴부분만을 빠르게 Detecting할 수 있는 Model을 찾아보았고, 최종적으로 Tensorflow와 호환이 잘되는 OpenCV DNN Face Detector를 사용하기로 했습니다. DNN Face Detector in OpenCV [https://learnopencv.com/f..

Deep_Learning 2023.09.09

BERT Text Classification

이번 Post에서는 BERT Model을 이용하여, Text 분류 작업을 해보도록 하겠습니다. 영화 감상평이 긍정적인지 부정적인지 분류해 놓은 Data Set을 이용할 예정입니다. 실제로 사용할 Data Set은 Large Movie Review Dataset 입니다. 0. About BERT BERT 및 기타 Transformer Encoder Architecture는 Natural Language Process의 다양한 분야에서 좋은 성능을 보여주고 있습니다. BERT or Transformer Encoder는 Natural Language Process의 다양한 분야에 사용할 수 있는 Vector Space를 계산해 줍니다. BERT(Bidirectional Encoder Representation..

Deep_Learning 2023.08.29
728x90
반응형