본문 바로가기

VGGnet4

[논문 리뷰] GoogLeNet(2014) 설명 논문을 읽고 핵심 내용을 인용하고 제가 이해한대로 부연 설명합니다. 1. 당시 컴퓨터 비전과 인공지능의 배경 (1.introduction) 2. 저자들의 실험 초점 (2.related work & 3.Motivation and High Level Considerations) 3. 아키텍쳐 설명 (4.Architecture Details) 4. 개인적인 생각 이 부분은 논문 처음 introduction 부분의 내용입니다. 2014년도면 컴퓨터 비전 분야가 본격적으로 발전하기 시작한 때죠. 당시 비전 분야가 하드웨어의 발전이라기보다는 엄청난 아이디어들과 알고리즘의 향상들로 인해 견인되었을 정도로 많은 연구가 시작됐고, 사람들의 모바일 & computer의 메모.. 2021. 10. 3.
[논문 리뷰] VGGnet(2014) 설명 CNN모델 중에서도 아주 대표적이고 현재도 Backbone으로 널리 쓰이고 있는 VGGnet 논문을 리뷰하겠습니다. 논문을 리뷰하기 전에 간단한 배경을 설명하겠습니다. 논문을 리뷰하면서 제가 생각하기에 중요했던 핵심내용 & 이해를 돕는 설명들을 넣어 포스팅합니다. 논문을 리뷰하면서 저의 주관적인 생각은 다른 색으로 처리하겠습니다! 빨간색은 제가 중요하다고 생각하는 논문의 핵심입니다. (https://inhovation97.tistory.com/25 cs231n의 내용) 1. Introduction 2. Convnet Configurations 3. Classification Framework 4. Classification Experiments 5. conclusion 컴퓨터 비전 분야는 당시 이미지넷 .. 2021. 9. 8.
6. ResNet50 Transfer learning & fine tuning 적용하기(이미지 수집부터 분류 모델까지) 이 포스팅은 아래 흐름대로 진행되는 포스팅입니다. 데이터 수집 - 전처리 - 모델링 - 성능 개선 이 포스팅에서 저는 직접 이미지를 크롤링하여 수집하고(링크1), 수집한 이미지를 정리하고(링크2), 직접 전처리하며(링크3), 모델을 설계했고(링크4) 이번 포스팅을 마지막으로 finetuning으로 성능 개선을 합니다. 처음엔 Accuracy가 절반도 안됐지만, 성능이 얼마나 개선되었을까요?이 글을 통해 제 모델링 결과를 확인하시면, 아마 finetuning에 관한 감이 제대로 잡히실 것 같습니다. 먼저 fine tuning과 transfer learning의 개념이 헷갈리시는 분들은 이 글(fine tuning 설명)을 읽고 오시길 추천드립니다. 이전 포스팅 링크 5. Pytorch 텐서보드 활용 & i.. 2021. 8. 2.
cs231n 9강 CNN Architectures 요약 9강은 CNN 아키텍쳐를 이용했던 모델들을 구체적으로 파헤쳐봅니다. LeNet AlexNet VGG GoogLeNet ResNet 특히 이미지넷에서 우승했던 모델들을 위주로 살펴봅니다. 먼저 일전에도 언급했던 LeNet부터 살펴봅시다. LeNet은 처음으로 성공한 instantiation 중에 1개였습니다. 이미지를 넣으면 5x5필터를 적용한 ConV층이 있고, Pooling 레이어를 거쳐서 FC 레이어로 넘어갔죠. 이 간단한 구조로 숫자인식에 성공했습니다. 지난 강의에서도 했던 내용이죠? 다음으로는 2012년 놀라운 성과를 보인 AlexNet입니다. AlexNet은 처음으로 large scale로 구성한 CNN이었습니다. 2012 컴피티션에 참가해서 이전의 모든 non deep learning 모델들을.. 2020. 12. 5.