무신사 옷 이미지 검색 서비스
언젠가 정리해보죵
프로젝트 주제 : 무신사 옷 이미지 검색 서비스
프로젝트 개요 대한민국 온라인 편집샵의 선두주자인 “무신사”는 방대한 양의 의류 데이터를 보유하고 있습 니다. 이 데이터를 효과적으로 활용하여 사용자 경험을 향상시키고, 온라인 쇼핑의 편리성을 높이기 위해, 무신사에서는 의류 이미지 검색 서비스를 도입하려고 합니다. 최근 구글, 네이버 등 주요 기술 기업들이 이미지 검색 기능을 강화하면서, 이미지 기반 검색 기술의 중요성이 부각되고 있습니다. 소비자들이 텍스트 검색 대신 사진을 이용해 원하는 제 품을 쉽게 찾을 수 있도록 하는 것이 핵심 목표입니다. 이러한 흐름에 발맞추어, 무신사는 자 사 플랫폼 내에서 사용자가 원하는 의류를 빠르고 정확하게 찾아줄 수 있는 이미지 검색 서비 스를 개발하고자 합니다. 이 서비스의 도입으로 고객 이탈률을 크게 줄일 수 있을 것입니다. 현재 네이버 쇼핑이나 쇼퍼블과 같은 외부 플랫폼에서 의류 이미지를 검색하는 대신, 고객들 은 무신사 앱 자체에서 바로 원하는 상품을 검색할 수 있게 됩니다. 이로 인해 무신사 플랫폼 내에서의 사용자 체류 시간이 늘어나며, 고객의 구매 여정을 무신사 내에서 완결할 수 있어 매출 향상에 크게 기여할 것입니다. 또한, 무신사 앱에서의 이미지 검색이 편리하고 직관적이 라면, 고객들은 다른 플랫폼을 탐색하는 대신 무신사에 대한 충성도를 높일 가능성이 큽니다. 결과적으로, 무신사는 보다 높은 사용자 만족도와 함께 매출 증대를 기대할 수 있습니다.
프로젝트 모델링 과정
데이터 셋 구성 1-1) 무신사 데이터 크롤링 정형 데이터 크롤링: 제품명, 가격, 브랜드, 카테고리, 소재, 색상 등을 포함한 정형 데이터를 크롤링합니다. 이 데 이터는 모델 학습에 직접 사용되지 않을 수 있지만, 후속 분석을 할 수도 있기에 함께 수집하 는 것이 좋을 것 같습니다. 비정형 데이터 크롤링: 상품 이미지 수집: 무신사 웹사이트에서 각 상품의 대표 이미지를 수집 할 것입니다. 리뷰 이미지 수집: 사용자 리뷰에 포함된 실제 착용 이미지나 사용자 업로드 이미지를 수집합 니다. 이는 모델의 일반화 능력을 향상시키기 위해 중요한 데이터가 될 것입니다. » 프로젝트의 효율성과 집중도를 높이기 위해, 의류 중 특정 카테고리(예: 상의, 하의, 모자 등)로 메인 분야를 정하는 것이 좋을 것 같습니다. 이렇게 하면, 선택된 카테고리에 대해 더욱 정교한 모델을 개발할 수 있을 것 같습니다.
데이터 전처리 2-1) 데이터 라벨링 OpenPose로 라벨링: OpenPose를 활용하여 이미지 내 인체의 주요 포인트(를 감지하고, 상 의와 하의를 구분하는 기본적인 라벨링을 수행합니다. 이를 통해서 알고리즘을 만들어, 원하 는 이미지 부분을 라벨링 할 수 있을 것입닌다. Detectron2 모델 활용: Detectron2와 같은 최신 객체 탐지 모델을 사용하여 이미지에서 상 의, 하의, 액세서리 등 세부적으로 구분된 라벨을 생성합니다. 이 모델들은 상의와 하의를 자 동으로 감지하고 라벨링할 수 있는 기능을 제공하며, 기존에 많이 연구된 의류 관련 모델을 활용하여 라벨링 작업의 정확도를 높입니다. >>의류 분야는 신체와 밀접하게 연관되어 있기 때문에, OpenPose를 활용한 라벨링이 매우 효과적일 것으로 예상됩니다. 또한, 다른 딥러닝 모델을 통해서도 라벨링 작업을 수행할 수 있어, 다양한 접근 방법을 시도할 수 있습니다. 이와 관련된 레퍼런스가 풍부하기 때문에, 라 벨링 과정에서 큰 어려움이 없을 것으로 보입니다. 라벨링된 데이터를 메타데이터와 연결하 여, 이미지에 대한 설명을 JSON 형태로 정리하면, 데이터의 구조화를 통해 검색 및 분석 작업을 더욱 효율적으로 진행할 수 있을 것입니다. 2-2) 데이터 스케일링 이미지 데이터를 학습 가능한 크기로 변환하고, 모델의 일관된 학습을 위해 모든 이미지를 동 일한 스케일로 조정합니다. 필요에 따라 BINARY 처리(흑백 변환)를 통해 이미지의 불필요한 정보(잡음)를 제거하고, 모델이 본질적인 특징에 집중할 수 있도록 합니다. 2-3) 이미지 패딩 모든 이미지를 동일한 크기로 맞추기 위해 부족한 부분을 채우는 패딩 작업을 수행합니다. 이 는 모델이 이미지의 경계 부분을 인식하지 못하게 하고, 모든 이미지를 일정한 크기로 유지하 여 학습 효율성을 높입니다. >> 등등 이미지 전처리 과정이 많습니다. 하면서 더 좋은 모델을 만들기 위해 여러 가지 시도 를 해봐야 할 것 같습니다!
모델 학습 사용할 모델: 허깅 페이스 모델 탐색: Hugging Face에서 제공하는 다양한 사전 학습된 모델 중에서 이미 지 객체 탐지에 적합한 모델을 선택합니다. 예를 들어, ResNet, Detectron, YOLO 등의 CNN 기반 모델을 활용하여 의류 이미지를 정확하게 분류하고 탐지할 수 있는 모델을 구축합 니다. ResNet: 깊이 있는 레이어 구조로 이미지의 특징을 효과적으로 학습할 수 있어, 의류 이미지 분류에 적합합니다. Detectron: Facebook AI Research에서 개발한 객체 탐지 및 인스턴스 분할 모델로, 상의와 하의 등의 세부적인 의류 카테고리를 정확히 분리할 수 있습니다. YOLO: 실시간 객체 탐지 모델로, 빠른 속도로 이미지에서 의류 아이템을 탐지하고 분류하는 데 유용합니다. 라벨링: 앞서 설명한 라벨링 과정을 통해 수집된 라벨 데이터를 모델 학습에 활용합니다. 이 과정에서 데이터의 품질을 지속적으로 검토하고, 필요한 경우 수동으로 라벨을 수정하거나 추가 라벨링 을 수행하여 데이터의 정확성을 높입니다.
레퍼런스 및 학습 자료 참고 레퍼런스: https://github.com/Sahar-DataScience/clothing-detection-segmentation-using-detectron2 https://github.com/inhovation97/Image_classification_pipeline_Project https://github.com/parkmy0420/DL_category_project 프로젝트를 진행하면서 참고할 수 있는 다양한 레퍼런스와 코드베이스가 존재하기 때문에, 이 를 활용하면 모델링 과정을 보다 수월하게 진행할 수 있을 것입니다. https://huggingface.co/learn/computer-vision-course/unit0/welcome/welcome >>CV관련 Hugginface 튜토리얼입니다. 이것과 CV에 관련된 개념 책을 읽으면 좋지 않을까 싶습니다. Hugging Face의 사전 학습 모델들은 다양한 CV 작업에 최적화되어 있어, 여러 모 델을 시도해보고 비교 분석하는 과정을 통해 가장 적합한 모델을 찾을 수 있을 것 같습니다. https://paperswithcode.com/task/image-classification >>sota에 있는 논문과 데이터셋 모델도 참고하면 좋을 것 같습니다
Huggingface 글글
https://huggingface.co/learn/computer-vision-course/unit0/welcome/welcome
컴퓨터 비전 코스
이미지
사람의 시각 복제에 국한되지 않고 사람이 하기에 너무 지루하거나 시간이 많이 걸리거나 비용이 많이 들거나 오류가 발생하기 쉬운 문제에 사용할 수 있다.
![[Pasted image 20240827161013.png]]
CNN(convolution neural networks)
합성곱은 데이터에서 특징을 추출하는 데 사용되는 연산이다. 연산은 숫자로 된 행렬을 가져와 데이터로 이동하고 데이터와 해당 행렬 간의 곱의 합을 구하는 것이다. 이 행렬을 커널, 필터라고 한다.
object detect model
https://www.tensorflow.org/lite/examples/object_detection/overview
tensorflow. keras -> 이미지 증강, 임베딩, 등등 이미지 최종 전처리
resnet , yolo등 … cnn기반 이미지 분류 딥러닝 모델
허깅페이스에서 모델을 찾아보기 그에 맞는 데이터 양식이 있다. 최대한 양식에 맞게 사용하려고 이미지 분류 문제에 대한 알고리즘을 이미지 분류 딥러닝 모델 검색 » 허깅페이스에서 찾아보기
대표적인 예시 Yolo였고, 우리는 다른 모델을 찾아보면서 4~5개의 신경망에서 마지막 출력층을 정의해야 한다. resnet에서 신경망을 우리가 정의하는 것을 찾아보는 것
생각해볼 점
- 허깅페이스에서 모델 찾기
- 마지막 출력층을 어떻게 바꿀지를 생각하기
데이터 형식: json
적은 데이터로 학습
few shot learning
이론: https://huidea.tistory.com/252 소량의 데이터로 학습하는 모델 few shot learning fashion: https://github.com/KamalM8/Few-Shot-learning-Fashion?tab=readme-ov-file
https://blog.paperspace.com/few-shot-learning/
https://paperswithcode.com/task/few-shot-object-detection
https://www.borealisai.com/research-blogs/tutorial-2-few-shot-learning-and-meta-learning-i/
overfitting 방지하면서 이미지 증강
기본적인 증강 기법
수평, 수직 뒤집기, 회전, 이동, 확대/축소, 색상 변화
회색조로 만들기, 이미지 포화시키기, 이미지 밝기 변경하기, 이미지 중앙 자르기
크롭, 블러, 노이즈,
특수 증강 기법
random crop: 이미지 임의의 부분을 잘라서 학습 cut out: 이미지에서 무작위로 정해진 위치의 직사각형 영역을 0으로 채운 상태를 입력으로 사용하는 데이터 증강기술 cutmix: 다른 이미지와 겹침으로서 이미지의 덜 중요한 부분까지 포커싱하게 만드는 것 과적합을 줄이고 모델이 안정적으로 돌아가게 해준다.
![[Pasted image 20240828233510.png]]
adaptive augmentation
증강 기법을 자동으로 최적화하여 과적합을 방지한다.
- autoaugment
- randaugment: autoaugment 단순화 버전
- trivialaugment: 간단한 이미지 증강 기법을 적용하면서도 데이터의 분포를 크게 왜곡하지 않도록 설계되었다.
비슷한 프로젝트
https://medium.com/@sharma.tanish096/fashion-product-recommendation-system-using-resnet-50-5ea5406c8f2c Fashion Product Recommendation System Using Resnet 50
https://github.com/nisargdoshi9/smart-fashion-recommender Smart Fashion Recommender using Nearest Neighbours and ResNet50
https://huggingface.co/arize-ai/resnet-50-fashion-mnist-quality-drift
https://huggingface.co/arize-ai/resnet-50-fashion-mnist-quality-drift
https://huggingface.co/microsoft/resnet-18
resnet18사용- 모델이 가벼워서 적은 데이터로 학습이 가능하며 학습 속도도 빠르다 아니면 renet50하고 몇 개의 층만 학습하도록 조정
참고 자료
https://www.youtube.com/watch?v=5n6o8sqKUl4 영상.# 05 1.전이 학습 Transfer learning을 통한 이미지 분류기 성능 향상 https://www.youtube.com/watch?v=jMFVtVGWTBE
https://ingu627.github.io/code/ResNet50_pytorch/ Pytorch 기반 ResNet 전이 학습 구현
https://www.youtube.com/watch?v=uTk0KbK1948
resnet
일반적인 신경망에서 발생하는 기울기 손실 문제를 해결하기 위해 도입되었다. 신경망의 층이 깊어질수록 학습이 잘 되지 않는 문제를 기울기 손실 문제라고 한다.
resnet은 결과를 다음 층으로 보내는 스킵 연결을 넣어 학습이 잘 되도록 한다. 여기서 스킵은 넘어가 학습을 포기하거나 제대로 하지 않는 것이 아니라 다음 층으로 전달하는 방식이다.
resnet은 추가적인 것만 학습한다. 일반적인 신경망에서는 각 층이 새로운 특징을 모두 학습해야 한다. 이전 층에서 받은 정보를 모두 처리해서 새로운 결과를 만들어낸다. 반면 resnet에서는 다음 층의 모든 것을 새로 학습하지 않는다. 이전층에서 결과를 전달 받고 그 차이를 학습한다. 이전 결과를 기반으로 추가적으로 필요한 것만 학습한다.
깊은 신경망 학습이 가능해지고 복잡한 이미지 분류 작업에서 뛰어난 성능을 보인다.
https://huggingface.co/docs/transformers/main/en/model_doc/resnet
https://www.youtube.com/watch?v=4BVNULkThDQ 딥러닝 전이학습으로 이미지 분류 따라해보기 30분ㅣ서울대 AI 박사과정ㅣ메타코드
resnet의 모든 층을 학습 시키지 않고 일부만 학습 시켜 overfitting, underfitting을 막는다. ![[Pasted image 20240829125516.png]]
피피티 만들기&발표
(앞에서 전처리 발표 후 넘어오기)
모델 선택과정(회귀, resnet) 모델 개념 대략 결과 아쉬운점(쓰는게 좋을까?) 의의, 추후 발전 방향 참고문헌 Q&A 마무리
완성 자료
https://github.com/khuda-data/6th-ML-team1-musinsa-img-search
노션 https://boiled-stitch-a9a.notion.site/2-08-24-f5dded4a7b4647d09d46b123a3321f16
https://boiled-stitch-a9a.notion.site/ML-40412e0cd4fd4d3885c8cef2754f17de
발표 대본
다음으로 모델링 부분을 살펴보도록 하겠습니다.
우리 조는 무신사 내 이미지 검색을 구현하기 위해서 resnet을 사용했습니다.
**
일반신경망부터 설명하도록 하겠습니다. 일반적인 신경망에서는 각 층이 새로운 특징을 모두 학습해야 합니다. 이전 층에서 받은 정보를 모두 처리해서 새로운 결과를 만들어냅니다.
resnet이란 일반적인 신경망에서 발생하는 기울기 손실 문제를 해결하기 위해 도입되었습니다. 기울기 소실 문제란 신경망의 층이 깊어질수록 기울기가 점점 작아져 가중치 업데이트가 제대로 이루어지지 않아 학습이 어려워지는 것을 말합니다.
resnet은 스킵 커넥션을 넣어 더 쉽게 학습할 수 있도록 돕습니다. 여기서 스킵은 넘어가 학습을 포기하거나 제대로 하지 않는 것이 아니라 이전 층의 입력 값을 그대로 다음 층으로 전달하는 방식입니다. 다음 층은 모든 것을 새로 학습할 필요 없이 이전 층의 결과를 바탕으로 필요한 것만 추가적으로 학습합니다. 즉 이전 층의 입력값을 유지하면서 잔차(residual)만 학습해 학습해야 할 양이 줄어들고 깊은 신경망에서도 효과적으로 학습할 수 있습니다. 이러한 구조로 복잡한 이미지 분류 작업에서 뛰어난 성능을 보인다.
**
우리 조는 resnet18과 resnet50을 사용해봤습니다. 이 둘의 차이점은 18은 18개의 레이어로 되어 있고 레즈넷오십은 50개의 레이어로 구성되어 있습니다.
18은 레이어가 적은 만큼 계산 비용이 적고 빠르게 학습할 수 있습니다. 오십은 더 큰 모델로 더 많은 계산 자원이 필요하지만 더 높은 성능을 기대할 수 있습니다.
두 모델을 전이학습에서 사용할때 dense layer과 output레이어는 바꾸고 나머지 layer는 더 이상 학습되지 않도록 고정했습니다.
- Fully Connected Layer / Dense Layer: 입력 데이터를 기반으로 중요한 패턴을 학습하고 최종 출력을 결정하는 데 도움을 준다. 이미지를 통해 추출한 모든 특징들을 기반으로 결정을 내리는 역할
- Output Layer: 최종적으로 어느 클래스에 속하는지 예측 결과를 출력
** resnet18을 먼저 살펴보도록 하겠습니다
뉴런의 축력값을 결정하는 active function은
합성곱 레이어와 배치 정규화 레이어의 활성화 함수로 relu를 사용했습니다.
입력이 0보다 크면 그 값을 그대로 출력하고 0볻 작으면 0을 출력합니다. 가장 많이 사용되는 함수입니다
출력층의 활성화 함수로 여러개의 클래스 중 하나를 선택하는 문제에서 사용되는 함수인 softmax를 사용했습니다. 입력 값을 확률로 변환해 각각의 클래스에 속할 활률을 출력합니다.
모델의 가중치를 업데이트 하여 손실을 최소화하는 옵티마이저(최적화 알고리즘)은 모델의 가중치를 손실을 줄이는 방향으로 조금씩 업데이트하는 SGD를 사용했습니다. 정확도는 낮지만 빠른 학습이 가능해 선택했습니다 .
얼마나 잘못 예측했는지 수치화하는 loss function 손실함수는 cross entropyloss를 사용했습니다. 이는 예측한 확률 분포와 실제 데이터의 분포의 차이를 측정하는 함수입니다. 이를 줄이는 방향으로 모델을 학습시킵니다. 예측확률을 직접 다뤄 다중 클래스 분류 문제에 효과적입니다.
**
100가지 상품 분류 모델 결과를 살펴보면 파란색이 train 정확도와 손실값, 빨간색이 validation 정확도와 손실값입니다. 상품 수가 100개로 많으나 각 상품당 학습 데이터가 200개로 부족하기 때문에 학습된 모델의 정확도가 낮은 수치인 것을 볼 수 있습니다.
** resnet50에서는
activate 함수는 앞과 동일합니다.
optimizer는 학습 속도를 더 빠르게 하고 복잡한 모델에서 안정적인 학습을 가능하게 하는 adam을 사용했습니다
loss function은 categorical crossentropy를 사용했습니다. 이는 crossentropy의 한 형태로 다중 클래스 분류 문제에 특화되어 있습니다.
** 상품 분류 모델을 더 살펴보도록 하겠습니다. resnet50의 입력층의 가중치를 고정하고 완전 연결층의 활성화 함수로 relu를 사용하고 dropout을 통해 과적합을 방지했습니다. 과적합은 모델이 훈련 데이터에 너무 맞춰지는 건데 dropout이 학습 중에 일부 뉴런을 무작위로 끄는 방식으로 이를 방지합니다. 출력층에는 softmax함수를 사용해 각 상품이 특정 카테고리에 속할 확률을 계산합니다.
train데이터와 validation data는 8대 2로 나누어 학습을 진행했습니다. 과적합 문제 방지하기 위함과 과거의 전이학습 논문을 참고하여 배치 크기는 32로 설정했습니다.
컴퓨팅 자원의 문제로 에폭은 20까지만 진행했습니다.
** 1000가지 상품 분류 모델 결과를 살펴보면 파란색이 train 정확도와 손실값, 빨간색이 validation 정확도와 손실값 입니다. 상품의 수가 1000개로 많으나 각 상품당 학습 데이터가 200개로 부족하기 때문에 모델의 정확도가 낮고 손실값이 매우 높게 나타났습니다.
** 500가지 상품 분류 모델 결과를 또 살펴보면 이 역시 상품 수가 500개로 많으나 각 상품당 학습 데이터가 부족하기 때문에 에폭이 6인 구간부터 학습이 거의 진행되지 않았습니다.
** 이번 프로젝트에서 부족한 점도 있었습니다.
우선 컴퓨팅 파워의 부재로 모델을 충분히 학습시키지 못해 결과가 다소 아쉬웠습니다. 두번째 이미지 데이터의 다양성으로 인해 정확한 결과 도출이 어려웠습니다. 제품 내의 이미지 데이터들이 같은 색인 의류 뿐만 아니라 다른 색을 가진 이미지들도 존재했기 때문에 학습된 모델의 결괏값이 낮게 나왔습니다.
초기 모델 학습에 필요한 대규모 ...
다음으로 기대효과를 살펴보겠습니다. 첫번째로 데이터 셋이 잘 학습된다면 적은 데이터로도 증강을 통해 높은 정확도를 보여 브랜드에서만 주는 데이터 수준으로 학습이 가능하여 고객 만족도를 향상할 수 있다. 두번째로 옷 이미지 검색을 위해서 무신사 앱에서 나가지 않고 내에서 다 처리해 외부 플랫폼 의존도가 줄어들고 고객 이탈률이 감소하게 매출 증가를 기대할 수 있습니다. 마지막으로 google lens는 쇼핑을 위해 구축된 것이 아니기 때문에 검색 결과로 제시된 이미지 소스가 구매링크로 제시된다는 보장이 없으며 검색 카테고리를 지정하거나 이미지 특징 추출 기준을 선택할 수 없습니다. 이는 우리 무신상엽 프로젝트로 보완이 가능합니다.
마지막으로 발전방향을 살펴보겠습니다. 지속적인 상품 데이터 추가와 모델 재학습을 통해 이미지 검색 모델의 지속적인 성능 개선이 필요합니다. 두번째 이번 프로젝트는 상의만을 가지고 진행했는데 다양한 카테고리로의 확장하여 서비스 범위를 넓히고 다양한 고객의 요구를 만족시켜야 합니다. 세번째로 사용자 맞춤형 추천 시스템과 연계하여 사용자의 취향에 맞는 옷을 추가적으로 추천하여 부가적인 매출을 증대할 수 있을것으로 기대합니다. 마지막으로 제품에 있는 의류 사진들을 제품 이름으로 나눌 뿐 아니라 제품의 색 등의 조건에 따라 세분화하여 학습하면 더욱더 고객에게 맞는 서비스를 제공할 수 있을 것으로 봅니다.
**
지금까지 CV를 통한 ‘무신사’ 내 이미지 검색 시스템 프로젝트를 진행한 무신상엽조였습니다. 감사합니다.
대본 자료조사
resnet이란?
일반적인 신경망에서 발생하는 기울기 손실 문제를 해결하기 위해 도입되었다. 기울기 소실 문제란 신경망의 층이 깊어질수록 기울기가 점점 작아져 가중치 업데이트가 제대로 이루어지지 않아 학습이 어려워지는 것을 말합니다.
왼쪽은 plane layer을 설명하는 것이고 오른쪽은 residual block을 설명한다. 이 둘의 차이점은 동일한 연산을 하고 input에 x를 더하냐(residual) 더하지 않느냐 (plane)의 차이이다.
input에 x를 더해 direct로 학습하는 대신 skip connection을 통해 블럭(레이어)가 작은 정보만 추가로 학습하게 한다.
resnet은 결과를 다음 층으로 보내는 스킵 커넥션을 넣어 학습이 잘 되도록 한다. 여기서 스킵은 넘어가 학습을 포기하거나 제대로 하지 않는 것이 아니라 다음 층으로 전달하는 방식이다.
resnet은 추가적인 것만 학습한다. 일반적인 신경망에서는 각 층이 새로운 특징을 모두 학습해야 한다. 이전 층에서 받은 정보를 모두 처리해서 새로운 결과를 만들어낸다. 반면 resnet에서는 다음 층의 모든 것을 새로 학습하지 않는다. 이전층에서 결과를 전달 받고 그 차이를 학습한다. 이전 결과를 기반으로 추가적으로 필요한 것만 학습한다. 즉 학습된 x를 추가함으로써 x만큼을 제외한 나머지부분f(x)만 학습하면 학습량이 줄어들게 된다.
깊은 신경망을 효과적으로 학습할 수 있으며 복잡한 이미지 분류 작업에서 뛰어난 성능을 보인다.
resnet18과 resnet50 비교
전이학습에서 사용한 두 모델의 공통점
● 우리가 전이학습 한 Resnet-18과 Resnet-50의 공통점:
- Dense Layers , Output Layer 만 교체하고 , 나머지 layer는 Freeze함. (가중치 = pretrained(Imagenet))
| resnet18 | resnet50 | |
|---|---|---|
| 차이점 | - 18개의 레이어로 구성되어 있다 - 상대적으로 작은 모델로 계산 비용이 적고 빠르게 학습할 수 있다. | - 50개의 레이어로 구성되어 있다 - 더 큰 모델로 더 많은 계산 자원이 필요하지만 더 높은 성능을 기대할 수 있다 |
https://wikidocs.net/192928
- Resnet 모델 사용
-Resnet이란? (1장)
● Resnet이란 …. → 리서치 (내용 붙여 넣기)
-Resnet-18과 Resnet-50 비교 (1장)
● 우리가 전이학습 한 Resnet-18과 Resnet-50의 공통점: 1.Fully connected layers, Dense Layers , Output Layer 만 교체하고 , 나머지 layer는 Freeze함. (가중치 = pretrained(Imagenet))
●차이점: 아마 노드의 수가 다를 것 (리서치 해볼 것)
→ 표로 보여주기