전체 글
[컴퓨터비전#16/11-28] CNN모델 알아보기 AlexNet,VGG,GoogLenet,ResNet
[컴퓨터비전#15/11-21] 행렬(텐서)or벡터의 역전파 과정, 자코비안,Local Gradient Slice, Batch Normalization [컴퓨터비전#14/11-16] 1*1 Convolution, pooling, conv의 output과 wieght개수 계산, Batch-Normalization [컴퓨터비전#13/11-14] Convolution Layer- 필터(Feature-map,padding,stride) [컴퓨터비전#12/11-07] 오류역전파방법, 모듈로 사 devforyou.tistory.com 본 포스팅은 2022-11-23(수), 2022-11-28(월) 국민대학교 김장호 교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. # 시작하며 이번시간에는 저번..
[인공지능#13/11-21] 성능향상 기법 - 정규화, 배치 정규화, 가중치 초기화, 활성함수, one-hot-encoding
[인공지능#12/11-16] 목적함수의 알맞은 쓰임, 데이터 전처리 [인공지능#11/11-14] CNN - LeNet, AlexNet, VGCNet, GoogLeNet, ResNet, 심층학습 [인공지능#10/11-07] CNN의 구조 및 특징, 패딩, 보폭(Stride), Pooling [인공지능#9/10-31] 깊은 신경망(DNN)과 CNN 맛보기 [인공지능#8/10-12] 인 devforyou.tistory.com 본 포스팅은 2022-11-21(월), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 모든 입력이 양수인 경우의 문제 다음과 같이 입력(x1,x2,x3)의 값이 모두 양수라면, 가중치를 갱신할때, 각 (감소, 증가, 감소) 시키는 것을..
[컴퓨터비전#15/11-21] 행렬(텐서)or벡터의 역전파 과정, 자코비안,Local Gradient Slice, Batch Normalization
[컴퓨터비전#14/11-16] 1*1 Convolution, pooling, conv의 output과 wieght개수 계산, Batch-Normalization [컴퓨터비전#13/11-14] Convolution Layer- 필터(Feature-map,padding,stride) [컴퓨터비전#12/11-07] 오류역전파방법, 모듈로 사고의 확장, dropout, earlystop [컴퓨터비전#11/10-31] L1놈과 L2놈을 이용한 Regularization(정규 devforyou.tistory.com 본 포스팅은 2022-11-21(월), 국민대학교 김장호 교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. # Batch Normalization 저번 시간에 공부하다가 만 Bat..
[인공지능#12/11-16] 목적함수의 알맞은 쓰임, 데이터 전처리
[인공지능#11/11-14] CNN - LeNet, AlexNet, VGCNet, GoogLeNet, ResNet, 심층학습 [인공지능#10/11-07] CNN의 구조 및 특징, 패딩, 보폭(Stride), Pooling [인공지능#9/10-31] 깊은 신경망(DNN)과 CNN 맛보기 [인공지능#8/10-12] 인공신경망, 퍼셉트론 개념 [인공지능#7/10-05] 정보이론과 엔트로피, devforyou.tistory.com 본 포스팅은 2022-11-16(수), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 시작하며 이번시간부터 새로운 단원에 들어왔다. 단원 명은 "심층학습 최적화 기법"이다. 수업시간에 상어를 그려봤다. # 목적함수 기계학습은 전체데..
[컴퓨터비전#14/11-16] 1*1 Convolution, pooling, conv의 output과 wieght개수 계산, Batch-Normalization
[컴퓨터비전#13/11-14] Convolution Layer- 필터(Feature-map,padding,stride) [컴퓨터비전#12/11-07] 오류역전파방법, 모듈로 사고의 확장, dropout, earlystop [컴퓨터비전#11/10-31] L1놈과 L2놈을 이용한 Regularization(정규화) [컴퓨터비전#10/10-09] 로지스틱 회귀 손실함수, 이진 크로스 devforyou.tistory.com 본 프스팅은 2022-11-16(수), 국민대학교 김장호교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. # 시작하며 이번 단원에서는 1*1 Conv와 Pooling, batch normalization에 대해서 배운다. # 1*1 Convolution [인공지능#11..