전체 글
![[컴퓨터비전#16/11-28] CNN모델 알아보기 AlexNet,VGG,GoogLenet,ResNet](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FANjLO%2FbtrSqXwnZtc%2FAAAAAAAAAAAAAAAAAAAAAAU8ElLNrHFBK1OlUeMjPJm2HgFShOo2AqY4DIyN5c6K%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1759244399%26allow_ip%3D%26allow_referer%3D%26signature%3DEYEGcUCxyd5NMsg8yfhxGPBPgFU%253D)
[컴퓨터비전#16/11-28] CNN모델 알아보기 AlexNet,VGG,GoogLenet,ResNet
[컴퓨터비전#15/11-21] 행렬(텐서)or벡터의 역전파 과정, 자코비안,Local Gradient Slice, Batch Normalization [컴퓨터비전#14/11-16] 1*1 Convolution, pooling, conv의 output과 wieght개수 계산, Batch-Normalization [컴퓨터비전#13/11-14] Convolution Layer- 필터(Feature-map,padding,stride) [컴퓨터비전#12/11-07] 오류역전파방법, 모듈로 사 devforyou.tistory.com 본 포스팅은 2022-11-23(수), 2022-11-28(월) 국민대학교 김장호 교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. # 시작하며 이번시간에는 저번..
![[인공지능#13/11-21] 성능향상 기법 - 정규화, 배치 정규화, 가중치 초기화, 활성함수, one-hot-encoding](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FG8Qbf%2FbtrRT4blYx9%2FAAAAAAAAAAAAAAAAAAAAAHS9mdVZ2ww4NjuoLFma9KAsW5vSn6dyigh8fkDLr_vu%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1759244399%26allow_ip%3D%26allow_referer%3D%26signature%3D1VmnlpgRTNvNyEdnGMKb7y9mXsk%253D)
[인공지능#13/11-21] 성능향상 기법 - 정규화, 배치 정규화, 가중치 초기화, 활성함수, one-hot-encoding
[인공지능#12/11-16] 목적함수의 알맞은 쓰임, 데이터 전처리 [인공지능#11/11-14] CNN - LeNet, AlexNet, VGCNet, GoogLeNet, ResNet, 심층학습 [인공지능#10/11-07] CNN의 구조 및 특징, 패딩, 보폭(Stride), Pooling [인공지능#9/10-31] 깊은 신경망(DNN)과 CNN 맛보기 [인공지능#8/10-12] 인 devforyou.tistory.com 본 포스팅은 2022-11-21(월), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 모든 입력이 양수인 경우의 문제 다음과 같이 입력(x1,x2,x3)의 값이 모두 양수라면, 가중치를 갱신할때, 각 (감소, 증가, 감소) 시키는 것을..
![[컴퓨터비전#15/11-21] 행렬(텐서)or벡터의 역전파 과정, 자코비안,Local Gradient Slice, Batch Normalization](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FldS4Q%2FbtrRRu3asP4%2FAAAAAAAAAAAAAAAAAAAAAFRRR-2x3kTx0yDviWawWVluiE8-tU2520Aq96tKkuNX%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1759244399%26allow_ip%3D%26allow_referer%3D%26signature%3DUtZqnVkmbqRL8Rf4EKKQRLN2mnw%253D)
[컴퓨터비전#15/11-21] 행렬(텐서)or벡터의 역전파 과정, 자코비안,Local Gradient Slice, Batch Normalization
[컴퓨터비전#14/11-16] 1*1 Convolution, pooling, conv의 output과 wieght개수 계산, Batch-Normalization [컴퓨터비전#13/11-14] Convolution Layer- 필터(Feature-map,padding,stride) [컴퓨터비전#12/11-07] 오류역전파방법, 모듈로 사고의 확장, dropout, earlystop [컴퓨터비전#11/10-31] L1놈과 L2놈을 이용한 Regularization(정규 devforyou.tistory.com 본 포스팅은 2022-11-21(월), 국민대학교 김장호 교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. # Batch Normalization 저번 시간에 공부하다가 만 Bat..
![[인공지능#12/11-16] 목적함수의 알맞은 쓰임, 데이터 전처리](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FkOxcR%2FbtrRGvncMUN%2FAAAAAAAAAAAAAAAAAAAAAPMtlr7wMkbzFheiOaSsIjsS0rbBQKdafV47hf8vKcon%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1759244399%26allow_ip%3D%26allow_referer%3D%26signature%3DCk5DDYG2lXeWWbd85HQCp1Qy7lc%253D)
[인공지능#12/11-16] 목적함수의 알맞은 쓰임, 데이터 전처리
[인공지능#11/11-14] CNN - LeNet, AlexNet, VGCNet, GoogLeNet, ResNet, 심층학습 [인공지능#10/11-07] CNN의 구조 및 특징, 패딩, 보폭(Stride), Pooling [인공지능#9/10-31] 깊은 신경망(DNN)과 CNN 맛보기 [인공지능#8/10-12] 인공신경망, 퍼셉트론 개념 [인공지능#7/10-05] 정보이론과 엔트로피, devforyou.tistory.com 본 포스팅은 2022-11-16(수), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 시작하며 이번시간부터 새로운 단원에 들어왔다. 단원 명은 "심층학습 최적화 기법"이다. 수업시간에 상어를 그려봤다. # 목적함수 기계학습은 전체데..
![[컴퓨터비전#14/11-16] 1*1 Convolution, pooling, conv의 output과 wieght개수 계산, Batch-Normalization](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FbGlQFq%2FbtrRJQqNuDE%2FAAAAAAAAAAAAAAAAAAAAABagmF9LOnfO1llD21GcGVwj-SJDXcmWGsV6loNktnra%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1759244399%26allow_ip%3D%26allow_referer%3D%26signature%3DlSXyObyQcptLNVg8YNzBcYFpZ9Y%253D)
[컴퓨터비전#14/11-16] 1*1 Convolution, pooling, conv의 output과 wieght개수 계산, Batch-Normalization
[컴퓨터비전#13/11-14] Convolution Layer- 필터(Feature-map,padding,stride) [컴퓨터비전#12/11-07] 오류역전파방법, 모듈로 사고의 확장, dropout, earlystop [컴퓨터비전#11/10-31] L1놈과 L2놈을 이용한 Regularization(정규화) [컴퓨터비전#10/10-09] 로지스틱 회귀 손실함수, 이진 크로스 devforyou.tistory.com 본 프스팅은 2022-11-16(수), 국민대학교 김장호교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. # 시작하며 이번 단원에서는 1*1 Conv와 Pooling, batch normalization에 대해서 배운다. # 1*1 Convolution [인공지능#11..