분류 전체보기
![[인공지능#12/11-16] 목적함수의 알맞은 쓰임, 데이터 전처리](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FkOxcR%2FbtrRGvncMUN%2FAAAAAAAAAAAAAAAAAAAAAPMtlr7wMkbzFheiOaSsIjsS0rbBQKdafV47hf8vKcon%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1756652399%26allow_ip%3D%26allow_referer%3D%26signature%3DIUrPhb6WdpHrf0xlv0cVjUZJGP8%253D)
[인공지능#12/11-16] 목적함수의 알맞은 쓰임, 데이터 전처리
[인공지능#11/11-14] CNN - LeNet, AlexNet, VGCNet, GoogLeNet, ResNet, 심층학습 [인공지능#10/11-07] CNN의 구조 및 특징, 패딩, 보폭(Stride), Pooling [인공지능#9/10-31] 깊은 신경망(DNN)과 CNN 맛보기 [인공지능#8/10-12] 인공신경망, 퍼셉트론 개념 [인공지능#7/10-05] 정보이론과 엔트로피, devforyou.tistory.com 본 포스팅은 2022-11-16(수), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 시작하며 이번시간부터 새로운 단원에 들어왔다. 단원 명은 "심층학습 최적화 기법"이다. 수업시간에 상어를 그려봤다. # 목적함수 기계학습은 전체데..
![[컴퓨터비전#14/11-16] 1*1 Convolution, pooling, conv의 output과 wieght개수 계산, Batch-Normalization](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FbGlQFq%2FbtrRJQqNuDE%2FAAAAAAAAAAAAAAAAAAAAABagmF9LOnfO1llD21GcGVwj-SJDXcmWGsV6loNktnra%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1756652399%26allow_ip%3D%26allow_referer%3D%26signature%3DjGofbqHwPpoZjd3ALy7dmT5fcxM%253D)
[컴퓨터비전#14/11-16] 1*1 Convolution, pooling, conv의 output과 wieght개수 계산, Batch-Normalization
[컴퓨터비전#13/11-14] Convolution Layer- 필터(Feature-map,padding,stride) [컴퓨터비전#12/11-07] 오류역전파방법, 모듈로 사고의 확장, dropout, earlystop [컴퓨터비전#11/10-31] L1놈과 L2놈을 이용한 Regularization(정규화) [컴퓨터비전#10/10-09] 로지스틱 회귀 손실함수, 이진 크로스 devforyou.tistory.com 본 프스팅은 2022-11-16(수), 국민대학교 김장호교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. # 시작하며 이번 단원에서는 1*1 Conv와 Pooling, batch normalization에 대해서 배운다. # 1*1 Convolution [인공지능#11..
![[컴퓨터비전#13/11-14] Convolution Layer- 필터(Feature-map,padding,stride)](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FV93za%2FbtrRjW58UYu%2FAAAAAAAAAAAAAAAAAAAAAJGJXqhYT-0f8B87X7uIi1QUpmLiKiZr8TTRyIscEu46%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1756652399%26allow_ip%3D%26allow_referer%3D%26signature%3DOjt2Zm%252FpoNPNmzSNlURSc49yUTA%253D)
[컴퓨터비전#13/11-14] Convolution Layer- 필터(Feature-map,padding,stride)
[컴퓨터비전#12/11-07] 오류역전파방법, 모듈로 사고의 확장, dropout, earlystop [컴퓨터비전#11/10-31] L1놈과 L2놈을 이용한 Regularization(정규화) [컴퓨터비전#10/10-09] 로지스틱 회귀 손실함수, 이진 크로스엔트로피 미분하여 경사하강법 도출, [컴퓨터비전#9/10-05] Classification, Linear devforyou.tistory.com 본 포스팅은 2022-11-09(수), 2022-11-14(월), 국민대학교 김장호교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. # Convolution Layer [컴퓨터비전#3/09-16] 필터링( 메디안, 평균, 가우시안), 동차좌표와 동차행렬 [컴퓨터비전#2/09-14] 히..
![[인공지능#11/11-14] CNN - LeNet, AlexNet, VGCNet, GoogLeNet, ResNet, 심층학습](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FbiCidU%2FbtrRg7uLiFK%2FAAAAAAAAAAAAAAAAAAAAADyE1ti6cPUHbdQBcnHiAZjlyOr3DnFI0NzNrd1fkaF9%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1756652399%26allow_ip%3D%26allow_referer%3D%26signature%3D%252BvK%252BRIU833vaA55vBXmv3DK%252Fujw%253D)
[인공지능#11/11-14] CNN - LeNet, AlexNet, VGCNet, GoogLeNet, ResNet, 심층학습
[인공지능#10/11-07] CNN의 구조 및 특징, 패딩, 보폭(Stride), Pooling [인공지능#9/10-31] 깊은 신경망(DNN)과 CNN 맛보기 [인공지능#8/10-12] 인공신경망, 퍼셉트론 개념 [인공지능#7/10-05] 정보이론과 엔트로피, 크로스엔트로피, KL-Divergence, 경사하강법 [인공지능#6/10-03] devf devforyou.tistory.com 본 포스팅은 2022-11-09(수) & 2022-11-14(월), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 합성곱 신경망 저번시간에 공부했던거와 같이, 합성공 신경망은 CONV - POOL - FC(FullyConnected)로 나뉜다. 이러한 전체적인 틀 아..
![[인공지능#10/11-07] CNN의 구조 및 특징, 패딩, 보폭(Stride), Pooling](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2Fpfqmp%2FbtrQKCm2Mho%2FAAAAAAAAAAAAAAAAAAAAAMJaAd_evdbcHHhbLpxC6y-ny-lK3gDw7BXkAveYprPU%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1756652399%26allow_ip%3D%26allow_referer%3D%26signature%3Dc6Q2mlcRY9m2AFnuN3x%252BoRKiN7c%253D)
[인공지능#10/11-07] CNN의 구조 및 특징, 패딩, 보폭(Stride), Pooling
[인공지능#9/10-31] 깊은 신경망(DNN)과 CNN 맛보기 [인공지능#8/10-12] 인공신경망, 퍼셉트론 개념 [인공지능#7/10-05] 정보이론과 엔트로피, 크로스엔트로피, KL-Divergence, 경사하강법 [인공지능#6/10-03] devforyou.tistory.com 본 포스팅은 2022-10-05(수), 국민대 devforyou.tistory.com 본 포스팅은 2022-11-07(월), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 합성 곱 신경망 ( Convolutional neural networks ) CNN은 이미지처리에 사용 되는 신경망이다. 이미지에는 지역성(locality)과 정상성(stationarity)이 존재한다..
![[컴퓨터비전#12/11-07] 오류역전파방법, 모듈로 사고의 확장, dropout, earlystop](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FcJVeGH%2FbtrQI8gp4PR%2FAAAAAAAAAAAAAAAAAAAAAA_gFgyKEgmSWolHcfLUSvCseqd0FEbrmpJblGRzXEzl%2Fimg.png%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1756652399%26allow_ip%3D%26allow_referer%3D%26signature%3DfdS07LF7v6ctMnmXBURpEp8n4po%253D)
[컴퓨터비전#12/11-07] 오류역전파방법, 모듈로 사고의 확장, dropout, earlystop
[컴퓨터비전#11/10-31] L1놈과 L2놈을 이용한 Regularization(정규화) [컴퓨터비전#10/10-09] 로지스틱 회귀 손실함수, 이진 크로스엔트로피 미분하여 경사하강법 도출, [컴퓨터비전#9/10-05] Classification, Linear Regression, Logistic Regression, sigmoid [컴퓨터비전#8/10-03] 경사하강 devforyou.tistory.com 본 포스팅은 2022-11-07(월), 국민대학교 김장호교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. # Recall 저번 시간에는 오버피팅을 방지하기 위해 정규화(Regularization)를 하는 방법에 대해서 배웠다. 정규화는 L1놈과 L2놈을 이용해서 할 수 있었다..