•Compter Science

    [인공지능#8/10-12] 인공신경망, 퍼셉트론 개념

    [인공지능#8/10-12] 인공신경망, 퍼셉트론 개념

    [인공지능#7/10-05] 정보이론과 엔트로피, 크로스엔트로피, KL-Divergence, 경사하강법 [인공지능#6/10-03] devforyou.tistory.com 본 포스팅은 2022-10-05(수), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 시작하기 전 해당일(10-05)에 devforyou.tistory.com 본 포스팅은 2022-10-12(수), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 시작하며 이번 주차부터 새로운 3챕터에 들어왔다. 1단원에서 기계학습에 관한 주요개념들을 배웠고 2단원에서는 기계학습에 필요한 수학적 개념들을 다뤘다. 이제 시작하는 3단원에서는 인공신경망과 ..

    [컴퓨터비전#10/10-09] 로지스틱 회귀 손실함수, 이진 크로스엔트로피 미분하여 경사하강법 도출, 소프트맥스 함수, one-hot-encoding

    [컴퓨터비전#10/10-09] 로지스틱 회귀 손실함수, 이진 크로스엔트로피 미분하여 경사하강법 도출, 소프트맥스 함수, one-hot-encoding

    [컴퓨터비전#9/10-05] Classification, Linear Regression, Logistic Regression, sigmoid [컴퓨터비전#8/10-03] 경사하강법(Gradient Descent)과 Learning Late, Stochastic Gradient Descent [컴퓨터비전#7/09-28] Linear Regression, 벡터화, feature map [컴퓨터비전#6/09-26] 기계학습의 종류와 개념.. devforyou.tistory.com 본 포스팅은 2022-10-09(월), 국민대학교 김장호교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. # 이전강의 이전 강의에서 binary classification의 문제를 해결하기 위해 로지스틱 회귀..

    [컴퓨터비전#9/10-05] Classification, Linear Regression, Logistic Regression, sigmoid

    [컴퓨터비전#9/10-05] Classification, Linear Regression, Logistic Regression, sigmoid

    [컴퓨터비전#8/10-03] 경사하강법(Gradient Descent)과 Learning Late, Stochastic Gradient Descent [컴퓨터비전#7/09-28] Linear Regression, 벡터화, feature map [컴퓨터비전#6/09-26] 기계학습의 종류와 개념, 손실함수, 손실함수와 파라메타 [컴퓨터비전#5/09-21] 그레디언트(엣지방향,강도), 소벨마스크 엣 devforyou.tistory.com 본 포스팅은 2022-10-05(수), 국민대학교 김장호교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. 또한 세종대학교 최유경교수님의 강의자료와 강의영상을 참고했습니다. 강의자료는 유튜브링크를 통해 더보기란 이동하여 github링크를 통해 확일 할 ..

    [인공지능#7/10-05] 정보이론과 엔트로피, 크로스엔트로피, KL-Divergence, 경사하강법

    [인공지능#7/10-05] 정보이론과 엔트로피, 크로스엔트로피, KL-Divergence, 경사하강법

    [인공지능#6/10-03] devforyou.tistory.com 본 포스팅은 2022-10-05(수), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 시작하기 전 해당일(10-05)에 예비군이 있어서 수업을 듣지 못했다. 교수님께서 작년 녹화강의를 올려주셨다. 또 10-03에 했던 확률관련 수업은 다시 한번 공부한다음에 포스팅해야할거 같아서 먼저 포스팅한다. # 정보이론 어떠한 정보를 신호로 처리해서 보낼때 그 최적의 코드를 디자인하고, 기대길이를 계산하기 위해 등장한 개념이다. 사건(event)이 지닌 정보(불확실성)을 정량화 할 수 있을까? 정보이론의 기본 원리는 확률이 작을수록 많은 정보를 내포하고 있다는 것이다. "아침에 해가 뜬다"와 "오늘..

    [인공지능#6/10-03] 확률과 조건부 확률, 베이지 정리를 이용한 IRIS 추정

    [인공지능#6/10-03] 확률과 조건부 확률, 베이지 정리를 이용한 IRIS 추정

    [인공지능#5/09-28] 선형대수(벡터,행렬,분해,놈,선형결합..) [인공지능#4/09-21] 학습모델(검증, k-교차검증)선택, 규제(데이터 증대, 가중치 패널티), 인공지능 [인공지능#3/09-19] 기계학습 훈련과정, 오버피팅(overfitting)과 언더피팅(underfitting), 편향(bias)과 변 [. devforyou.tistory.com 본 포스팅은 2022-10-03(월), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 시작하며 #5, #6, #7에 걸쳐서 인공지능에서 많이 활용되는 수학 행렬-벡터 / 확률 / 정보이론 및 최적화 에대해서 배우고 있다. # 확률 실험 그림과 같이 주머니 한개와, 3개의 병이 있다고 생각해보자. ..

    [컴퓨터비전#8/10-03] 경사하강법(Gradient Descent)과 Learning Late, Stochastic Gradient Descent

    [컴퓨터비전#8/10-03] 경사하강법(Gradient Descent)과 Learning Late, Stochastic Gradient Descent

    [컴퓨터비전#7/09-28] Linear Regression, 벡터화, feature map [컴퓨터비전#6/09-26] 기계학습의 종류와 개념, 손실함수, 손실함수와 파라메타 [컴퓨터비전#5/09-21] 그레디언트(엣지방향,강도), 소벨마스크 엣지검출, 엣지 잡음과 DOG & LOG 마스 [컴퓨터비전#4/09-19] devforyou.tistory.com 본 포스팅은 2022-10-03(월), 국민대학교 김장호교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 한탄 인공지능, 컴퓨터 비전 수업 모두 초반기에는 이해가 꽤 됐는데 중반기에 접어들면서 수학적인 개념이 너무 많이나오니까 어려워졌다ㅠㅠ 이젠 마지막으로 미분해본게 4년전인데ㅠㅠ 엄청난 개념들이 쏟아져 나온다. 각..