전체 글

전체 글

    [디자인 패턴] 메멘토 패턴(Memento Pattern)

    [디자인 패턴] 메멘토 패턴(Memento Pattern)

    # 설명 메멘토(Memento)는 기억의 증표라는 뜻을가지고 있다. 즉 메멘토 패턴을 이용해서 한순간의 기억을 저장(snapshot)했다가 복구(restore)할 수 있다. 복사한 인스턴스를 바꿔주는 것이 아닌, 인스턴스의 상태를 메멘토(Memento)로써 기억하게 한다. 인스턴스를 복원하려면 내부 정보에 자유롭게 접근해야하지만, 그렇게 되면 캡슐화의 원칙이 깨질 위험이 있다. 오직 메멘토로 하여금 이러한 복원작업을 할 수 있게 보증해야한다. Originator : 우리가 사용하고 있는 현재 상태의 객체이다. save와 restore와 같은 기능을 Memento를 통해서 수행하며 state의 상태가 이에 따라서 바뀐다. Originator의 state의 은닉을 유지하고, 상태를 저장 복구 할 수 있다. ..

    [컴퓨터비전#9/10-05] Classification, Linear Regression, Logistic Regression, sigmoid

    [컴퓨터비전#9/10-05] Classification, Linear Regression, Logistic Regression, sigmoid

    [컴퓨터비전#8/10-03] 경사하강법(Gradient Descent)과 Learning Late, Stochastic Gradient Descent [컴퓨터비전#7/09-28] Linear Regression, 벡터화, feature map [컴퓨터비전#6/09-26] 기계학습의 종류와 개념, 손실함수, 손실함수와 파라메타 [컴퓨터비전#5/09-21] 그레디언트(엣지방향,강도), 소벨마스크 엣 devforyou.tistory.com 본 포스팅은 2022-10-05(수), 국민대학교 김장호교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. 또한 세종대학교 최유경교수님의 강의자료와 강의영상을 참고했습니다. 강의자료는 유튜브링크를 통해 더보기란 이동하여 github링크를 통해 확일 할 ..

    [인공지능#7/10-05] 정보이론과 엔트로피, 크로스엔트로피, KL-Divergence, 경사하강법

    [인공지능#7/10-05] 정보이론과 엔트로피, 크로스엔트로피, KL-Divergence, 경사하강법

    [인공지능#6/10-03] devforyou.tistory.com 본 포스팅은 2022-10-05(수), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 시작하기 전 해당일(10-05)에 예비군이 있어서 수업을 듣지 못했다. 교수님께서 작년 녹화강의를 올려주셨다. 또 10-03에 했던 확률관련 수업은 다시 한번 공부한다음에 포스팅해야할거 같아서 먼저 포스팅한다. # 정보이론 어떠한 정보를 신호로 처리해서 보낼때 그 최적의 코드를 디자인하고, 기대길이를 계산하기 위해 등장한 개념이다. 사건(event)이 지닌 정보(불확실성)을 정량화 할 수 있을까? 정보이론의 기본 원리는 확률이 작을수록 많은 정보를 내포하고 있다는 것이다. "아침에 해가 뜬다"와 "오늘..

    [인공지능#6/10-03] 확률과 조건부 확률, 베이지 정리를 이용한 IRIS 추정

    [인공지능#6/10-03] 확률과 조건부 확률, 베이지 정리를 이용한 IRIS 추정

    [인공지능#5/09-28] 선형대수(벡터,행렬,분해,놈,선형결합..) [인공지능#4/09-21] 학습모델(검증, k-교차검증)선택, 규제(데이터 증대, 가중치 패널티), 인공지능 [인공지능#3/09-19] 기계학습 훈련과정, 오버피팅(overfitting)과 언더피팅(underfitting), 편향(bias)과 변 [. devforyou.tistory.com 본 포스팅은 2022-10-03(월), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 시작하며 #5, #6, #7에 걸쳐서 인공지능에서 많이 활용되는 수학 행렬-벡터 / 확률 / 정보이론 및 최적화 에대해서 배우고 있다. # 확률 실험 그림과 같이 주머니 한개와, 3개의 병이 있다고 생각해보자. ..

    [컴퓨터비전#8/10-03] 경사하강법(Gradient Descent)과 Learning Late, Stochastic Gradient Descent

    [컴퓨터비전#8/10-03] 경사하강법(Gradient Descent)과 Learning Late, Stochastic Gradient Descent

    [컴퓨터비전#7/09-28] Linear Regression, 벡터화, feature map [컴퓨터비전#6/09-26] 기계학습의 종류와 개념, 손실함수, 손실함수와 파라메타 [컴퓨터비전#5/09-21] 그레디언트(엣지방향,강도), 소벨마스크 엣지검출, 엣지 잡음과 DOG & LOG 마스 [컴퓨터비전#4/09-19] devforyou.tistory.com 본 포스팅은 2022-10-03(월), 국민대학교 김장호교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 한탄 인공지능, 컴퓨터 비전 수업 모두 초반기에는 이해가 꽤 됐는데 중반기에 접어들면서 수학적인 개념이 너무 많이나오니까 어려워졌다ㅠㅠ 이젠 마지막으로 미분해본게 4년전인데ㅠㅠ 엄청난 개념들이 쏟아져 나온다. 각..