분류 전체보기
[알고리즘] BFS를 이용하여 최단거리를 출력해야할때 with predecesso(프로시져)
# 발단 9019번: DSLR 네 개의 명령어 D, S, L, R 을 이용하는 간단한 계산기가 있다. 이 계산기에는 레지스터가 하나 있는데, 이 레지스터에는 0 이상 10,000 미만의 십진수를 저장할 수 있다. 각 명령어는 이 레지스터에 www.acmicpc.net BFS문제는 간선에 가중치가 없는 경우 그래프적으로 해석하면 최단거리를 구할 수 있다. 왜냐하면 노드의 방문을 큐로 관리하기 때문에 넓이우선탐색을 하고 이 넓이는 하나의 turn이 될 수 있다. 그 turn에서 목표지점을 발견했다면 그것이 최단거리이다. 몇몇 BFS문제를 풀었을때, 이러한 최단거리까지 총 몇번의 거쳐서 가는가를 구하는 응용 문제들( ex. 며칠이 걸리나? like 토마토 )은 프로시져를 활용하여 풀었다. 즉 큐에 방문할 당시..
[알고리즘] queue 보다는 deque를 사용하자
# 발단 7569번: 토마토 첫 줄에는 상자의 크기를 나타내는 두 정수 M,N과 쌓아올려지는 상자의 수를 나타내는 H가 주어진다. M은 상자의 가로 칸의 수, N은 상자의 세로 칸의 수를 나타낸다. 단, 2 ≤ M ≤ 100, 2 ≤ N ≤ 100, www.acmicpc.net [백준7569] 토마토라는 문제를 풀었다. BFS를 이용하여 탐색과 동시에 가장 빠르게 탐색을 완료하는 시점(단계)를 구하는 문제였다. 3차원이 주어진다는 것 외에는 그렇게 특별한 문제가 아니였기에, 매번 풀던방법과 같이 queue(큐)를 사용하여 문제를 풀었다. DFS는 스택, BFS는 큐를 사용하는 것이 나에게 있어서는 정석과도 같은 방법이었기 때문이다. 그런데 시간초과가 발생했다. 파이썬은 그럴 수 있기에 PyPy로 제출해봤..
[인공지능#14/11-23] 경사하강법, 규제
[인공지능#13/11-21] 성능향상 기법 - 정규화, 배치 정규화, 가중치 초기화, 활성함수, one-hot-encoding [인공지능#12/11-16] 목적함수의 알맞은 쓰임, 데이터 전처리 [인공지능#11/11-14] CNN - LeNet, AlexNet, VGCNet, GoogLeNet, ResNet, 심층학습 [인공지능#10/11-07] CNN의 구조 및 특징, 패딩, 보폭(Stride), Pooling [인공지 devforyou.tistory.com 본 포스팅은 2022-11-23(수), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 확률적 경사 하강법 변형 경사 하강법으로 학습을 진행하면 두가지의 문제점이 생긴다. Local Minima(..
[컴퓨터비전#16/11-28] CNN모델 알아보기 AlexNet,VGG,GoogLenet,ResNet
[컴퓨터비전#15/11-21] 행렬(텐서)or벡터의 역전파 과정, 자코비안,Local Gradient Slice, Batch Normalization [컴퓨터비전#14/11-16] 1*1 Convolution, pooling, conv의 output과 wieght개수 계산, Batch-Normalization [컴퓨터비전#13/11-14] Convolution Layer- 필터(Feature-map,padding,stride) [컴퓨터비전#12/11-07] 오류역전파방법, 모듈로 사 devforyou.tistory.com 본 포스팅은 2022-11-23(수), 2022-11-28(월) 국민대학교 김장호 교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. # 시작하며 이번시간에는 저번..
[인공지능#13/11-21] 성능향상 기법 - 정규화, 배치 정규화, 가중치 초기화, 활성함수, one-hot-encoding
[인공지능#12/11-16] 목적함수의 알맞은 쓰임, 데이터 전처리 [인공지능#11/11-14] CNN - LeNet, AlexNet, VGCNet, GoogLeNet, ResNet, 심층학습 [인공지능#10/11-07] CNN의 구조 및 특징, 패딩, 보폭(Stride), Pooling [인공지능#9/10-31] 깊은 신경망(DNN)과 CNN 맛보기 [인공지능#8/10-12] 인 devforyou.tistory.com 본 포스팅은 2022-11-21(월), 국민대학교 이재구 교수님의 인공지능 수업을 통해 배운내용을 정리하기 위해 작성하는 게시글입니다. # 모든 입력이 양수인 경우의 문제 다음과 같이 입력(x1,x2,x3)의 값이 모두 양수라면, 가중치를 갱신할때, 각 (감소, 증가, 감소) 시키는 것을..
[컴퓨터비전#15/11-21] 행렬(텐서)or벡터의 역전파 과정, 자코비안,Local Gradient Slice, Batch Normalization
[컴퓨터비전#14/11-16] 1*1 Convolution, pooling, conv의 output과 wieght개수 계산, Batch-Normalization [컴퓨터비전#13/11-14] Convolution Layer- 필터(Feature-map,padding,stride) [컴퓨터비전#12/11-07] 오류역전파방법, 모듈로 사고의 확장, dropout, earlystop [컴퓨터비전#11/10-31] L1놈과 L2놈을 이용한 Regularization(정규 devforyou.tistory.com 본 포스팅은 2022-11-21(월), 국민대학교 김장호 교수님의 컴퓨터 비전 수업을 통해 배운내용을 정리하기 위한 게시글입니다. # Batch Normalization 저번 시간에 공부하다가 만 Bat..