본문 바로가기

버츄얼유튜버

(59)
NVIDIA-SMI 및 기타 환경 구축 NIVIDA-smi의 쿠다버전 : nvidia 드라이버가 지원하는 최대 CUDA 버전. Dockerfile : 도커 컨테이너가 CUDA 11.6.0 및 cuDNN 8이 설치된 이미지를 기반. 즉, 도커 컨테이너 내부 환경이 CUDA 11.6.0에 맞춰짐
Tracking Pedestrian Heads in Dense Crowd 2103.13516.pdf (arxiv.org) 1. 개요 혼잡한 비디오 시퀀스에서 인간을 추적하는 것은 시각적 장면 이해의 중요한 구성 요소이다. 증가하는 군중 밀도는 인간의 가시성에 도전하여 기존 보행자 추적기의 확장성을 더 높은 군중 밀도로 제한한다. 이러한 이유로, 우리는 2,276,838개 이상의 헤드가 있는 11,463개 프레임의 9개 시퀀스와 다양한 장면에서 주석이 달린 5,230개 트랙으로 구성된 CroHD(Crowd of Heads Dataset)로 머리 추적을 활성화할 것을 제안한다. 평가를 위해, 우리는 이미지 좌표 공간에서 가장 긴 거리에 대한 고유한 정체성을 보존하는 알고리듬의 효과를 측정하여 보행자 군중의 모션과 추적 알고리듬의 성능 사이의 대응 관계를 구축하기 위해 새로운 메트..
To Choose or to Fuse? Scale Selection for Crowd Counting 1. 개요 본 논문 - 다단계 네트워크에서 멀티스케일 기능 표현을 활용하여 크라우드 카운팅에서 대규모 변동 문제를 해결. Specific Feature Level은 특정 범위의 스케일에서 더 나은 성능을 발휘하는 경향이 있기 때문에, 적절한 기능 수준 선택 전략(proper feature level selection strategy)으로 이미지패치의 계수 오류(coutning error)를 가능한 한 작게 유지하는 방식으로 해당 아이디어를 구현한다. 그러나 스케일의 주석이 없으면 스케일이 다른 머리에 대한 예측을 specfic feature levels에 수동으로 할당하는 것이 차선이며 오류가 발생하기 쉽다. 따라서 스케일과 feature level 간의 internal correspondence을 자동..
Generating High-Quality Crowd Density Maps using Contextual Pyramid CNNs Generating High-Quality Crowd Density Maps Using Contextual Pyramid CNNs (thecvf.com) 1 - 서론 군중 이미지의 전역 및 로컬 상황 정보를 통합해 군중 밀도 및 카운트 추정을 생성하는 CP-CNN(Contextual Pyramid CNN) : GCE(Global Context Estimator), LCE(Local Context Estimator), DME(Density Map Estimator) 및 F-CNN(Fusion-CNN)의 4가지 모듈로 구성. GCE : 글로벌 컨텍스트를 인코딩하는 VGG-16 기반 CNN. 입력 이미지를 다른 밀도 클래스로 분류하도록 & 구성 및 입력 이미지를 다른 밀도 클래스로 패치별 분류하도록 훈련. L..
Density Map 작성법 import pylab as plt import numpy as np # Sample data side = np.linspace(-2,2,4) # (최소값, 최대값, 격자 수). side = (-2, 2, 4)인 경우, [-2. -0.66666667 0.66666667 2. ]가 나옴. 즉 차=4, 간=3이니 4/3=1.3333... 차이의 배열이 생김. X,Y = np.meshgrid(side,side) print(X) print(Y) # Z = np.exp(-((X-1)**2+Y**2)) # 각 격자에 거기에 들어갈 값 Z = X * Y print(Z) # Plot the density map using nearest-neighbor interpolation plt.pcolormesh(X,Y,Z) p..
DataLoader 이해 - Boosting-Crowd-Counting... 을 기반으로 Boosting-Crowd-Counting-via-Multifaceted-Attention/test.py at main · LoraLinH/Boosting-Crowd-Counting-via-Multifaceted-Attention (github.com) GitHub - LoraLinH/Boosting-Crowd-Counting-via-Multifaceted-Attention: Official Implement of CVPR 2022 paper 'Boosting Crowd Coun Official Implement of CVPR 2022 paper 'Boosting Crowd Counting via Multifaceted Attention' - GitHub - LoraLinH/Boosting-Crowd-C..
ResNet 관련 링크 ResNet (Shortcut Connection과 Identity Mapping) [설명/요약/정리] (tistory.com) ResNet (Shortcut Connection과 Identity Mapping) [설명/요약/정리] 등장 배경 레이어가 많아져, 인공신경망이 더 깊어질 수록 gradient vanishing/exploding 문제가 커집니다. 이전의 다른 방법들로 이 문제를 해결했다고 생각했지만, 수십개의 레이어를 가진 모델에서는 lv99.tistory.com ResNet (Deep Residual Learning for Image Recognition) 논문 리뷰 (tistory.com) ResNet (Deep Residual Learning for Image Recognition) 논문..
ViT 코드 https://www.kaggle.com/code/utkarshsaxenadn/vit-vision-transformer-in-keras-tensorflow ViT(Vision Transformer) in Keras & Tensorflow Explore and run machine learning code with Kaggle Notebooks | Using data from No attached data sources www.kaggle.com 에서 쓰인 여러 함수에 대해 정리한 글 Vision Transformer (AN IMAGE IS WORTH 16X16 WORDS, TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE) - gaussian37 Vision Transform..