버츄얼유튜버 (59) 썸네일형 리스트형 변분추론, Layer-wise Training과 E2E 비교에서 본 추가로 HSIC(힐베르트-슈미트 독립 기준, Hilbert-Schmidt Independence Criterion)와 nHSIC(정규화된 HSIC, normalized HSIC)는 둘 다 두 랜덤 변수 사이의 독립성을 측정하는 방법이지만, 중요한 차이점이 있습니다.HSIC (Hilbert-Schmidt Independence Criterion)정의: HSIC는 두 랜덤 변수 X와 Y 사이의 상관관계 또는 의존성을 측정하는 통계적 지표입니다. 이 지표는 커널 방법을 사용하여 정의되며, RKHS(재생 커널 힐베르트 공간)에서 두 변수 간의 교차 공분산 연산자의 힐베르트-슈미트 놈(Hilbert-Schmidt norm)을 계산하여 두 변수 간의 의존성을 나타냅니다.사용: HSIC는 고차원 데이터나 비선형 관계.. 군론 군(Group) : 임의의 두 원소를 조합해 제 3의 원소를 만드는 연산을 갖춘 원소의 집합. 집합과 연산이 군을 정의하기 위해서는, 즉 특정 연산이 group by composition of maps를 만족(satisfy)하기 위해서는 아래의 네 가지 주요 성질 또는 군 공리를 만족해야 한다: 1. Closure : 집합의 임의의 두 원소 a와 b에 대하여, 종종 a ⋅ b 또는 ab로 표기되는 연산의 결과도 집합의 원소이어야 한다. 이는 집합의 원소에 군 연산을 적용하면 집합 밖의 원소가 절대로 생성되지 않는다는 것을 의미한다. 2. Associety : 집합 내의 임의의 세 원소 a, b, c에 대하여, 연산의 결과는 원소들의 그룹화에 의존해서는 안 된다. 즉, 방정식 (a ⋅ b) ⋅ c = a .. [딥러닝 정보] EMA & 차세대 모델 Certainly! Beyond CNNs and ViTs, there have been other novel approaches and modules in computer vision that don't directly extend these architectures. Here are some: 1. **Capsule Networks (CapsNets)**: - Proposed by Geoffrey Hinton, they introduce the concept of "capsules" which are small groups of neurons that capture specific patterns and spatial hierarchies. - Designed to address the shortcom.. [확통] 2 Linear regression 저 동그라미친 부분이 expectation. 이 때, 위의 식은 residual sum of squares. 식으로 표현시, 111 과 x1x2x3이 구성하는 평면에 y1y2y3이 있을 순 없다고 봐도 됨. 람다0 * (111) + 람다1 * (x1x2x3)은, 세 점이 만드는 평면 안에 있지만 y1y2y3은 아님. projection을 할 때(보통 수직이 될 때), 나오는 람다0 람다1이 w0w1의 *임. x가 full rank가 되려면, 위의 111 x1x2x3이 서로다른 벡터면 full rank. 두 벡터가 겹치지 않으면, 두 벡터가 2차원공간을 만듦. 그럼 이 행렬x는 full rank 2가 됨. 2차원 space를 정의하기에. 만약 1 1 1, 1.1 1.1 1... [Detection] 드론 뷰 오브젝트 디텍션 1. Yolov7x 기반으로 변경 2. Swin-T를 CSWin-T로 변경 3. 수가 적거나 잘 잡히지 않는 object에 대해 copy&paste 실행 4. Loss를 Generalized Focal loss로 변경? Object Detection – VISDRONE (aiskyeye.com) Object Detection – VISDRONE Overview We are pleased to announce the VisDrone 2023 Object Detection in Images Challenge (Task 1). This competition is designed to push the state-of-the-art in object detection with drone platform forwa.. [Optical flow] GradScale Sure, let's take a simple example. Let's say we have a model with a single weight `w`, a learning rate `lr` of 0.1, and we're using Mean Squared Error (MSE) loss for a regression problem. 1. **Forward Pass**: Let's say our model predicts a value of 10 (`y_pred`) for an input, but the actual value (`y_true`) is 15. The MSE loss would be `(y_pred - y_true)^2 = (10 - 15)^2 = 25`. 2. **Backward Pass.. CLTR 분석 misc.py에 이런 게 있음. import torch from typing import Optional, List from torch import Tensor def _max_by_axis(the_list): # type: (List[List[int]]) -> List[int] maxes = the_list[0] for sublist in the_list[1:]: for index, item in enumerate(sublist): maxes[index] = max(maxes[index], item) return maxes class NestedTensor(object): def __init__(self, tensors, mask: Optional[Tensor]): self.tensors = tenso.. 마르코프 체인 / 몬테카를로 예측 / 선형 칼만 필터 [강화학습] 마코프 프로세스(=마코프 체인) 제대로 이해하기 by 코딩재개발 (bskyvision.com) Markov Chain Monte Carlo - 공돌이의 수학정리노트 (angeloyeo.github.io) Markov Chain Monte Carlo - 공돌이의 수학정리노트 angeloyeo.github.io [강화학습 이론] 몬테카를로 예측 (Monte-Carlo Prediction) (tistory.com) 선형 칼만 필터의 원리 이해 - gaussian37 선형 칼만 필터의 원리 이해 gaussian37's blog gaussian37.github.io 또다른 예 - 칼만필터 및 파티클필터 Self Driving car - Kalman Filter 칼만 필터 (tistory.com) Se.. 이전 1 2 3 4 ··· 8 다음