분류 전체보기
-
0. 들어가기에 앞서 본 게시글은 Kalman Filter에 대해 쉽게 이해할 수 있도록 최대한 간략하게 작성한 글입니다. 더욱 자세한 내용을 알고싶다면, 아래의 참고 링크 부분의 링크를 참고 바랍니다. 1. 개념 noise가 존재하는 센서 측정값으로부터, noise가 제거된 정확한 값을 확률적으로 추정하는 방법 예측한 값과 실제 측정값을 이용하여 더 잘 추측하기 위해 상태를 업데이트 predict와 update(correct) 과정을 반복 matrix 기반의 연산으로, 실행속도가 빠름 object의 정보(위치, 속도 등)로 데이터를 처리 2. 계산 방법 보통 인터넷에 검색을 해보면 아래 그림을 보여주면서, 수식에 겁을 먹어 이해를 포기하게 만든다. 그러나 여러 링크를 통해 공부하고 보기좋게 직접 정리한..
Kalman Filter0. 들어가기에 앞서 본 게시글은 Kalman Filter에 대해 쉽게 이해할 수 있도록 최대한 간략하게 작성한 글입니다. 더욱 자세한 내용을 알고싶다면, 아래의 참고 링크 부분의 링크를 참고 바랍니다. 1. 개념 noise가 존재하는 센서 측정값으로부터, noise가 제거된 정확한 값을 확률적으로 추정하는 방법 예측한 값과 실제 측정값을 이용하여 더 잘 추측하기 위해 상태를 업데이트 predict와 update(correct) 과정을 반복 matrix 기반의 연산으로, 실행속도가 빠름 object의 정보(위치, 속도 등)로 데이터를 처리 2. 계산 방법 보통 인터넷에 검색을 해보면 아래 그림을 보여주면서, 수식에 겁을 먹어 이해를 포기하게 만든다. 그러나 여러 링크를 통해 공부하고 보기좋게 직접 정리한..
2023.02.03 -
이번에는 ECCV 2022에 게재된 논문인 MOTR: End-to-End Multiple-Object Tracking with TRansformer를 읽고, 리뷰해보고자 합니다. Index 1. Background 1.1. Tracking by Detection 1.2. Object Query 2. Abstract 3. Introduction 4. Related Work 5. Method 5.1. Revisiting Deformable DETR 5.2. Whole Architecture 5.3. Track Query 5.4. Continuous Query Passing 5.5. Query Interaction 5.5.1. Query Interaction Module 5.5.2. Temporal Aggre..
[리뷰] MOTR: End-to-End Multiple-Object Tracking with TRansformer이번에는 ECCV 2022에 게재된 논문인 MOTR: End-to-End Multiple-Object Tracking with TRansformer를 읽고, 리뷰해보고자 합니다. Index 1. Background 1.1. Tracking by Detection 1.2. Object Query 2. Abstract 3. Introduction 4. Related Work 5. Method 5.1. Revisiting Deformable DETR 5.2. Whole Architecture 5.3. Track Query 5.4. Continuous Query Passing 5.5. Query Interaction 5.5.1. Query Interaction Module 5.5.2. Temporal Aggre..
2023.02.01 -
이번에는 최근 MOT에서 SOTA를 달성한 ECCV 2022에 게재된 논문인 ByteTrack: Multi-Object Tracking by Associating Every Detection Box를 읽고, 리뷰해보고자 합니다. Index 1. Background 1.1. Kalman Filter 1.2. Hungarian Algorithm 1.3. Simple Online Realtime Tracking 1.4. DeepSORT 2. Abstract 3. Introduction 4. Related Work 4.1. Object Detection in MOT 4.2. Data Association 5. Method 5.1. Overview 5.2. Algorithm 6. Experiment 7. Conc..
[리뷰] ByteTrack: Multi-Object Tracking by Associating Every Detection Box이번에는 최근 MOT에서 SOTA를 달성한 ECCV 2022에 게재된 논문인 ByteTrack: Multi-Object Tracking by Associating Every Detection Box를 읽고, 리뷰해보고자 합니다. Index 1. Background 1.1. Kalman Filter 1.2. Hungarian Algorithm 1.3. Simple Online Realtime Tracking 1.4. DeepSORT 2. Abstract 3. Introduction 4. Related Work 4.1. Object Detection in MOT 4.2. Data Association 5. Method 5.1. Overview 5.2. Algorithm 6. Experiment 7. Conc..
2023.01.17 -
이번에는 최근 CV 분야에서도 SOTA를 달성하고 있는 Transformer에 관련된 ICLR 2021에 게재된 논문인 ViT(An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale)를 읽고, 리뷰해보고자 합니다. Index 1. Background 1.1. Attention, Self-Attention, Transformer 1.2. Inductive Bias 2. Abstract 3. Introduction 4. Related Work 4.1. Transformer 4.2. Attention in CV 4.3. On the relationship between self attention and convolutional la..
[리뷰] An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale이번에는 최근 CV 분야에서도 SOTA를 달성하고 있는 Transformer에 관련된 ICLR 2021에 게재된 논문인 ViT(An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale)를 읽고, 리뷰해보고자 합니다. Index 1. Background 1.1. Attention, Self-Attention, Transformer 1.2. Inductive Bias 2. Abstract 3. Introduction 4. Related Work 4.1. Transformer 4.2. Attention in CV 4.3. On the relationship between self attention and convolutional la..
2022.12.28 -
이번에는 Attention 기술이 Computer Vision 영역에서는 어떻게 쓰이고 있는지 소개를 하는 2020년에 게재된 논문인 Attention Mechanisms in Computer Vision: A survey를 읽고, 리뷰해보고자 합니다. 논문이 Article 성격에 가까운 Survey 논문이라, 어렵고 원리 및 아이디어의 내용이 주가 아닌, 소개 정도의 내용이어서 리뷰의 성격보다는 번역 및 요약의 성격이 될 것 같습니다. Index 1. Abstract 2. Introduction 3. Methods 3.1. Overview 3.2. Channel Attention 3.3. Spatial Attention 3.4. Temporal Attention 3.5. Branch Attention ..
[리뷰] Attention Mechanisms in Computer Vision: A Survey이번에는 Attention 기술이 Computer Vision 영역에서는 어떻게 쓰이고 있는지 소개를 하는 2020년에 게재된 논문인 Attention Mechanisms in Computer Vision: A survey를 읽고, 리뷰해보고자 합니다. 논문이 Article 성격에 가까운 Survey 논문이라, 어렵고 원리 및 아이디어의 내용이 주가 아닌, 소개 정도의 내용이어서 리뷰의 성격보다는 번역 및 요약의 성격이 될 것 같습니다. Index 1. Abstract 2. Introduction 3. Methods 3.1. Overview 3.2. Channel Attention 3.3. Spatial Attention 3.4. Temporal Attention 3.5. Branch Attention ..
2022.12.20 -
원래 attention은 NLP 분야에서 먼저 사용되었지만, 요즘은 다양한 영역에 접목시켜 사용한다고 한다. 목차1. 기본적인 Neural Network2. Convolutional Neural Network3. Attention 3.1. 등장 배경 3.2. Attention 3.3. Self-Attention4. 끝으로1. 기본적인 Neural Network Fully Connected neural Network에서 전체 input에 대해 input값 마다 weight를 적용시켜 feature를 추출하는 방식 2. Convolutional Neural NetworkFCN과 다르게 2차원(rgb channel이 있는 경우라면 3차원) input에 대해 filter를 이용하여 인접 픽셀에만..
Computer Vision영역에서의 Attention과 Self-Attention 간략 개념원래 attention은 NLP 분야에서 먼저 사용되었지만, 요즘은 다양한 영역에 접목시켜 사용한다고 한다. 목차1. 기본적인 Neural Network2. Convolutional Neural Network3. Attention 3.1. 등장 배경 3.2. Attention 3.3. Self-Attention4. 끝으로1. 기본적인 Neural Network Fully Connected neural Network에서 전체 input에 대해 input값 마다 weight를 적용시켜 feature를 추출하는 방식 2. Convolutional Neural NetworkFCN과 다르게 2차원(rgb channel이 있는 경우라면 3차원) input에 대해 filter를 이용하여 인접 픽셀에만..
2022.11.04 -
1. Attention 1.1. 개념 input sequence가 길어지면 output sequence의 정확도가 떨어지는 것을 보정해주기 위한 등장한 기법 데이터 전체를 살펴보고 집중해서 살펴볼 위치를 정하는 매커니즘 decoder에서 출력 단어를 예측하는 매 시점마다, encoder에서의 전체 입력 문장을 다시 참고 단, 전체 input sequence를 전부 다 동일한 비율로 참고하는 것이 아니라, 해당 시점에서 예측해야할 output과 연관이 있는 input 부분을 좀 더 집중 학습시키고자 하는 class에 해당하는 부분만 집중하는 효과를 나타낼 수 있음 Query, Key, Value로 구성되며, 일반적으로 Key와 Value를 같은 값을 가지게 함 Query : 찾고자 하는 대상으로, t시점의..
Attention, Self-Attention, Transformer1. Attention 1.1. 개념 input sequence가 길어지면 output sequence의 정확도가 떨어지는 것을 보정해주기 위한 등장한 기법 데이터 전체를 살펴보고 집중해서 살펴볼 위치를 정하는 매커니즘 decoder에서 출력 단어를 예측하는 매 시점마다, encoder에서의 전체 입력 문장을 다시 참고 단, 전체 input sequence를 전부 다 동일한 비율로 참고하는 것이 아니라, 해당 시점에서 예측해야할 output과 연관이 있는 input 부분을 좀 더 집중 학습시키고자 하는 class에 해당하는 부분만 집중하는 효과를 나타낼 수 있음 Query, Key, Value로 구성되며, 일반적으로 Key와 Value를 같은 값을 가지게 함 Query : 찾고자 하는 대상으로, t시점의..
2022.11.02 -
이번에는 Multi-Object Tracking에 관련된 CVPR 2021에 게재된 논문인 TraDeS(Track to Detection and Segment: An Online Multi-Object Tracker)를 읽고, 리뷰해보고자 합니다. 사실, 교수님이 처음으로 읽으라고 주신게 이전 포스팅인 YOLOv1 이었는데, 바로 다음 읽을거리로 이걸 주셔서...ㅎㅎ (이하생략) 암튼 열심히 찾고 공부한 기분이었다. Index 1. Background 1.1. Object Tracking 1.2. TBD 1.3. JDT 1.4. Cost Volume 1.5. DCN 1.6. CenterNet 1.7. re-ID 2. Abstract 3. Introduction 4. Preliminary 5. TraDeS..
[리뷰] Track to Detect and Segment: An Online Multi-Object Tracker이번에는 Multi-Object Tracking에 관련된 CVPR 2021에 게재된 논문인 TraDeS(Track to Detection and Segment: An Online Multi-Object Tracker)를 읽고, 리뷰해보고자 합니다. 사실, 교수님이 처음으로 읽으라고 주신게 이전 포스팅인 YOLOv1 이었는데, 바로 다음 읽을거리로 이걸 주셔서...ㅎㅎ (이하생략) 암튼 열심히 찾고 공부한 기분이었다. Index 1. Background 1.1. Object Tracking 1.2. TBD 1.3. JDT 1.4. Cost Volume 1.5. DCN 1.6. CenterNet 1.7. re-ID 2. Abstract 3. Introduction 4. Preliminary 5. TraDeS..
2022.07.30 -
object tracking은 tracklet과 trajectory를 만드는 2단계로 구성된다. 이 중, tracklet은 detection된 object가 이동한 경로 중, 짧은 구간의 경로를 의미한다. 하나의 object에 대한 tracklet을 모두 합치면, trajectory가 된다. 이를 이용하여 object의 identity를 유지할 수 있다. 참고 링크 https://blog.naver.com/sw_maestro/221032791075 https://ietresearch.onlinelibrary.wiley.com/doi/full/10.1049/iet-cvi.2015.0297
Tracklet과 Trajectoryobject tracking은 tracklet과 trajectory를 만드는 2단계로 구성된다. 이 중, tracklet은 detection된 object가 이동한 경로 중, 짧은 구간의 경로를 의미한다. 하나의 object에 대한 tracklet을 모두 합치면, trajectory가 된다. 이를 이용하여 object의 identity를 유지할 수 있다. 참고 링크 https://blog.naver.com/sw_maestro/221032791075 https://ietresearch.onlinelibrary.wiley.com/doi/full/10.1049/iet-cvi.2015.0297
2022.07.30 -
MT; Mostly Tracked trajectories↑ : 궤적의 수명(한 object의 궤적에 대해 동일한 ID를 가진 정도 혹은 시간)이 최소 80% 이상인 궤적의 수PT; Partially Tracked trajectories : 궤적의 수명이 20~80% 인 궤적의 수ML; Mostly Lost trajectories↓ : 궤적의 수명이 최대 20% 인 궤적의 수FP; False Positive↓ : 검출되지 않아야 할 것이 검출된 것의 수FN; False Negative↓ : 검출되어야 할 것이 검출되지 않은 것의 수Pr; Precision↑ : 검출 결과가 실제 객체와 얼마나 일치하는가? $$ Precision=\frac{TP}{TP+FP} $$Re; Recall↑ : 실제 객체를 얼마나 ..
Tracking Evaluation MetricsMT; Mostly Tracked trajectories↑ : 궤적의 수명(한 object의 궤적에 대해 동일한 ID를 가진 정도 혹은 시간)이 최소 80% 이상인 궤적의 수PT; Partially Tracked trajectories : 궤적의 수명이 20~80% 인 궤적의 수ML; Mostly Lost trajectories↓ : 궤적의 수명이 최대 20% 인 궤적의 수FP; False Positive↓ : 검출되지 않아야 할 것이 검출된 것의 수FN; False Negative↓ : 검출되어야 할 것이 검출되지 않은 것의 수Pr; Precision↑ : 검출 결과가 실제 객체와 얼마나 일치하는가? $$ Precision=\frac{TP}{TP+FP} $$Re; Recall↑ : 실제 객체를 얼마나 ..
2022.07.30 -
두 벡터간의 각도를 이용하여, 두 벡터가 얼마나 같은 방향을 가르키는지 구하는 것. 즉, 두 벡터가 얼마나 유사한지를 구할 수 있음. $$ Cosine\ Similarity=cos(\theta)=\frac{A⋅B}{||A||\ ||B||}=\frac{\sum_{i=1}^{n}{A_{i}×B_{i}}}{\sqrt{\sum_{i=1}^{n}(A_{i})^2}×\sqrt{\sum_{i=1}^{n}(B_{i})^2}} $$ 참고 링크 https://wikidocs.net/24603 https://www.learndatasci.com/glossary/cosine-similarity
Cosine Similarity두 벡터간의 각도를 이용하여, 두 벡터가 얼마나 같은 방향을 가르키는지 구하는 것. 즉, 두 벡터가 얼마나 유사한지를 구할 수 있음. $$ Cosine\ Similarity=cos(\theta)=\frac{A⋅B}{||A||\ ||B||}=\frac{\sum_{i=1}^{n}{A_{i}×B_{i}}}{\sqrt{\sum_{i=1}^{n}(A_{i})^2}×\sqrt{\sum_{i=1}^{n}(B_{i})^2}} $$ 참고 링크 https://wikidocs.net/24603 https://www.learndatasci.com/glossary/cosine-similarity
2022.07.30 -
조건 : 동일 모델, 동일 하이퍼 파라미터문제 : 데이터셋에 대한 라벨링(GT)을 다른 작업자가 한 것을 추가 한 경우, mAP 약 5% 감소 및 batch에서 loss 약 0.45 증가 생각하는 문제점 :작업자에 따른 GT의 차이사람이기 때문에 작업자 마다 완전히 동일하지 않은 GT 제작 기준다른 작업자가 GT를 잘못 만든 경우데이터가 추가/변경 되었지만, 하이퍼 파라미터는 그대로 사용
[고민] 데이터셋에 따른 학습 결과조건 : 동일 모델, 동일 하이퍼 파라미터문제 : 데이터셋에 대한 라벨링(GT)을 다른 작업자가 한 것을 추가 한 경우, mAP 약 5% 감소 및 batch에서 loss 약 0.45 증가 생각하는 문제점 :작업자에 따른 GT의 차이사람이기 때문에 작업자 마다 완전히 동일하지 않은 GT 제작 기준다른 작업자가 GT를 잘못 만든 경우데이터가 추가/변경 되었지만, 하이퍼 파라미터는 그대로 사용
2022.07.15