Deep Learning
-
1. 개념 줄여서 mAP라 하며, 각 class에 대해 예측한 것의 average precision에 평균을 취해준 것 값이 클수록 성능이 좋음 Precision-Recall curve의 아래 면적과 같은 값
mean Average Precision1. 개념 줄여서 mAP라 하며, 각 class에 대해 예측한 것의 average precision에 평균을 취해준 것 값이 클수록 성능이 좋음 Precision-Recall curve의 아래 면적과 같은 값
2023.02.13 -
1. 개념 Confusion Matrix라 하며, model의 성능을 평가하기 위해서는 여러가지 지표들을 계산해야 하는데, 계산에 이용되는 값들을 정리한 표 2. 기본 지표 예측 결과 (Predict Result) Positive Negative 실제 상황 (Ground Truth) Positive TP(true positive) 옳은 검출 FN(false negative) 검출되어야 할 것이 검출되지 않았음 Negative FP(false positive) 틀린 검출 TN(true negative) 검출되지 않아야 할 것이 검출되지 않았음 3. 추가(유도된) 지표 여기서 우리는 Precision과 Recall이라는 것을 구하여 사용 Precision \( Precision=\frac{TP}{TP+FP}..
Classification Evaluation Metrics1. 개념 Confusion Matrix라 하며, model의 성능을 평가하기 위해서는 여러가지 지표들을 계산해야 하는데, 계산에 이용되는 값들을 정리한 표 2. 기본 지표 예측 결과 (Predict Result) Positive Negative 실제 상황 (Ground Truth) Positive TP(true positive) 옳은 검출 FN(false negative) 검출되어야 할 것이 검출되지 않았음 Negative FP(false positive) 틀린 검출 TN(true negative) 검출되지 않아야 할 것이 검출되지 않았음 3. 추가(유도된) 지표 여기서 우리는 Precision과 Recall이라는 것을 구하여 사용 Precision \( Precision=\frac{TP}{TP+FP}..
2023.02.13 -
0. 배경 지식 IoU Intersection of Union 1. 개념 줄여서 IoU라 하며, 영상에서 Ground Truth에 해당하는 bounding box와 model이 예측한 bounding box의 겹치는 정도를 계산한 값 즉, 예측한 결과가 얼마나 정답과 일치하는지를 나타냄 2. 계산 방법 alstn59v.tistory.com 1. 개념 줄여서 NMS라고 하며, One-hot encoding처럼 최대가 아닌 값은 버리겠다는 것 이것을 IoU 개념과 결합시켜 Object Detection에 이용할 수 있음 일반적인 model은 하나의 object에 대해 많은 bounding box를 예측하므로, 가장 정답과 가까운 bounding box만을 남겨두기 위해 사용
Non-Maximum Suppression0. 배경 지식 IoU Intersection of Union 1. 개념 줄여서 IoU라 하며, 영상에서 Ground Truth에 해당하는 bounding box와 model이 예측한 bounding box의 겹치는 정도를 계산한 값 즉, 예측한 결과가 얼마나 정답과 일치하는지를 나타냄 2. 계산 방법 alstn59v.tistory.com 1. 개념 줄여서 NMS라고 하며, One-hot encoding처럼 최대가 아닌 값은 버리겠다는 것 이것을 IoU 개념과 결합시켜 Object Detection에 이용할 수 있음 일반적인 model은 하나의 object에 대해 많은 bounding box를 예측하므로, 가장 정답과 가까운 bounding box만을 남겨두기 위해 사용
2023.02.13 -
1. 개념 줄여서 IoU라 하며, 영상에서 Ground Truth에 해당하는 bounding box와 model이 예측한 bounding box의 겹치는 정도를 계산한 값 즉, 예측한 결과가 얼마나 정답과 일치하는지를 나타냄 2. 계산 방법
Intersection of Union1. 개념 줄여서 IoU라 하며, 영상에서 Ground Truth에 해당하는 bounding box와 model이 예측한 bounding box의 겹치는 정도를 계산한 값 즉, 예측한 결과가 얼마나 정답과 일치하는지를 나타냄 2. 계산 방법
2023.02.13 -
1. 개념 영상 속에서 어떤 물체가 어디에 있는지 파악하는 것을 객체 탐지라고 합니다. 2. 예시 아래 사진에서, 어떤 물체(사람, 버스, 자전거 등)가 어디(화면의 가운데, 우측 하단 등에 box 표시)에 있는지 알아내는 것
Object Detection1. 개념 영상 속에서 어떤 물체가 어디에 있는지 파악하는 것을 객체 탐지라고 합니다. 2. 예시 아래 사진에서, 어떤 물체(사람, 버스, 자전거 등)가 어디(화면의 가운데, 우측 하단 등에 box 표시)에 있는지 알아내는 것
2023.02.13 -
1. 등장 배경MOTA와 IDF1의 아래와 같은 문제점을 보완하기 위함detection과 association을 지나치게 강조predicted box와 GT box 사이의 detection similarity threshold를 0.5로 고정시켜서 값을 측정 2. 개념detection score와 association score의 조합으로, accurate detection과 association의 균형을 맞춘 것detection similarity threshold를 0.05 부터 0.95까지 0.05 intervals로 값을 바꿔가면서 측정localization accuracy를 더 잘 고려 3. 계산 방법\( \text {HOTA}_{\alpha } = \sqrt{\frac{\sum _{c \in ..
HOTA: High Order Tracking Accuracy1. 등장 배경MOTA와 IDF1의 아래와 같은 문제점을 보완하기 위함detection과 association을 지나치게 강조predicted box와 GT box 사이의 detection similarity threshold를 0.5로 고정시켜서 값을 측정 2. 개념detection score와 association score의 조합으로, accurate detection과 association의 균형을 맞춘 것detection similarity threshold를 0.05 부터 0.95까지 0.05 intervals로 값을 바꿔가면서 측정localization accuracy를 더 잘 고려 3. 계산 방법\( \text {HOTA}_{\alpha } = \sqrt{\frac{\sum _{c \in ..
2023.02.07 -
1. 목적제안한 요소가 모델에 주는 영향을 확인하고 싶을 때 이용 2. 의의요소와 모델의 인과관계를 알아볼 수 있음 3. 수행 방법각 요소를 포함한 모델과 포함하지 않은 모델의 결과물을 비교
Ablation study 란1. 목적제안한 요소가 모델에 주는 영향을 확인하고 싶을 때 이용 2. 의의요소와 모델의 인과관계를 알아볼 수 있음 3. 수행 방법각 요소를 포함한 모델과 포함하지 않은 모델의 결과물을 비교
2023.02.06 -
원래 attention은 NLP 분야에서 먼저 사용되었지만, 요즘은 다양한 영역에 접목시켜 사용한다고 한다. 목차1. 기본적인 Neural Network2. Convolutional Neural Network3. Attention 3.1. 등장 배경 3.2. Attention 3.3. Self-Attention4. 끝으로1. 기본적인 Neural Network Fully Connected neural Network에서 전체 input에 대해 input값 마다 weight를 적용시켜 feature를 추출하는 방식 2. Convolutional Neural NetworkFCN과 다르게 2차원(rgb channel이 있는 경우라면 3차원) input에 대해 filter를 이용하여 인접 픽셀에만..
Computer Vision영역에서의 Attention과 Self-Attention 간략 개념원래 attention은 NLP 분야에서 먼저 사용되었지만, 요즘은 다양한 영역에 접목시켜 사용한다고 한다. 목차1. 기본적인 Neural Network2. Convolutional Neural Network3. Attention 3.1. 등장 배경 3.2. Attention 3.3. Self-Attention4. 끝으로1. 기본적인 Neural Network Fully Connected neural Network에서 전체 input에 대해 input값 마다 weight를 적용시켜 feature를 추출하는 방식 2. Convolutional Neural NetworkFCN과 다르게 2차원(rgb channel이 있는 경우라면 3차원) input에 대해 filter를 이용하여 인접 픽셀에만..
2022.11.04 -
1. Attention 1.1. 개념 input sequence가 길어지면 output sequence의 정확도가 떨어지는 것을 보정해주기 위한 등장한 기법 데이터 전체를 살펴보고 집중해서 살펴볼 위치를 정하는 매커니즘 decoder에서 출력 단어를 예측하는 매 시점마다, encoder에서의 전체 입력 문장을 다시 참고 단, 전체 input sequence를 전부 다 동일한 비율로 참고하는 것이 아니라, 해당 시점에서 예측해야할 output과 연관이 있는 input 부분을 좀 더 집중 학습시키고자 하는 class에 해당하는 부분만 집중하는 효과를 나타낼 수 있음 Query, Key, Value로 구성되며, 일반적으로 Key와 Value를 같은 값을 가지게 함 Query : 찾고자 하는 대상으로, t시점의..
Attention, Self-Attention, Transformer1. Attention 1.1. 개념 input sequence가 길어지면 output sequence의 정확도가 떨어지는 것을 보정해주기 위한 등장한 기법 데이터 전체를 살펴보고 집중해서 살펴볼 위치를 정하는 매커니즘 decoder에서 출력 단어를 예측하는 매 시점마다, encoder에서의 전체 입력 문장을 다시 참고 단, 전체 input sequence를 전부 다 동일한 비율로 참고하는 것이 아니라, 해당 시점에서 예측해야할 output과 연관이 있는 input 부분을 좀 더 집중 학습시키고자 하는 class에 해당하는 부분만 집중하는 효과를 나타낼 수 있음 Query, Key, Value로 구성되며, 일반적으로 Key와 Value를 같은 값을 가지게 함 Query : 찾고자 하는 대상으로, t시점의..
2022.11.02 -
object tracking은 tracklet과 trajectory를 만드는 2단계로 구성된다. 이 중, tracklet은 detection된 object가 이동한 경로 중, 짧은 구간의 경로를 의미한다. 하나의 object에 대한 tracklet을 모두 합치면, trajectory가 된다. 이를 이용하여 object의 identity를 유지할 수 있다. 참고 링크 https://blog.naver.com/sw_maestro/221032791075 https://ietresearch.onlinelibrary.wiley.com/doi/full/10.1049/iet-cvi.2015.0297
Tracklet과 Trajectoryobject tracking은 tracklet과 trajectory를 만드는 2단계로 구성된다. 이 중, tracklet은 detection된 object가 이동한 경로 중, 짧은 구간의 경로를 의미한다. 하나의 object에 대한 tracklet을 모두 합치면, trajectory가 된다. 이를 이용하여 object의 identity를 유지할 수 있다. 참고 링크 https://blog.naver.com/sw_maestro/221032791075 https://ietresearch.onlinelibrary.wiley.com/doi/full/10.1049/iet-cvi.2015.0297
2022.07.30 -
MT; Mostly Tracked trajectories↑ : 궤적의 수명(한 object의 궤적에 대해 동일한 ID를 가진 정도 혹은 시간)이 최소 80% 이상인 궤적의 수PT; Partially Tracked trajectories : 궤적의 수명이 20~80% 인 궤적의 수ML; Mostly Lost trajectories↓ : 궤적의 수명이 최대 20% 인 궤적의 수FP; False Positive↓ : 검출되지 않아야 할 것이 검출된 것의 수FN; False Negative↓ : 검출되어야 할 것이 검출되지 않은 것의 수Pr; Precision↑ : 검출 결과가 실제 객체와 얼마나 일치하는가? $$ Precision=\frac{TP}{TP+FP} $$Re; Recall↑ : 실제 객체를 얼마나 ..
Tracking Evaluation MetricsMT; Mostly Tracked trajectories↑ : 궤적의 수명(한 object의 궤적에 대해 동일한 ID를 가진 정도 혹은 시간)이 최소 80% 이상인 궤적의 수PT; Partially Tracked trajectories : 궤적의 수명이 20~80% 인 궤적의 수ML; Mostly Lost trajectories↓ : 궤적의 수명이 최대 20% 인 궤적의 수FP; False Positive↓ : 검출되지 않아야 할 것이 검출된 것의 수FN; False Negative↓ : 검출되어야 할 것이 검출되지 않은 것의 수Pr; Precision↑ : 검출 결과가 실제 객체와 얼마나 일치하는가? $$ Precision=\frac{TP}{TP+FP} $$Re; Recall↑ : 실제 객체를 얼마나 ..
2022.07.30 -
두 벡터간의 각도를 이용하여, 두 벡터가 얼마나 같은 방향을 가르키는지 구하는 것. 즉, 두 벡터가 얼마나 유사한지를 구할 수 있음. $$ Cosine\ Similarity=cos(\theta)=\frac{A⋅B}{||A||\ ||B||}=\frac{\sum_{i=1}^{n}{A_{i}×B_{i}}}{\sqrt{\sum_{i=1}^{n}(A_{i})^2}×\sqrt{\sum_{i=1}^{n}(B_{i})^2}} $$ 참고 링크 https://wikidocs.net/24603 https://www.learndatasci.com/glossary/cosine-similarity
Cosine Similarity두 벡터간의 각도를 이용하여, 두 벡터가 얼마나 같은 방향을 가르키는지 구하는 것. 즉, 두 벡터가 얼마나 유사한지를 구할 수 있음. $$ Cosine\ Similarity=cos(\theta)=\frac{A⋅B}{||A||\ ||B||}=\frac{\sum_{i=1}^{n}{A_{i}×B_{i}}}{\sqrt{\sum_{i=1}^{n}(A_{i})^2}×\sqrt{\sum_{i=1}^{n}(B_{i})^2}} $$ 참고 링크 https://wikidocs.net/24603 https://www.learndatasci.com/glossary/cosine-similarity
2022.07.30