KR102085035B1 - 객체 인식을 위한 객체 후보영역 설정방법 및 장치 - Google Patents

객체 인식을 위한 객체 후보영역 설정방법 및 장치 Download PDF

Info

Publication number
KR102085035B1
KR102085035B1 KR1020140130510A KR20140130510A KR102085035B1 KR 102085035 B1 KR102085035 B1 KR 102085035B1 KR 1020140130510 A KR1020140130510 A KR 1020140130510A KR 20140130510 A KR20140130510 A KR 20140130510A KR 102085035 B1 KR102085035 B1 KR 102085035B1
Authority
KR
South Korea
Prior art keywords
area
image frame
new
region
current image
Prior art date
Application number
KR1020140130510A
Other languages
English (en)
Other versions
KR20160037643A (ko
Inventor
조동찬
Original Assignee
에스케이 텔레콤주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이 텔레콤주식회사 filed Critical 에스케이 텔레콤주식회사
Priority to KR1020140130510A priority Critical patent/KR102085035B1/ko
Publication of KR20160037643A publication Critical patent/KR20160037643A/ko
Application granted granted Critical
Publication of KR102085035B1 publication Critical patent/KR102085035B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Abstract

객체 인식을 위한 객체 후보영역 설정방법 및 장치를 개시한다.
신규 영상 프레임에 대해서만 영상 전체에 대한 객체 검출을 수행하고, 신규 영상 프레임 이후 획득되는 현재 영상 프레임에 대해서는 이전 영상 프레임을 이용하여 검출된 움직임 벡터를 기반으로 기 인식된 객체를 제외한 후보영역을 설정하여 객체 인식을 수행하는 객체 인식을 위한 객체 후보영역 설정방법 및 장치에 관한 것이다.

Description

객체 인식을 위한 객체 후보영역 설정방법 및 장치{Method and Apparatus for Setting Candidate Area of Object for Recognizing Object}
본 실시예는 객체 인식을 위한 객체 후보영역을 설정하는 방법 및 그를 위한 장치에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
일반적인 객체 검출 및 인식 기술은 기 설정된 윈도우가 영상 내의 모든 위치에서 다양한 크기로 스캔하는 윈도우 슬라이드 방식(Sliding Window)을 이용하여 특징값을 추출하고, 추출된 특징값을 객체 분류기에 통과시켜 객체를 검출 및 인식한다. 이러한 윈도우 슬라이드 방식은 객체를 검출하기 위해 필요한 연산량이 많기 때문에 한 장의 영상에서 객체를 검출 및 인식하는데 많은 시간이 걸린다.
특히, 동영상에서 윈도우 슬라이드 방식으로 매 프레임마다 객체 검출을 수행하는 경우, 하나의 동영상을 분석하는데 상당한 시간이 걸리게 된다. 객체 검출을 위해 필요한 많은 연산량은 중앙 처리유닛(CPU: Central Processing Unit)나 그래픽 처리유닛(GPU: Graphic Processing Unit)에서 병렬 처리를 통하여 어느 정도 해결할 수 있다. 하지만, 다수의 동영상을 실시간으로 처리하기 위해서는 고성능의 하드웨어가 필요하고, 고성능 하드웨어를 구현하기 위한 구축비용이 증가한다.
이러한 문제를 개선하기 위해 영상 내에서 객체가 존재할만한 중요 영역(Saliency Map)을 검출하여 윈도우 슬라이드 방식에서 스캔할 영역을 한정하는 방법이 존재하지만 중요 영역을 결정할 때 오류가 발생할 경우, 객체를 검출할 수 없는 문제점이 있다.
이외에 이전에 검출한 객체를 추적 기술을 이용하여 지속적으로 객체의 위치 및 크기를 추적하고, 그 외의 영역에서 객체 검출을 수행하는 방법이 있지만, 일반적으로 검출, 추적하는 기술이 영상 내에서 차지하는 크기가 작기 때문에 새로운 영상에서 객체 검출 및 인식을 수행할 후보 공간이 크게 존재하게 된다. 반대로 객체의 크기가 클 경우, 효과적인 추적을 수행하기 위하여 많은 연산량이 필요로 하는 문제점이 있다.
본 실시예는 신규 영상 프레임에 대해서만 영상 전체에 대한 객체 검출을 수행하고, 신규 영상 프레임 이후 획득되는 현재 영상 프레임에 대해서는 이전 영상 프레임을 이용하여 검출된 움직임 벡터를 기반으로 기 인식된 객체를 제외한 후보영역을 설정하여 객체 인식을 수행하는 객체 인식을 위한 객체 후보영역 설정방법 및 장치를 제공하는 데 주된 목적이 있다.
본 실시예의 일 측면에 의하면, 현재 영상 프레임을 획득하는 영상 획득부;
상기 영상 획득부에서 획득한 상기 현재 영상 프레임이 이전 영상 프레임을 가지는지 확인하는 영상 제어부; 상기 현재 영상 프레임이 상기 이전 영상 프레임을 가지는 경우, 상기 이전 영상 프레임 및 상기 현재 영상 프레임을 이용하여 기 인식된 객체에 대한 객체 움직임 벡터를 추출하는 움직임 추정부; 상기 객체 움직임 벡터에 근거하여 상기 현재 영상 프레임 중 기 인식된 영역을 제외한 신규 영역을 검출하고, 상기 신규 영역을 기초로 객체 후보영역을 설정하는 후보영역 설정부; 및 상기 객체 후보영역 내에서 객체 인식을 수행하는 객체 인식부를 포함하는 것을 특징으로 하는 객체 인식장치를 제공한다.
또한, 본 실시예의 다른 측면에 의하면, 현재 영상 프레임을 획득하는 영상 획득과정; 상기 영상 획득부에서 획득한 상기 현재 영상 프레임이 이전 영상 프레임을 가지는지 확인하는 영상 제어과정; 상기 현재 영상 프레임이 상기 이전 영상 프레임을 가지는 경우, 상기 이전 영상 프레임 및 상기 현재 영상 프레임을 이용하여 기 인식된 객체에 대한 객체 움직임 벡터를 추출하는 움직임 추정과정; 상기 객체 움직임 벡터에 근거하여 상기 현재 영상 프레임 중 기 인식된 영역을 제외한 신규 영역을 검출하고, 상기 신규 영역을 기초로 객체 후보영역을 설정하는 후보영역 설정과정; 및 상기 객체 후보영역 내에서 객체 인식을 수행하는 객체 인식과정을 포함하는 것을 특징으로 하는 객체 인식을 위한 객체 후보영역 설정방법을 제공한다.
이상에서 설명한 바와 같이 본 실시예에 의하면, 대용량의 동영상 데이터에서 빠르게 객체 인식을 수행할 수 있고, 수집된 데이터를 이용하여 영상 기반의 빅데이터 분석에 활용할 수 있는 효과가 있다.
도 1은 본 실시예에 따른 객체 인식장치를 개략적으로 나타낸 블록 구성도이다.
도 2는 본 실시예에 따른 객체 인식을 위한 객체 후보영역을 설정하는 방법을 설명하기 위한 순서도이다.
도 3은 본 실시예에 따른 첫 영상 프레임에 대한 초기 영상분할 및 객체인식을 설명하기 위한 예시도이다.
도 4는 본 실시예에 따른 객체 인식장치에서 전역 움직임을 검출하여 객체 후보영역을 설정하는 동작을 설명하기 위한 예시도이다.
도 5는 본 실시예에 따른 객체 인식장치에서 지역 움직임을 검출하여 객체 후보영역을 설정하는 동작을 설명하기 위한 예시도이다.
도 6은 본 실시예에 따른 객체 인식장치에서 장면 변화를 검출하여 객체 후보영역을 설정하는 동작을 초기화하는 동작을 설명하기 위한 예시도이다.
이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 실시예에 따른 객체 인식장치를 개략적으로 나타낸 블록 구성도이다.
본 실시예에 따른 객체 인식장치(100)는 영상 획득부(110), 영상 제어부(120), 움직임 추정부(130), 후보영역 설정부(140) 및 객체 인식부(150)를 포함한다. 도 1에 도시된 객체 인식장치(100)는 일 실시예에 따른 것으로서, 도 1에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 객체 인식장치(100)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다.
영상 획득부(110)는 영상 촬영장치(미도시), 영상 저장장치(미도시) 등의 외부장치로부터 영상 프레임을 획득한다. 영상 획득부(110)는 실시간으로 촬영된 촬영 영상에 대한 영상 프레임을 획득할 수 있으나, 기 저장된 촬영 영상에 대한 영상 프레임을 획득할 수도 있다. 여기서, 영상 프레임은 장면 식별정보, 프레임 식별정보 등의 영상 속성정보를 포함한다.
영상 제어부(120)는 획득한 영상 프레임이 하나의 장면(Scene)에 대한 신규 영상 프레임인지 여부를 판단 및 객체 인식 후 장면 변화를 확인한다. 여기서, 장면은 유사한 객체를 갖는 복수 개의 영상 프레임을 포함하는 영상 단위 또는 영상 그룹을 의미한다. 다시 말해, 유사한 객체를 갖는 복수의 영상 프레임을 포함하여 하나의 장면이 구현되고, 복수의 장면을 포함하여 촬영 영상이 구현된다. 복수 개의 장면 각각의 첫 번째 영상 프레임은 신규 영상 프레임을 의미한다. 본 실시예에 따른 영상 제어부(120)는 프레임 확인부(122) 및 장면 변화 확인부(124)를 포함한다.
프레임 확인부(122)는 영상 획득부(110)에서 획득한 영상 프레임에 포함된 영상 속성정보에 근거하여 신규 영상 프레임인지 여부를 판단한다. 더 자세히 설명하자면, 프레임 확인부(122)는 획득한 영상 프레임에 포함된 장면 식별정보, 프레임 식별정보 등을 분석하여 획득한 영상 프레임이 소정의 장면의 첫 번째 영상 프레임인 신규 영상 프레임인지 여부를 판단한다.
프레임 확인부(122)는 획득한 영상 프레임이 소정의 장면의 신규 영상 프레임인 것으로 판단된 경우, 신규 영상 프레임을 객체 인식부(150)로 전송하여 초기 객체 인식이 수행되도록 한다.
프레임 확인부(122)는 획득한 영상 프레임에 포함된 정보에 근거하여 신규 영상 프레임을 확인하는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 장면 변화 확인부(124)로부터 장면 변화 알림신호가 수신되는 경우, 획득한 영상 프레임을 신규 영상 프레임으로 판단할 수 있다.
한편, 프레임 확인부(122)는 획득한 영상 프레임이 소정의 장면의 신규 영상 프레임이 아닌 이전 영상 프레임을 갖는 현재 영상 프레임인 것으로 판단된 경우, 현재 영상 프레임 및 기 저장된 이전 영상 프레임을 움직임 추정부(130)로 전송하여 기 인식된 객체의 객체정보를 기반으로 움직임이 추정되도록 한다. 여기서, 이전 영상 프레임은 영상 프레임을 저장하는 저장부(미도시)에 저장되는 것이 바람직하나 반드시 이에 한정되는 것은 아니며, 외부 저장장치 또는 외부 데이터베이스로 저장될 수 있다.
장면 변화 확인부(124)는 신규 영상 프레임 또는 현재 영상 프레임에 대한 객체 인식 수행 후 장면의 변화 여부를 확인한다.
장면 변화 확인부(124)는 신규 영상 프레임에 포함된 장면 식별정보, 프레임 식별정보 등에 근거하여 장면 변화 여부를 확인하고, 장면 변화가 존재하는 경우, 프레임 확인부(122)로 장면 변화 알림신호를 전송하여 획득한 영상 프레임이 신규 영상 프레임으로 판단하도록 한다. 한편, 장면 변화 확인부(124)는 영상 획득부(110)에서 획득된 영상 프레임에 대해 장면 변화를 확인하고, 프레임 확인부(120)에서 신규 영상 프레임인지 여부를 확인하도록 할 수 있다.
또한, 장면 변화 확인부(124)는 객체 인식부(150)로부터 객체 인식을 수행한 현재 영상 프레임과 이전 영상 프레임에 포함된 각각의 화소 즉, 동일한 위치에 해당하는 화소값의 차이를 비교하여 소정의 기준 퍼센트 이상의 화소들이 동일한 경우, 현재 영상 프레임의 장면 변화가 존재하지 않는 것으로 판단한다. 여기서, 장면 변화 확인부(124)는 현재 영상 프레임과 이전 영상 프레임에 동일한 위치에 해당하는 화소값의 차이를 비교하여 소정의 기준 퍼센트 미만의 화소들이 동일한 경우, 현재 영상 프레임의 장면 변화가 존재하는 것으로 판단한다.
또한, 장면 변화 확인부(124)는 객체 인식부(150)로부터 객체 인식을 수행한 현재 영상 프레임에 대한 객체 후보영역의 크기에 근거하여 장면 변화 여부를 확인한다. 더 자세히 설명하자면, 장면 변화 확인부(124)는 객체 인식을 수행한 현재 영상 프레임에서 객체 검출을 위한 객체 후보영역의 크기가 기 설정된 기준영역을 초과하는 경우, 프레임 확인부(122)로 장면 변화 알림신호를 전송하여 현재 영상 프레임의 이후로 획득되는 영상 프레임을 신규 영상 프레임으로 판단하도록 한다.
움직임 추정부(130)는 현재 영상 프레임 및 이전 영상 프레임을 이용하여 기 인식된 객체의 객체정보를 기반으로 움직임을 추정한다. 움직임 추정부(130)는 전역 움직임 검출부(132) 및 지역 움직임 검출부(134)를 포함한다.
전역 움직임 검출부(132)는 현재 영상 프레임을 기반으로 이전 영상 프레임과의 움직임 벡터를 추출하고, 추출된 움직임 벡터에 근거하여 현재 영상 프레임에 대한 전역 움직임을 검출한다.
전역 움직임 검출부(132)는 이전 영상 프레임에 기 설정된 블록과 매칭되는 영역을 현재 영상 프레임에서 검출하고, 검출된 영역에 근거하여 움직임 벡터를 추출하고, 기 설정된 개수의 블록에 대응하는 움직임 벡터의 평균값을 이용하여 전역 움직임을 검출한다. 여기서, 전역 움직임 검출부(1320)는 기 설정된 블록을 기초로 추출된 움직임 벡터를 이용하여 전역 움직임을 검출하는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 이전 영상 프레임 및 현재 영상 프레임 간의 특징점, 에지값, 화소 차이 등을 이용하여 추출된 움직임 벡터를 이용하여 전역 움직임을 검출할 수 있다.
지역 움직임 검출부(134)는 현재 영상 프레임을 기반으로 이전 영상 프레임과의 움직임 벡터를 추출하고, 추출된 움직임 벡터 중 기 인식된 객체에 대응하는 객체 움직임 벡터를 이용하여 현재 영상 프레임에 대한 지역 움직임을 검출한다.
지역 움직임 검출부(134)는 이전 영상 프레임에 기 설정된 블록과 매칭되는 영역을 현재 영상 프레임에서 검출하고, 검출된 영역에 대응하는 움직임 벡터를 추출하고, 추출된 움직임 벡터 중 기 인식된 소정의 객체에 대응하는 객체 움직임 벡터를 이용하여 기 인식된 객체에 대한 지역 움직임을 검출한다. 여기서, 지역 움직임 검출부(134)는 기 설정된 블록을 기초로 추출된 움직임 벡터를 이용하여 지역 움직임을 검출하는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 이전 영상 프레임 및 현재 영상 프레임 간의 특징점, 에지값, 화소 차이 등을 이용하여 추출된 움직임 벡터를 이용하여 기 인식된 객체에 대한 지역 움직임을 검출할 수 있다.
후보영역 설정부(140)는 현재 영상 프레임에 대한 움직임을 추정하여 객체가 기 인식된 영역을 제외한 신규 영역을 검출하고, 검출된 신규영역을 기초로 객체 후보영역을 설정한다. 다시 말해, 후보영역 설정부(140)는 검출된 전역 움직임 또는 지역 움직임에 근거하여 현재 영상 프레임 중 신규 영역을 검출하고, 검출된 신규 영역의 전체 또는 일부를 객체 후보영역으로 설정한다.
후보영역 설정부(140)는 움직임 추정부(130)로부터 검출된 전역 움직임에 근거하여 제1 신규영역을 검출한다. 더 자세히 설명하자면, 후보영역 설정부(140)는 현재 영상 프레임에서 전역 움직임에 대응하는 영역을 제외한 나머지 영역을 제1 신규영역으로 검출한다.
후보영역 설정부(140)는 이전 영상 프레임에서 기 인식된 객체들을 포함하는 영역을 현재 영상 프레임에서 추정하고, 추정된 영역을 제외한 나머지 영역을 제1 신규영역으로 검출한다.
한편, 후보영역 설정부(140)는 제1 신규영역을 검출하는 과정에서 유사영역을 제거하는 동작을 추가로 수행한다. 후보영역 설정부(140)는 현재 영상 프레임에서 이전 영상 프레임과 동일한 객체를 갖는 것으로 추정된 영역을 제외한 나머지 영역 중 추정된 영역과 유사한 특징을 갖는 영역을 추가로 제외하여 제1 신규영역을 검출한다.
예를 들어, 후보영역 설정부(140)는 이전 영상 프레임에 하늘, 바다 및 배와 같이 복수 개의 기 인식된 객체가 존재하는 경우, 현재 영상 프레임에서 복수 개의 기 인식된 객체에 대응하는 추정된 영역을 제외한 영역 중 배경에 해당하는 하늘 및 바다와 유사한 화소 또는 블록 특징을 갖는 영역을 추가로 제외하여 제1 신규영역을 검출한다.
후보영역 설정부(140)는 움직임 추정부(130)로부터 검출된 지역 움직임에 근거하여 제2 신규영역을 검출한다. 즉, 후보영역 설정부(140)는 현재 영상 프레임에서 지역 움직임에 대응하는 객체의 이전 위치영역을 제2 신규영역으로 검출한다.
후보영역 설정부(140)는 이전 영상 프레임에서 기 인식된 객체들 각각에 대한 지역 움직임에 근거하여 현재 영상 프레임에서 이동된 기 인식된 객체들을 추정하고, 기 인식된 객체들의 이동 전 영역 즉, 기 인식된 객체들에 의해 가려졌던 영역을 제2 신규영역으로 검출한다.
후보영역 설정부(140)는 객체 인식을 수행하기 위한 객체 후보영역을 설정한다. 후보영역 설정부(140)는 현재 영상 프레임 내에서 제1 신규영역 및 제2 신규영역을 포함하는 영역을 객체 후보영역으로 설정한다. 여기서, 객체 후보영역은 제1 신규영역 및 제2 신규영역을 합산하고, 중복되는 영역을 뺀 영역을 의미한다.
후보영역 설정부(140)는 제1 신규영역 및 제2 신규영역 모두를 이용하여 객체 후보영역을 설정하는 것이 바람직하나 반드시 이에 한정되는 것은 아니다. 예컨대, 후보영역 설정부(140)는 제1 신규영역만을 이용하여 객체 후보영역을 설정하거나, 제2 신규영역만을 이용하여 객체 후보영역을 설정할 수 있다. 또한, 후보영역 설정부(140)는 제1 신규영역 및 제2 신규영역을 포함하는 영역 중 사용자의 조작 또는 입력에 근거하여 설정된 소정의 영역만을 객체 후보영역으로 설정할 수도 있다.
객체 인식부(150)는 영상 프레임의 전체 또는 일부에 포함된 객체를 검출하기 위한 객체 인식을 수행한다. 본 실시예에 따른 객체 인식부(150)는 신규 영상 프레임 내에서 객체를 검출하기 위한 초기 객체 인식을 수행하거나, 현재 영상 프레임에 설정된 후보영역 내에서 신규 객체를 검출하기 위한 추가 객체 인식을 수행한다.
이하, 객체 인식부(150)가 초기 객체 인식을 수행하는 동작에 대해 설명하도록 한다.
객체 인식부(150)는 영상 제어부(120)로부터 신규 영상 프레임을 수신하는 경우, 신규 영상 프레임의 전체 영역에 대해 객체 인식을 수행한다. 더 자세히 설명하자면, 객체 인식부(150)는 신규 영상 프레임에 포함된 두 개 이상의 화소(Pixel)를 포함하는 화소블록을 설정하고, 화소블록을 기준으로 에지 검출, 전경 배경 분리, 기 저장된 참조영상 비교 등의 방식을 이용하여 영상 분할을 수행하여 신규 영상 프레임 내에 포함된 객체를 분류하는 객체 인식을 수행한다.
객체 인식부(150)는 영상 프레임에 포함된 모든 화소인 W(영상 프레임의 가로 화소수) × H(영상 프레임의 세로 화소수) 중 두 개 이상의 화소를 포함하는 m(화소블록의 가로 화소수) × n(화소블록의 세로 화소수) 크기의 화소블록으로 구분하여 설정한다. 예컨대, 객체 인식부(150)는 320 × 240 크기의 영상 프레임을 2 × 2 크기의 화소블록으로 구분하여 설정할 수 있다.
객체 인식부(150)는 신규 영상 프레임에 설정된 화소블록의 그래디언트(Gradient) 정보를 이용하여 신규 영상 프레임 내에 존재하는 객체들의 윤곽을 에지(Edge)로 검출하여 객체 분류를 위한 분할 에지영상을 생성한다. 여기서, 그래디언트 정보는 화소블록 내에 포함된 소정의 화소들 중 인접하는 화소들 간의 차이값을 이용하여 산출된 값으로서, 화소들 간 차이의 절대값의 합을 의미할 수 있다.
객체 인식부(150)는 생성된 분할 에지영상과 기 저장된 참조영상 또는 기 저장된 기준 분류정보 등의 객체 분류정보를 이용하여 객체를 분류하는 객체 인식을 수행한다. 예컨대, 객체 인식부(150)는 분할 에지영상과 기 저장된 참조영상을 비교하여 객체후보 화소를 추출하고, 추출된 복수 개의 객체후보 화소를 객체후보로 그룹화한다. 객체 인식부(150)는 분할 에지영상의 화소값과 참조영상의 화소값을 소정의 함수에 적용하여 산출된 상대 차이값(RD: Relative Difference)이 기 설정된 임계값 이상인 화소블록들을 하나의 객체로 판단하고, 각각의 객체를 기 설정된 기준 분류정보에 따라 분류하여 객체 인식을 수행한다.
또한, 객체 인식부(150)는 기 설정된 윈도우를 객체 후보영역 내에 슬라이딩하여 객체 인식을 수행할 수 있다. 여기서, 객체 인식부(150)는 객체 후보영역의 크기가 기 설정된 윈도우의 크기보다 큰 경우, 윈도우를 슬라이딩하여 객체 인식을 수행한다.
한편, 객체 인식부(150)는 객체 후보영역이 설정된 경우, 설정된 객체 후보영역 내에서 객체 인식을 수행한다. 여기서, 객체 인식부(150)는 객체 후보영역을 화소블록으로 설정하고, 화소블록 내에 포함된 화소블록을 기준으로 에지 검출, 전경 배경 분리, 기 저장된 참조영상 비교 등의 방식을 이용하여 영상 분할을 수행하여 현재 영상 프레임 내에 포함된 신규 객체를 검출하기 위한 객체 인식을 수행한다.
도 2는 본 실시예에 따른 객체 인식을 위한 객체 후보영역을 설정하는 방법을 설명하기 위한 순서도이다.
객체 인식장치(100)는 외부장치 또는 영상 촬영장치(미도시)로부터 영상 프레임을 획득한다(S210).
객체 인식장치(100)는 영상 프레임에 대한 장면의 변화를 확인하고(S212), 확인된 영상 프레임이 하나의 장면 단위의 첫 번째 영상 프레임인지 여부를 확인한다(S220). 다시 말해, 객체 인식장치(100)는 영상 프레임의 화소 차이값에 따른 변화률에 근거하여 장면의 변화 여부를 확인하고, 장면 변화가 존재하는 경우, 확인된 영상 프레임을 장면 단위의 첫 번째 영상 프레임인 신규 영상 프레임으로 판단한다.
객체 인식장치(100)는 획득한 영상 프레임이 장면 단위의 신규 영상 프레임인 경우, 영상 프레임을 초기 영상 분할하고, 기준 객체정보를 검출하기 위한 객체 인식을 수행한다(S222). 객체 인식장치(100)는 신규 영상 프레임에 포함된 두 개 이상의 화소를 포함하는 화소블록을 설정하고, 화소블록을 기준으로 에지 검출, 전경 배경 분리, 기 저장된 참조영상 비교 등의 방식을 이용하여 영상 분할을 수행하여 신규 영상 프레임 내에 포함된 객체를 분류하는 객체 인식을 수행한다.
객체 인식장치(100)는 획득한 영상 프레임이 장면 단위의 첫 번째 영상 프레임이 아닌 경우, 획득한 현재 영상 프레임과 기 저장된 이전 영상 프레임을 이용하여 움직임 벡터를 추출한다(S230).
객체 인식장치(100)는 추출된 움직임 벡터에 근거하여 전역 움직임을 검출한 경우(S240), 검출된 전역 움직임에 근거하여 기 인식된 객체영역을 제외하여 제1 신규영역을 추출한다(S250). 객체 인식장치(100)는 이전 영상 프레임에 기 설정된 블록과 매칭되는 영역을 현재 영상 프레임에서 검출하고, 검출된 영역에 근거하여 움직임 벡터를 추출하고, 기 설정된 개수의 블록에 대응하는 움직임 벡터의 평균값을 이용하여 전역 움직임을 검출한다. 객체 인식장치(100)는 검출된 전역 움직임에 근거하여 현재 영상 프레임에서 전역 움직임에 대응하는 영역을 제외한 나머지 영역을 제1 신규영역으로 검출한다.
한편, 객체 인식장치(100)는 제1 신규영역을 검출하는 과정에서 유사영역을 제거하는 과정을 추가로 수행할 수 있다. 예컨대, 객체 인식장치(100)는 현재 영상 프레임에서 이전 영상 프레임과 동일한 객체를 갖는 것으로 추정된 영역을 제외한 나머지 영역 중 추정된 영역과 유사한 특징을 갖는 영역을 추가로 제외하여 제1 신규영역을 검출한다.
객체 인식장치(100)는 추출된 움직임 벡터에 근거하여 소정의 객체에 대한 지역 움직임을 검출한 경우(S242), 지역 움직임에 근거하여 이동된 소정의 객체에 대한 이동전 영역을 제2 신규영역으로 추출한다(S244).
객체 인식장치(100)는 이전 영상 프레임에 기 설정된 블록과 매칭되는 영역을 현재 영상 프레임에서 검출하고, 검출된 영역에 대응하는 움직임 벡터를 추출하고, 추출된 움직임 벡터 중 기 인식된 소정의 객체에 대응하는 객체 움직임 벡터를 이용하여 기 인식된 객체에 대한 지역 움직임을 검출한다. 객체 인식장치(100)는 현재 영상 프레임에서 지역 움직임에 대응하는 객체의 이전 위치영역을 제2 신규영역으로 검출한다.
객체 인식장치(100)는 제1 신규영역 또는 제2 신규영역을 객체 후보영역으로 선정한다(S260). 객체 인식장치(100)는 제1 신규영역 및 제2 신규영역 모두를 이용하여 객체 후보영역을 설정하는 것이 바람직하나 반드시 이에 한정되는 것은 아니다. 예를 들어, 객체 인식장치(100)는 제1 신규영역만을 이용하여 객체 후보영역을 설정하거나, 제2 신규영역만을 이용하여 객체 후보영역을 설정할 수 있다.
단계 S240 내지 단계 S260에서 객체 인식장치(100)는 전역 움직임 및 지역 움직임을 별도로 산출하여 검출된 제1 신규영역 또는 제2 신규영역을 기초로 객체 후보영역을 선정하는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니다. 예컨대, 객체 인식장치(100)는 영상 프레임에서 전역 움직임을 이용하여 검출된 제1 신규영역을 제외하여 보정하고, 보정된 영상 프레임에서 지역 움직임을 이용하여 제2 신규영역을 제외하여 보정한 영상 프레임을 객체 후보영역으로 선정할 수 있다.
객체 인식장치(100)는 객체 후보영역 내에서 신규 객체정보를 검출하기 위해 객체 인식을 수행한다(S270). 객체 인식장치(100)는 객체 후보영역을 화소블록으로 설정하고, 화소블록 내에 포함된 화소블록을 기준으로 에지 검출, 전경 배경 분리, 기 저장된 참조영상 비교 등의 방식을 이용하여 영상 분할을 수행하여 현재 영상 프레임 내에 포함된 신규 객체를 검출하기 위한 객체 인식을 수행한다.
도 3은 본 실시예에 따른 첫 영상 프레임에 대한 초기 영상분할 및 객체인식을 설명하기 위한 예시도이다.
객체 인식장치(100)는 소정의 장면에 대한 첫 번째 프레임인 신규 영상 프레임이 수신된 경우, 신규 영상 프레임을 영상 분할(Segmentation)하고, 영상 분할된 분할 영상정보를 영상 분류기를 이용하여 객체 인식을 수행한다. 이하, 객체 인식장치(100)가 신규 영상 프레임 내에서 객체 인식을 수행하는 동작에 대해 도 3의 (a), (b) 및 (c)를 기반으로 설명하도록 한다.
도 3의 (a)는 객체 인식장치(100)에서 획득한 신규 영상 프레임을 나타낸다. 도 3의 (b)는 신규 영상 프레임을 복수의 화소블록으로 설정하고, 화소블록을 기준으로 에지를 검출한 분할 에지영상을 나타낸다. 예컨대, 객체 인식장치(100)는 각각의 화소블록의 그래디언트(Gradient) 정보를 이용하여 신규 영상 프레임 내에 존재하는 객체들의 윤곽을 에지로 검출하여 객체 분류를 위한 분할 에지영상을 생성한다.
도 3의 (c)는 분할 에지영상에 대한 분할 영상정보를 기 설정된 영상 분류기에 적용하여 객체 인식을 수행한 결과를 나타낸다. 다시 말해, 객체 인식장치(100)는 분할 에지영상에 대한 분할 영상정보를 기 설정된 영상 분류기에 적용하여 신규 영상 프레임의 하늘 영역(310), 배 영역(320), 나무 영역(330) 및 바다 영역(340)을 분류하여 객체 인식을 수행한다.
도 4는 본 실시예에 따른 객체 인식장치에서 전역 움직임을 검출하여 객체 후보영역을 설정하는 동작을 설명하기 위한 예시도이다.
객체 인식장치(100)는 신규 영상 프레임에 대해 객체 인식을 수행한 이후 획득하는 영상 프레임에 대하여 현재 영상 프레임과 기 저장된 이전 영상 프레임을 이용하여 검출된 전역 움직임에 근거하여 객체 후보영역을 설정한다.
이하, 현재 영상 프레임 및 이전 영상 프레임을 이용하여 검출된 전역 움직임을 기반으로 객체 후보영역을 설정하는 동작을 도 4의 (a) 및 (b)를 이용하여 설명하도록 한다.
도 4의 (a)는 객체 인식장치(100)에서 신규 영상 프레임에 대해 객체 인식을 수행한 이후 획득한 현재 영상 프레임을 나타낸다.
도 4의 (b)에 도시된 바와 같이, 객체 인식장치(100)는 이전 영상 프레임에 기 설정된 블록과 매칭되는 영역을 현재 영상 프레임에서 검출하여 움직임 벡터를 추출하고, 기 설정된 개수의 블록에 대한 움직임 벡터의 평균값을 기초로 전역 움직임 벡터(400)를 검출한다.
객체 인식장치(100)는 전역 움직임 벡터(400)를 기반으로 이전 영상 프레임에서 기 인식된 객체들을 포함하는 영역을 현재 영상 프레임에서 추정하고, 추정된 제외영역(410)을 제외한 나머지 영역을 제1 신규영역(420)으로 검출하여 객체 후보영역으로 설정한다. 다시 말해, 객체 인식장치(100)는 기 인식된 하늘 영역(310), 배 영역(320), 나무 영역(330) 및 바다 영역(340)을 포함하는 영역을 제외한 나머지 영역을 제1 신규영역(420)으로 검출하여 객체 후보영역으로 설정한다.
객체 인식장치(100)는 제1 신규영역(420) 전체를 객체 후보영역으로 설정하는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니다. 객체 인식장치(100)는 제1 신규영역(420)을 검출한 후 제1 신규영역(420) 내 테두리에 위치한 화소와 제외영역(410)의 인접 화소와 화소값(화소 특징)을 비교하여 유사한 특징을 갖는 영역을 추가로 제외하여 객체 후보영역을 설정할 수 있다.
도 4의 (b)에 도시된 바와 같이, 객체 인식장치(100)는 제1 신규영역(420)을 검출한 후 기 인식된 하늘 영역(310), 배 영역(320), 나무 영역(330) 및 바다 영역(340)을 포함하는 제외영역(410)과 유사한 특징을 갖는 영역을 제1 신규영역(420)에서 추가로 제외하여 객체 후보영역을 설정할 수 있다. 다시 말해, 객체 인식장치(100)는 제1 신규영역(420)을 검출한 후 하늘 영역(310)과 유사한 특징을 갖는 하늘 유사영역(422)과 바다 영역(340)과 유사한 특징을 갖는 바다 유사영역(424)를 제1 신규영역(420)에서 추가로 제외하여, 제1 신규영역 중 잔여 영역(426)만을 객체 후보영역을 설정한다.
도 5는 본 실시예에 따른 객체 인식장치에서 지역 움직임을 검출하여 객체 후보영역을 설정하는 동작을 설명하기 위한 예시도이다.
객체 인식장치(100)는 신규 영상 프레임에 대해 객체 인식을 수행한 이후 획득하는 영상 프레임에 대응하는 현재 영상 프레임과 기 저장된 이전 영상 프레임을 기초로 기 인식된 객체에 대한 지역 움직임을 검출하여 객체 후보영역을 설정한다.
이하, 현재 영상 프레임 및 이전 영상 프레임을 이용하여 검출된 지역 움직임을 기반으로 객체 후보영역을 설정하는 동작을 도 5의 (a) 및 (b)를 이용하여 설명하도록 한다.
도 5의 (a)는 객체 인식장치(100)에서 기 인식된 특정객체(510)를 나타낸 이전 영상 프레임을 나타낸다.
도 5의 (b)에 도시된 바와 같이, 객체 인식장치(100)는 이전 영상 프레임에서 기 인식된 객체(510)를 현재 영상 프레임에서 검출하고, 검출된 기 인식된 객체(510)를 기초로 지역 움직임 벡터(500)을 검출하고, 지역 움직임 벡터(500)를 이용하여 기 인식된 객체(510)의 이동 전 영역(520) 즉, 기 인식된 객체들에 의해 가려졌던 영역(520)을 제2 신규영역(520)으로 검출하여 객체 후보영역을 설정한다.
도 6은 본 실시예에 따른 객체 인식장치에서 장면 변화를 검출하여 객체 후보영역을 설정하는 동작을 초기화하는 동작을 설명하기 위한 예시도이다.
객체 인식장치(100)는 복수 개의 장면을 갖는 영상에 대해 각각의 장면마다 첫 번째 영상 프레임을 신규 영상 프레임으로 판단하여 초기 영상 분할 및 초기 객체 인식을 수행한다.
도 6에 도시된 바와 같이, 객체 인식장치(100)는 제1 장면(612)에 대한 제1 신규 영상 프레임(610)을 확인하는 경우, 제1 신규 영상 프레임(610)에 대해 초기 영상 분할 및 초기 객체 인식을 수행한다.
객체 인식장치(100)는 제1 장면(612)에 연속하여 제2 장면(622)이 입력되는 경우, 제2 신규 영상 프레임(620)을 확인하고, 제2 신규 영상 프레임(620)에 대해 초기 영상 분할 및 초기 객체 인식을 수행한다. 또한, 객체 인식장치(100)는 제2 장면(622)이 입력된 이후 제3 장면(632)이 입력되는 경우, 제3 신규 영상 프레임(630)을 확인하고, 제3 신규 영상 프레임(630)에 대해 초기 영상 분할 및 초기 객체 인식을 수행한다.
객체 인식장치(100)는 제1 신규 영상 프레임(610), 제2 신규 영상 프레임(620), 제3 신규 영상 프레임(630) 등에 포함된 장면 식별정보, 프레임 식별정보 등에 근거하여 장면 변화 여부를 확인하고, 장면 변화가 존재하는 경우, 해당 신규 영상 프레임에 대해 초기 영상 분할 및 초기 객체 인식을 수행한다.
객체 인식장치(100)는 획득한 영상 프레임에 포함된 소정의 정보를 이용하여 장면 변화에 대한 신규 영상 프레임을 확인하는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니다.
예를 들어, 객체 인식장치(100)는 제1 장면(612)의 제1 신규 영상 프레임(612)을 확인한 후 획득하는 현재 영상 프레임에 대해 객체 검출을 위한 객체 후보영역의 크기를 확인하고, 확인된 객체 후보영역의 크기가 기 설정된 기준영역을 초과하는 경우, 해당 영상 프레임을 제2 장면(622)에 대한 제2 신규 영상 프레임(620)인 것으로 판단한다.
객체 인식장치(100)는 제2 장면(622)의 제2 신규 영상 프레임(622)을 확인한 후 획득하는 현재 영상 프레임에 대해 객체 검출을 위한 객체 후보영역의 크기를 확인하고, 확인된 객체 후보영역의 크기가 기 설정된 기준영역을 초과하는 경우, 해당 영상 프레임을 제3 장면(632)에 대한 제3 신규 영상 프레임(630)인 것으로 판단한다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
이상에서 설명한 바와 같이 본 실시예는 객체 인식 분야에 적용되어, 대용량의 동영상 데이터에서 빠르게 객체 인식을 수행할 수 있고, 수집된 데이터를 이용하여 영상 기반의 빅데이터 분석에 활용할 수 있는 효과를 발생하는 유용한 발명이다.
100: 객체 인식정보 110: 영상 획득부
120: 영상 제어부 122: 프레임 확인부
124: 장면변화 확인부 130: 움직임 추정부
132: 전역 움직임 검출부 134: 지역 움직임 검출부
140: 후보영역 설정부 150: 객체 인식부

Claims (9)

  1. 현재 영상 프레임을 획득하는 영상 획득부;
    상기 영상 획득부에서 획득한 상기 현재 영상 프레임이 이전 영상 프레임을 가지는지 확인하는 영상 제어부;
    상기 현재 영상 프레임이 상기 이전 영상 프레임을 가지는 경우, 상기 이전 영상 프레임 및 상기 현재 영상 프레임을 이용하여 기 인식된 객체에 대한 객체 움직임 벡터를 추출하는 움직임 추정부;
    객체 인식을 위한 영역을 선정할 때, 상기 객체 움직임 벡터에 근거하여 상기 현재 영상 프레임 중 기 인식된 영역을 제외하여 새롭게 등장한 신규 영역을 검출하고, 상기 신규 영역과 주변 영역을 비교한 결과를 기반으로 상기 신규 영역이 상기 주변 영역과 유사한 특징을 갖는 유사 영역으로 판단되면, 새로운 객체가 나타날 가능성이 적은 영역으로 인지하여 상기 객체 인식을 위한 영역에서 상기 유사 영역을 제외하여 객체 후보영역을 설정하고, 상기 기 인식된 객체의 이동전 영역 또는 상기 기 인식된 객체에 의해 가려진 영역을 상기 객체 후보영역으로 설정하는 후보영역 설정부; 및
    상기 객체 후보영역 내에서 상기 객체 인식을 수행하는 객체 인식부
    를 포함하는 것을 특징으로 하는 객체 인식장치.
  2. 제 1 항에 있어서,
    상기 움직임 추정부는,
    상기 이전 영상 프레임에 기 설정된 블록과 매칭되는 영역을 상기 현재 영상 프레임에서 검출하고, 검출된 영역에 따른 상기 객체 움직임 벡터를 추출하고, 상기 객체 움직임 벡터에 근거하여 전역 움직임을 검출하는 것을 특징으로 하는 객체 인식장치.
  3. 제 2 항에 있어서,
    상기 움직임 추정부는,
    기 설정된 개수의 상기 블록에 대한 상기 객체 움직임 벡터의 평균값을 이용하여 상기 전역 움직임을 검출하는 것을 특징으로 하는 객체 인식장치.
  4. 제 2 항에 있어서,
    상기 후보영역 설정부는,
    상기 현재 영상 프레임 중 상기 전역 움직임에 대응하는 영역을 제외한 나머지 영역을 제1 신규영역으로 검출하여 상기 객체 후보영역을 설정하는 것을 특징으로 하는 객체 인식장치.
  5. 제 4 항에 있어서,
    상기 후보영역 설정부는,
    상기 나머지 영역 중 상기 전역 움직임에 대응하는 영역과 유사 화소값을 갖는 영역을 추가로 제외하여 상기 제1 신규영역을 검출하는 것을 특징으로 하는 객체 인식장치.
  6. 제 1 항에 있어서,
    상기 움직임 추정부는,
    상기 이전 영상 프레임에 기 설정된 블록과 매칭되는 영역을 상기 현재 영상 프레임에서 검출하고, 검출된 영역에 따른 상기 객체 움직임 벡터를 추출하고, 상기 객체 움직임 벡터 중 상기 기 인식된 객체 중 적어도 하나의 객체에 대한 지역 움직임을 검출하는 것을 특징으로 하는 객체 인식장치.
  7. 제 6 항에 있어서,
    상기 후보영역 설정부는,
    상기 현재 영상 프레임 중 상기 지역 움직임에 대응하는 객체의 이전 위치영역을 제2 신규영역으로 검출하여 상기 객체 후보영역을 설정하는 것을 특징으로 하는 객체 인식장치.
  8. 제 1 항에 있어서,
    상기 영상 제어부는,
    상기 현재 영상 프레임이 상기 이전 영상 프레임을 가지지 않는 신규 영상 프레임인 경우, 상기 신규 영상 프레임에 화소블록을 설정하고, 상기 화소블록을 기준으로 에지 검출, 전경 배경 분리 및 기 저장된 참조영상 비교 중 적어도 하나 이상의 방식을 이용하여 상기 신규 영상 프레임 내에서 상기 객체 인식을 수행하는 것을 특징으로 하는 객체 인식장치.
  9. 현재 영상 프레임을 획득하는 과정;
    상기 현재 영상 프레임이 이전 영상 프레임을 가지는지 확인하는 과정;
    상기 현재 영상 프레임이 상기 이전 영상 프레임을 가지는 경우, 상기 이전 영상 프레임 및 상기 현재 영상 프레임을 이용하여 기 인식된 객체에 대한 객체 움직임 벡터를 추출하는 과정;
    객체 인식을 위한 영역을 선정할 때, 상기 객체 움직임 벡터에 근거하여 상기 현재 영상 프레임 중 기 인식된 영역을 제외하여 새롭게 등장한 신규 영역을 검출하는 과정;
    상기 신규 영역과 주변 영역을 비교한 결과를 기반으로 상기 신규 영역이 상기 주변 영역과 유사한 특징을 갖는 유사 영역으로 판단되면, 새로운 객체가 나타날 가능성이 적은 영역으로 인지하여 상기 객체 인식을 위한 영역에서 상기 유사 영역을 제외하여 객체 후보영역을 설정하는 과정;
    상기 기 인식된 객체의 이동전 영역 또는 상기 기 인식된 객체에 의해 가려진 영역을 상기 객체 후보영역으로 설정하는 과정; 및
    상기 객체 후보영역 내에서 상기 객체 인식을 수행하는 과정
    을 포함하는 것을 특징으로 하는 객체 인식을 위한 객체 후보영역 설정방법.
KR1020140130510A 2014-09-29 2014-09-29 객체 인식을 위한 객체 후보영역 설정방법 및 장치 KR102085035B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140130510A KR102085035B1 (ko) 2014-09-29 2014-09-29 객체 인식을 위한 객체 후보영역 설정방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140130510A KR102085035B1 (ko) 2014-09-29 2014-09-29 객체 인식을 위한 객체 후보영역 설정방법 및 장치

Publications (2)

Publication Number Publication Date
KR20160037643A KR20160037643A (ko) 2016-04-06
KR102085035B1 true KR102085035B1 (ko) 2020-03-05

Family

ID=55790583

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140130510A KR102085035B1 (ko) 2014-09-29 2014-09-29 객체 인식을 위한 객체 후보영역 설정방법 및 장치

Country Status (1)

Country Link
KR (1) KR102085035B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220120961A (ko) 2021-02-24 2022-08-31 영남대학교 산학협력단 객체 탐지를 위한 학습 장치 및 방법과 객체 탐지 장치 및 방법

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102434397B1 (ko) * 2017-07-10 2022-08-22 한국전자통신연구원 전역적 움직임 기반의 실시간 다중 객체 추적 장치 및 방법
KR101983684B1 (ko) * 2017-08-25 2019-05-30 광운대학교 산학협력단 컨벌루션 신경망을 이용한 임베디드 플랫폼 상의 피플 카운팅 방법
KR101949676B1 (ko) * 2017-12-20 2019-02-19 이노뎁 주식회사 압축영상에 대한 신택스 기반의 객체 침입 감지 방법
KR102042397B1 (ko) * 2018-07-30 2019-11-08 이노뎁 주식회사 압축영상에 대한 신택스 기반의 히트맵 생성 방법
KR102051032B1 (ko) * 2018-08-01 2019-12-02 경북대학교 산학협력단 객체 탐지 장치 및 제어 방법
US11216953B2 (en) 2019-03-26 2022-01-04 Samsung Electronics Co., Ltd. Apparatus and method for image region detection of object based on seed regions and region growing
KR102406804B1 (ko) * 2019-11-29 2022-06-10 한동대학교 산학협력단 딥러닝 기반 영상 내 객체 자동 검출 방법 및 시스템
KR102285269B1 (ko) 2020-05-18 2021-08-04 주식회사 선도소프트 빅데이터 기반 Geo AI를 활용한 이미지 분석 장치 및 방법
KR102530635B1 (ko) * 2021-09-15 2023-05-10 주식회사 핀텔 교통정보 및 보행정보 분석방법, 장치 및 이에 대한 컴퓨터 프로그램

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000106661A (ja) * 1998-07-10 2000-04-11 Canon Inc 画像処理方法及びシステム並びに装置
JP2008158984A (ja) * 2006-12-26 2008-07-10 Toshiba Teli Corp 画像処理装置および領域追跡プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100699261B1 (ko) * 2005-06-24 2007-03-27 삼성전자주식회사 움직임 에러 검출장치와 이를 포함하는 움직임 에러보정장치와 이에 의한 움직임 에러 검출방법 및 움직임에러 보정방법
KR20070063304A (ko) * 2005-12-14 2007-06-19 삼성전자주식회사 움직임 추정장치 및 움직임 추정방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000106661A (ja) * 1998-07-10 2000-04-11 Canon Inc 画像処理方法及びシステム並びに装置
JP2008158984A (ja) * 2006-12-26 2008-07-10 Toshiba Teli Corp 画像処理装置および領域追跡プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220120961A (ko) 2021-02-24 2022-08-31 영남대학교 산학협력단 객체 탐지를 위한 학습 장치 및 방법과 객체 탐지 장치 및 방법

Also Published As

Publication number Publication date
KR20160037643A (ko) 2016-04-06

Similar Documents

Publication Publication Date Title
KR102085035B1 (ko) 객체 인식을 위한 객체 후보영역 설정방법 및 장치
CN109325964B (zh) 一种人脸追踪方法、装置及终端
US8798373B2 (en) Image restoration system, image restoration method, and image restoration program
CN105404884B (zh) 图像分析方法
US9202126B2 (en) Object detection apparatus and control method thereof, and storage medium
KR101764845B1 (ko) 다중 이동 물체의 겹침 제거 및 추적을 위한 영상 감시 장치 및 방법
Pan et al. Robust abandoned object detection using region-level analysis
EP3255585A1 (en) Method and apparatus for updating a background model
US9934576B2 (en) Image processing system, image processing method, and recording medium
US20170151943A1 (en) Method, apparatus, and computer program product for obtaining object
KR101737430B1 (ko) 동적 배경을 가진 영상의 대상 객체 검출 방법
CN111382637B (zh) 行人检测跟踪方法、装置、终端设备及介质
KR102434397B1 (ko) 전역적 움직임 기반의 실시간 다중 객체 추적 장치 및 방법
KR102195940B1 (ko) 적응적 비최대억제 방법을 이용하는 딥러닝기반 영상객체 탐지를 위한 장치 및 방법
Nalepa et al. Real-time people counting from depth images
Piérard et al. A probabilistic pixel-based approach to detect humans in video streams
KR101313879B1 (ko) 기울기 히스토그램을 이용한 사람 검출 추적 시스템 및 방법
CN106951831B (zh) 一种基于深度摄像机的行人检测跟踪方法
KR20170086165A (ko) 영상 내 특징점의 움직임 검출 장치 및 방법
Kim et al. Unattended object detection based on edge-segment distributions
Malavika et al. Moving object detection and velocity estimation using MATLAB
CN109509205B (zh) 前景检测方法及装置
US20180268228A1 (en) Obstacle detection device
KR101588648B1 (ko) 지능형 영상 감시를 위한 보행자 검출 및 추적 방법
KR101678769B1 (ko) 입력 영상에 대한 객체 검출 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right