KR102094506B1 - 피사체 추적 기법을 이용한 카메라와 피사체 사이의 거리 변화 측정방법 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 거리 변화 측정 장치. - Google Patents

피사체 추적 기법을 이용한 카메라와 피사체 사이의 거리 변화 측정방법 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 거리 변화 측정 장치. Download PDF

Info

Publication number
KR102094506B1
KR102094506B1 KR1020130122215A KR20130122215A KR102094506B1 KR 102094506 B1 KR102094506 B1 KR 102094506B1 KR 1020130122215 A KR1020130122215 A KR 1020130122215A KR 20130122215 A KR20130122215 A KR 20130122215A KR 102094506 B1 KR102094506 B1 KR 102094506B1
Authority
KR
South Korea
Prior art keywords
frame image
subject
characteristic information
distance
feature points
Prior art date
Application number
KR1020130122215A
Other languages
English (en)
Other versions
KR20150043145A (ko
Inventor
원종훈
카즈히코 스기모토
마사타카 하마다
김창수
고영준
이대연
이철
Original Assignee
삼성전자주식회사
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 고려대학교 산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020130122215A priority Critical patent/KR102094506B1/ko
Priority to US14/513,819 priority patent/US9798951B2/en
Publication of KR20150043145A publication Critical patent/KR20150043145A/ko
Application granted granted Critical
Publication of KR102094506B1 publication Critical patent/KR102094506B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Optics & Photonics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

일 실시 예에 따르면, 제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 획득하고, 제2 프레임 영상에 대한 입력 특성 정보를 획득하는 단계;
상기 획득된 특성 정보 및 입력 특성 정보에 기초하여, 상기 제2 프레임 영상에서 제2 프레임 영상의 피사체를 결정하는 단계; 상기 제1 프레임 영상의 피사체에서 특징점을 결정하고, 상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체 사이의 산출된 광흐름(Optical Flow)에 기초하여, 상기 제2 프레임 영상의 피사체에서 상기 특징점과 대응되는 매칭점을 결정하는 단계; 상기 특징점과 상기 매칭점을 이용하여, 상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체의 길이 변화 비율을 산출하는 단계; 및 상기 산출된 길이 변화 비율을 이용하여, 제1 프레임 영상을 획득한 카메라와 피사체 간의 거리와, 제2 프레임 영상을 획득한 카메라와 피사체 간의 거리의 변화를 산출하는 단계; 를 포함하는, 거리 변화 측정 방법을 개시한다.

Description

피사체 추적 기법을 이용한 카메라와 피사체 사이의 거리 변화 측정방법 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 거리 변화 측정 장치.{Method for measuring changes of distance between the camera and the object using object tracking , Computer readable storage medium of recording the method and a device measuring changes of distance}
본 발명은 피사체 추적 기법을 이용한 카메라와 피사체 사이의 거리 변화 측정방법 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 거리 변화 측정 장치에 관한 것이다.
최근 들어 콘트라스트 자동 초점 방식 (contrast AF) 방식을 이용하는 미러리스(Mirrorless) 카메라에 피사체의 움직임을 분석하고 미래 위치를 예측하여 렌즈를 조절함으로써 초점을 미리 맞추는 연속 자동 초점 기술(continuous autofocus)이 요구되고 있다.
일 실시 예에 따른 거리 변화 측정 방법은, 연속된 각 프레임에서의 피사체의 매칭점을 이용하여, 연속된 프레임의 피사체간의 길이 변화를 산출하고, 피사체간의 길이 변화를 이용하여, 카메라와 피사체 간의 거리 변화를 추정할 수 있는 방법을 제공한다.
일 실시 예에 따른 거리 변화 측정 방법은, 제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 획득하고, 제2 프레임 영상에 대한 입력 특성 정보를 획득하는 단계; 상기 획득된 특성 정보 및 입력 특성 정보에 기초하여, 상기 제2 프레임 영상에서 제2 프레임 영상의 피사체를 결정하는 단계; 상기 제1 프레임 영상의 피사체에서 특징점을 결정하고, 상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체 사이의 산출된 광흐름(Optical Flow)에 기초하여, 상기 제2 프레임 영상의 피사체에서 상기 특징점과 대응되는 매칭점을 결정하는 단계; 상기 특징점과 상기 매칭점을 이용하여, 상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체의 길이 변화 비율을 산출하는 단계; 및 상기 산출된 길이 변화 비율을 이용하여, 제1 프레임 영상을 획득한 카메라와 피사체 간의 거리와, 제2 프레임 영상을 획득한 카메라와 피사체 간의 거리의 변화를 산출하는 단계; 를 포함하는, 거리 변화 측정 방법을 제공한다.
일 실시 예에 따른 거리 변화 측정 장치는, 제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 획득하고, 제2 프레임 영상에 대한 입력 특성 정보를 획득하는 정보 획득부; 상기 획득된 특성 정보 및 입력 특성 정보에 기초하여, 상기 제2 프레임 영상에서 제2 프레임 영상의 피사체를 결정하는 피사체 결정부;
상기 제1 프레임 영상의 피사체에서 특징점을 결정하는 특징점 결정부; 상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체 사이의 광흐름(Optical Flow)을 산출하는 광흐름 산출부; 상기 산출된 광흐름에 기초하여, 상기 제2 프레임 영상의 피사체에서 상기 특징점과 대응되는 매칭점을 결정하는 매칭점 결정부; 상기 특징점과 상기 매칭점을 이용하여, 상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체의 길이 변화 비율을 산출하는 피사체 길이 변화 산출부; 및 상기 산출된 길이 변화 비율을 이용하여, 제1 프레임 영상을 획득한 카메라와 피사체 간의 거리와, 제2 프레임 영상을 획득한 카메라와 피사체 간의 거리의 변화를 산출하는 거리 변화 산출부; 를 포함할 수 있다.
일 실시 예에 따른 프로세서에 의해 도출되어 실행되었을 때, 거리 변화 측정 방법을 수행하는 컴퓨터 프로그램 코드들을 저장하는 컴퓨터 판독가능 저장매체에 있어서, 상기 거리 변화 측정 방법은,제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 획득하고, 제2 프레임 영상에 대한 입력 특성 정보를 획득하는 단계; 상기 획득된 특성 정보 및 입력 특성 정보에 기초하여, 상기 제2 프레임 영상에서 제2 프레임 영상의 피사체를 결정하는 단계; 상기 제1 프레임 영상의 피사체에서 특징점을 결정하고, 상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체 사이의 산출된 광흐름(Optical Flow)에 기초하여, 상기 제2 프레임 영상의 피사체에서 상기 특징점과 대응되는 매칭점을 결정하는 단계; 상기 특징점과 상기 매칭점을 이용하여, 상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체의 길이 변화 비율을 산출하는 단계; 및 상기 산출된 길이 변화 비율을 이용하여, 제1 프레임 영상을 획득한 카메라와 피사체 간의 거리와, 제2 프레임 영상을 획득한 카메라와 피사체 간의 거리의 변화를 산출하는 단계; 를 포함하는, 거리 변화 측정 방법을 제공한다.
도1 은 일 실시 예에 따른 카메라와 피사체 간의 거리 변화를 측정하는 거리 변화 측정 장치(100)의 블록도이다.
도2은 일 실시 예에 따른 카메라와 피사체 간의 거리 변화를 측정하는 거리 변화 측정 방법의 흐름도이다.
도3a 내지 도3b 는 일 실시 예에 따른 거리 변화 측정 장치가 제1 프레임 영상에서 피사체와 배경에 대한 색상 정보를 획득하기 위한 색상 히스토그램 특성을 도시한 일 예이다.
도4a 내지 도4b는 일 실시 예에 따른 거리 변화 측정 장치가 제1 프레임 영상에서 피사체와 배경에 대한 윤곽 정보를 획득하기 위한 의 일 예로 블록 차 특성을 도시한 일 예이다.
도5a 내지 도5b 는 일 실시 예에 따른 거리 변화 측정 장치가 제2 프레임 영상에서 입력 특성 정보를 획득하기 위하여 탐색 윈도우를 설정하는 일 예를 도시한 도면이다.
도 6a 내지 도6b는 일 실시 예에 따른 거리 변화 측정 장치가 제1 프레임 영상의 피사체의 특성 정보와 배경의 특성 정보, 제2 프레임 영상의 입력 특성 정보를 이용한 확률 맵을 생성하여, 제2 프레임에서 피사체의 위치를 결정하는 일 예를 도시한 도면이다.
도7은 일 실시 예에 따른 거리 변화 측정 장치가 프레임 영상에서 피라미드 기반의 계층적 방법을 이용하여 광흐름을 산출하는 개념도를 도시한 도면이다.
도8 은 일 실시 예에 따른 거리 변화 측정 장치가 제1 프레임 영상에서 특징점을 결정하는 일 예를 도시한 도면이다.
도9a 내지 도9b 는 일 실시 예에 따른 거리 변화 측정 장치가 각 프레임 영상에서 블러 영역을 검출하는 산출하는 일 예를 도시한 도면이다.
도10a 내지 도10c 은 일 실시 예에 따른 거리 변화 측정 장치에서, 제 1 프레임에서 추적된 피사체와 제2 프레임에서 추적된 피사체 간의 길이 변화 비율를 산출하는 개념도이다.
도11 은 일 실시 예에 따른 거리 변화 측정 장치에서 카메라와 피사체 간의 거리 변화를 산출하는 개념도이다.
본 발명은 다양한 변형을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 다양한 실시 예들은 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도1 은 일 실시 예에 따른 카메라와 피사체 간의 거리 변화를 측정하는 거리 변화 측정 장치(100)의 블록도이다.
상기 거리 변화 측정 장치(100)는 정보 획득부(10), 피사체 결정부(20), 특징점 결정부(30), 광흐름 산출부(40), 매칭점 결정부(50), 피사체 길이 변화 산출부(60) 및 거리 변화 산출부(70)를 포함할 수 있다.
일 실시 예에 따른, 정보 획득부(10)는 제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 획득하고, 제2 프레임 영상에 대한 입력 특성 정보를 획득한다.
예를 들면, 제1 프레임 영상의 피사체와 배경에 대한 특성 정보는 색상 정보 및 윤곽 정보를 포함할 수 있다.
이에 대해서는 도 3 내지 도5 를 참조하여 자세히 알아보도록 한다.
일 실시 예에 따른, 피사체 결정부(20)는 정보 획득부(10)에서 획득된 특성 정보 및 입력 특성 정보에 기초하여, 제2 프레임 영상에서 제2 프레임 영상의 피사체를 결정할 수 있다.
이에 대해서는 도 6 를 참조하여 자세히 알아보도록 한다.
일 실시 예에 따른, 특징점 결정부(30)는 제1 프레임 영상의 피사체에서 특징점을 결정할 수 있다.
일 실시 예에 따른 특징점은 제1 프레임의 영상의 텍스쳐 성분에 기초한 경계선 추출을 통해서 결정될 수 있다.
이에 대해서는 도 8 를 참조하여 자세히 알아보도록 한다.
일 실시 예에 따른, 광흐름 산출부(40)는 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체 사이의 광흐름(Optical Flow)을 산출할 수 있다.
일 실시 예에 따른 광흐름은, 제1 프레임 영상과 제2 프레임 영상 사이의 움직임 관계를 나타낸 정보로써, 예를 들면 각 프레임 영상의 픽셀의 움직임 벡터로 나타낼 수 있다.
이에 대해서는 도 7 를 참조하여 자세히 알아보도록 한다.
일 실시 예에 따른, 매칭점 결정부(50)는 광흐름 산출부(40)에서 산출된 광흐름에 기초하여, 상기 제2 프레임 영상의 피사체에서 상기 특징점과 대응되는 매칭점을 결정할 수 있다.
일 실시 예에 따른, 피사체 길이 변화 산출부(60)는, 특징점 결정부(30)에서 결정된 특징점과, 매칭점 결정부(50)에서 결정된 매칭점을 이용하여, 상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체의 길이 변화 비율을 산출할 수 있다.
이에 대해서는 도10a 내지 도10d을 참조하여 자세히 알아보도록 한다.
일 실시 예에 따른, 거리 변화 산출부(70)는 길이 변화 산출부(60)에서 산출된 길이 변화 비율을 이용하여, 제1 프레임 영상을 획득한 카메라와 피사체 간의 거리와, 제2 프레임 영상을 획득한 카메라와 피사체 간의 거리의 변화를 산출할 수 있다.
이에 대해서는 도11을 참조하여 자세히 알아보도록 한다.
거리 변화 측정 장치(100) 의 동작들을 순서대로 상술한다.
도2은 일 실시 예에 따른 카메라와 피사체 간의 거리 변화를 측정하는 거리 변화 측정 방법의 흐름도이다.
단계 100 에서 거리 변화 측정 장치(100)는 제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 획득하고, 제2 프레임 영상에 대한 입력 특성 정보를 획득한다.
예를 들면, 제1 프레임 영상의 피사체를 기초로 피사체 윈도우가 설정되고, 설정된 피사체 윈도우의 위치와 크기에 기초하여, 제1 프레임 영상의 피사체와 배경에 대한 특성 정보가 산출될 수 있다.
또한, 제1 프레임 영상에 표시된 피사체 윈도우를 기초로, 상기 제2 프레임 영상에 탐색 윈도우를 설정하고, 설정된 탐색 윈도우의 위치와 크기에 기초하여, 제2 프레임 영상의 각 픽셀에 대한 입력 특성 정보를 획득할 수 있다.
이에 대해서는 도 3 내지 도5 를 참조하여 자세히 알아보도록 한다.
단계 110 에서 거리 변화 측정 장치(100)는 단계 100 에서 획득된 특성 정보 및 입력 특성 정보에 기초하여, 제2 프레임 영상에서 제2 프레임 영상의 피사체를 결정한다.
예를 들면, 제1 프레임의 피사체 윈도우의 위치와, 획득된 특성 정보 및 입력 특성 정보에 기초하여, 제2 프레임 영상의 피사체 윈도우가 설정될 수 있다.
이에 대해서는 도 6 를 참조하여 자세히 알아보도록 한다.
단계 120 에서 거리 변화 측정 장치(100)는 상기 제1 프레임 영상의 피사체에서 특징점을 결정하고, 상기 제1 프레임 영상의 피사체와, 단계 110 에서 결정된 제2 프레임 영상의 피사체 사이의 산출된 광흐름(Optical Flow)에 기초하여, 제2 프레임 영상의 피사체에서 특징점과 대응되는 매칭점을 결정한다.
예를 들면, 제1 프레임 영상의 텍스쳐 성분을 기초로 하여, 제1 프레임 영상에서 복수 개의 특징점이 결정될 수 있다. 이에 대해서는 도 8 를 참조하여 자세히 알아보도록 한다.
또한, 제1 프레임 영상과 상기 제2 프레임 영상의 대비(contrast)와 채도(saturation)를 이용하여, 제1 프레임 영상과 제2 프레임 영상에서 블러 영역이 검출될 수 있다. 이 경우, 광흐름은 검출된 블러 영역을 제외한, 제1 프레임 영상과 제2 프레임 영상 간의 픽셀의 움직임 벡터로써 산출될 수 있다.
이에 대해서는 도 7 를 참조하여 자세히 알아보도록 한다.
또한, 결정된 복수 개의 특징점 중에서 적어도 2개의 점을 선택되고, 산출된 광흐름에 기초하여 선택된 2개의 점에 대응되는 2개의 매칭점이 제2 프레임 영상에서 결정될 수 있다.
이에 대해서는 도10a 내지 도10d을 참조하여 자세히 알아보도록 한다.
단계 130 에서 거리 변화 측정 장치(100)는 단계 120 에서 결정된 특징점과 매칭점을 이용하여, 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체의 길이 변화 비율을 산출한다.
이에 대해서는 도10a 내지 도10d을 참조하여 자세히 알아보도록 한다.
단계 140 에서 거리 변화 측정 장치(100)는 단계 130 에서 산출된 길이 변화 비율을 이용하여, 제1 프레임 영상을 획득한 카메라와 피사체 간의 거리와, 제2 프레임 영상을 획득한 카메라와 피사체 간의 거리의 변화를 산출한다.
이에 대해서는 도11을 참조하여 자세히 알아보도록 한다.
도3a 내지 도3b 는 일 실시 예에 따른 거리 변화 측정 장치가 제1 프레임 영상에서 피사체와 배경에 대한 색상 정보를 획득하기 위한 색상 히스토그램 특성을 도시한 일 예이다.
일 실시 예에 따른 색상 정보를 획득하기 위하여, 프레임 영상에 포함된 블록의 색상 히스토그램 특성을 이용할 수 있다.
예를 들면 색상 히스토그램 특성은 HSV(Hue, Saturation, Value) 색상 모델을 이용하여 결정될 수 있다.
또한, 6x6의 크기의 블록
Figure 112013092723641-pat00001
Figure 112013092723641-pat00002
번째 픽셀의 색상 채널 정보를
Figure 112013092723641-pat00003
라 할 때, 히스토그램 색인
Figure 112013092723641-pat00004
의 값은 다음과 같이 결정될 수 있다. 이 경우,
Figure 112013092723641-pat00005
는 정규화 상수이며, 양자화 함수
Figure 112013092723641-pat00006
를 사용하여 각 색상 채널 정보를 0과 15사이의 숫자로 변환시킬 수 있다.
Figure 112013092723641-pat00007
또한, 저역 통과 필터(low pass filter) 를 사용하여, 히스토그램 색인
Figure 112013092723641-pat00008
의 값은 다음과 같이 결정될 수 있다. 이 경우,
Figure 112013092723641-pat00009
는 각 색상 채널에 대한 정규화 상수일 수 있다.
Figure 112013092723641-pat00010

도 3a에서 도시한 바와 같이, 제1 프레임 영상에 표시된 피사체 윈도우의 내부에 6x6의 크기의 블록이 생성되고, 생성된 블록에서 피사체의 색상 히스토그램 특성이 결정될 수 있다.
도 3b에서 도시한 바와 같이, 제1 프레임 영상에 표시된 피사체 윈도우의 외부에 6x6의 크기의 블록이 생성되고, 생성된 블록에서의 배경의 색상 히스토그램 특성이 결정될 수 있다. 예를 들면, 피사체 윈도우의 외부에 6x6의 크기의 블록은 랜덤의 위치에서 생성될 수 있다.
도4a 내지 도4b는 일 실시 예에 따른 거리 변화 측정 장치가 제1 프레임 영상에서 피사체와 배경에 대한 윤곽 정보를 획득하기 위한 의 일 예로 블록 차 특성을 도시한 일 예이다.
일 실시 예에 따른 윤곽 정보를 획득하기 위하여, 프레임 영상에 포함된 블록의 블록 차 특성을 이용할 수 있다.
도 4a에서 도시한 바와 같이, 제1 프레임 영상에 표시된 피사체 윈도우에서 16x16개의 블록이 분할되고, 분할된 블록 중에서 랜덤 하게 블록 A와 블록B 가 선택될 수 있다.
예를 들면, 블록 A와 블록B 의 블록 차 특성은, 블록 A의 블록의 값과 블록 B의 블록의 값의 차이일 수 있다.
또한, 각 블록 내부의 Y 방향 그래디언트(gradient) 값이, 블록의 값으로 사용될 수 있다. 예를 들면, 도 4a에서 도시된 블록 A의 내부는, 도 4b에서 도시한 바와 같이 분할될 수 있다. 이 경우, 블록 A의 A0 영역과 A1 영역의 평균밝기 값 차이 값이, 블록 A의 값으로 사용될 수 있다.
또한, 제1 프레임 영상에 표시된 피사체 윈도우에서 선택된 두 블록의 값 차이를 블록 차 특성의 한 차원 값으로 설정할 수 있다.
즉, 제1 프레임 영상에 표시된 피사체 윈도우의 내부에 소정의 크기를 가진 복수 개의 블록이 생성될 수 있고, 생성된 복수 개의 블록 중에서 선택된 두 블록 간의 블록의 값 차이를, 한 차원 값으로 할 수 있는 피사체의 블록 차 특성이 결정될 수 있다.
마찬가지로, 제1 프레임 영상에 표시된 피사체 윈도우의 외부에 소정의 크기를 가진 복수개의 블록이 생성될 수 있고, 생성된 복수 개의 블록 중에서 선택된 두 블록 간의 블록의 값 차이를, 한 차원 값으로 할 수 있는 배경의 블록 차 특성이 결정될 수 있다. 예를 들면, 피사체 윈도우의 외부에 소정의 크기의 블록은 랜덤의 위치에서 생성될 수 있다.
도5a 내지 도5b 는 일 실시 예에 따른 거리 변화 측정 장치가 제2 프레임 영상에서 입력 특성 정보를 획득하기 위하여 탐색 윈도우를 설정하는 일 예를 도시한 도면이다.
일 실시 예에 따른 입력 특성 정보를 획득하기 위하여, 프레임 영상에 포함된 블록의 색상 히스토그램 특성과 블록의 블록 차 특성을 이용할 수 있다.
일 실시 예에 따르면, 제1 프레임에 표시된 피사체 윈도우에 기초하여, 제2 프레임에서는 탐색 윈도우가 설정될 수 있다.
예를 들면, 도 5a에서 도시한 바와 같이, 제1 프레임에 표시된 피사체 윈도우를 중심으로 2배의 크기를 가진 윈도우가, 제2 프레임에서의 탐색 윈도우로 설정될 수 있다.
또한, 도 5b에서 도시한 바와 같이, 제2 프레임 영상에 표시된 탐색 윈도우의 내부에 소정의 크기를 가진 복수 개의 블록이 생성되고, 생성된 블록에서 입력 특성 색상 히스토그램 특성이 결정될 수 있다.
또한, 도 5b에서 도시한 바와 같이, 제2 프레임 영상에 표시된 탐색 윈도우의 내부에 소정의 크기를 가진 복수 개의 블록이 생성되고, 생성된 복수 개의 블록 중에서 선택된 두 블록 간의 블록의 값 차이를, 한 차원 값으로 할 수 있는 입력 특성 블록 차 특성이 결정될 수 있다.
도 6a 내지 도6b는 일 실시 예에 따른 거리 변화 측정 장치가 제1 프레임 영상의 피사체의 특성 정보와 배경의 특성 정보, 제2 프레임 영상의 입력 특성 정보를 이용한 확률 맵을 생성하여, 제2 프레임에서 피사체의 위치를 결정하는 일 예를 도시한 도면이다.
일 실시 예에 따른 제 1 프레임 영상에서의 피사체의 특성 정보는, 피사체의 색상 히스토그램 특성과 블록 차 특성으로 나타낼 수 있다. 또한 일 실시 예에 따른 제 1 프레임 영상에서의 배경의 특성 정보는, 배경의 색상 히스토그램 특성과 블록 차 특성으로 나타낼 수 있다.
일 실시 예에 따른 제2 프레임 영상에서의 입력 특성 정보는, 제 2 프레임 영상의 각 픽셀마다 결정될 수 있다.
일 실시 예에 따른 확률 맵은, K-th nearest neighbor를 이용하여 생성될 수 있다.
예를 들면, 제2 프레임 영상에서 번째 픽셀의 입력 특성 정보와, 가장 가까운 배경 특성 정보와의 거리가
Figure 112013092723641-pat00011
, 두 번째로 가까운 배경 특성 정보와의 거리가
Figure 112013092723641-pat00012
라고 했을 때, 배경과의 거리
Figure 112013092723641-pat00013
는 그 평균값으로 다음과 같이 주어진다.
Figure 112013092723641-pat00014
또한, 피사체와의 거리
Figure 112013092723641-pat00015
도 같은 과정으로 구할 수 있다.
Figure 112013092723641-pat00016
이에 따라. 제2 프레임 영상에서
Figure 112013092723641-pat00017
번째 입력 특성 정보가 피사체일 확률은 다음과 같다.
Figure 112013092723641-pat00018
또한, 제2 프레임 영상의 각 픽셀에서의 입력 특성 정보에 기초하여, 각 픽셀에서의 확률 값이 결정되고, 색상 히스토그램 특성에 의한 확률 값과 블록 차 특성의 확률 값을 곱하여 확률 맵이 생성된다.
예를 들면, 제2 프레임 영상에서의
Figure 112013092723641-pat00019
번째 생성된 피사체 윈도우의 위치는
Figure 112013092723641-pat00020
번째 생성된 피사체 윈도우의 내부
Figure 112013092723641-pat00021
픽셀의 위치와 그 확률값
Figure 112013092723641-pat00022
을 이용하여, 다음과 같이 가중치 합으로 산출될 수 있다.
Figure 112013092723641-pat00023
도 6a에서 도시한 바와 같이 제2 프레임 영상에서 확률 맵을 이용하여, 피사체 윈도우의 위치를 결정하기 위해서, 우선적으로 제1 프레임 영상에서의 피사체 윈도우의 위치에서 시작될 수 있다.
또한, 제2 프레임 영상에 표시된 탐색 윈도우 내부의 픽셀의 위치와 확률 값의 가중치 합을 산출하여, 제2 프레임 영상에서의 피사체 윈도우는 상기 합이 커지도록 순차적으로 도 6b 내지 도 6d에서 도시한 바와 같이 생성될 수 있다.
도7은 일 실시 예에 따른 거리 변화 측정 장치가 프레임 영상에서 피라미드 기반의 계층적 방법을 이용하여 광흐름을 산출하는 개념도를 도시한 도면이다.
일 실시 예에 따른 광흐름은, 제1 프레임 영상과 제2 프레임 영상 사이의 움직임 관계를 나타낸 정보로써, 예를 들면 각 프레임 영상의 픽셀의 움직임 벡터로 나타낼 수 있다.
이 경우, 광흐름을 이용하여 제1 프레임 영상에서의 피사체와, 제2 프레임 영상에서의 피사체가 매칭될 수 있다.
예를 들면, 제1 프레임 영상과 제2 프레임 영상에서 밝기가 같은 픽셀이 매칭될 수 있다. 또한, 각 픽셀에서의 수평 방향의 광흐름을
Figure 112013092723641-pat00024
라 하고, 수직 방향의 광흐름을
Figure 112013092723641-pat00025
라고 하면, 밝기 유지(brightness constancy) 식은 아래와 같이 정의될 수 있다. 여기에서
Figure 112013092723641-pat00026
는 각각 수평 방향, 수직 방향 및 시간 방향의 그래디언트(gradient)를 의미한다.
Figure 112013092723641-pat00027
일 실시 예에 따르면, 상기 식을 이용하여 각 픽셀마다 광흐름
Figure 112013092723641-pat00028
가 산출될 수 있다.
다만, 프레임 영상에서 텍스쳐(texture)가 부족한 영역에서는 비슷한 밝기 값을 갖는 위치가 많기 때문에, 광흐름을 산출하는데 오류가 발생할 수 있다.
이에 따라, 일 실시 예에 따르면 각 픽셀의 주변 픽셀의 광흐름을 이용하여 픽셀의 광흐름이 보정될 수 있다.
예를 들면, 한 픽셀의 중심으로 설정된 블록 내에서의 픽셀들의 평균 광흐름이 (
Figure 112013092723641-pat00029
)일 때, 중심 픽셀의 광흐름과 평균 광흐름의 차이를 최소화시키기 위하여, 값을 최소화하는 광흐름(
Figure 112013092723641-pat00030
)이 다음과 같이 산출될 수 있다.
Figure 112013092723641-pat00031
Figure 112013092723641-pat00032
또한, 일 실시 예에 따른 광흐름 산출에는, 피라미드 기반의 계층적 광흐름 계산 기법이 이용될 수 있다.
예를 들면, 도 에서 도시한 바와 같이 제1 프레임 영상과 제2 프레임 영상의 크기는, 각각 원본 영상의 크기의 1/2 및 원본 영상의 크기의 1/4 로 변환될 수 있다. 이 경우, 원본 영상의 크기의 1/4 로 변환된 프레임 영상에서부터 원본 크기의 프레임 영상으로 순차적으로 광흐름을 산출할 수 있다.
더욱 자세하게는, 원본 영상의 크기의 1/4 로 변환된 프레임 영상의 광흐름
Figure 112013092723641-pat00033
와, 원본 영상의 크기의 1/2로 변환된 제1 프레임 영상을 와핑(warping) 하여, 와핑 영상이 생성될 수 있다. 또한, 생성된 와핑 영상과, 원본 영상의 크기의 1/2로 변환된 제2 프레임 영상 사이에서 광흐름
Figure 112013092723641-pat00034
을 산출할 수 있다. 이 경우,
Figure 112013092723641-pat00035
Figure 112013092723641-pat00036
을 이용하여, 보다 정확한 광흐름
Figure 112013092723641-pat00037
가 산출될 수 있다.
도8 은 일 실시 예에 따른 거리 변화 측정 장치가 제1 프레임 영상에서 특징점을 결정하는 일 예를 도시한 도면이다.
일 실시 예에 따른 특징점은 제1 프레임의 영상의 텍스쳐 성분에 기초한 경계선 추출을 통해서 결정될 수 있다.
예를 들면, 각 픽셀을 중심으로
Figure 112013092723641-pat00038
블록에 존재하는 다른 픽셀들의 수평 방향, 수직 방향의 계조 값을 이용하여, 해리스 행렬(Harris Matrix)이 산출될 수 있다.
Figure 112013092723641-pat00039
해리스 행렬(Harris Matrix)의 두 고유 값(eigenvalue)
Figure 112013092723641-pat00040
가 아래의 식을 만족하는 픽셀이 특징점으로 결정될 수 있다.
Figure 112013092723641-pat00041
도8은 거리 변화 측정 장치가 상기 식을 만족하는 픽셀을 특징점으로 결정하고, 특징점으로 결정된 픽셀이 녹색으로 표시된 일 예를 도시한 도면이다.
도9a 내지 도9b 는 일 실시 예에 따른 거리 변화 측정 장치가 각 프레임 영상에서 블러 영역을 검출하는 산출하는 일 예를 도시한 도면이다.
하기 도 에서는 제1 프레임 영상이 블러의 영향이 적은 영상, 제2 프레임 영상이 블러의 영향이 큰 영상이라고 가정한다.
도 9a에서 도시한 바와 같이, 제1 프레임 영상에서 노란색 점이 선택된 경우, 광흐름 기반을 이용하여 매칭된 제2 프레임 영상에서의 노란색 매칭점들은 블러에 의하여 흐려진 영역에 매칭이 되는 바, 매칭의 정확도가 저하될 수 있다.
반면, 도 9a 에서 도시한 제1 프레임 영상에서의 빨간색 점이 선택된 경우, 제2 프레임 영상에서 빨간색 매칭점들이 블러의 영향이 적은 영역에 위치하는 바, 매칭의 정확도가 높을 수 있다.
이에 따라, 일 실시 예에 따른 광흐름 기반을 이용한 매칭점을 산출함에 있어서, 각 프레임에서 블러 영역이 아닌 영역에서의 광흐름을 이용하여 매칭점을 추출할 수 있다.
이 경우, 일 실시 예에 따른 제1 프레임 영상과 제2 프레임 영상을 각각 블록 단위로 분할하고, 각 블록에서의 대비(contrast)와 채도(saturation) 정보를 이용하여, 각 프레임에서 블러 영역이 검출될 수 있다.
예를 들면, 각 블록의 대비 값(contrast value) 는 블록에서 픽셀의 휘도의 최대값
Figure 112013092723641-pat00042
와 최소값
Figure 112013092723641-pat00043
을 이용하여 결정될 수 있다.
Figure 112013092723641-pat00044
또한, 각 픽셀의 채도 값(saturation value)
Figure 112013092723641-pat00045
는, 픽셀의
Figure 112013092723641-pat00046
값을 이용하여 결정될 수 있다.
Figure 112013092723641-pat00047

이 경우, 각 블록의 채도 값(saturation value)
Figure 112013092723641-pat00048
는, 프레임 영상의 최대 채도(
Figure 112013092723641-pat00049
)와 블록의 최대 채도(
Figure 112013092723641-pat00050
)의 비율로 결정될 수 있다.
Figure 112013092723641-pat00051
이에 따라, 각 블록의 블러 측정치
Figure 112013092723641-pat00052
는, 각 블록의 대비 값(contrast value)
Figure 112013092723641-pat00053
과 각 블록의 채도 값(saturation value)
Figure 112013092723641-pat00054
의 곱으로 결정될 수 있다.
Figure 112013092723641-pat00055
예를 들면, 제1 프레임 영상에서의 각 블록에서의 블러 측정치
Figure 112013092723641-pat00056
와, 제2 프레임 영상에서의 각 블록의 블러 측정치
Figure 112013092723641-pat00057
간의 차이가 큰 블록이, 각 프레임 영상에서의 블러 영역으로 검출될 수 있다.
또한,
Figure 112013092723641-pat00058
를 각각 30, 1.67로 설정하고, 하기 식을 만족하는 블록이 각 프레임에서 블러 영역으로 검출될 수 있다.
Figure 112013092723641-pat00059
Figure 112013092723641-pat00060
를 각각 30, 1.67로 설정될 수 있다.
도 9b 는 거리 변화 측정 장치가 상기 식을 만족하는 블록을 블러 영역으로 검출하고, 블러 영역으로 검출된 픽셀이 붉은 색으로 표시된 일 예를 도시한 도면이다.
일 실시 예에 따르면, 각 프레임 영상에서 블러 영역으로 검출되지 않은 픽셀의 광흐름을 이용하여, 카메라와 피사체간의 거리 변화를 산출할 수 있다.
이에 따라, 일 실시 예에 따른 거리 변화 측정 방법은 블러에 의한 거리 측정의 성능 저하를 감소 시킬 수 있는 효과가 있다.
도10a 내지 도10c 은 일 실시 예에 따른 거리 변화 측정 장치에서, 제 1 프레임에서 추적된 피사체와 제2 프레임에서 추적된 피사체 간의 길이 변화 비율를 산출하는 개념도이다.
도 10a에서 도시한 바와 같이, 제1 프레임에서 복수의 특징점 중에서 임의의 두 점이 선택될 수 있고, 광흐름 기반의 매칭을 이용하여 제1 프레임의 임의의 두 점과 대응되는 매칭점이 제2 프레임에서 결정될 수 있다.
예를 들면, 피사체의 길이 변화 비율(
Figure 112013092723641-pat00061
)은, 제1 프레임의 두 점간의 거리(
Figure 112013092723641-pat00062
)와 제2 프레임이 두 매칭점 간의 거리(
Figure 112013092723641-pat00063
)의 비율로 산출될 수 있다.
Figure 112013092723641-pat00064
다만, 제1 프레임에서의 두 점은 임의로 선택되는 것이기 때문에, 두 점이 피사체에 해당되지 않거나 광흐름 기반의 매칭의 성능이 떨어지는 경우도 생길 수 있다.
이에 따라, 피사체의 길이 변화 비율(
Figure 112013092723641-pat00065
)을 산출하는 과정을 복수 회 반복하여, 출연 빈도가 높은 길이 변화 비율 값이 제 1 프레임에서 추적된 피사체와 제2 프레임에서 추적된 피사체 간의 거리 변화 비율(
Figure 112013092723641-pat00066
)로 산출될 수 있다.
예를 들면, 제1 프레임에서 임의의 두 점을 선택하여 피사체의 길이 변화 비율을 산출하는 과정을 1000회 반복하면, 도 에서 도시한 바와 같은 히스토그램이 산출될 수 있다.
도 10b에서 도시한 바와 같이, 피사체의 길이 변화 비율 (
Figure 112013092723641-pat00067
)은, 평균(
Figure 112013092723641-pat00068
)과 표준편차(
Figure 112013092723641-pat00069
)를 가진 가우시안(Gaussian) 분포로 나타낼 수 있다. 또한, 피사체의 길이 변화 비율 (
Figure 112013092723641-pat00070
)은, 평균(
Figure 112013092723641-pat00071
)과 표준편차(
Figure 112013092723641-pat00072
)를 이용하여 도 10c 에서 도시한 같이 가우시안 함수로 모델링 될 수 있다.
예를 들면, 1000개의 피사체의 길이 변화 비율 (
Figure 112013092723641-pat00073
) 중에서 (
Figure 112013092723641-pat00074
), 소정의 식을 만족하는 피사체의 길이 변화 비율 (
Figure 112013092723641-pat00075
) 만을 산출한 집합
Figure 112013092723641-pat00076
이 결정될 수 있다.
Figure 112013092723641-pat00077
이 경우, 집합
Figure 112013092723641-pat00078
의 원소들 가운데 중간 값(median)을, 제 1 프레임에서 추적된 피사체와 제2 프레임에서 추적된 피사체 간의 거리 변화 비율(
Figure 112013092723641-pat00079
)로 산출할 수 있다.
Figure 112013092723641-pat00080
도11 은 일 실시 예에 따른 거리 변화 측정 장치에서 카메라와 피사체 간의 거리 변화를 산출하는 개념도이다.
도11 에서 도시한 바와 같이, 카메라의 초점거리(
Figure 112013092723641-pat00081
)가 일정하다는 전제에서, 제 1 프레임에서 추적된 피사체와 제2 프레임에서 추적된 피사체 간의 길이 변화 비율(
Figure 112013092723641-pat00082
)을 사용하여, 카메라와 피사체 간의 거리 변화(
Figure 112013092723641-pat00083
)가 산출될 수 있다.
도11에서 도시한 바와 같이, 카메라와 피사체 간의 거리가
Figure 112013092723641-pat00084
일 때, 피사체의 실제 길이(
Figure 112013092723641-pat00085
)와 카메라의 영상에 맺힌 피사체의 길이(
Figure 112013092723641-pat00086
) 사이에서 다음과 같은 비례식이 성립된다.
Figure 112013092723641-pat00087
이 때, 피사체가
Figure 112013092723641-pat00088
만큼 이동하여, 카메라와 피사체 간의 거리가
Figure 112013092723641-pat00089
가 되면, 피사체의 실제 길이(
Figure 112013092723641-pat00090
)는 동일하지만 카메라의 영상에 맺힌 피사체의 길이(
Figure 112013092723641-pat00091
)가 변화된다. 이에 따라, 피사체의 실제 길이(
Figure 112013092723641-pat00092
)와 카메라의 영상에 맺힌 피사체의 길이(
Figure 112013092723641-pat00093
) 사이에서 새로운 관계식이 성립된다.
Figure 112013092723641-pat00094
상기 두 개의 비례식을 기초로, 카메라와 피사체간의 거리 변화 (
Figure 112013092723641-pat00095
) 가 산출될 수 있다.
Figure 112013092723641-pat00096
Figure 112013092723641-pat00097
또한, 상기 식에서
Figure 112013092723641-pat00098
는 카메라의 영상에 맺힌 피사체의 길이 변화 비율의 역수에 해당하므로, 제 1 프레임에서 추적된 피사체와 제2 프레임에서 추적된 피사체 간의 길이 변화 비율(
Figure 112013092723641-pat00099
)을 대입하여 카메라와 피사체간의 거리 변화 (
Figure 112013092723641-pat00100
) 가 산출될 수 있다.
Figure 112013092723641-pat00101
다양한 실시 예에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 메모리(permanent storage), 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다.
소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 저장 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 저장 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 프로세서에서 실행될 수 있다.
본 발명에서 인용하는 공개 문헌, 특허 출원, 특허 등을 포함하는 모든 문헌들은 각 인용 문헌이 개별적으로 및 구체적으로 병합하여 나타내는 것 또는 에서 전체적으로 병합하여 나타낸 것과 동일하게 에 병합될 수 있다.
본 발명의 이해를 위하여, 도면에 도시된 바람직한 실시 예들에서 참조 부호를 기재하였으며, 본 발명의 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 이 한정되는 것은 아니며, 본 발명은 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다.
본 발명은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 은 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
본 발명의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.
100: 거리 변화 측정 장치
10: 정보 획득부 20: 피사체 결정부
30: 특징점 결정부 40: 광흐름 산출부
50: 매칭점 결정부 60: 피사체 길이 변화 산출부
70: 거리 변화 산출부

Claims (18)

  1. 제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 획득하고, 제2 프레임 영상에 대한 입력 특성 정보를 획득하는 단계;
    상기 획득된 특성 정보 및 입력 특성 정보에 기초하여, 상기 제2 프레임 영상에서 제2 프레임 영상의 피사체를 결정하는 단계;
    상기 제1 프레임 영상의 피사체에서 복수 개의 특징점을 결정하고, 상기 복수의 특징점 중에서 임의의 두 개의 특징점을 선택하는 단계;
    상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체 사이의 산출된 광흐름(Optical Flow)에 기초하여, 상기 제2 프레임 영상의 피사체에서 상기 선택된 두 개의 특징점과 대응되는 두 개의 매칭점을 결정하는 단계;
    상기 선택된 두 개의 특징점 간의 거리와 상기 두 개의 매칭점 간의 거리를 이용하여, 상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체의 길이 변화 비율을 산출하는 단계; 및
    상기 산출된 길이 변화 비율을 이용하여, 제1 프레임 영상을 획득한 카메라와 피사체 간의 거리와, 제2 프레임 영상을 획득한 카메라와 피사체 간의 거리의 변화를 산출하는 단계; 를 포함하고,
    상기 임의의 두 개의 특징점을 선택하는 단계와 상기 길이 변화 비율을 산출하는 단계는 복수 회 반복되고, 산출되는 빈도가 높은 길이 변화 비율이 결정되는, 거리 변화 측정 방법.
  2. 제1 항에 있어서,
    상기 제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 획득하는 단계는;
    상기 제1 프레임 영상의 피사체를 기초로 피사체 윈도우를 설정하는 단계; 및
    상기 설정된 피사체 윈도우의 위치와 크기에 기초하여, 상기 제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 산출하는 단계; 를 포함하는 거리 변화 측정 방법.
  3. 제2 항에 있어서,
    상기 제2 프레임 영상에 대한 입력 특성 정보를 획득하는 단계;는
    상기 제1 프레임 영상에 표시된 피사체 윈도우를 기초로, 상기 제2 프레임 영상에 탐색 윈도우를 설정하는 단계; 및
    상기 설정된 탐색 윈도우의 위치와 크기에 기초하여, 상기 제2 프레임 영상의 각 픽셀에 대한 입력 특성 정보를 획득하는 단계; 를 포함하는 것인, 거리 변화 측정 방법.
  4. 제1 항에 있어서,
    상기 제2 프레임 영상의 피사체를 결정하는 단계;는
    상기 제1 프레임의 피사체 윈도우의 위치와, 상기 획득된 특성 정보 및 입력 특성 정보에 기초하여, 상기 제2 프레임 영상의 피사체 윈도우를 설정하는 단계; 를 포함하는 것인, 거리 변화 측정 방법.
  5. 제1 항에 있어서,
    상기 광흐름을 산출하는 단계는
    상기 제1 프레임 영상과 상기 제2 프레임 영상의 대비(contrast)와 채도(saturation)를 이용하여, 제1 프레임 영상과 제2 프레임 영상에서 블러 영역을 검출하는 단계; 및
    상기 검출된 블러 영역을 제외한, 상기 제1 프레임 영상과 상기 제2 프레임 영상 간의 픽셀의 움직임 벡터를 산출하는 단계;를 더 포함하는 것인, 거리 변화 측정 방법.
  6. 제1 항에 있어서,
    상기 특징점을 결정하는 단계는
    상기 제1 프레임 영상의 텍스쳐 성분을 기초로 하여, 상기 제1 프레임 영상에서 복수 개의 특징점을 결정하는 단계;를 포함하는, 거리 변화 측정 방법.
  7. 제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 획득하고, 제2 프레임 영상에 대한 입력 특성 정보를 획득하는 정보 획득부;
    상기 획득된 특성 정보 및 입력 특성 정보에 기초하여, 상기 제2 프레임 영상에서 제2 프레임 영상의 피사체를 결정하는 피사체 결정부;
    상기 제1 프레임 영상의 피사체에서 복수 개의 특징점을 결정하고, 상기 복수 개의 특징점 중에서 임의의 두 개의 특징점을 선택하는 특징점 결정부;
    상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체 사이의 광흐름(Optical Flow)을 산출하는 광흐름 산출부;
    상기 산출된 광흐름에 기초하여, 상기 제2 프레임 영상의 피사체에서 상기 선택된 두 개의 특징점과 대응되는 두 개의 매칭점을 결정하는 매칭점 결정부;
    상기 선택된 두 개의 특징점 간의 거리와 상기 두 개의 매칭점 간의 거리를 이용하여, 상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체의 길이 변화 비율을 산출하는 피사체 길이 변화 산출부; 및
    상기 산출된 길이 변화 비율을 이용하여, 제1 프레임 영상을 획득한 카메라와 피사체 간의 거리와, 제2 프레임 영상을 획득한 카메라와 피사체 간의 거리의 변화를 산출하는 거리 변화 산출부; 를 포함하고,
    상기 임의의 두 개의 특징점을 선택하는 단계와 상기 길이 변화 비율을 산출하는 단계는 복수 회 반복되고, 산출되는 빈도가 높은 길이 변화 비율이 결정되는, 거리 변화 측정 장치.
  8. 제7 항에 있어서,
    상기 정보 획득부는,
    상기 제1 프레임 영상의 피사체를 기초로 피사체 윈도우를 설정하고,
    상기 설정된 피사체 윈도우의 위치와 크기에 기초하여, 상기 제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 획득 하는 것인, 거리 변화 측정 장치.
  9. 제8 항에 있어서,
    상기 정보 획득부는,
    상기 제1 프레임 영상에 표시된 피사체 윈도우를 기초로, 상기 제2 프레임 영상에 탐색 윈도우를 설정하고,
    상기 설정된 탐색 윈도우의 위치와 크기에 기초하여, 상기 제2 프레임 영상의 각 픽셀에 대한 입력 특성 정보를 획득하는 것인, 거리 변화 측정 장치.
  10. 제7항에 있어서, 상기 피사체 결정부는,
    상기 제1 프레임의 피사체 윈도우의 위치와, 상기 획득된 특성 정보 및 입력 특성 정보에 기초하여, 상기 제2 프레임 영상의 피사체 윈도우를 설정하는 것인, 거리 변화 측정 장치.
  11. 제7 항에 있어서,
    상기 광흐름 산출부는
    상기 제1 프레임 영상과 상기 제2 프레임 영상의 대비(contrast)와 채도(saturation)를 이용하여, 제1 프레임 영상과 제2 프레임 영상에서 블러 영역을 검출하고,
    상기 검출된 블러 영역을 제외한, 상기 제1 프레임 영상과 상기 제2 프레임 영상 간의 픽셀의 움직임 벡터를 산출하는 것인, 거리 변화 측정 장치.
  12. 제7 항에 있어서,
    상기 특징점 결정부는
    상기 제1 프레임 영상의 텍스쳐 성분을 기초로 하여, 상기 제1 프레임 영상에서 복수 개의 특징점을 결정하는 것인, 거리 변화 측정 장치.
  13. 프로세서에 의해 도출되어 실행되었을 때, 거리 변화 측정 방법을 수행하는 컴퓨터 프로그램 코드들을 저장하는 컴퓨터 판독가능 저장매체에 있어서, 상기 거리 변화 측정 방법은,
    제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 획득하고, 제2 프레임 영상에 대한 입력 특성 정보를 획득하는 단계;
    상기 획득된 특성 정보 및 입력 특성 정보에 기초하여, 상기 제2 프레임 영상에서 제2 프레임 영상의 피사체를 결정하는 단계;
    상기 제1 프레임 영상의 피사체에서 복수 개의 특징점을 결정하고, 상기 복수 개의 특징점 중에서 임의의 두 개의 특징점을 선택하는 단계;
    상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체 사이의 산출된 광흐름(Optical Flow)에 기초하여, 상기 제2 프레임 영상의 피사체에서 상기 선택된 두 개의 특징점과 대응되는 두 개의 매칭점을 결정하는 단계;
    상기 선택된 두 개의 특징점 간의 거리와 상기 두 개의 매칭점 간의 거리를 이용하여, 상기 제1 프레임 영상의 피사체와 상기 제2 프레임 영상의 피사체의 길이 변화 비율을 산출하는 단계; 및
    상기 산출된 길이 변화 비율을 이용하여, 제1 프레임 영상을 획득한 카메라와 피사체 간의 거리와, 제2 프레임 영상을 획득한 카메라와 피사체 간의 거리의 변화를 산출하는 단계; 를 포함하고,
    상기 임의의 두 개의 특징점을 선택하는 단계와 상기 길이 변화 비율을 산출하는 단계는 복수 회 반복되고, 산출되는 빈도가 높은 길이 변화 비율이 결정되는, 컴퓨터 판독가능 저장매체.
  14. 제13항에 있어서,
    상기 제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 획득하는 단계는;
    상기 제1 프레임 영상의 피사체를 기초로 피사체 윈도우를 설정하는 단계; 및
    상기 설정된 피사체 윈도우의 위치와 크기에 기초하여, 상기 제1 프레임 영상의 피사체와 배경에 대한 특성 정보를 산출하는 단계; 를 포함하는 컴퓨터 판독가능 저장매체.
  15. 제14항에 있어서,
    상기 제2 프레임 영상에 대한 입력 특성 정보를 획득하는 단계;는
    상기 제1 프레임 영상에 표시된 피사체 윈도우를 기초로, 상기 제2 프레임 영상에 탐색 윈도우를 설정하는 단계; 및
    상기 설정된 탐색 윈도우의 위치와 크기에 기초하여, 상기 제2 프레임 영상의 각 픽셀에 대한 입력 특성 정보를 획득하는 단계; 를 포함하는 것인, 컴퓨터 판독가능 저장매체.
  16. 제14 항에 있어서,
    상기 제2 프레임 영상의 피사체를 결정하는 단계;는
    상기 제1 프레임의 피사체 윈도우의 위치와, 상기 획득된 특성 정보 및 입력 특성 정보에 기초하여, 상기 제2 프레임 영상의 피사체 윈도우를 설정하는 단계; 를 포함하는 것인, 컴퓨터 판독가능 저장매체.
  17. 제13항에 있어서,
    상기 광흐름을 산출하는 단계는
    상기 제1 프레임 영상과 상기 제2 프레임 영상의 대비(contrast)와 채도(saturation)를 이용하여, 제1 프레임 영상과 제2 프레임 영상에서 블러 영역을 검출하는 단계; 및
    상기 검출된 블러 영역을 제외한, 상기 제1 프레임 영상과 상기 제2 프레임 영상 간의 픽셀의 움직임 벡터를 산출하는 단계;를 더 포함하는 것인,컴퓨터 판독가능 저장매체.
  18. 제13 항에 있어서,
    상기 특징점을 결정하는 단계는
    상기 제1 프레임 영상의 텍스쳐 성분을 기초로 하여, 상기 제1 프레임 영상에서 복수 개의 특징점을 결정하는 단계; 를 포함하는, 컴퓨터 판독가능 저장매체.
KR1020130122215A 2013-10-14 2013-10-14 피사체 추적 기법을 이용한 카메라와 피사체 사이의 거리 변화 측정방법 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 거리 변화 측정 장치. KR102094506B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130122215A KR102094506B1 (ko) 2013-10-14 2013-10-14 피사체 추적 기법을 이용한 카메라와 피사체 사이의 거리 변화 측정방법 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 거리 변화 측정 장치.
US14/513,819 US9798951B2 (en) 2013-10-14 2014-10-14 Apparatus, method, and processor for measuring change in distance between a camera and an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130122215A KR102094506B1 (ko) 2013-10-14 2013-10-14 피사체 추적 기법을 이용한 카메라와 피사체 사이의 거리 변화 측정방법 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 거리 변화 측정 장치.

Publications (2)

Publication Number Publication Date
KR20150043145A KR20150043145A (ko) 2015-04-22
KR102094506B1 true KR102094506B1 (ko) 2020-03-27

Family

ID=52809323

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130122215A KR102094506B1 (ko) 2013-10-14 2013-10-14 피사체 추적 기법을 이용한 카메라와 피사체 사이의 거리 변화 측정방법 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 거리 변화 측정 장치.

Country Status (2)

Country Link
US (1) US9798951B2 (ko)
KR (1) KR102094506B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240044174A (ko) 2022-09-28 2024-04-04 문재영 시차 분석을 기반으로 하는 거리맵 산출 방법 및 그를 위한 시스템

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6645682B2 (ja) 2015-03-17 2020-02-14 キヤノン株式会社 距離取得装置、距離画像信号補正装置、撮像装置、距離画像量子化装置、および方法
DE102016223079B4 (de) 2016-11-23 2024-03-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ermittlung einer Zuordnung zwischen einem Matrixelement einer Matrix und einem Vergleichsmatrixelement einer Vergleichsmatrix mittels Korrespondenztabelle
KR102275695B1 (ko) * 2018-03-28 2021-07-09 현대모비스 주식회사 3차원 지도 구축에 있어 3차원 거리정보의 실시간 업데이트 장치 및 방법
KR102508960B1 (ko) * 2018-03-28 2023-03-14 현대모비스 주식회사 실시간 3차원 지도 구축 장치 및 방법
DE102018211329A1 (de) * 2018-07-10 2020-01-16 Robert Bosch Gmbh Verfahren zur Wegstreckenmessung sowie System zur Wegstreckenmessung
US11159798B2 (en) * 2018-08-21 2021-10-26 International Business Machines Corporation Video compression using cognitive semantics object analysis
CN111275626B (zh) * 2018-12-05 2023-06-23 深圳市炜博科技有限公司 一种基于模糊度的视频去模糊方法、装置及设备
WO2020170462A1 (ja) * 2019-02-22 2020-08-27 公立大学法人会津大学 動画像距離算出装置および動画像距離算出用プログラムを記録したコンピュータ読み取り可能な記録媒体
KR102629213B1 (ko) * 2023-04-18 2024-01-24 국방과학연구소 경사 촬영 동영상 이동물체 탐지 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013162416A (ja) * 2012-02-07 2013-08-19 Sharp Corp 撮像装置、画像処理装置、画像処理方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100459893B1 (ko) 2002-01-08 2004-12-04 삼성전자주식회사 동영상에서 칼라 기반의 객체를 추적하는 방법 및 그 장치
US7773146B2 (en) 2004-06-15 2010-08-10 Canon Kabushiki Kaisha Focus control apparatus and optical apparatus
JP4207980B2 (ja) 2006-06-09 2009-01-14 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
US7725018B2 (en) 2006-08-01 2010-05-25 Canon Kabushiki Kaisha Focus control apparatus, image sensing apparatus and focus control method
KR20080032746A (ko) * 2006-10-10 2008-04-16 엠텍비젼 주식회사 움직임 인식 방법 및 그 장치
WO2009012364A1 (en) * 2007-07-19 2009-01-22 Nikon Corporation Device and method for estimating if an image is blurred
JP5075757B2 (ja) * 2008-08-05 2012-11-21 オリンパス株式会社 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
KR101040121B1 (ko) * 2008-12-22 2011-06-09 한국전자통신연구원 거리 측정 방법 및 스테레오 매칭 시스템
US8199248B2 (en) 2009-01-30 2012-06-12 Sony Corporation Two-dimensional polynomial model for depth estimation based on two-picture matching
US8520975B2 (en) * 2009-10-30 2013-08-27 Adobe Systems Incorporated Methods and apparatus for chatter reduction in video object segmentation using optical flow assisted gaussholding
JP2012014558A (ja) 2010-07-02 2012-01-19 Sony Corp 画像処理方法、画像処理装置、プログラム、および記録媒体
US9087378B2 (en) * 2012-06-29 2015-07-21 Hong Kong Applied Science and Technology Research Institute Company Limited Scale changing detection and scaling ratio determination by using motion information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013162416A (ja) * 2012-02-07 2013-08-19 Sharp Corp 撮像装置、画像処理装置、画像処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240044174A (ko) 2022-09-28 2024-04-04 문재영 시차 분석을 기반으로 하는 거리맵 산출 방법 및 그를 위한 시스템

Also Published As

Publication number Publication date
KR20150043145A (ko) 2015-04-22
US20150103163A1 (en) 2015-04-16
US9798951B2 (en) 2017-10-24

Similar Documents

Publication Publication Date Title
KR102094506B1 (ko) 피사체 추적 기법을 이용한 카메라와 피사체 사이의 거리 변화 측정방법 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 거리 변화 측정 장치.
CN109740499A (zh) 视频分割方法、视频动作识别方法、装置、设备及介质
CN109791695B (zh) 基于图像块的运动向量确定所述块的方差
KR102153607B1 (ko) 영상에서의 전경 검출 장치 및 방법
US9047673B2 (en) Apparatus and method for extracting target, and recording medium storing program for performing the method
AU2016225841B2 (en) Predicting accuracy of object recognition in a stitched image
JP2011134114A (ja) パターン認識方法およびパターン認識装置
US20230334235A1 (en) Detecting occlusion of digital ink
US8638983B2 (en) Digital image processing apparatus, tracking method, recording medium for storing computer program for executing the tracking method, and digital image processing apparatus adopting the tracking method
JP4625949B2 (ja) 物体追跡方法および物体追跡装置ならびにプログラム
KR101833943B1 (ko) 동영상의 주요 장면을 추출 및 탐색하는 방법 및 시스템
Luo et al. Saliency-based geometry measurement for image fusion performance
JP6511950B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR102094507B1 (ko) 선택적 정제를 이용한 계층적 중요점 영상 생성 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 중요점 영상 생성 장치.
JP2014197342A (ja) 物体位置検出装置、物体位置検出方法、及びプログラム
CN108154521B (zh) 一种基于目标块融合的运动目标检测方法
KR20150094108A (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
JP6540577B2 (ja) 物体認識装置
KR20190005651A (ko) 장면전환 검출 장치 및 방법
JP2014203133A (ja) 画像処理装置、画像処理方法
JP2014229092A (ja) 画像処理装置、画像処理方法、および、そのプログラム
KR102151748B1 (ko) 비디오 영상에서 사람과 배경을 분리하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
JP2007156954A (ja) 信頼度テーブル作成方法、オプティカルフロー推定方法、信頼度テーブル作成装置、オプティカルフロー推定装置、及びプログラム
KR101585059B1 (ko) 영상 데이터 처리 방법 및 디바이스
JP2010039968A (ja) オブジェクト検出装置及び検出方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant