KR20130025346A - 오브젝트 추적 장치 - Google Patents
오브젝트 추적 장치 Download PDFInfo
- Publication number
- KR20130025346A KR20130025346A KR1020120096227A KR20120096227A KR20130025346A KR 20130025346 A KR20130025346 A KR 20130025346A KR 1020120096227 A KR1020120096227 A KR 1020120096227A KR 20120096227 A KR20120096227 A KR 20120096227A KR 20130025346 A KR20130025346 A KR 20130025346A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- frame image
- unit
- zoom
- area
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
본 발명의 과제는, 줌 처리에 의해 대상 오브젝트의 사이즈가 변화해도, 고속 또한 고정밀도로 대상 오브젝트를 추적할 수 있는 오브젝트 추적 장치를 제공하는 것이다.
탐색 영역 설정부(9)는, 현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율과 다른 경우에는, 전 시점의 프레임 화상에 있어서의 오브젝트 영역, 전 시점의 프레임 화상에 있어서의 줌의 중심 좌표, 전 시점의 프레임 화상의 줌 배율과 현 시점의 프레임 화상의 줌 배율의 비에 기초하여, 현 시점의 프레임 화상에 있어서의 오브젝트의 탐색 영역을 설정한다. 정규화부(10)는, 현 시점의 프레임 화상에 포함되는 오브젝트의 탐색 영역의 화상을 고정 사이즈로 정규화한다. 매칭부(11)는, 정규화된 탐색 영역의 화상 중에서, 템플릿 화상과 유사한 오브젝트 영역을 검색한다.
탐색 영역 설정부(9)는, 현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율과 다른 경우에는, 전 시점의 프레임 화상에 있어서의 오브젝트 영역, 전 시점의 프레임 화상에 있어서의 줌의 중심 좌표, 전 시점의 프레임 화상의 줌 배율과 현 시점의 프레임 화상의 줌 배율의 비에 기초하여, 현 시점의 프레임 화상에 있어서의 오브젝트의 탐색 영역을 설정한다. 정규화부(10)는, 현 시점의 프레임 화상에 포함되는 오브젝트의 탐색 영역의 화상을 고정 사이즈로 정규화한다. 매칭부(11)는, 정규화된 탐색 영역의 화상 중에서, 템플릿 화상과 유사한 오브젝트 영역을 검색한다.
Description
본 발명은, 오브젝트 추적 장치에 관한 것이다.
최근의 광학 카메라가 구비된 기기에서는, 미리 등록된 얼굴 화상 등의 오브젝트를 추적 처리하고, 그 위치 정보를 출력함으로써, 오토 포커스 등의 용도에 이용되고 있다.
카메라의 줌의 변화에 의해 오브젝트의 사이즈가 변화된 경우에, 오브젝트의 추적 처리를 가능하게 하는 기술이 특허 문헌 1(일본 특허 출원 공개 제2008-287648호 공보) 및 특허 문헌 2(일본 특허 출원 공개 제2001-243476호 공보)에 개시되어 있다.
특허 문헌 1에서는, 사이즈가 변화하는 오브젝트를 추적하기 위해, 기본이 되는 템플릿 화상을 확대·축소하여 배율을 변경한 복수개의 템플릿 화상과, 촬영 화상의 매칭을 행한다.
특허 문헌 2에서는, 기본이 되는 템플릿 화상을 확대·축소한 복수개의 템플릿 화상으로부터 줌 배율에 따른 템플릿 화상을 선택하여, 촬영 화상과의 매칭을 행한다.
그러나 특허 문헌 1에서는, 사이즈가 변화하는 오브젝트 추적에 대응하기 위해, 복수개의 템플릿 화상과의 매칭이 필요해져, 처리 부하가 커진다고 하는 문제점이 있다.
특허 문헌 2에서는, 줌 배율에 따른 1개의 템플릿 화상으로 카메라 화상과의 매칭을 행하므로, 특허 문헌 1보다도 고속화가 가능하지만, 복수개의 배율의 템플릿 화상을 작성하여 기억해둘 필요가 있다. 또한, 줌에 의해 촬영 화상이 확대된 경우에, 화소수가 증가한 템플릿 화상을 이용하여 매칭을 행하므로, 매칭에 시간을 요하게 된다.
그로 인해, 본 발명의 목적은, 줌 처리에 의해 대상 오브젝트의 사이즈가 변화해도, 고속 또한 고정밀도로 대상 오브젝트를 추적할 수 있는 오브젝트 추적 장치를 제공하는 것이다.
본 발명의 일 실시 형태의 오브젝트 추적 장치는, 프레임 화상에 포함되는 오브젝트를 추적하는 오브젝트 추적 장치로서, 추적 대상의 오브젝트의 템플릿 화상을 기억하는 기억부와, 프레임 화상이 시계열로 입력되는 화상 입력부와, 현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율과 다른 경우에는, 전 시점의 프레임 화상에 있어서의 오브젝트 영역, 전 시점의 프레임 화상에 있어서의 줌의 중심 좌표, 전 시점의 프레임 화상의 줌 배율과 현 시점의 프레임 화상의 줌 배율의 비에 기초하여, 현 시점의 프레임 화상에 있어서의 오브젝트의 탐색 영역을 설정하는 탐색 영역 설정부와, 현 시점의 프레임 화상에 포함되는 오브젝트의 탐색 영역의 화상을 고정 사이즈로 정규화하는 정규화부와, 정규화된 탐색 영역의 화상 중에서, 템플릿 화상과 유사한 오브젝트 영역을 검색하는 매칭부를 구비한다.
본 발명의 일 실시 형태에 따르면, 줌 처리에 의해 대상 오브젝트의 사이즈가 변화해도, 고속 또한 고정밀도로 대상 오브젝트를 추적할 수 있다.
도 1은 본 발명의 실시 형태에 있어서의 디지털 카메라의 구성예를 나타내는 블록도.
도 2는 제1 실시 형태의 오브젝트 추적 장치의 구성을 나타내는 도면.
도 3은 현 시점의 프레임 화상이 전 시점의 프레임 화상과 줌 배율이 동일한 경우의 현 시점의 프레임 화상의 탐색 영역을 설명하기 위한 도면.
도 4는 현 시점의 프레임 화상이 전 시점의 프레임 화상과 줌 배율이 다른 경우의 현 시점의 프레임 화상의 탐색 영역을 설명하기 위한 도면.
도 5는 정규화의 예를 설명하기 위한 도면.
도 6은 제1 실시 형태의 오브젝트 추적 처리의 동작 수순을 나타내는 흐름도.
도 7은 제2 실시 형태의 오브젝트 추적 장치의 구성을 나타내는 도면.
도 8의 (a)는 제i번째의 프레임 화상을 나타내는 도면. (b)는 제(i+1)번째의 프레임 화상을 나타내는 도면.
도 9의 (a)는 제(i+1)번째의 프레임 화상을 나타내는 도면. (b)는 제(i+2)번째의 프레임 화상을 나타내는 도면.
도 10은 제2 실시 형태의 오브젝트 추적 처리의 동작 수순을 나타내는 흐름도.
도 11은 도 10의 스텝 S402의 복귀 처리의 수순을 나타내는 흐름도.
도 2는 제1 실시 형태의 오브젝트 추적 장치의 구성을 나타내는 도면.
도 3은 현 시점의 프레임 화상이 전 시점의 프레임 화상과 줌 배율이 동일한 경우의 현 시점의 프레임 화상의 탐색 영역을 설명하기 위한 도면.
도 4는 현 시점의 프레임 화상이 전 시점의 프레임 화상과 줌 배율이 다른 경우의 현 시점의 프레임 화상의 탐색 영역을 설명하기 위한 도면.
도 5는 정규화의 예를 설명하기 위한 도면.
도 6은 제1 실시 형태의 오브젝트 추적 처리의 동작 수순을 나타내는 흐름도.
도 7은 제2 실시 형태의 오브젝트 추적 장치의 구성을 나타내는 도면.
도 8의 (a)는 제i번째의 프레임 화상을 나타내는 도면. (b)는 제(i+1)번째의 프레임 화상을 나타내는 도면.
도 9의 (a)는 제(i+1)번째의 프레임 화상을 나타내는 도면. (b)는 제(i+2)번째의 프레임 화상을 나타내는 도면.
도 10은 제2 실시 형태의 오브젝트 추적 처리의 동작 수순을 나타내는 흐름도.
도 11은 도 10의 스텝 S402의 복귀 처리의 수순을 나타내는 흐름도.
이하, 본 발명의 실시 형태에 대해 도면을 참조하여 설명한다.
[제1 실시 형태]
(디지털 스틸 카메라)
도 1은 본 발명의 실시 형태에 있어서의 디지털 카메라의 구성예를 나타내는 블록도이다. 본 발명의 실시 형태에서는, 검출 및 추적 대상의 오브젝트로서 얼굴을 예로 하여 설명하지만, 본 발명의 실시 형태의 방법은, 얼굴에 한정되는 것은 아니고, 그 밖의 오브젝트의 검출 및 추적에도 이용할 수 있다.
도 1을 참조하여, 이 디지털 카메라는 반도체 장치를 갖고, 반도체 장치는, 카메라 I/F(Interface)(1001)와, CPU(Central Processing Unit)(1002)와, SDRAM(Synchronous Dynamic Random Access Memory)(1003)과, ROM(Read Only Memory)(1004)과, 유저 조작부 I/F(1005)와, LCD I/F(1007)와, 카드 I/F(1008)와, 오브젝트 검출 장치(1006), 오브젝트 추적 장치(1009)를 포함하고, 이들이 버스(1010)를 개재하여 접속되어 있다. 오브젝트 검출 장치(1006), 오브젝트 추적 장치(1009)는 화상 처리 장치(1011)를 구성한다.
카메라 I/F(1001)는, 카메라 센서에 접속되어 있고, 카메라 센서에 의해 촬상된 화상을 받고, SDRAM(1003)이나 카드 I/F(1008)를 개재하여 접속되는 도시하지 않은 SD 메모리 카드 등에 그 화상을 기입한다.
CPU(1002)는, SDRAM(1003)이나 ROM(1004)에 기억되는 프로그램을 실행함으로써, 시스템 전체의 제어를 행한다. CPU(1002)는, SDRAM(1003)에 저장된 얼굴(오브젝트)의 위치를 나타내는 정보를 초점을 맞추기 위해 카메라 I/F(1001)를 통해 카메라의 촬상계에 보낸다. 또한, CPU(1002)는, 오브젝트 검출 장치(1006) 및 오브젝트 추적 장치(1009)로부터 보내지는 얼굴(오브젝트)의 위치를 나타내는 정보로부터 얼굴의 위치를 나타내는 도형(사각형 등)을 LCD I/F(1007)에 보낸다.
ROM(1004)은, 오브젝트의 검출, 오브젝트의 추적에 이용되는 데이터를 기억한다.
유저 조작부 I/F(1005)는, 도시하지 않은 셔터 버튼 등에 접속되고, 셔터 버튼이 눌러졌을 때에, 인터럽트 등에 의해 그 취지를 CPU(1002)에 통지한다. CPU(1002)는, 인터럽트 요구를 받으면, 카메라 I/F(1001)를 제어하여 카메라 센서에 의해 촬상된 화상을 SDRAM(1003) 등에 저장한다. 또한, 유저가 도시하지 않은 줌 스위치 등을 조작하여, 줌 배율을 변경한 경우, 유저 조작부 I/F(1005)를 개재하여 줌 배율은, CPU(1002)에 보내진다.
LCD I/F(1007)는, 도시하지 않은 LCD 패널에 접속되고, LCD의 표시의 제어 등을 행한다. 카메라 센서에 의해 촬영된 화상을 프리뷰로서 LCD에 표시한다. 또한, LCD I/F(1007)는, CPU(1002)로부터 보내진 얼굴(오브젝트)의 위치를 나타내는 도형을 촬영된 화상 상에 중첩 표시한다.
카드 I/F(1008)는, SD 메모리 카드 등의 외부의 기록 매체에 접속되고, 기록 매체에 대한 데이터의 판독이나 기입을 행한다.
오브젝트 검출 장치(1006)는, 카메라 센서에 의해 촬영되어 카메라 I/F(1001)로부터 입력되는 화상으로부터 얼굴(오브젝트)의 검출 처리를 행하여, 얼굴(오브젝트)의 위치를 나타내는 정보를 SDRAM(1003)에 저장한다. 오브젝트 검출 장치(1006)는, 검출한 오브젝트의 영역을 템플릿으로서 등록한다.
오브젝트 추적 장치(1009)는, 카메라 센서에 의해 촬영되어 카메라 I/F(1001)로부터 입력되는 화상에 있어서 오브젝트 검출 장치(1006)에서 검출된 얼굴(오브젝트)의 추적 처리를 행하여, 얼굴(오브젝트)의 위치를 나타내는 정보를 SDRAM(1003)에 저장한다. 오브젝트 추적 장치(1009)는, 촬영된 화상으로부터, 오브젝트 검출 장치에서 얻어진 템플릿과 유사한 영역을 검색함으로써, 오브젝트의 추적을 행한다. 오브젝트 추적 장치(1009)는, CPU(1002)로부터 보내지는 탐색 범위 배율 K, 줌 배율, 줌의 중심 좌표를 받는다. 오브젝트 추적 장치(1009)는, 오브젝트 검출 장치(1006)로부터 추적 대상의 오브젝트의 템플릿 화상, 오브젝트 영역을 받는다.
(구성)
도 2는 제1 실시 형태의 오브젝트 추적 장치의 구성을 나타내는 도면이다.
도 2를 참조하여, 이 오브젝트 추적 장치(1009)는, 화상 입력부(2)와, 파라미터 입력부(3)와, 오브젝트 영역 입력부(4)와, 오브젝트 영역 설정부(6)와, 템플릿 입력부(5)와, 템플릿 등록부(7)와, 템플릿 기억부(8)와, 탐색 영역 설정부(9)와, 정규화부(10)와, 매칭부(11)를 구비한다.
화상 입력부(2)는, 카메라 I/F로부터 추적 대상으로 되는 오브젝트를 탐색하기 위한 프레임 화상을 소정의 프레임 레이트로 받는다. 유저에 의해 피사체가 줌(확대 또는 축소)된 경우에는, 화상 입력부(2)는, 줌된 프레임 화상을 받는다.
파라미터 입력부(3)는, CPU(1002)로부터 탐색 범위 배율 K의 입력을 받는다. 또한, 파라미터 입력부(3)는, 유저에 의해 피사체가 줌되어, 현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율로부터 변화된 경우에는, CPU(1002)로부터 줌 배율과, 줌의 중심 좌표를 받는다.
템플릿 입력부(5)는, 오브젝트 검출 장치로부터 출력되는 추적 대상의 오브젝트의 템플릿 화상을 받는다.
템플릿 기억부(8)는, 추적 대상의 오브젝트의 템플릿 화상을 기억한다. 템플릿 등록부(7)는, 템플릿 입력부(5)에 입력된 템플릿 화상을 초기 템플릿으로서 템플릿 기억부(8)에 기억한다. 템플릿 등록부(7)는, 매칭부(11)에 의해 특정된 오브젝트 영역의 화상으로 템플릿 기억부(8) 내의 템플릿 화상을 갱신한다.
오브젝트 영역 입력부(4)는, 오브젝트 검출 장치로부터 추적 대상으로 하는 오브젝트 영역을 나타내는 정보를 받는다.
오브젝트 영역 설정부(6)는, 오브젝트 영역 입력부(4)에 입력된 오브젝트 영역을 초기의 오브젝트 영역으로 설정한다. 오브젝트 영역 설정부(6)는, 매칭부(11)에 의해 템플릿 화상과 유사한 것으로서 검색된 오브젝트 영역을 새로운 오브젝트 영역으로 설정한다.
탐색 영역 설정부(9)는, 현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율과 동일한 경우에는, 전 시점의 프레임 화상에 있어서의 오브젝트 영역을 포함하고, 그 오브젝트 영역보다도 탐색 범위 배율 K만큼 큰 영역(기준 영역)을, 현 시점의 프레임 화상에 있어서의 오브젝트 영역으로 설정한다.
탐색 영역 설정부(9)는, 현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율과 다른 경우에는, 상술한 기준 영역을 구하고, 이 기준 영역을 전 시점의 프레임 화상에 있어서의 줌의 중심 좌표, 전 시점의 프레임 화상의 줌 배율과 현 시점의 프레임 화상의 줌 배율의 비에 기초하여, 줌(확대 또는 축소)한 영역을 현 시점의 프레임 화상에 있어서의 오브젝트의 탐색 영역으로 설정한다.
정규화부(10)는, 현 시점의 프레임 화상에 있어서의 오브젝트의 탐색 영역의 화상을 고정 사이즈로 정규화하여 정규화 탐색 화상을 생성한다.
매칭부(11)는, 정규화 탐색 화상 중에서, 템플릿 기억부(8)에 기억되어 있는 템플릿 화상과 유사한 영역을 검색하여, 유사도가 소정값 이상으로 되는 부분을 발견한 경우에, 그 부분을 현 프레임의 오브젝트 영역으로서 특정하고, 그 영역을 나타내는 정보를 CPU(1002)에 출력한다. 여기서, 유사도라 함은, 예를 들면, 2개의 화상의 화소값의 절대차의 역수나 상호 상관을 이용할 수 있다.
매칭부(11)는, 유사도가 소정값 이상으로 되는 부분을 발견할 수 없었던 경우에, 오브젝트 검출 장치에 대하여 오브젝트를 다시 검출하도록 지시한다.
(탐색 영역의 예)
도 3은 현 시점의 프레임 화상이 전 시점의 프레임 화상과 줌 배율이 동일한 경우의 현 시점의 프레임 화상의 탐색 영역을 설명하기 위한 도면이다.
도 3의 (a)는 전 시점의 프레임 화상을 나타내는 도면이다. 프레임 화상(201)에 있어서, 좌측 상방의 좌표를 O(0, 0), 우측 상방의 좌표를 A(DX, 0), 좌측 하방의 좌표를 B(0, DY), 우측 하방의 좌표를 C(DX, DY)로 한다.
전 시점의 프레임에서 검출된 오브젝트 영역(202)의 위치를 이하로 한다. 중심 좌표를 M(X1, Y1), 좌측 상방의 좌표를 D(X1-ax, Y1-ay), 우측 상방의 좌표를 E(X1+ax, Y1-ay), 좌측 하방의 좌표를 F(X1-ax, Y1+ay), 우측 하방의 좌표를 G(X1+ax, Y1+ay)로 한다.
도 3의 (b)는 현 시점의 프레임 화상을 나타내는 도면이다. 프레임 화상(203)에 있어서, 전 시점과 마찬가지로, 좌측 상방의 좌표가 O(0, 0), 우측 상방의 좌표가 A(DX, 0), 좌측 하방의 좌표가 B(0, DY), 우측 하방의 좌표가 C(DX, DY)이다. 현 시점의 프레임 화상에 있어서의 탐색 영역(204)의 위치는, 이하로 된다.
중심 좌표는 M(X1, Y1)이며, 좌측 상방의 좌표를 H(X1-ax′, Y1-ay′), 우측 상방의 좌표를 I(X1+ax′, Y1-ay′), 좌측 하방의 좌표를 J(X1-ax′, Y1+ay′), 우측 하방의 좌표를 K(X1+ax′, Y1+ay′)로 한다. 여기서, ax′=K×ax, ay′=K×ay이다. K는 탐색 범위 배율이다.
따라서, 현 시점의 프레임 화상이 전 시점의 프레임 화상과 줌 배율이 동일한 경우에는, 현 시점의 프레임의 탐색 영역은, H, I, J, K를 정점으로 한 사각형 영역(기준 영역)(204)으로 설정되게 된다. 이 사각형 영역(204)은, 전 시점의 프레임 화상에 있어서의 오브젝트 영역(202)을 포함하고, 그 오브젝트 영역보다도 K배만큼 큰 영역이다.
도 4는 현 시점의 프레임 화상이 전 시점의 프레임 화상과 줌 배율이 다른 경우의 현 시점의 프레임 화상의 탐색 영역을 설명하기 위한 도면이다.
도 4의 (a)는 전 시점의 프레임 화상을 나타내는 도면이다. 프레임 화상(201)에 있어서, 좌측 상방의 좌표를 O(0, 0), 우측 상방의 좌표를 A(DX, 0), 좌측 하방의 좌표를 B(0, DY), 우측 하방의 좌표를 C(DX, DY)로 한다.
전 시점의 프레임에서 검출된 오브젝트 영역(202)의 위치를 이하로 한다. 중심 좌표를 M(X1, Y1), 좌측 상방의 좌표를 D(X1-ax, Y1-ay), 우측 상방의 좌표를 E(X1+ax, Y1-ay), 좌측 하방의 좌표를 F(X1-ax, Y1+ay), 우측 하방의 좌표를 G(X1+ax, Y1+ay)로 한다.
여기서, 위치 L(X0, Y0)을 줌의 중심 좌표로 하고, 전 시점의 프레임 화상의 줌 배율과 현 시점의 프레임 화상의 줌 배율의 비를 ZR로 하여, 카메라가 줌된 결과, 전 시점의 프레임 화상에 있어서의 P, Q, R, S를 정점으로 한 사각형 영역(205)이 확대되어 현 시점의 프레임 화상의 전체 영역으로 되었다고 한다. 여기서, P의 위치는 (X0-EX/2, Y0-EY/2), Q의 위치는 (X0+EX/2, Y0-EY/2), R의 위치는 (X0-EX/2, Y0+EY/2), S의 위치는 (X0+EX/2, Y0+EY/2)이다. 줌 배율의 비 ZR=DX/EX=DY/EY이다. 예를 들면, 전 시점의 카메라의 줌 배율이 2이며, 현 시점의 카메라의 줌 배율이 4인 경우에는, 줌 배율의 비 ZR은 2(=4/2)로 된다. 줌 배율이 증가한, 즉 확대된 경우에는, 줌 배율의 비 ZR은 1보다도 커지고, 줌 배율이 감소한, 즉 축소된 경우에는, 줌 배율의 비 ZR은 1보다도 작아진다.
도 4의 (b)는 현 시점의 프레임 화상을 나타내는 도면이다. 프레임 화상(206)에 있어서, 전 시점과 마찬가지로, 좌측 상방의 좌표가 O(0, 0), 우측 상방의 좌표가 A(DX, 0), 좌측 하방의 좌표가 B(0, DY), 우측 하방의 좌표가 C(DX, DY)이다.
또한, 전 시점에서의 줌의 중심 L이, 프레임 화상(206)의 중심의 카메라 화상의 중심을 나타내는 위치 L′로 이동한다.
전 시점의 프레임에서 검출된 오브젝트 영역(202)은, 중심이 M′이고, D′, E′, F′, G′를 정점으로 한 사각형 영역(207)으로 이동 및 줌된다. 여기서, M′의 위치는 (XP, YP)이다. 단, XP=DX/2+ZR×(X1-X0), YP=DY/2+ZR×(Y1-Y0)이다. D′의 위치는 (XP-ax×ZR, YP-ay×ZR), E′의 위치는 (XP+ax×ZR, YP-ay×ZR), F′의 위치는 (XP-ax×ZR, YP+ay×ZR), G′의 위치는 (XP+ax×ZR, YP+ay×ZR)이다.
탐색 영역(208)의 위치는, 중심이 M′이고, H′, I′, J′, K′를 정점으로 한 사각형 영역(208)으로 설정된다.
여기서, M′의 위치는 (XP, YP)이며, H′의 위치는 (XP-ax′×ZR, YP-ay′×ZR)이며, I′의 위치는 (XP+ax′×ZR, YP-ay′×ZR)이며, J′의 위치는 (XP-ax′×ZR, YP+ay′×ZR)이며, K′의 위치는 (XP+ax′×ZR, YP+ay′×ZR)이다. 여기서, ax′=K×ax, ay′=K×ay이다. K는 탐색 범위 배율이다.
따라서, 현 시점의 프레임 화상이 전 시점의 프레임 화상과 줌 배율이 상이한 경우에는, 현 시점의 프레임의 탐색 영역은, H′, I′, J′, K′를 정점으로 한 사각형 영역(208)으로 설정되게 된다.
이 사각형 영역(208)은, 전 시점의 프레임 화상에 있어서의 오브젝트 영역(202)을 줌한 영역(207)을 포함하고, 그 오브젝트 영역(207)보다도 K배만큼 큰 영역이다. 또한, 이 사각형 영역(208)은, 현 시점의 프레임 화상이 전 시점의 프레임 화상과 줌 배율이 동일한 경우의 현 시점의 프레임 화상의 탐색 영역[도 3의 (b)의 영역(204)]을 전 시점의 프레임 화상에 있어서의 줌의 중심 좌표 L, 줌 배율의 비 ZR에 기초하여, 줌(확대 또는 축소)한 영역이다.
(정규화의 예)
도 5는 정규화의 예를 설명하기 위한 도면이다.
도 5에서, 정규화부(10)는, 프레임 화상으로부터 탐색 영역(303)의 화상을 추출한다. 도 4의 (b)와 같이, 현 시점의 프레임 화상이 전 시점의 프레임 화상과 줌 배율이 다른 경우에는 추출된 화상의 횡방향의 화소수가 2×ax′×ZR이며, 종방향의 화소수가 2×ay′×ZR이다.
정규화부(10)는, 추출한 화상을 고정 사이즈로 확대 또는 축소하여 정규화 탐색 화상(304)을 생성한다. 도 5에 도시하는 바와 같이, 고정 사이즈는, 횡방향의 화소수가 XS이고, 종방향의 화소수를 YS로 한다. 정규화부(10)는, 확대하는 경우에는, 예를 들면 보간 등의 처리를 행하고, 축소하는 경우에는, 예를 들면 씨닝 등의 처리를 행한다.
(동작)
도 6은 제1 실시 형태의 오브젝트 추적 처리의 동작 수순을 나타내는 흐름도이다.
도 6을 참조하여, 우선, 오브젝트 영역 입력부(4)는, 오브젝트 검출 장치로부터 추적 대상으로 하는 오브젝트 영역을 나타내는 정보를 받는다. 오브젝트 영역 설정부(6)는, 오브젝트 검출 장치로부터 출력되는 오브젝트 영역을 초기의 오브젝트 영역으로 설정한다(스텝 S101).
다음으로, 템플릿 등록부(7)는, 오브젝트 검출 장치로부터 출력되는 대상 오브젝트의 화상을 초기 템플릿으로서 템플릿 기억부(8)에 기억한다(스텝 S102).
다음으로, 화상 입력부(2)는, 카메라 I/F로부터 현 시점의 프레임 화상을 받는다(스텝 S103).
다음으로, 파라미터 입력부(3)가, CPU(1002)로부터 줌 배율과 줌의 중심 좌표를 받은 경우에는(스텝 S104에서 예), 탐색 영역 설정부(9)는, 현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율과 상이하므로, 전 시점의 프레임 화상에 있어서의 오브젝트 영역을 포함하고, 그 오브젝트 영역보다도 소정 배수만큼 큰 영역(기준 영역)을 구하고, 또한 그 기준 영역을, 전 시점의 프레임 화상에 있어서의 줌의 중심 좌표, 전 시점의 프레임 화상의 줌 배율과 현 시점의 프레임 화상의 줌 배율의 비에 기초하여, 줌(확대 또는 축소)한 영역을 현 시점의 프레임 화상에 있어서의 오브젝트의 탐색 영역으로 설정한다(스텝 S105).
한편, 파라미터 입력부(3)가, CPU(1002)로부터 줌 배율과 줌의 중심 좌표를 받지 못한 경우에는(스텝 S104에서 아니오), 탐색 영역 설정부(9)는, 현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율과 동일하므로, 전 시점의 프레임 화상에 있어서의 오브젝트 영역을 포함하고, 그 오브젝트 영역보다도 소정 배수만큼 큰 기준 영역을, 현 시점의 프레임 화상에 있어서의 오브젝트 영역으로 설정한다(스텝 S106).
다음으로, 정규화부(10)는, 현 시점의 프레임 화상에 있어서의 오브젝트의 탐색 영역의 화상을 고정 사이즈로 정규화하여 정규화 탐색 화상을 생성한다(스텝 S107).
다음으로, 매칭부(11)는, 정규화 탐색 화상 중에서, 템플릿 기억부(8)에 기억되어 있는 템플릿 화상과 유사한 영역을 검색하여, 유사도가 소정값 이상으로 되는 부분을 찾는다.
매칭부(11)가, 유사도가 소정값 이상으로 되는 부분을 발견한 경우, 즉 매칭이 성공한 경우에는(스텝 S108에서 예), 매칭부(11)는, 그 발견한 부분을 현 프레임의 오브젝트 영역으로서 특정하고, 그 영역을 나타내는 정보를 CPU(1002)에 출력한다(스텝 S109).
오브젝트 영역 설정부(6)는, 매칭부(11)에 의해 특정된 오브젝트 영역을 새로운 오브젝트 영역으로 설정한다(스텝 S110).
템플릿 등록부(7)는, 매칭부(11)에 의해 특정된 오브젝트 영역의 화상으로 템플릿 기억부(8) 내의 템플릿 화상을 갱신한다(스텝 S111).
그 후, 스텝 S103으로 되돌아가, 다음 프레임 화상의 입력으로부터의 처리가 반복된다.
매칭부(11)가, 유사도가 소정값 이상으로 되는 부분을 발견하지 못한 경우, 즉 매칭이 실패한 경우에는(스텝 S108에서 아니오), 매칭부(11)는, 오브젝트 검출 장치에 대하여 오브젝트를 다시 검출하도록 지시한다(스텝 S112).
(효과)
이상과 같이, 본 실시 형태에서는, 줌 배율과 줌의 중심 좌표를 이용하여, 줌 처리에서 입력되는 프레임 화상의 배율이 변해도, 대상 오브젝트의 크기와 위치의 변화를 고려한 탐색 영역을 설정할 수 있다. 이에 의해, 복수개의 템플릿 화상과의 매칭이 불필요해진다.
또한, 본 실시 형태에서는, 탐색 영역의 화상을 일정한 크기의 정규화 화상으로 축소하여, 템플릿 매칭을 행하므로, 종래와 같이, 템플릿 화상을 확대하여 매칭 처리함으로써, 처리 시간이 길어지는 것을 방지할 수 있다.
[제2 실시 형태]
대상 오브젝트를 추적 중에, 확대에 의해, 추적 대상의 오브젝트가 프레임 화상의 밖으로 프레임 아웃하는 경우가 있다. 종래는, 일단, 프레임 아웃된 대상 오브젝트는 프레임 화상 내에 존재하지 않으므로, 그 위치 정보는 보존되지 않는다. 그 후, 대상 오브젝트가 다시 프레임 화상 안으로 프레임 인한 경우라도, 추적 처리를 개시하는 기준으로 되는 위치(즉, 탐색 영역의 중앙의 오브젝트 검출 영역)의 정보가 없으므로, 오브젝트를 추적할 수 없다. 그로 인해, 종래에서는, 추적 대상의 오브젝트가 프레임 아웃된 경우에, 추적 처리를 정지하고, 다시 오브젝트의 검출 처리를 하는 수밖에 없었다.
도 7은 제2 실시 형태의 오브젝트 추적 장치의 구성을 나타내는 도면이다. 도 7의 오브젝트 추적 장치(51)가, 도 2의 오브젝트 추적 장치(1009)와 상이한 점은 이하와 같다.
유지부(28)는, 탐색 영역 설정부(29)에 의해 설정된 오브젝트의 탐색 영역의 일부 또는 전부가, 현 시점의 프레임 화상에 포함되지 않는 경우에, 설정된 오브젝트의 탐색 영역을 유지한다.
도 8의 (a)가, 제i번째의 프레임 화상을 나타내는 도면이다. 도 8의 (b)가 제(i+1)번째의 프레임 화상을 나타내는 도면이다.
제i번째의 프레임 화상(601)에 있어서, 줌 중심을 L1으로 하고, 줌 배율의 비를 ZR1으로 하여 확대된 화상이, 제(i+1)번째의 프레임 화상(603)이라고 한다. 여기서, ZR1>1이다.
도 8의 (b)에 도시하는 바와 같이, M′을 중심으로 하고, H′, I′, J′, K′를 정점으로 한 탐색 영역(605)이 프레임 화상(603)의 외부로 밀려나온 경우에, 유지부(28)는, M′, H′, I′, J′, K′의 좌표를 유지한다. M′의 위치는 (XP, YP)이며, H′의 위치는 (XP-ax′×ZR1, YP-ay′×ZR1)이며, I′의 위치는 (XP+ax′×ZR1, YP-ay′×ZR1)이며, J′의 위치는 (XP-ax′×ZR1, YP+ay′×ZR1)이며, K′의 위치는 (XP+ax′×ZR1, YP+ay′×ZR1)이다. 단, XP=DX/2+ZR1×(X1-X0), YP=DY/2+ZR1×(Y1-Y0)이다.
탐색 영역 설정부(29)는, 현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율과 상이한 경우에는, 유지부(28)에서 전 시점의 프레임 화상에 있어서의 오브젝트 탐색 영역이 유지되어 있으면, 그 유지되어 있는 오브젝트의 탐색 영역과, 전 시점의 프레임 화상에 있어서의 줌의 중심 좌표, 전 시점의 프레임 화상의 줌 배율과 현 시점의 프레임 화상의 줌 배율의 비에 기초하여, 줌(확대 또는 축소)한 영역을 현 시점의 프레임 화상에 있어서의 오브젝트의 탐색 영역으로 설정한다.
도 9의 (a)가, 제(i+1)번째의 프레임 화상을 나타내는 도면이다. 도 9의 (b)가 제(i+2)번째의 프레임 화상을 나타내는 도면이다.
제i+1번째의 프레임 화상(603)에 있어서, 줌 중심을 L2로 하고, 줌 배율의 비를 ZR2로 하여 축소된 화상이, 제(i+2)번째의 프레임 화상(610)이라고 한다. 여기서, ZR2<1이다.
탐색 영역 설정부(29)는, 유지부(28)에서 유지되어 있는 M′, H′, I′, J′, K′의 위치와, 줌의 중심 좌표 L2(X0′, Y0′), 줌 배율의 비 ZR2를 이용하여, M″을 중심으로 하고, H″, I″, J″, K″를 정점으로 한 오브젝트의 탐색 영역(612)을 구한다.
M″의 위치는 (XP′, YP′)이며, H″의 위치는 (XP′-ax′×ZR1×ZR2, YP′-ay′×ZR1×ZR2)이며, I″의 위치는 (XP′+ax′×ZR1×ZR2, YP′-ay′×ZR1×ZR2)이며, J″의 위치는 (XP′-ax′×ZR1×ZR2, YP′+ay′×ZR1×ZR2)이며, K″의 위치는 (XP′+ax′×ZR1×ZR2, YP′+ay′×ZR1×ZR2)이다. 단, XP′=DX/2+ZR2×(XP-X0′), YP′=DY/2+ZR2×(YP-Y0′)이다.
(동작)
도 10은 제2 실시 형태의 오브젝트 추적 처리의 동작 수순을 나타내는 흐름도이다.
도 10을 참조하여, 우선, 오브젝트 영역 입력부(4)는, 오브젝트 검출 장치로부터 추적 대상으로 하는 오브젝트 영역을 나타내는 정보를 받는다. 오브젝트 영역 설정부(6)는, 오브젝트 검출 장치로부터 출력되는 오브젝트 영역을 초기의 오브젝트 영역으로 설정한다(스텝 S101).
다음으로, 템플릿 등록부(7)는, 오브젝트 검출 장치로부터 출력되는 대상 오브젝트의 화상을 초기 템플릿으로서 템플릿 기억부(8)에 기억한다(스텝 S102).
다음으로, 화상 입력부(2)는, 카메라 I/F로부터 현 시점의 프레임 화상을 받는다(스텝 S103).
다음으로, 파라미터 입력부(3)가, CPU(1002)로부터 줌 배율과 줌의 중심 좌표를 받은 경우에는(스텝 S104에서 예), 탐색 영역 설정부(29)는, 현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율과 상이하므로, 전 시점의 프레임 화상에 있어서의 오브젝트 영역을 포함하고, 그 오브젝트 영역보다도 소정 배수만큼 큰 영역(기준 영역)을 구하고, 또한 그 기준 영역을, 전 시점의 프레임 화상에 있어서의 줌의 중심 좌표, 전 시점의 프레임 화상의 줌 배율과 현 시점의 프레임 화상의 줌 배율의 비에 기초하여, 줌(확대 또는 축소)한 영역을 현 시점의 프레임 화상에 있어서의 오브젝트의 탐색 영역으로 설정한다(스텝 S105).
설정된 탐색 영역의 일부 또는 전부가 현 시점의 프레임 화상의 밖으로 밀려난 경우에는(스텝 S401에서 예), 후술하는 복귀 처리가 행해진다(스텝 S402).
한편, 파라미터 입력부(3)가, CPU(1002)로부터 줌 배율과 줌의 중심 좌표를 받지 못한 경우에는(스텝 S104에서 아니오), 탐색 영역 설정부(29)는, 현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율과 동일하므로, 전 시점의 프레임 화상에 있어서의 오브젝트 영역을 포함하고, 그 오브젝트 영역보다도 소정 배수만큼 큰 기준 영역을, 현 시점의 프레임 화상에 있어서의 오브젝트 영역으로 설정한다(스텝 S106).
다음으로, 정규화부(10)는, 현 시점의 프레임 화상에 있어서의 오브젝트의 탐색 영역의 화상을 고정 사이즈로 정규화하여 정규화 탐색 화상을 생성한다(스텝 S107).
다음으로, 매칭부(11)는, 정규화 탐색 화상 중에서, 템플릿 기억부(8)에 기억되어 있는 템플릿 화상과 유사한 영역을 검색하여, 유사도가 소정값 이상으로 되는 부분을 찾는다.
매칭부(11)가, 유사도가 소정값 이상으로 되는 부분을 발견한 경우, 즉 매칭이 성공한 경우에는(스텝 S108에서 예), 매칭부(11)는, 그 발견한 부분을 현 프레임의 오브젝트 영역으로서 특정하고, 그 영역을 나타내는 정보를 CPU(1002)에 출력한다(스텝 S109).
오브젝트 영역 설정부(6)는, 매칭부(11)에 의해 특정된 오브젝트 영역을 새로운 오브젝트 영역으로 설정한다(스텝 S110).
템플릿 등록부(7)는, 매칭부(11)에 의해 특정된 오브젝트 영역의 화상으로 템플릿 기억부(8) 내의 템플릿 화상을 갱신한다(스텝 S111).
그 후, 스텝 S103으로 되돌아가, 다음 프레임 화상의 입력으로부터의 처리가 반복된다.
매칭부(11)가, 유사도가 소정값 이상으로 되는 부분을 발견하지 못한 경우, 즉 매칭이 실패한 경우에는(스텝 S108에서 아니오), 매칭부(11)는, 오브젝트 검출 장치에 대하여 오브젝트를 다시 검출하도록 지시한다(스텝 S112).
(복귀 처리)
도 11은 도 10의 스텝 S402의 복귀 처리의 수순을 나타내는 흐름도이다.
우선, 유지부(28)는, 설정된 탐색 영역을 나타내는 정보를 유지한다(스텝 S501).
화상 입력부(2)는, 카메라 I/F로부터 다음 시점의 프레임 화상을 받는다(스텝 S502).
파라미터 입력부(3)가, CPU(1002)로부터 줌 배율과 줌의 중심 좌표를 받은 경우에는(스텝 S503에서 예), 탐색 영역 설정부(29)는, 현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율과 상이하므로, 보존하고 있는 전 시점의 프레임 화상에 있어서의 오브젝트 탐색 영역과, 전 시점의 프레임 화상에 있어서의 줌의 중심 좌표, 전 시점의 프레임 화상의 줌 배율과 현 시점의 프레임 화상의 줌 배율의 비에 기초하여, 줌(확대 또는 축소)한 영역을 현 시점의 프레임 화상에 있어서의 오브젝트의 탐색 영역으로 설정한다(스텝 S504).
설정된 탐색 영역의 일부 또는 전부가 현 시점의 프레임 화상의 밖으로 밀려난 경우에는(스텝 S505에서 예), 스텝 S501로부터의 처리를 반복한다.
(효과)
이상과 같이, 제2 실시 형태에 따르면, 확대에 의해, 추적 대상의 오브젝트가 프레임 화상의 밖으로 프레임 아웃되었다고 해도, 프레임 아웃된 오브젝트의 탐색 영역을 유지하여, 다음 프레임에 있어서의 탐색 영역의 설정에 이용하므로, 오브젝트의 추적을 계속할 수 있다.
또한, 본 실시 형태의 도 11의 스텝 S505에서 예인 경우, 항상, 스텝 S501로 되돌아가는 것으로 하였지만, 도 11의 복귀 처리가 소정 시간 이상 계속된 경우, 또는, 스텝 S501 내지 S505의 루프가 소정 횟수 이상 계속된 경우에, 복귀 처리를 종료하여 오브젝트 검출부에 대하여 다시 오브젝트 검출 처리를 시키는 것으로 해도 된다.
금회 개시된 실시 형태는 모든 점에서 예시로서, 제한적인 것은 아니라고 생각되어야 한다. 본 발명의 범위는 상기한 설명이 아니라 특허 청구 범위에 의해 개시되고, 특허 청구 범위와 균등한 의미 및 범위 내에서의 모든 변경이 포함되는 것이 의도된다.
2 : 화상 입력부
3 : 파라미터 입력부
4 : 오브젝트 영역 입력부
5 : 템플릿 입력부
6 : 오브젝트 영역 설정부
7 : 템플릿 등록부
8 : 템플릿 기억부
9, 29 : 탐색 영역 설정부
10 : 정규화부
11 : 매칭부
28 : 유지부
1000 : 디지털 카메라
1001 : 카메라 I/F
1002 : CPU
1003 : SDRAM
1004 : ROM
1005 : 유저 조작부 I/F
1006 : 오브젝트 검출 장치
1007 : LCD I/F
1008 : 카드 I/F
51, 1009 : 오브젝트 추적 장치
1011 : 화상 처리 장치
3 : 파라미터 입력부
4 : 오브젝트 영역 입력부
5 : 템플릿 입력부
6 : 오브젝트 영역 설정부
7 : 템플릿 등록부
8 : 템플릿 기억부
9, 29 : 탐색 영역 설정부
10 : 정규화부
11 : 매칭부
28 : 유지부
1000 : 디지털 카메라
1001 : 카메라 I/F
1002 : CPU
1003 : SDRAM
1004 : ROM
1005 : 유저 조작부 I/F
1006 : 오브젝트 검출 장치
1007 : LCD I/F
1008 : 카드 I/F
51, 1009 : 오브젝트 추적 장치
1011 : 화상 처리 장치
Claims (6)
- 프레임 화상에 포함되는 오브젝트를 추적하는 오브젝트 추적 장치로서,
추적 대상의 오브젝트의 템플릿 화상을 기억하는 기억부와,
프레임 화상이 시계열로 입력되는 화상 입력부와,
현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율과 다른 경우에는, 전 시점의 프레임 화상에 있어서의 오브젝트 영역, 전 시점의 프레임 화상에 있어서의 줌의 중심 좌표, 전 시점의 프레임 화상의 줌 배율과 현 시점의 프레임 화상의 줌 배율의 비에 기초하여, 현 시점의 프레임 화상에 있어서의 상기 오브젝트의 탐색 영역을 설정하는 탐색 영역 설정부와,
상기 현 시점의 프레임 화상에 포함되는 오브젝트의 탐색 영역의 화상을 고정 사이즈로 정규화하는 정규화부와,
상기 정규화된 탐색 영역의 화상 중에서, 상기 템플릿 화상과 유사한 상기 오브젝트 영역을 검색하는 매칭부
를 구비한 오브젝트 추적 장치. - 제1항에 있어서,
상기 탐색 영역 설정부는, 상기 전 시점의 프레임 화상에 있어서의 오브젝트 영역을 포함하고, 또한 상기 오브젝트 영역보다도 소정 배수만큼 큰 기준 영역을, 상기 줌의 중심 좌표 및 상기 줌 배율의 비를 따라 줌한 영역을 상기 현 시점의 프레임 화상에 있어서의 상기 오브젝트의 탐색 영역으로 설정하는 오브젝트 추적 장치. - 제1항에 있어서,
상기 탐색 영역 설정부에 의해 설정된 상기 오브젝트의 탐색 영역의 일부 또는 전부가, 상기 현 시점의 프레임 화상에 포함되지 않는 경우에, 상기 설정된 오브젝트의 탐색 영역을 유지하는 유지부를 구비하고,
상기 탐색 영역 설정부는, 1시점이 경과한 후, 현 시점의 프레임 화상의 줌 배율이 전 시점의 프레임 화상의 줌 배율과 다른 경우에는, 상기 유지부에서 유지한 오브젝트의 탐색 영역을 이용하여, 현 시점의 프레임 화상에 있어서의 상기 오브젝트의 탐색 영역을 설정하는 오브젝트 추적 장치. - 제1항에 있어서,
프레임 화상으로부터 대상 오브젝트를 검출하는 오브젝트 검출 장치로부터 출력되는 대상 오브젝트의 화상을 상기 템플릿 화상으로서 상기 기억부에 기억하는 등록부를 더 구비하는 오브젝트 추적 장치. - 제4항에 있어서,
상기 등록부는, 상기 매칭부에 의해 상기 템플릿 화상과 유사한 것으로서 검색된 상기 현 시점의 오브젝트 영역의 화상으로 상기 기억부 내의 템플릿 화상을 갱신하는 오브젝트 추적 장치. - 제1항에 있어서,
상기 매칭부는, 유사한 영역을 검색할 수 없었던 경우에, 상기 오브젝트 검출 장치에 대하여 상기 오브젝트를 검출하도록 지시하는 오브젝트 추적 장치.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPJP-P-2011-190583 | 2011-09-01 | ||
JP2011190583A JP5746937B2 (ja) | 2011-09-01 | 2011-09-01 | オブジェクト追跡装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130025346A true KR20130025346A (ko) | 2013-03-11 |
Family
ID=47753207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120096227A KR20130025346A (ko) | 2011-09-01 | 2012-08-31 | 오브젝트 추적 장치 |
Country Status (4)
Country | Link |
---|---|
US (2) | US8811669B2 (ko) |
JP (1) | JP5746937B2 (ko) |
KR (1) | KR20130025346A (ko) |
CN (1) | CN103179335B (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9361529B2 (en) | 2013-11-14 | 2016-06-07 | Hyundai Motor Company | Parking area detecting apparatus and method thereof |
US9539945B2 (en) | 2013-10-30 | 2017-01-10 | Hyundai Motor Company | Parking area tracking apparatus and method thereof |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8971573B2 (en) * | 2012-09-12 | 2015-03-03 | Xerox Corporation | Video-tracking for video-based speed enforcement |
JP6114990B2 (ja) * | 2013-03-27 | 2017-04-19 | 株式会社メガチップス | 動画像符号化処理装置、プログラムおよび集積回路 |
JP6223170B2 (ja) * | 2013-12-19 | 2017-11-01 | キヤノン株式会社 | 撮像装置、その制御方法、および制御プログラム |
US10660533B2 (en) * | 2014-09-30 | 2020-05-26 | Rapsodo Pte. Ltd. | Remote heart rate monitoring based on imaging for moving subjects |
CN106709932B (zh) * | 2015-11-12 | 2020-12-04 | 创新先进技术有限公司 | 一种人脸位置跟踪方法、装置和电子设备 |
CN105787964A (zh) * | 2016-02-29 | 2016-07-20 | 深圳电科技有限公司 | 目标跟踪方法和装置 |
US20180204331A1 (en) * | 2016-07-21 | 2018-07-19 | Gopro, Inc. | Subject tracking systems for a movable imaging system |
WO2018058531A1 (zh) * | 2016-09-30 | 2018-04-05 | 富士通株式会社 | 目标跟踪方法、装置以及图像处理设备 |
KR102476897B1 (ko) * | 2016-10-05 | 2022-12-12 | 삼성전자주식회사 | 객체 추적 방법 및 장치, 및 이를 이용한 3d 디스플레이 장치 |
KR102351542B1 (ko) * | 2017-06-23 | 2022-01-17 | 삼성전자주식회사 | 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치 |
US11276199B2 (en) * | 2020-02-17 | 2022-03-15 | The Boeing Company | Image template based tracking |
JP7388737B2 (ja) * | 2021-05-28 | 2023-11-29 | 株式会社アクセル | 画像処理装置、画像処理方法および画像処理プログラム |
CN113689460B (zh) * | 2021-09-02 | 2023-12-15 | 广州市奥威亚电子科技有限公司 | 视频目标对象跟踪检测方法、装置、设备及存储介质 |
CN116152298B (zh) * | 2023-04-17 | 2023-08-29 | 中国科学技术大学 | 一种基于自适应局部挖掘的目标跟踪方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7907793B1 (en) * | 2001-05-04 | 2011-03-15 | Legend Films Inc. | Image sequence depth enhancement system and method |
JP3774495B2 (ja) * | 1995-11-01 | 2006-05-17 | キヤノン株式会社 | 画像情報抽出装置および方法 |
JP2001243476A (ja) | 2000-03-02 | 2001-09-07 | Mitsubishi Heavy Ind Ltd | 移動体の監視方法および装置 |
MXPA03010039A (es) * | 2001-05-04 | 2004-12-06 | Legend Films Llc | Sistema y metodo para mejorar la secuencia de imagen. |
JP2003235035A (ja) * | 2001-12-05 | 2003-08-22 | Hitachi Kokusai Electric Inc | 物体検出方法及びそれを用いた物体検出装置並びに物体追跡方法及びそれを用いた物体追跡装置 |
JP4597543B2 (ja) * | 2004-02-18 | 2010-12-15 | パナソニック株式会社 | 自動追尾装置及び自動追尾方法 |
KR101183000B1 (ko) * | 2004-07-30 | 2012-09-18 | 익스트림 리얼리티 엘티디. | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및방법 |
US8260008B2 (en) * | 2005-11-11 | 2012-09-04 | Eyelock, Inc. | Methods for performing biometric recognition of a human eye and corroboration of same |
JP4915655B2 (ja) * | 2006-10-27 | 2012-04-11 | パナソニック株式会社 | 自動追尾装置 |
CN101569241A (zh) * | 2006-12-21 | 2009-10-28 | 皇家飞利浦电子股份有限公司 | 显示光辐射的系统、方法、计算机可读介质和用户界面 |
JP4807284B2 (ja) * | 2007-03-07 | 2011-11-02 | カシオ計算機株式会社 | カメラ装置、カメラ装置制御プログラム及びカメラ装置制御方法 |
JP2008287648A (ja) | 2007-05-21 | 2008-11-27 | Fujifilm Corp | 移動体検出方法及び装置、並びに監視装置 |
JP2009031760A (ja) * | 2007-07-04 | 2009-02-12 | Sanyo Electric Co Ltd | 撮像装置及びオートフォーカス制御方法 |
US7809260B2 (en) * | 2007-08-02 | 2010-10-05 | Canon Kabushiki Kaisha | Image capturing apparatus and method for controlling same |
CN101387812B (zh) * | 2007-09-13 | 2011-03-23 | 鸿富锦精密工业(深圳)有限公司 | 相机自动对焦系统及方法 |
JP2009141475A (ja) * | 2007-12-04 | 2009-06-25 | Nikon Corp | カメラ |
JP5062095B2 (ja) * | 2008-08-19 | 2012-10-31 | 株式会社ニコン | 撮像装置 |
JP5247338B2 (ja) * | 2008-10-03 | 2013-07-24 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP2010157792A (ja) * | 2008-12-26 | 2010-07-15 | Nikon Corp | 被写体追跡装置 |
US8184880B2 (en) * | 2008-12-31 | 2012-05-22 | Intuitive Surgical Operations, Inc. | Robust sparse image matching for robotic surgery |
JP2011193443A (ja) * | 2010-02-16 | 2011-09-29 | Ricoh Co Ltd | 物体追尾装置 |
JP5538160B2 (ja) * | 2010-09-24 | 2014-07-02 | パナソニック株式会社 | 瞳孔検出装置及び瞳孔検出方法 |
-
2011
- 2011-09-01 JP JP2011190583A patent/JP5746937B2/ja not_active Expired - Fee Related
-
2012
- 2012-07-23 US US13/555,824 patent/US8811669B2/en active Active
- 2012-08-28 CN CN201210309383.1A patent/CN103179335B/zh not_active Expired - Fee Related
- 2012-08-31 KR KR1020120096227A patent/KR20130025346A/ko active IP Right Grant
-
2014
- 2014-07-18 US US14/335,648 patent/US9208579B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9539945B2 (en) | 2013-10-30 | 2017-01-10 | Hyundai Motor Company | Parking area tracking apparatus and method thereof |
US9361529B2 (en) | 2013-11-14 | 2016-06-07 | Hyundai Motor Company | Parking area detecting apparatus and method thereof |
USRE47559E1 (en) | 2013-11-14 | 2019-08-06 | Hyundai Motor Company | Parking area detecting apparatus and method thereof |
Also Published As
Publication number | Publication date |
---|---|
US20140328514A1 (en) | 2014-11-06 |
US9208579B2 (en) | 2015-12-08 |
CN103179335B (zh) | 2017-12-12 |
US20130058525A1 (en) | 2013-03-07 |
JP5746937B2 (ja) | 2015-07-08 |
JP2013054429A (ja) | 2013-03-21 |
US8811669B2 (en) | 2014-08-19 |
CN103179335A (zh) | 2013-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5746937B2 (ja) | オブジェクト追跡装置 | |
WO2019042426A1 (zh) | 增强现实场景的处理方法、设备及计算机存储介质 | |
US10915998B2 (en) | Image processing method and device | |
JP4814375B2 (ja) | 検出装置、検出方法および検出用集積回路 | |
JP5810296B2 (ja) | 画像表示装置及び画像表示方法 | |
CN109074657B (zh) | 一种目标跟踪方法、装置、电子设备和可读存储介质 | |
US20120148164A1 (en) | Image matching devices and image matching methods thereof | |
JP5631086B2 (ja) | 情報処理装置及びその制御方法、プログラム | |
US8965105B2 (en) | Image processing device and method | |
EP3093822B1 (en) | Displaying a target object imaged in a moving picture | |
US9569686B2 (en) | Mobile device field of view region determination | |
JP2021533660A (ja) | シーンの超解像画像を生成するための光学画像の安定化動作 | |
JP2011095862A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP5482327B2 (ja) | 撮像装置、撮像方法および撮像プログラム | |
US20240346745A1 (en) | Image processing apparatus, method for controlling the same, and non-transitory computer-readable storage medium | |
JP2015176251A (ja) | 画像処理装置および画像処理方法 | |
JP6062483B2 (ja) | デジタルカメラ | |
JP2008211534A (ja) | 顔検知装置 | |
US11790483B2 (en) | Method, apparatus, and device for identifying human body and computer readable storage medium | |
CN115278071B (zh) | 图像处理方法、装置、电子设备和可读存储介质 | |
US8768060B2 (en) | Image processing apparatus, image processing method and computer-readable medium | |
KR20230116565A (ko) | 전자 장치 및 전자 장치의 제어 방법 | |
WO2016199933A1 (ja) | 画像処理装置、画像処理方法および画像処理システム | |
CN115134506A (zh) | 摄像画面调整方法、视频画面处理方法以及装置和系统 | |
JP2008117228A (ja) | 矩形追跡方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |