JP2006113738A - Device and method for detecting object - Google Patents

Device and method for detecting object Download PDF

Info

Publication number
JP2006113738A
JP2006113738A JP2004299148A JP2004299148A JP2006113738A JP 2006113738 A JP2006113738 A JP 2006113738A JP 2004299148 A JP2004299148 A JP 2004299148A JP 2004299148 A JP2004299148 A JP 2004299148A JP 2006113738 A JP2006113738 A JP 2006113738A
Authority
JP
Japan
Prior art keywords
histogram
imaging
feature
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004299148A
Other languages
Japanese (ja)
Inventor
Yuji Takada
雄二 高田
Kazuhiro Morizaki
和裕 森崎
Katsumasa Onda
勝政 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004299148A priority Critical patent/JP2006113738A/en
Publication of JP2006113738A publication Critical patent/JP2006113738A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detecting device for correctly determining whether a detected object area is a background part or an object. <P>SOLUTION: The device comprises imaging means 101a, 101b for imaging a prescribed monitor area; a three-dimensional information calculating means 102 for calculating three-dimensional information which expresses the position of the monitor area; an object extracting means 103 for extracting the object area where the object exists; a histogram calculation area determining means 104 for determining a histogram calculation area to calculate a histogram; a feature extracting means 105 for extracting a feature image; a reference feature storage means 106 for storing the feature image of reference; an area dividing means 107 for dividing the histogram calculation area into a plurality of areas; a histogram correlation calculating means 108 for calculating a correlation value between data concerning the feature histogram based on the feature image and data concerning a reference feature histogram based on the feature image of reference; and an object determining means 109 for determining whether or not the object exists in the monitor area. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、複数台のカメラを用いて監視領域の三次元情報を算出して物体の検出を行う物体検出装置に関するものである。   The present invention relates to an object detection apparatus for detecting an object by calculating three-dimensional information of a monitoring area using a plurality of cameras.

従来の物体検出装置としては、ステレオ画像処理により走行路面および走行路面上の障害物の距離画像を生成する距離画像生成部と、走行路面および走行路面上の障害物の三次元座標位置分布を生成する座標変換部と、走行路面を検出する地面検出部と、走行路面上の障害物を検出する障害物検出部とから構成されており、無人ダンプトラック等の移動体が走行路を走行する場合に、ステレオカメラによって得られた画像から走行路面および走行路面上の障害物の距離画像を距離画像生成部が生成し、生成された距離画像から各画素の三次元座標位置分布を座標変換部が生成し、生成された三次元座標位置分布に基づいて地面検出部が走行路面の画素群を特定して走行路面を検出し、検出された走行路面を基準とする所定の高さ以上の画素群を障害物であると障害物検出部が検出するものが知られている(例えば、特許文献1参照)。
特開平10−143659号公報(第4−7頁、図1)
As a conventional object detection device, a distance image generation unit that generates a distance image of a traveling road surface and an obstacle on the traveling road surface by stereo image processing, and a three-dimensional coordinate position distribution of the traveling road surface and the obstacle on the traveling road surface are generated. When a moving body such as an unmanned dump truck travels on the travel path, the coordinate conversion unit is configured to include a ground detection unit that detects the travel road surface and an obstacle detection unit that detects an obstacle on the travel road surface. In addition, the distance image generation unit generates a distance image of the traveling road surface and the obstacle on the traveling road surface from the image obtained by the stereo camera, and the coordinate conversion unit calculates the three-dimensional coordinate position distribution of each pixel from the generated distance image. Generated, and based on the generated three-dimensional coordinate position distribution, the ground detection unit identifies a pixel group on the traveling road surface to detect the traveling road surface, and a pixel group having a predetermined height or more based on the detected traveling road surface Obstacle detection unit is known to detect that the obstacle (e.g., see Patent Document 1).
Japanese Patent Laid-Open No. 10-143659 (page 4-7, FIG. 1)

しかしながら、従来の物体検出装置では、砂利や芝生など一様なテクスチャが存在する環境において、ステレオ画像処理の過程で誤対応が発生した場合に、物体が存在しないときでも、砂利や芝生などの背景部分の画像を表す画素群を障害物検出部が物体であると検出してしまうという問題があった。   However, in the conventional object detection device, in the environment where there is a uniform texture such as gravel or lawn, if a mishandling occurs in the process of stereo image processing, even if there is no object, the background of gravel or lawn etc. There has been a problem that a pixel group representing a partial image is detected by the obstacle detection unit as an object.

本発明は、従来の問題を解決するためになされたもので、検出された物体領域が、背景部分であるか、物体であるかを正確に判定することのできる物体検出装置を提供することを目的とする。   The present invention has been made to solve the conventional problems, and provides an object detection device capable of accurately determining whether a detected object region is a background part or an object. Objective.

本発明の物体検出装置は、所定の監視領域を撮像する複数の撮像手段と、前記複数の撮像手段のそれぞれが撮像して得られたそれぞれの画像に基づいて前記監視領域の位置を表す三次元情報を算出する三次元情報算出手段と、前記三次元情報算出手段によって算出された三次元情報に基づいて前記監視領域から物体が存在する物体領域を抽出する物体抽出手段と、前記物体抽出手段によって抽出された物体領域に基づいてヒストグラムを計算するためのヒストグラム計算領域を決定するヒストグラム計算領域決定手段と、前記複数の撮像手段のうち一つの撮像手段によって得られた画像から特徴画像を抽出する特徴抽出手段と、前記特徴抽出手段によって抽出された基準の特徴画像を記憶する基準特徴記憶手段と、前記ヒストグラム計算領域決定手段によって決定されたヒストグラム計算領域を複数の領域に分割する領域分割手段と、前記特徴抽出手段によって抽出された特徴画像に基づいた特徴ヒストグラムに関するデータと、前記基準特徴記憶手段によって記憶された基準の特徴画像に基づいた基準特徴ヒストグラムに関するデータとの相関値を計算するヒストグラム相関計算手段と、前記ヒストグラム相関計算手段によって計算された相関値に基づいて前記監視領域内に物体が存在するか否かを判定する物体判定手段とを備えた構成を有している。   The object detection apparatus according to the present invention includes a plurality of imaging units that image a predetermined monitoring area, and a three-dimensional representation of the position of the monitoring area based on each image obtained by imaging each of the plurality of imaging units. Three-dimensional information calculation means for calculating information, object extraction means for extracting an object area where an object exists from the monitoring area based on the three-dimensional information calculated by the three-dimensional information calculation means, and the object extraction means Histogram calculation area determination means for determining a histogram calculation area for calculating a histogram based on the extracted object area, and a feature for extracting a feature image from an image obtained by one of the plurality of imaging means Extraction means; reference feature storage means for storing a reference feature image extracted by the feature extraction means; and the histogram calculation area A region dividing unit that divides the histogram calculation region determined by the determining unit into a plurality of regions, data relating to a feature histogram based on the feature image extracted by the feature extracting unit, and a reference stored by the reference feature storing unit Histogram correlation calculation means for calculating a correlation value with data relating to a reference feature histogram based on the feature image of the image, and whether or not an object exists in the monitoring area based on the correlation value calculated by the histogram correlation calculation means It has the structure provided with the object determination means which determines.

この構成により、撮像して得られた画像に基づいた特徴ヒストグラムに関するデータと基準時に撮像して得られた画像に基づいた基準特徴ヒストグラムに関するデータとの相関値を算出し、この相関値によって監視領域内に物体が存在するか否かを判定するため、検出された物体領域が背景部分であるか、物体であるかを正確に判定することができる。   With this configuration, the correlation value between the data relating to the feature histogram based on the image obtained by imaging and the data relating to the reference feature histogram based on the image obtained at the time of reference is calculated, and the monitoring region is calculated based on the correlation value. Therefore, it is possible to accurately determine whether the detected object region is a background portion or an object.

また、本発明の物体検出装置は、前記複数の撮像手段のうち一つの撮像手段によって得られた画像を表すフレームと、前記フレームが得られた時間より所定の時間前のフレームとの差分を計算するフレーム差分計算手段と、前記フレーム差分から得られるフレーム差分領域と前記物体領域とに基づいてヒストグラム計算領域を決定する処理領域決定手段とを有している。   The object detection apparatus of the present invention calculates a difference between a frame representing an image obtained by one of the plurality of imaging means and a frame a predetermined time before the time when the frame was obtained. Frame difference calculation means for processing, and processing area determination means for determining a histogram calculation area based on the frame difference area obtained from the frame difference and the object area.

この構成により、物体が存在する可能性の高い領域をヒストグラム計算領域とするため、監視領域から抽出された物体領域内に物体が存在する場合に、物体が存在しないと誤って判定されることを防ぐことができる。   With this configuration, an area where there is a high possibility that an object exists is used as a histogram calculation area, so that when an object exists in the object area extracted from the monitoring area, it is erroneously determined that no object exists. Can be prevented.

本発明の物体検出方法は、複数の撮像手段が所定の監視領域を撮像する撮像ステップと、前記撮像ステップで複数の撮像手段のそれぞれが撮像して得られたそれぞれの画像に基づいて前記監視領域の位置を表す三次元情報を算出する三次元情報算出ステップと、前記三次元情報算出ステップで算出された三次元情報に基づいて前記監視領域から物体が存在する物体領域を抽出する物体抽出ステップと、前記物体抽出ステップで抽出された物体領域に基づいてヒストグラムを計算するためのヒストグラム計算領域を決定するヒストグラム計算領域決定ステップと、前記撮像ステップで複数の撮像手段のうち一つの撮像手段が撮像して得られた画像から特徴画像を抽出する特徴抽出ステップと、前記特徴抽出ステップで抽出された基準の特徴画像を記憶する基準特徴記憶ステップと、前記ヒストグラム計算領域決定ステップで決定されたヒストグラム計算領域を複数の領域に分割する領域分割ステップと、前記特徴抽出ステップで抽出された特徴画像に基づいた特徴ヒストグラムに関するデータと、前記基準特徴記憶ステップで記憶された基準の特徴画像に基づいた基準特徴ヒストグラムに関するデータとの相関値を計算するヒストグラム相関計算ステップと、前記ヒストグラム相関計算ステップで計算された相関値に基づいて前記監視領域内に物体が存在するか否かを判定する物体判定ステップとを有している。   The object detection method of the present invention includes: an imaging step in which a plurality of imaging units image a predetermined monitoring area; and the monitoring area based on each image obtained by imaging each of the plurality of imaging units in the imaging step. A three-dimensional information calculation step for calculating three-dimensional information representing the position of the object, and an object extraction step for extracting an object region where an object exists from the monitoring region based on the three-dimensional information calculated in the three-dimensional information calculation step; A histogram calculation area determination step for determining a histogram calculation area for calculating a histogram based on the object area extracted in the object extraction step, and one imaging means among a plurality of imaging means in the imaging step A feature extraction step for extracting a feature image from the obtained image, and a reference feature image extracted in the feature extraction step Reference feature storing step for storing, region dividing step for dividing the histogram calculation region determined in the histogram calculation region determination step into a plurality of regions, and data relating to the feature histogram based on the feature image extracted in the feature extraction step Based on the correlation value calculated in the histogram correlation calculation step, the histogram correlation calculation step for calculating the correlation value with the data related to the reference feature histogram based on the reference feature image stored in the reference feature storage step And an object determination step for determining whether or not an object exists in the monitoring area.

この方法により、撮像して得られた画像に基づいた特徴ヒストグラムに関するデータと基準時に撮像して得られた画像に基づいた基準特徴ヒストグラムに関するデータとの相関値を算出し、この相関値によって監視領域内に物体が存在するか否かを判定するため、検出された物体領域が背景部分であるか、物体であるかを正確に判定することができる。   By this method, the correlation value between the data relating to the feature histogram based on the image obtained by imaging and the data relating to the reference feature histogram based on the image obtained at the time of reference is calculated, and the monitoring region is calculated based on the correlation value. Therefore, it is possible to accurately determine whether the detected object region is a background portion or an object.

また、本発明の物体検出方法は、前記撮像ステップで複数の撮像手段のうち一つの撮像手段が撮像して得られた画像を表すフレームと、前記フレームが得られた時間より所定の時間前のフレームとの差分を計算するフレーム差分計算ステップと、前記フレーム差分から得られるフレーム差分領域と前記物体領域とに基づいてヒストグラム計算領域を決定する処理領域決定ステップとを有している。   Further, the object detection method of the present invention includes a frame representing an image obtained by imaging by one of a plurality of imaging means in the imaging step, and a predetermined time before the time when the frame is obtained. A frame difference calculation step for calculating a difference from the frame; and a processing region determination step for determining a histogram calculation region based on the frame difference region obtained from the frame difference and the object region.

この方法により、物体が存在する可能性の高い領域をヒストグラム計算領域とするため、監視領域から抽出された物体領域内に物体が存在する場合に、物体が存在しないと誤って判定されることを防ぐことができる。   By this method, since the area where there is a high possibility that an object exists is used as the histogram calculation area, it is erroneously determined that the object does not exist when the object exists in the object area extracted from the monitoring area. Can be prevented.

さらに、本発明の物体検出方法は、前記領域分割ステップは、前記撮像ステップで得られた画像の走査線に対して垂直方向に前記ヒストグラム計算領域を分割することを特徴とする構成を有している。   Furthermore, the object detection method of the present invention has a configuration in which the region dividing step divides the histogram calculation region in a direction perpendicular to a scanning line of the image obtained in the imaging step. Yes.

この方法により、風などの影響により、撮像して得られた画像の走査線に対して垂直方向の揺れが撮像手段に発生した場合でも、この揺れが特徴ヒストグラムに与える影響を小さくするため、誤検知を防止することができる。   With this method, even when a fluctuation in the vertical direction occurs with respect to the scanning line of the image obtained by imaging due to the influence of wind or the like, the influence of this fluctuation on the feature histogram is reduced in order to reduce the influence on the feature histogram. Detection can be prevented.

さらに、本発明の物体検出方法は、前記領域分割ステップは、前記撮像ステップで得られた画像の走査線に対して平行方向に前記ヒストグラム計算領域を分割することを特徴とする構成を有している。   Furthermore, the object detection method of the present invention has a configuration in which the region dividing step divides the histogram calculation region in a direction parallel to a scanning line of the image obtained in the imaging step. Yes.

この方法により、風などの影響により、撮像して得られた画像の走査線に対して平行方向の揺れが撮像手段に発生した場合でも、この揺れが特徴ヒストグラムに与える影響を小さくするため、誤検知を防止することができる。   With this method, even if a shake in the direction parallel to the scanning line of the image obtained by imaging is generated due to the influence of wind or the like, the effect of this shake on the feature histogram is reduced in order to reduce the effect on the feature histogram. Detection can be prevented.

本発明は、撮像して得られた画像に基づいた特徴ヒストグラムに関するデータと基準時に撮像して得られた画像に基づいた基準特徴ヒストグラムに関するデータとの相関値を算出するヒストグラム相関計算手段と、この相関値によって監視領域内に物体が存在するか否かを判定する物体判定手段とを設けることにより、検出された物体領域が背景部分であるか、物体であるかを正確に判定することができる物体検出装置を提供するものである。   The present invention provides a histogram correlation calculating means for calculating a correlation value between data relating to a feature histogram based on an image obtained by imaging and data relating to a reference feature histogram based on an image obtained at the time of reference, It is possible to accurately determine whether the detected object region is a background part or an object by providing an object determination unit that determines whether an object exists in the monitoring region based on the correlation value An object detection apparatus is provided.

以下、本発明の実施の形態の物体検出装置について、図面を参照して説明する。なお、本発明の実施の形態の物体検出装置は、例えば、複数台のカメラを用いて監視領域の三次元情報を算出して物体の検出を行うものである。   Hereinafter, an object detection device according to an embodiment of the present invention will be described with reference to the drawings. Note that the object detection apparatus according to the embodiment of the present invention detects an object by, for example, calculating three-dimensional information of a monitoring area using a plurality of cameras.

(第1の実施の形態)
本発明の第1の実施の形態の物体検出装置を図1に示す。
(First embodiment)
FIG. 1 shows an object detection apparatus according to a first embodiment of the present invention.

図1において、本発明の第1の実施の形態に係る物体検出装置は、所定の監視領域を撮像する撮像手段101aおよび101bと、三次元情報を算出する三次元情報算出手段102と、物体領域を抽出する物体抽出手段103と、ヒストグラム計算領域を決定するヒストグラム計算領域決定手段104と、特徴画像を抽出する特徴抽出手段105と、基準の特徴画像を記憶する基準特徴記憶手段106と、ヒストグラム計算領域を複数の領域に分割する領域分割手段107と、特徴画像に基づいた特徴ヒストグラムに関するデータと、基準の特徴画像に基づいた基準特徴ヒストグラムに関するデータとの相関値を計算するヒストグラム相関計算手段108と、物体が存在するか否かを判定する物体判定手段109とを有する構成である。   In FIG. 1, the object detection apparatus according to the first embodiment of the present invention includes imaging means 101a and 101b for imaging a predetermined monitoring area, three-dimensional information calculation means 102 for calculating three-dimensional information, and an object area. , An object extraction unit 103 that extracts a histogram calculation region, a histogram calculation region determination unit 104 that determines a histogram calculation region, a feature extraction unit 105 that extracts a feature image, a reference feature storage unit 106 that stores a reference feature image, and a histogram calculation Area dividing means 107 for dividing an area into a plurality of areas, histogram correlation calculating means 108 for calculating a correlation value between data relating to a feature histogram based on a feature image and data relating to a reference feature histogram based on a reference feature image; , And an object determination unit 109 for determining whether or not an object exists.

ヒストグラム相関計算手段108は、特徴ヒストグラムを作成する特徴ヒストグラム作成手段108aと、基準特徴ヒストグラムを作成する基準特徴ヒストグラム作成手段108bと、相関値を算出する相関値算出手段108cとを有する構成である。   The histogram correlation calculation unit 108 includes a feature histogram generation unit 108a that generates a feature histogram, a reference feature histogram generation unit 108b that generates a reference feature histogram, and a correlation value calculation unit 108c that calculates a correlation value.

以上のように構成された物体検出装置について、図2〜14を用いてその動作を説明する。   About the object detection apparatus comprised as mentioned above, the operation | movement is demonstrated using FIGS.

まず、撮像手段101aおよび101bは、所定の監視領域を撮像する(ステップS201)。   First, the imaging units 101a and 101b image a predetermined monitoring area (step S201).

次に、三次元情報算出手段102は、撮像手段101aおよび101bのそれぞれが撮像して得られたそれぞれの画像に基づいて監視領域の位置を表す三次元情報を算出し(ステップS202)、この三次元情報を撮像手段座標系から実空間座標系に変換する。   Next, the three-dimensional information calculation unit 102 calculates three-dimensional information representing the position of the monitoring area based on the respective images obtained by the imaging units 101a and 101b (step S202). The original information is converted from the imaging means coordinate system to the real space coordinate system.

ここで、三次元情報算出手段102が監視領域の三次元情報を算出する方法について図3を用いて説明する。   Here, a method in which the three-dimensional information calculation unit 102 calculates the three-dimensional information of the monitoring area will be described with reference to FIG.

図3において、x軸、y軸、およびz軸からなる実空間座標系を表す座標(x、y、z)を、X軸およびY軸からなる撮像手段座標系を表す座標(X、Y)を用いる。ただし、撮像手段101aと101bを区別するために、XL軸およびYL軸からなる撮像手段101aの画像面上の座標(XL、YL)を、XR軸およびYR軸からなる撮像手段101bの画像面上の座標(XR、YR)を用いる。また、x軸とXL軸とXR軸は各々平行であり、y軸とYL軸とYR軸は各々平行であり、さらに、z軸と撮像手段101aおよび101bの光軸とは各々平行である。実空間座標系の原点Oを撮像手段101aの投影中心と撮像手段101bの投影中心の中点にとり、投影中心間の距離を2aで表す。また、投影中心と画像面との間の距離を焦点距離fで表す。   In FIG. 3, coordinates (x, y, z) representing the real space coordinate system composed of the x-axis, y-axis and z-axis are coordinates (X, Y) representing the imaging means coordinate system composed of the X-axis and the Y-axis. Is used. However, in order to distinguish between the imaging means 101a and 101b, the coordinates (XL, YL) on the image plane of the imaging means 101a consisting of the XL axis and the YL axis are set on the image plane of the imaging means 101b consisting of the XR axis and the YR axis. The coordinates (XR, YR) are used. Further, the x axis, the XL axis, and the XR axis are parallel to each other, the y axis, the YL axis, and the YR axis are parallel to each other. Further, the z axis and the optical axes of the imaging units 101a and 101b are parallel to each other. The origin O of the real space coordinate system is taken as the midpoint of the projection center of the imaging means 101a and the projection center of the imaging means 101b, and the distance between the projection centers is represented by 2a. Further, the distance between the projection center and the image plane is represented by a focal length f.

実空間内の点p(x,y,z)が撮像手段101aおよび101bの画像面上に結像されている点をそれぞれ点PL(XL,YL)、点PR(XR,YR)とすると、三次元情報算出手段102は、撮像手段101aの画像面を基準として、その画像面上にある点PLに対応する点を撮像手段101bの画像面上から見つけ出し、三角測量の原理に基づいて実空間内の点p(x,y,z)を算出する。   If points p (x, y, z) in the real space are imaged on the image planes of the imaging means 101a and 101b, respectively, are point PL (XL, YL) and point PR (XR, YR). The three-dimensional information calculation means 102 finds a point corresponding to the point PL on the image plane from the image plane of the image pickup means 101a with reference to the image plane of the image pickup means 101a, and based on the principle of triangulation A point p (x, y, z) is calculated.

以下、実空間内の点p(x,y,z)を算出する方法について詳細に説明する。撮像手段101aおよび101bは、それぞれの光軸が互いに平行かつ同一平面上に載るように設定されていることから、YR=YLとなる。したがって、実空間内の点p(x,y,z)は、
(数1)
x=a(XL+XR)/(XL−XR) (1)
(数2)
y=2aYL/(XL−XR) (2)
(数3)
z=2af/(XL−XR) (3)
と表される。ここで、d=XL−XRは視差と呼ばれる。
Hereinafter, a method for calculating the point p (x, y, z) in the real space will be described in detail. Since the imaging means 101a and 101b are set so that their optical axes are parallel to each other and on the same plane, YR = YL. Therefore, the point p (x, y, z) in the real space is
(Equation 1)
x = a (XL + XR) / (XL-XR) (1)
(Equation 2)
y = 2aYL / (XL-XR) (2)
(Equation 3)
z = 2af / (XL-XR) (3)
It is expressed. Here, d = XL-XR is called parallax.

上述した式(1)〜(3)より、
(数4)
XL=(x+a)f/z (4)
(数5)
XR=(x−a)f/z (5)
(数6)
YL=YR=yf/z (6)
となるので、
(数7)
XL>XR、かつ、YL=YR (7)
となる。
From the equations (1) to (3) described above,
(Equation 4)
XL = (x + a) f / z (4)
(Equation 5)
XR = (x−a) f / z (5)
(Equation 6)
YL = YR = yf / z (6)
So,
(Equation 7)
XL> XR and YL = YR (7)
It becomes.

ここで、式(7)は、撮像手段101aの画像面上の点PLに対応する撮像手段101bの画像面上の点PRが、同じ走査線上、かつ、XL>XRの範囲に存在することを表す。したがって、三次元情報算出手段102は、同じ走査線上に沿ったある小領域について画像の類似度を調べることによって撮像手段101aの画像面上の点PLに対応した撮像手段101bの画像面上の点PRを見つけ出すことができる。   Here, the equation (7) indicates that the point PR on the image plane of the imaging unit 101b corresponding to the point PL on the image plane of the imaging unit 101a exists on the same scanning line and in the range of XL> XR. To express. Accordingly, the three-dimensional information calculation unit 102 checks the image similarity for a certain small region along the same scanning line, thereby matching the point on the image plane of the imaging unit 101b corresponding to the point PL on the image plane of the imaging unit 101a. You can find PR.

次に、類似度の評価方法について説明する。ここで、実吉ほか、「三次元画像認識技術を用いた運転支援システム」、自動車技術会学術講演会前刷集924、1992年10月、pp.169−172に記載の方法に基づいて、図4を用いて説明する。三次元情報算出手段102は、図4に示すように、撮像手段101aの画像401を基準として、画像401をn×m画素のサイズのブロック単位に分割し、分割されたブロック毎に撮像手段101bの画像402中より対応する対応領域を見つけ出し、視差dを算出する。   Next, a method for evaluating similarity will be described. Here, Miyoshi et al., “Driving support system using three-dimensional image recognition technology”, Automobile Society of Japan Academic Lecture Preprint 924, October 1992, pp. 11-28. This will be described with reference to FIG. 4 based on the method described in 169-172. As shown in FIG. 4, the three-dimensional information calculation unit 102 divides the image 401 into blocks each having a size of n × m pixels based on the image 401 of the imaging unit 101a, and the imaging unit 101b for each divided block. A corresponding area corresponding to the image 402 is found out, and the parallax d is calculated.

また、三次元情報算出手段102は、対応領域決定のための類似度評価式(8)を用いて、XL>XRの探索範囲405内でブロック404を1画素ずつ移動しながらブロック403に対する類似度評価値Cを計算し、類似度評価値Cが最小となる位置を対応領域として決定する。なお、Li、Riは、各々ブロック403、ブロック404内のi番目の画素における輝度を表わしている。三次元情報算出手段102は、この類似度の評価を画像401のブロック毎に行うことによって、画像401の全ブロックの視差dを算出し、式(3)により距離z等の三次元情報を算出する。
(数8)
C=Σ|Li−Ri| (8)
以上のようにして、三次元情報算出手段102は、監視領域の三次元情報を算出する。なお、ステレオ画像処理によって三次元情報を算出する方法には上述の方法以外にも様々な方法が提案されており、本発明は上述の方法に限定されるものではない。
Also, the three-dimensional information calculation means 102 uses the similarity evaluation formula (8) for determining the corresponding region, and moves the block 404 one pixel at a time within the search range 405 of XL> XR while comparing the similarity to the block 403. An evaluation value C is calculated, and a position where the similarity evaluation value C is minimum is determined as a corresponding region. Note that Li and Ri represent the luminance at the i-th pixel in the blocks 403 and 404, respectively. The three-dimensional information calculation means 102 calculates the parallax d of all the blocks of the image 401 by performing this similarity evaluation for each block of the image 401, and calculates the three-dimensional information such as the distance z by Expression (3). To do.
(Equation 8)
C = Σ | Li−Ri | (8)
As described above, the three-dimensional information calculation unit 102 calculates the three-dimensional information of the monitoring area. Various methods other than the above method have been proposed as a method for calculating three-dimensional information by stereo image processing, and the present invention is not limited to the above method.

次に、三次元情報算出手段102が撮像手段座標系から実空間座標系に変換する方法について図5および図6を用いて説明する。   Next, a method in which the three-dimensional information calculation unit 102 converts from the imaging unit coordinate system to the real space coordinate system will be described with reference to FIGS. 5 and 6.

図5に示すように、X軸、Y軸、およびZ軸からなる撮像手段座標系(X,Y,Z)と、U軸、V軸、およびH軸からなる実空間座標系(U,V,H)は、X軸とU軸とが平行で、Z軸とH軸とのなす角がθとなるような位置関係で配置されている。   As shown in FIG. 5, an imaging means coordinate system (X, Y, Z) composed of an X axis, a Y axis, and a Z axis, and a real space coordinate system (U, V, composed of a U axis, a V axis, and an H axis). , H) are arranged in such a positional relationship that the X axis and the U axis are parallel and the angle formed by the Z axis and the H axis is θ.

また、図6に示すように、撮像手段601は監視領域内に存在する基準面603から高さHcamに設置され、物体602は光軸z方向の距離Z1に存在するとして、さらに、物体602が存在するときに撮像手段座標系上の点(X,Y)に物体602が撮像され、物体602が存在しないときに前述した点(X,Y)に撮像されている基準面603までの光軸方向の距離をZ0とすれば、三次元情報算出手段102は、式(9)によって監視領域内の物体602の高さhを算出する。
(数9)
h=Hcam×(1−Z1/Z0) (9)
また、三次元情報算出手段102は、式(10)によって実空間座標系(U,V,H)の原点から物体602までのV軸方向の距離vを算出する。
(数10)
v={Z1−(Hcam−h)cosθ}/sinθ (10)
一方、図5および6に示すように、撮像手段601から距離Zの位置での水平撮像範囲をWとし、撮像手段601の撮像面の水平サイズをXWとすれば、三次元情報算出手段102は、式(11)によって物体602までのU軸方向の距離uを算出する。
(数11)
u=X/XW×W (11)
ここで、撮像手段のCCDのピッチ幅をpHとすると、水平撮像範囲Wは、式(12)で表される。
(数12)
W=pH×XW×Z/f (12)
以上のようにして、三次元情報算出手段102は、撮像手段座標系(X,Y,Z)を実空間座標系(U,V,H)に変換する。
Further, as shown in FIG. 6, the imaging unit 601 is installed at a height Hcam from the reference plane 603 existing in the monitoring area, and the object 602 is present at a distance Z1 in the optical axis z direction. When the object 602 exists, the object 602 is imaged at the point (X, Y) on the imaging unit coordinate system, and when the object 602 does not exist, the optical axis to the reference plane 603 imaged at the point (X, Y) described above. If the distance in the direction is Z0, the three-dimensional information calculation unit 102 calculates the height h of the object 602 in the monitoring area by the equation (9).
(Equation 9)
h = Hcam × (1−Z1 / Z0) (9)
In addition, the three-dimensional information calculation unit 102 calculates the distance v in the V-axis direction from the origin of the real space coordinate system (U, V, H) to the object 602 by Expression (10).
(Equation 10)
v = {Z1- (Hcam-h) cos θ} / sin θ (10)
On the other hand, as shown in FIGS. 5 and 6, if the horizontal imaging range at a distance Z from the imaging means 601 is W and the horizontal size of the imaging surface of the imaging means 601 is XW, the three-dimensional information calculation means 102 is , The distance u in the U-axis direction to the object 602 is calculated by the equation (11).
(Equation 11)
u = X / XW × W (11)
Here, when the pitch width of the CCD of the image pickup means is pH, the horizontal image pickup range W is expressed by Expression (12).
(Equation 12)
W = pH × XW × Z / f (12)
As described above, the three-dimensional information calculation unit 102 converts the imaging unit coordinate system (X, Y, Z) into the real space coordinate system (U, V, H).

物体抽出手段103は、三次元情報算出手段102によって算出された三次元情報に基づいて監視領域から物体が存在する物体領域を抽出する(ステップS203)。   The object extraction unit 103 extracts an object region where an object exists from the monitoring region based on the three-dimensional information calculated by the three-dimensional information calculation unit 102 (step S203).

ここで、物体抽出手段103が物体領域を抽出する方法について、図7を用いて説明する。   Here, a method by which the object extraction unit 103 extracts an object region will be described with reference to FIG.

物体抽出手段103は、基準面703を所定の大きさに区切り小領域702に分割し、小領域702毎に高さ代表値を算出し、高さ分布H(U,V)を作成する。高さ代表値の算出方法としては、例えば、各小領域702に属する三次元情報701のうち最も高い値を選択する。また、物体抽出手段103は、所定の基準時刻の三次元情報を記憶して、高さ代表値の算出方法と同様にして基準高さ分布H0(U,V)を作成する。ここで、物体抽出手段103によって記憶される所定の基準時刻の三次元情報は、三次元情報算出手段102が撮像手段座標系(X,Y,Z)を座標変換した実空間座標系(U,V,H)上の三次元情報とする。   The object extraction unit 103 divides the reference plane 703 into a predetermined size and divides the reference surface 703 into small regions 702, calculates a representative height value for each small region 702, and creates a height distribution H (U, V). As a method for calculating the height representative value, for example, the highest value is selected from the three-dimensional information 701 belonging to each small region 702. In addition, the object extraction unit 103 stores three-dimensional information at a predetermined reference time, and creates a reference height distribution H0 (U, V) in the same manner as the method for calculating the representative height value. Here, the three-dimensional information at a predetermined reference time stored by the object extracting unit 103 is a real space coordinate system (U, Y) obtained by coordinate transformation of the imaging unit coordinate system (X, Y, Z) by the three-dimensional information calculation unit 102. V, H).

そして、物体抽出手段103は、所定の閾値をHthとした式(13)が成り立つ場合に、小領域(U,V)が物体領域であると判定する。
(数13)
H(U,V)−H0(U,V)≧Hth (13)
物体抽出手段103は、検知した物体領域のうち、隣接する物体領域のそれぞれを一つの物体検知領域とし、物体検知領域の左上の点と右下の点を特定し、特定した結果を物体検知領域情報に格納する。一例として、物体検知領域情報は、i番目の物体検知領域の左上の点を点(lx(i),ly(i))とし、右下の点を点 (rx(i),ry(i))とすれば、物体検知領域情報OBJINFO[i]=(lx(i)、ly(i)、rx(i)、ry(i))(i=1,…,CntObj)として表される。ここで、物体検知領域の数をCntObj個として表す。
Then, the object extraction unit 103 determines that the small area (U, V) is the object area when Expression (13) with a predetermined threshold value Hth is satisfied.
(Equation 13)
H (U, V) −H0 (U, V) ≧ Hth (13)
The object extraction unit 103 sets each of the adjacent object areas as one object detection area among the detected object areas, specifies the upper left point and the lower right point of the object detection area, and uses the specified result as the object detection area. Store in information. As an example, the object detection area information includes a point (lx (i), ly (i)) at the upper left point of the i-th object detection area and a point (rx (i), ry (i) at the lower right point. ), The object detection area information OBJINFO [i] = (lx (i), ly (i), rx (i), ry (i)) (i = 1,..., CntObj). Here, the number of object detection areas is expressed as CntObj.

なお、式(13)によって物体が存在しないと判定されたときに、その時刻を基準時刻としてもよい。これにより、監視領域に物体が存在するときに基準高さ分布H0(U,V)を作成してしまうことを防止するため、環境の変動による影響を軽減することが可能となる。   When it is determined by Equation (13) that no object exists, the time may be set as the reference time. This prevents the creation of the reference height distribution H0 (U, V) when an object is present in the monitoring area, thereby reducing the influence of environmental fluctuations.

また、物体抽出手段103は、監視領域内の物体を検出することができる時間を考慮して基準時間間隔を決定し、監視領域から物体領域を抽出した時刻より基準時間間隔以前の三次元情報を蓄積する過去情報蓄積手段を有してもよい。この場合、物体抽出手段103は、過去情報蓄積手段によって蓄積された三次元情報に基づいて基準高さ分布H0(V,H)を作成する。これにより、式(13)によって判定されるときに近い時刻で作成される基準高さ分布H0(U,V)を使用するため、環境の変動による影響を軽減することが可能となる。   In addition, the object extraction unit 103 determines a reference time interval in consideration of a time during which an object in the monitoring area can be detected, and obtains three-dimensional information before the reference time interval from the time when the object area is extracted from the monitoring area. You may have the past information storage means to accumulate | store. In this case, the object extraction unit 103 creates a reference height distribution H0 (V, H) based on the three-dimensional information accumulated by the past information accumulation unit. Thereby, since the reference height distribution H0 (U, V) created at a time close to the time determined by the equation (13) is used, it is possible to reduce the influence due to the fluctuation of the environment.

ヒストグラム計算領域決定手段104は、物体抽出手段103によって抽出された物体領域に基づいてヒストグラムを計算するためのヒストグラム計算領域を決定する(ステップS204)。   The histogram calculation area determination means 104 determines a histogram calculation area for calculating a histogram based on the object area extracted by the object extraction means 103 (step S204).

ここで、ヒストグラム計算領域決定手段104がヒストグラム計算領域を決定する方法について、図9を用いて説明する。   Here, a method in which the histogram calculation area determination unit 104 determines the histogram calculation area will be described with reference to FIG.

図9に示すように、撮像手段101aまたは101bが撮像して得られた画像901中に、物体抽出手段103によって6つの物体領域903が抽出されたとする。   As shown in FIG. 9, it is assumed that six object regions 903 are extracted by the object extracting unit 103 in an image 901 obtained by imaging by the imaging unit 101a or 101b.

ヒストグラム計算領域決定手段104は、物体検知領域情報に基づいてヒストグラム計算領域902の左上の点と右下の点を算出し、算出した結果をヒストグラム計算領域情報に格納する。一例として、ヒストグラム計算領域情報は、i番目のヒストグラム計算領域902の左上の点を点(Clx(i),Cly(i))とし、右下の点を点(Crx(i),Cry(i))とすれば、ヒストグラム計算領域情報CalcArea[i]=(Clx(i),Cly(i),Crx(i),Cry(i)として表される。ここで、ヒストグラム計算領域決定手段104は、例えば、物体検知領域情報OBJINFO[i]によって表される物体検知領域903に対して所定の拡大倍率α倍の領域サイズをヒストグラム計算領域902となるように、画像901の左上の点を原点(X=0,Y=0)とした式(14)によって、ヒストグラム計算領域902の左上の点(Clx(i),Cly(i))と右下の点(Crx(i),Cry(i))を算出するようになっている。   The histogram calculation area determination means 104 calculates the upper left point and lower right point of the histogram calculation area 902 based on the object detection area information, and stores the calculated result in the histogram calculation area information. As an example, the histogram calculation area information includes the upper left point of the i-th histogram calculation area 902 as a point (Clx (i), Cly (i)) and the lower right point as a point (Cryx (i), Cry (i )), The histogram calculation area information CalcArea [i] = (Clx (i), Cly (i), Crx (i), Cry (i)). For example, the upper left point of the image 901 is set to the origin (the origin (so that the region size of the object detection region 903 represented by the object detection region information OBJINFO [i]) becomes a histogram calculation region 902 with a region size of a predetermined magnification α. According to the equation (14) with X = 0, Y = 0), the upper left point (Clx (i), Cly (i)) and the lower right point (Cryx (i), Cry (i)) of the histogram calculation region 902 ) It has become to so that.

一方、特徴抽出手段105は、撮像手段101aおよび101bのうち撮像手段101aが撮像して得られた画像から特徴画像を抽出する(ステップS205)。   On the other hand, the feature extraction unit 105 extracts a feature image from the image obtained by the imaging unit 101a among the imaging units 101a and 101b (step S205).

ここで、特徴抽出手段105が特徴画像を抽出する方法について説明する。   Here, a method by which the feature extraction unit 105 extracts feature images will be described.

特徴抽出手段105は、撮像手段101aおよび101bのうち撮像手段101aが撮像して得られた画像に対し、三値化処理を行うため、例えば、式(15)に示すフィルタ行列に基づいてフィルタ処理を行う。
(数15)
[−1 0 1] (15)
そして、特徴抽出手段105は、フィルタ処理が行われた後の画像の画素が所定の三値化零下限閾値未満の場合に画素値を−1、三値化零下限閾値以上かつ所定の三値化零上限閾値以下の場合には画素値を0、三値化零上限閾値より大きい場合には画素値を1に変換することによって特徴画像を抽出する。ここで、抽出された特徴画像の例を図8に示す。
Since the feature extraction unit 105 performs a ternarization process on the image obtained by the imaging unit 101a among the imaging units 101a and 101b, for example, the feature extraction unit 105 performs a filtering process based on the filter matrix shown in Expression (15). I do.
(Equation 15)
[-1 0 1] (15)
The feature extraction unit 105 sets the pixel value to −1 if the pixel of the image after the filtering process is less than the predetermined ternary zero lower limit threshold, and is equal to or higher than the ternary zero lower limit threshold. A characteristic image is extracted by converting the pixel value to 0 if the pixel value is equal to or less than the maximization zero upper limit threshold and to 1 if it is greater than the ternary zero upper limit threshold. Here, an example of the extracted feature image is shown in FIG.

基準特徴記憶手段106は、特徴抽出手段105によって抽出された基準の特徴画像を記憶する(ステップS206)。   The reference feature storage unit 106 stores the reference feature image extracted by the feature extraction unit 105 (step S206).

ここで、基準特徴記憶手段106が基準の特徴画像を記憶する方法について説明する。   Here, a method in which the reference feature storage unit 106 stores the reference feature image will be described.

基準特徴記憶手段106は、物体抽出手段103によって基準高さ分布H0(U,V)が作成された基準時刻に特徴抽出手段105によって抽出された特徴画像である基準の特徴画像を記憶する。なお、基準時刻は、前述する式(13)によって物体が存在しないと判定された時刻としてもよく、また、監視領域より物体領域を抽出された時刻から物体抽出手段103によって決定された基準時間間隔以前の時刻としてもよい。   The reference feature storage unit 106 stores a reference feature image that is a feature image extracted by the feature extraction unit 105 at the reference time when the reference height distribution H0 (U, V) is created by the object extraction unit 103. The reference time may be the time when it is determined that the object does not exist according to the above-described equation (13), and the reference time interval determined by the object extraction unit 103 from the time when the object region is extracted from the monitoring region. It may be the previous time.

領域分割手段107は、ヒストグラム計算領域決定手段104によって決定されたヒストグラム計算領域を複数の領域に分割する(ステップS207)。   The area dividing means 107 divides the histogram calculation area determined by the histogram calculation area determining means 104 into a plurality of areas (step S207).

ここで、領域分割手段107がヒストグラム計算領域を複数の領域に分割する方法について、図9を用いて説明する。   Here, a method in which the region dividing unit 107 divides the histogram calculation region into a plurality of regions will be described with reference to FIG.

領域分割手段107は、例えば、図9におけるヒストグラム計算単位領域904のように、物体抽出手段103が分割した小領域702の幅で、撮像手段101aおよび101bによって得られた画像の走査線に対して垂直方向にヒストグラム計算領域902を分割する。なお、領域分割手段107は、撮像手段101aおよび101bによって得られた画像の走査線に対して平行方向にヒストグラム計算領域902を所定の間隔で分割するようにしてもよい。   The area dividing unit 107 is, for example, the width of a small area 702 divided by the object extracting unit 103, as in the histogram calculation unit area 904 in FIG. 9, and the scanning lines of the images obtained by the imaging units 101a and 101b. The histogram calculation area 902 is divided in the vertical direction. Note that the region dividing unit 107 may divide the histogram calculation region 902 at a predetermined interval in a direction parallel to the scanning lines of the images obtained by the imaging units 101a and 101b.

特徴ヒストグラム作成手段108aは、特徴抽出手段105によって抽出された特徴画像に基づいて領域分割手段107が分割した領域毎に存在する所定の成分を含む画素の度数を計数して特徴ヒストグラムを作成する(ステップS208)。   The feature histogram creating unit 108a creates a feature histogram by counting the frequency of pixels including a predetermined component existing in each region divided by the region dividing unit 107 based on the feature image extracted by the feature extracting unit 105 ( Step S208).

ここで、特徴ヒストグラム作成手段108aが特徴ヒストグラムを作成する方法について説明する。   Here, a method in which the feature histogram creating unit 108a creates a feature histogram will be described.

所定の成分を画素値1とした場合には、特徴ヒストグラム作成手段108aは、ヒストグラム計算単位領域904毎に、特徴画像の画素値が1である画素の度数を計数することにより、正特徴ヒストグラム情報を得る。一例として、正特徴ヒストグラム情報は、正特徴ヒストグラムの階級をhp(i,0),…,hp(i,CntHist)とすれば、正特徴ヒストグラム情報Hist_p[i]=(hp(i,0),…,hp(i,CntHist))として表される。ここで、ヒストグラム計算単位領域904の数をCntHist個として表す。   When the predetermined component is a pixel value of 1, the feature histogram creation unit 108a counts the frequency of the pixel having a pixel value of 1 in the feature image for each histogram calculation unit region 904, thereby obtaining positive feature histogram information. Get. As an example, the positive feature histogram information includes the positive feature histogram information Hist_p [i] = (hp (i, 0), where hp (i, 0),..., Hp (i, CntHist) is the positive feature histogram information. ,..., Hp (i, CntHist)). Here, the number of histogram calculation unit regions 904 is expressed as CntHist.

また、所定の成分を画素値−1とした場合には、特徴ヒストグラム作成手段108aは、ヒストグラム計算単位領域904毎に、特徴画像の画素値が−1である画素の度数を計数することにより、負特徴ヒストグラム情報を得る。一例として、負特徴ヒストグラム情報は、負特徴ヒストグラムの階級をhm(i,0),…,hm(i,CntHist)とすれば、負特徴ヒストグラム情報Hist_m[i]=(hm(i,0),…,hm(i,CntHist))として表される。   Further, when the predetermined component is set to the pixel value −1, the feature histogram creation unit 108 a counts the frequency of the pixel whose feature image pixel value is −1 for each histogram calculation unit region 904, Get negative feature histogram information. As an example, the negative feature histogram information has negative feature histogram information Hist_m [i] = (hm (i, 0)) where hm (i, 0),..., Hm (i, CntHist) is the negative feature histogram class. ,..., Hm (i, CntHist)).

ここで、正特徴ヒストグラム情報から得られる正特徴ヒストグラムと、負特徴ヒストグラム情報から得られる負特徴ヒストグラムの例を図10に示す。   Here, FIG. 10 shows an example of a positive feature histogram obtained from the positive feature histogram information and a negative feature histogram obtained from the negative feature histogram information.

基準特徴ヒストグラム作成手段108bは、基準特徴記憶手段106によって記憶された基準の特徴画像に基づいて領域分割手段107が分割した領域毎に存在する所定の成分を含む画素の度数を計数して基準特徴ヒストグラムを作成する(ステップS209)。   The reference feature histogram creating means 108b counts the frequency of pixels including a predetermined component existing for each area divided by the area dividing means 107 based on the reference feature image stored by the reference feature storage means 106, thereby calculating the reference feature. A histogram is created (step S209).

ここで、基準特徴ヒストグラム作成手段108bが基準特徴ヒストグラムを作成する方法について説明する。   Here, a method in which the reference feature histogram creating unit 108b creates a reference feature histogram will be described.

所定の成分を画素値1とした場合には、基準特徴ヒストグラム作成手段108bは、ヒストグラム計算単位領域904毎に、基準の特徴画像の画素値が1である画素の度数を計数することにより、基準正特徴ヒストグラム情報を得る。一例として、基準正特徴ヒストグラム情報は、基準正特徴ヒストグラムの階級をhp0(i,0),…,hp0(i,CntHist)とすれば、基準正特徴ヒストグラム情報Hist0_p[i]=(hp0(i,0),…,hp0(i,CntHist))として表される。ここで、ヒストグラム計算単位領域904の数をCntHist個として表す。   When the predetermined component is the pixel value 1, the reference feature histogram creating unit 108b counts the frequency of the pixels whose pixel value of the reference feature image is 1 for each histogram calculation unit region 904, thereby obtaining the reference Obtain positive feature histogram information. As an example, the reference positive feature histogram information is the reference positive feature histogram information Hist0_p [i] = (hp0 (i , 0),..., Hp0 (i, CntHist)). Here, the number of histogram calculation unit regions 904 is expressed as CntHist.

また、所定の成分を画素値−1とした場合には、基準特徴ヒストグラム作成手段108bは、ヒストグラム計算単位領域904毎に、基準の特徴画像の画素値が−1である画素の度数を計数することにより、基準負特徴ヒストグラム情報を得る。一例として、基準負特徴ヒストグラム情報は、基準負特徴ヒストグラムの階級をhm0(i,0),…,hm0(i,CntHist)とすれば、基準負特徴ヒストグラム情報Hist0_m[i]=(hm0(i,0),…,hm0(i,CntHist))として表される。   Further, when the predetermined component is the pixel value -1, the reference feature histogram creating unit 108b counts the frequency of the pixel whose pixel value of the reference feature image is -1 for each histogram calculation unit region 904. Thus, reference negative feature histogram information is obtained. As an example, the reference negative feature histogram information includes reference negative feature histogram information Hist0_m [i] = (hm0 (i), where hm0 (i, 0),. , 0),..., Hm0 (i, CntHist)).

ここで、基準正特徴ヒストグラム情報から得られる基準正特徴ヒストグラムと、基準負特徴ヒストグラム情報から得られる基準負特徴ヒストグラムの例を図11に示す。   Here, FIG. 11 shows an example of the reference positive feature histogram obtained from the reference positive feature histogram information and the reference negative feature histogram obtained from the reference negative feature histogram information.

相関値算出手段108cは、特徴ヒストグラム作成手段108aによって作成された特徴ヒストグラムに関するデータと、基準特徴ヒストグラム作成手段108bによって作成された基準特徴ヒストグラムに関するデータとの相関値を算出する(ステップS210)。   The correlation value calculation unit 108c calculates a correlation value between the data related to the feature histogram created by the feature histogram creation unit 108a and the data related to the reference feature histogram created by the reference feature histogram creation unit 108b (step S210).

ここで、相関値算出手段108cが相関値を算出する方法について説明する。   Here, a method of calculating the correlation value by the correlation value calculating unit 108c will be described.

相関値算出手段108cは、特徴ヒストグラムに関するデータを表す正特徴ヒストグラム情報と、基準特徴ヒストグラムに関するデータを表す基準正特徴ヒストグラム情報との正相関値を算出し、特徴ヒストグラムに関するデータを表す負特徴ヒストグラム情報と、基準特徴ヒストグラムに関するデータを表す基準負特徴ヒストグラム情報との負相関値を算出する。   The correlation value calculating unit 108c calculates a positive correlation value between the positive feature histogram information representing the data related to the feature histogram and the reference positive feature histogram information representing the data related to the reference feature histogram, and negative feature histogram information representing the data related to the feature histogram. And a negative correlation value with reference negative feature histogram information representing data relating to the reference feature histogram.

ここで、正相関値の算出手順について説明する。まず、相関値算出手段108cは、i=1,…,CntObj全てに対して、式(16)によって正特徴ヒストグラム情報Hist_p[i]の平均値AH_p[i]および基準正特徴ヒストグラム情報Hist0_p[i]の平均値AH0_p[i]を計算する。   Here, the procedure for calculating the positive correlation value will be described. First, the correlation value calculation means 108c calculates the average value AH_p [i] of the positive feature histogram information Hist_p [i] and the reference positive feature histogram information Hist0_p [i for all i = 1,..., CntObj according to the equation (16). ] AH0_p [i] is calculated.

次に、相関値算出手段108cは、式(17)によって正相関値Cor_p[i]を計算する。   Next, the correlation value calculation means 108c calculates the positive correlation value Cor_p [i] by the equation (17).

負相関値の算出手順について説明する。相関値算出手段108cは、式(18)によって負特徴ヒストグラム情報Hist_m[i]の平均値AH_m[i]および基準負特徴ヒストグラム情報Hist0_m[i]の平均値AH0_m[i]を計算する。   A procedure for calculating the negative correlation value will be described. The correlation value calculating unit 108c calculates the average value AH_m [i] of the negative feature histogram information Hist_m [i] and the average value AH0_m [i] of the reference negative feature histogram information Hist0_m [i] by Expression (18).

次に、相関値算出手段108cは、式(19)によって負相関値Cor_m[i]を計算する。   Next, the correlation value calculation means 108c calculates the negative correlation value Cor_m [i] by the equation (19).

物体判定手段109は、相関値算出手段108cによって算出された相関値に基づいて監視領域内に物体が存在するか否かを判定する(ステップS211)。   The object determination unit 109 determines whether an object exists in the monitoring area based on the correlation value calculated by the correlation value calculation unit 108c (step S211).

ここで、物体判定手段109が監視領域内に物体が存在するか否かを判定する方法について説明する。   Here, a method by which the object determination unit 109 determines whether or not an object exists in the monitoring area will be described.

物体判定手段109は、監視領域内に物体が存在するか否かを判定するための判定閾値を決定する。次に、物体判定手段109は、正相関値と負相関値がともに判定閾値より大きい場合、物体検知領域情報で表される物体検知領域に物体が存在しないと判定する。また、物体判定手段109は、正相関値と負相関値のうちいずれか一方が判定閾値以下の場合、物体検知領域情報で表される物体検知領域に物体が存在すると判定する。   The object determination unit 109 determines a determination threshold value for determining whether an object exists in the monitoring area. Next, when both the positive correlation value and the negative correlation value are larger than the determination threshold, the object determination unit 109 determines that no object exists in the object detection area represented by the object detection area information. Further, the object determination unit 109 determines that an object exists in the object detection area represented by the object detection area information when one of the positive correlation value and the negative correlation value is equal to or less than the determination threshold value.

ここで、物体判定手段109が、物体検知領域情報によって表される物体検知領域に物体が存在しないと判定した場合と、物体検知領域情報によって表される物体検知領域に物体が存在すると判定した場合の正相関値および負相関値について図10〜図14を用いて説明する。   Here, when the object determination unit 109 determines that no object exists in the object detection area represented by the object detection area information, and when it determines that an object exists in the object detection area represented by the object detection area information. The positive correlation value and the negative correlation value will be described with reference to FIGS.

物体判定手段109が、物体検知領域情報によって表される領域に物体が存在しないと判定した場合には、正相関値および負相関値が大きくなる。例えば、図10に示す正特徴ヒストグラム情報および負特徴ヒストグラム情報並びに図11に示す基準正特徴ヒストグラム情報および基準負特徴ヒストグラム情報を用いた場合、正相関値は0.9となり、負相関値は0.9となる。   When the object determination unit 109 determines that no object exists in the area represented by the object detection area information, the positive correlation value and the negative correlation value increase. For example, when the positive feature histogram information and the negative feature histogram information shown in FIG. 10 and the reference positive feature histogram information and the reference negative feature histogram information shown in FIG. 11 are used, the positive correlation value is 0.9 and the negative correlation value is 0. .9.

一方、物体判定手段109が、物体検知領域情報によって表される領域に物体が存在すると判定した場合には、正相関値および負相関値が低くなる。例えば、図12において、撮像手段101aまたは撮像手段101bが撮像して得られた画像1201中に、物体抽出手段103によって物体領域1203が抽出され、さらに、領域分割手段107によってヒストグラム計算領域1202がヒストグラム計算単位領域1204に分割されたとする。ここで、正特徴ヒストグラム情報と負特徴ヒストグラム情報の例を図13に示す。また、基準正特徴ヒストグラム情報および基準負特徴ヒストグラム情報の例を図14に示す。このとき、図13に示す正特徴ヒストグラム情報および負特徴ヒストグラム情報並びに図14に示す基準正特徴ヒストグラム情報および基準負特徴ヒストグラム情報を用いた場合、正相関値は0.4となり、負相関値は0.1となる。   On the other hand, when the object determination unit 109 determines that an object is present in the region represented by the object detection region information, the positive correlation value and the negative correlation value become low. For example, in FIG. 12, an object region 1203 is extracted by the object extraction unit 103 from an image 1201 obtained by imaging by the imaging unit 101a or the imaging unit 101b, and the histogram calculation region 1202 is displayed by the region dividing unit 107 as a histogram. It is assumed that the calculation unit area 1204 is divided. Here, examples of the positive feature histogram information and the negative feature histogram information are shown in FIG. An example of the reference positive feature histogram information and the reference negative feature histogram information is shown in FIG. At this time, when the positive feature histogram information and the negative feature histogram information shown in FIG. 13 and the reference positive feature histogram information and the reference negative feature histogram information shown in FIG. 14 are used, the positive correlation value is 0.4, and the negative correlation value is 0.1.

このような本発明の第1の実施の形態に係る物体検出装置によれば、撮像して得られた画像に基づいた特徴ヒストグラムに関するデータと基準時に撮像して得られた画像に基づいた基準特徴ヒストグラムに関するデータとの相関値を算出するヒストグラム相関計算手段108と、この相関値によって監視領域内に物体が存在するか否かを判定する物体判定手段109とを設けることにより、検出された物体領域が背景部分であるか、物体であるかを正確に判定することができる。   According to such an object detection device according to the first embodiment of the present invention, the reference feature based on the data obtained from the image obtained at the time of reference and the data related to the feature histogram based on the image obtained by imaging. Histogram correlation calculation means 108 for calculating a correlation value with data relating to the histogram, and object determination means 109 for determining whether or not an object exists in the monitoring area based on the correlation value are provided, thereby detecting the detected object region. It is possible to accurately determine whether is a background part or an object.

また、風などの影響により、撮像して得られた画像の走査線に対して垂直方向の揺れが撮像手段101aまたは101bに発生した場合でも、この揺れが特徴ヒストグラムに与える影響を小さくするため、誤検知を防止することができる。   Further, even when a fluctuation in the vertical direction with respect to the scanning line of the image obtained by imaging due to the influence of wind or the like occurs in the imaging means 101a or 101b, in order to reduce the influence of this fluctuation on the feature histogram, False detection can be prevented.

さらに、風などの影響により、撮像して得られた画像の走査線に対して平行方向の揺れが撮像手段101aまたは101bに発生した場合でも、この揺れが特徴ヒストグラムに与える影響を小さくするため、誤検知を防止することができる。   Furthermore, in order to reduce the influence of the fluctuation on the feature histogram even when a fluctuation in the direction parallel to the scanning line of the image obtained by imaging due to the wind or the like occurs in the imaging means 101a or 101b, False detection can be prevented.

(第2の実施の形態)
次に、本発明の第2の実施の形態の物体検出装置を図15に示す。
(Second Embodiment)
Next, an object detection apparatus according to a second embodiment of the present invention is shown in FIG.

なお、本発明の第2の実施の形態に係る物体検出装置を構成する構成要素のうち、本発明の第1の実施の形態に係る物体検出装置を構成する構成要素と同一の構成要素には同一の符号を付し、それぞれの説明を省略する。   Of the constituent elements constituting the object detection device according to the second embodiment of the present invention, the same constituent elements as those constituting the object detection device according to the first embodiment of the present invention are included. The same code | symbol is attached | subjected and each description is abbreviate | omitted.

図15において、本発明の第2の実施の形態に係る物体検出装置は、画像のフレーム差分を計算するフレーム差分計算手段1501と、物体領域を決定する処理領域決定手段1502を有する構成である。   In FIG. 15, the object detection apparatus according to the second embodiment of the present invention includes a frame difference calculation unit 1501 that calculates a frame difference of an image and a processing region determination unit 1502 that determines an object region.

以上のように構成された物体検出装置について、その動作を説明する。   The operation of the object detection apparatus configured as described above will be described.

まず、本発明の第1の実施の形態と同様のステップS201からステップS203までの動作を行う。   First, the same operations from step S201 to step S203 as in the first embodiment of the present invention are performed.

次に、フレーム差分計算手段1501は、撮像手段101aが撮像して得られた画像を表すフレームと、このフレームが得られた所定の時間前のフレームとの差分を計算する。   Next, the frame difference calculation unit 1501 calculates a difference between a frame representing an image obtained by imaging by the imaging unit 101a and a frame a predetermined time before the frame is obtained.

ここで、フレーム差分計算手段1501がフレームの差分を計算する方法について説明する。   Here, a method in which the frame difference calculation unit 1501 calculates a frame difference will be described.

フレーム差分計算手段1501は、基準時刻に撮影手段101aによって撮影された基準画像を記憶する。なお、基準時刻は、前述する式(13)によって物体が存在しないと判定された時刻としてもよく、また、監視領域より物体領域を抽出された時刻から物体抽出手段103によって決定された基準時間間隔以前の時刻としてもよい。   The frame difference calculation unit 1501 stores the reference image captured by the imaging unit 101a at the reference time. The reference time may be the time when it is determined that the object does not exist according to the above-described equation (13), and the reference time interval determined by the object extraction unit 103 from the time when the object region is extracted from the monitoring region. It may be the previous time.

そして、フレーム差分計算手段1501は、撮影手段101aが撮像して得られた画像と、基準画像との間のフレーム差分を計算し、予め決定した差分閾値で2値化処理を行った後、ラベリングを実施することにより、差分領域の左上の点と右下の点を特定し、特定した結果を差分領域情報に格納する。一例として、差分領域情報は、k番目の差分領域の左上の点を点(ldx(k),ldy(k))とし、右下の点を点(rdx(k),rdy(k))とすれば、差分領域情報DiffArea[k]=(ldx(k)、ldy(k)、rdx(k)、rdy(k))(k=1,…,CntDiff)として表される。ここで、差分領域の数をCntDiff個として表す。   Then, the frame difference calculation unit 1501 calculates a frame difference between the image obtained by the imaging unit 101a and the reference image, performs binarization processing with a predetermined difference threshold, and then performs labeling. By executing the above, the upper left point and the lower right point of the difference area are specified, and the specified result is stored in the difference area information. As an example, the difference area information includes the upper left point of the kth difference area as a point (ldx (k), ldy (k)) and the lower right point as a point (rdx (k), rdy (k)). Thus, the difference area information DiffArea [k] = (ldx (k), ldy (k), rdx (k), rdy (k)) (k = 1,..., CntDiff). Here, the number of difference areas is expressed as CntDiff.

次に、処理領域決定手段1502は、フレーム差分から得られるフレーム差分領域と物体領域とに基づいて物体領域を決定する。   Next, the processing area determination unit 1502 determines an object area based on the frame difference area and the object area obtained from the frame difference.

ここで、処理領域決定手段1502が物体領域を決定する方法について説明する。   Here, a method in which the processing area determination unit 1502 determines the object area will be described.

処理領域決定手段1502は、物体検知領域情報と差分領域情報の重なりを探索し、物体検知領域情報と重なる差分領域情報が存在した場合、差分領域情報をヒストグラム計算領域情報に設定する。   The processing area determination unit 1502 searches for overlap between the object detection area information and the difference area information, and sets the difference area information in the histogram calculation area information when there is difference area information overlapping with the object detection area information.

次に、本発明の第1の実施の形態と同様のステップS205からステップS211までの動作を行う。   Next, the same operations from step S205 to step S211 as in the first embodiment of the present invention are performed.

以上のように本発明の第2の実施の形態の物体検出装置によれば、物体が存在する可能性の高い領域をヒストグラム計算領域とするため、監視領域から抽出された物体領域内に物体が存在する場合に、物体が存在しないと誤って判定されることを防ぐことができる。   As described above, according to the object detection device of the second exemplary embodiment of the present invention, since an area where an object is likely to exist is set as a histogram calculation area, an object is not included in the object area extracted from the monitoring area. When it exists, it can prevent erroneously determining that an object does not exist.

以上のように、本発明にかかる物体検出装置は、撮像して得られた画像に基づいた特徴ヒストグラムに関するデータと基準時に撮像して得られた画像に基づいた基準特徴ヒストグラムに関するデータとの相関値を算出するヒストグラム相関計算手段と、この相関値によって監視領域内に物体が存在するか否かを判定する物体判定手段とを設けることにより、検出された物体領域が背景部分であるか、物体であるかを正確に判定することができるという効果を有し、複数台のカメラを用いて監視領域の三次元情報を算出して物体の検出を行う物体検出装置として有用である。   As described above, the object detection device according to the present invention has a correlation value between data relating to a feature histogram based on an image obtained by imaging and data relating to a reference feature histogram based on an image obtained at the time of reference. And a histogram correlation calculation means for calculating the object and an object determination means for determining whether or not an object exists in the monitoring area based on the correlation value, so that the detected object area is a background part or an object. It has the effect of being able to accurately determine whether or not it is present, and is useful as an object detection device that detects an object by calculating three-dimensional information of a monitoring area using a plurality of cameras.

本発明の第1の実施の形態における物体検出装置のブロック図The block diagram of the object detection apparatus in the 1st Embodiment of this invention 本発明の第1の実施の形態における物体検出装置の動作説明のためのフロー図Flow chart for explaining the operation of the object detection apparatus according to the first embodiment of the present invention. 本発明の第1の実施の形態における3次元情報を算出する方法の説明図Explanatory drawing of the method of calculating the three-dimensional information in the 1st Embodiment of this invention 本発明の第1の実施の形態における画像の類似度の評価方法の説明図Explanatory drawing of the evaluation method of the similarity degree of the image in the 1st Embodiment of this invention 本発明の第1の実施の形態における撮像手段座標系と実空間座標系の位置関係を示す図The figure which shows the positional relationship of the imaging means coordinate system and real space coordinate system in the 1st Embodiment of this invention. 本発明の第1の実施の形態における撮像手段座標系から実空間座標系に座標変換する方法の説明図Explanatory drawing of the method of coordinate-transforming from the imaging means coordinate system to the real space coordinate system in the 1st Embodiment of this invention 本発明の第1の実施の形態における物体領域を抽出する方法の説明図Explanatory drawing of the method of extracting the object area | region in the 1st Embodiment of this invention 本発明の第1の実施の形態における特徴画像の一例を示す図The figure which shows an example of the characteristic image in the 1st Embodiment of this invention 本発明の第1の実施の形態におけるヒストグラム計算領域の分割および特徴ヒストグラムを作成する方法の説明図Explanatory drawing of the method of creating the histogram calculation area division and feature histogram in the first embodiment of the present invention 本発明の第1の実施の形態における特徴ヒストグラムの一例を示す図The figure which shows an example of the characteristic histogram in the 1st Embodiment of this invention 本発明の第1の実施の形態における基準特徴ヒストグラムの一例を示す図The figure which shows an example of the reference | standard feature histogram in the 1st Embodiment of this invention 本発明の第1の実施の形態における物体領域に物体が存在すると判定された場合の特徴ヒストグラムを作成する方法の説明図Explanatory drawing of the method of producing the characteristic histogram when it determines with an object existing in the object area | region in the 1st Embodiment of this invention 本発明の第1の実施の形態における物体領域に物体が存在すると判定された場合の特徴ヒストグラムの一例を示す図The figure which shows an example of the characteristic histogram when it determines with an object existing in the object area | region in the 1st Embodiment of this invention 本発明の第1の実施の形態における物体領域に物体が存在すると判定された場合の基準特徴ヒストグラムの一例を示す図The figure which shows an example of the reference | standard feature histogram when it determines with an object existing in the object area | region in the 1st Embodiment of this invention 本発明の第2の実施の形態における物体検出装置のブロック図The block diagram of the object detection apparatus in the 2nd Embodiment of this invention

符号の説明Explanation of symbols

101a、101b 撮像手段
102 三次元情報算出手段
103 物体抽出手段
104 ヒストグラム計算領域決定手段
105 特徴抽出手段
106 基準特徴記憶手段
107 領域分割手段
108 ヒストグラム相関計算手段
108a 特徴ヒストグラム作成手段
108b 基準特徴ヒストグラム作成手段
108c 相関値算出手段
109 物体判定手段
1501 フレーム差分計算手段
1502 処理領域決定手段
101a, 101b Imaging means 102 Three-dimensional information calculation means 103 Object extraction means 104 Histogram calculation area determination means 105 Feature extraction means 106 Reference feature storage means 107 Region division means 108 Histogram correlation calculation means 108a Feature histogram creation means 108b Reference feature histogram creation means 108c Correlation value calculation means 109 Object determination means 1501 Frame difference calculation means 1502 Processing region determination means

Claims (6)

所定の監視領域を撮像する複数の撮像手段と、
前記複数の撮像手段のそれぞれが撮像して得られたそれぞれの画像に基づいて前記監視領域の位置を表す三次元情報を算出する三次元情報算出手段と、
前記三次元情報算出手段によって算出された三次元情報に基づいて前記監視領域から物体が存在する物体領域を抽出する物体抽出手段と、
前記物体抽出手段によって抽出された物体領域に基づいてヒストグラムを計算するためのヒストグラム計算領域を決定するヒストグラム計算領域決定手段と、
前記複数の撮像手段のうち一つの撮像手段によって得られた画像から特徴画像を抽出する特徴抽出手段と、
前記特徴抽出手段によって抽出された基準の特徴画像を記憶する基準特徴記憶手段と、
前記ヒストグラム計算領域決定手段によって決定されたヒストグラム計算領域を複数の領域に分割する領域分割手段と、
前記特徴抽出手段によって抽出された特徴画像に基づいた特徴ヒストグラムに関するデータと、前記基準特徴記憶手段によって記憶された基準の特徴画像に基づいた基準特徴ヒストグラムに関するデータとの相関値を計算するヒストグラム相関計算手段と、
前記ヒストグラム相関計算手段によって計算された相関値に基づいて前記監視領域内に物体が存在するか否かを判定する物体判定手段とを備える物体検出装置。
A plurality of imaging means for imaging a predetermined monitoring area;
Three-dimensional information calculation means for calculating three-dimensional information representing the position of the monitoring region based on each image obtained by imaging each of the plurality of imaging means;
Object extraction means for extracting an object region where an object exists from the monitoring region based on the three-dimensional information calculated by the three-dimensional information calculation means;
Histogram calculation area determination means for determining a histogram calculation area for calculating a histogram based on the object area extracted by the object extraction means;
Feature extraction means for extracting a feature image from an image obtained by one of the plurality of imaging means;
Reference feature storage means for storing a reference feature image extracted by the feature extraction means;
Area dividing means for dividing the histogram calculation area determined by the histogram calculation area determining means into a plurality of areas;
Histogram correlation calculation for calculating a correlation value between the data relating to the feature histogram based on the feature image extracted by the feature extraction means and the data relating to the reference feature histogram based on the reference feature image stored by the reference feature storage means Means,
An object detection apparatus comprising: an object determination unit that determines whether or not an object exists in the monitoring region based on the correlation value calculated by the histogram correlation calculation unit.
前記複数の撮像手段のうち一つの撮像手段によって得られた画像を表すフレームと、前記フレームが得られた時間より所定の時間前のフレームとの差分を計算するフレーム差分計算手段と、
前記フレーム差分から得られるフレーム差分領域と前記物体領域とに基づいてヒストグラム計算領域を決定する処理領域決定手段とを有することを特徴とする請求項1に記載の物体検出装置。
Frame difference calculating means for calculating a difference between a frame representing an image obtained by one of the plurality of imaging means and a frame a predetermined time before the time when the frame was obtained;
The object detection apparatus according to claim 1, further comprising a processing area determination unit that determines a histogram calculation area based on a frame difference area obtained from the frame difference and the object area.
複数の撮像手段が所定の監視領域を撮像する撮像ステップと、
前記撮像ステップで複数の撮像手段のそれぞれが撮像して得られたそれぞれの画像に基づいて前記監視領域の位置を表す三次元情報を算出する三次元情報算出ステップと、
前記三次元情報算出ステップで算出された三次元情報に基づいて前記監視領域から物体が存在する物体領域を抽出する物体抽出ステップと、
前記物体抽出ステップで抽出された物体領域に基づいてヒストグラムを計算するためのヒストグラム計算領域を決定するヒストグラム計算領域決定ステップと、
前記撮像ステップで複数の撮像手段のうち一つの撮像手段が撮像して得られた画像から特徴画像を抽出する特徴抽出ステップと、
前記特徴抽出ステップで抽出された基準の特徴画像を記憶する基準特徴記憶ステップと、
前記ヒストグラム計算領域決定ステップで決定されたヒストグラム計算領域を複数の領域に分割する領域分割ステップと、
前記特徴抽出ステップで抽出された特徴画像に基づいた特徴ヒストグラムに関するデータと、前記基準特徴記憶ステップで記憶された基準の特徴画像に基づいた基準特徴ヒストグラムに関するデータとの相関値を計算するヒストグラム相関計算ステップと、
前記ヒストグラム相関計算ステップで計算された相関値に基づいて前記監視領域内に物体が存在するか否かを判定する物体判定ステップとを有する物体検出方法。
An imaging step in which a plurality of imaging means image a predetermined monitoring area;
A three-dimensional information calculation step for calculating three-dimensional information representing the position of the monitoring region based on each image obtained by imaging each of the plurality of imaging means in the imaging step;
An object extraction step of extracting an object region where an object is present from the monitoring region based on the three-dimensional information calculated in the three-dimensional information calculation step;
A histogram calculation region determination step for determining a histogram calculation region for calculating a histogram based on the object region extracted in the object extraction step;
A feature extraction step of extracting a feature image from an image obtained by imaging by one of the plurality of imaging means in the imaging step;
A reference feature storage step of storing the reference feature image extracted in the feature extraction step;
A region dividing step for dividing the histogram calculation region determined in the histogram calculation region determination step into a plurality of regions;
Histogram correlation calculation for calculating a correlation value between the data related to the feature histogram based on the feature image extracted in the feature extraction step and the data related to the reference feature histogram based on the reference feature image stored in the reference feature storage step Steps,
An object detection method comprising: an object determination step of determining whether or not an object exists in the monitoring region based on the correlation value calculated in the histogram correlation calculation step.
前記撮像ステップで複数の撮像手段のうち一つの撮像手段が撮像して得られた画像を表すフレームと、前記フレームが得られた時間より所定の時間前のフレームとの差分を計算するフレーム差分計算ステップと、
前記フレーム差分から得られるフレーム差分領域と前記物体領域とに基づいてヒストグラム計算領域を決定する処理領域決定ステップとを有することを特徴とする請求項3に記載の物体検出方法。
Frame difference calculation for calculating a difference between a frame representing an image obtained by imaging by one of a plurality of imaging means in the imaging step and a frame a predetermined time before the time when the frame was obtained Steps,
The object detection method according to claim 3, further comprising: a processing region determination step for determining a histogram calculation region based on a frame difference region obtained from the frame difference and the object region.
前記領域分割ステップは、前記撮像ステップで得られた画像の走査線に対して垂直方向に前記ヒストグラム計算領域を分割することを特徴とする請求項3または請求項4に記載の物体検出方法。 5. The object detection method according to claim 3, wherein the region dividing step divides the histogram calculation region in a direction perpendicular to a scanning line of the image obtained in the imaging step. 前記領域分割ステップは、前記撮像ステップで得られた画像の走査線に対して平行方向に前記ヒストグラム計算領域を分割することを特徴とする請求項3または請求項4に記載の物体検出方法。 5. The object detection method according to claim 3, wherein the region dividing step divides the histogram calculation region in a direction parallel to a scanning line of the image obtained in the imaging step.
JP2004299148A 2004-10-13 2004-10-13 Device and method for detecting object Withdrawn JP2006113738A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004299148A JP2006113738A (en) 2004-10-13 2004-10-13 Device and method for detecting object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004299148A JP2006113738A (en) 2004-10-13 2004-10-13 Device and method for detecting object

Publications (1)

Publication Number Publication Date
JP2006113738A true JP2006113738A (en) 2006-04-27

Family

ID=36382220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004299148A Withdrawn JP2006113738A (en) 2004-10-13 2004-10-13 Device and method for detecting object

Country Status (1)

Country Link
JP (1) JP2006113738A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053951A (en) * 2009-09-02 2011-03-17 Canon Inc Image processing apparatus
US8355568B2 (en) 2009-11-10 2013-01-15 Samsung Electronics Co., Ltd. Image processing apparatus, method and computer-readable medium
KR101324250B1 (en) 2011-12-29 2013-11-01 삼성테크윈 주식회사 optical axis error compensation method using image processing, the method of the same, and the zoom camera provided for the compensation function of the optical axis error
JP2020135616A (en) * 2019-02-22 2020-08-31 株式会社豊田自動織機 Object detection device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053951A (en) * 2009-09-02 2011-03-17 Canon Inc Image processing apparatus
US8355568B2 (en) 2009-11-10 2013-01-15 Samsung Electronics Co., Ltd. Image processing apparatus, method and computer-readable medium
KR101324250B1 (en) 2011-12-29 2013-11-01 삼성테크윈 주식회사 optical axis error compensation method using image processing, the method of the same, and the zoom camera provided for the compensation function of the optical axis error
JP2020135616A (en) * 2019-02-22 2020-08-31 株式会社豊田自動織機 Object detection device
JP7180445B2 (en) 2019-02-22 2022-11-30 株式会社豊田自動織機 object detector

Similar Documents

Publication Publication Date Title
JP4177826B2 (en) Image processing apparatus and image processing method
JP3049603B2 (en) 3D image-object detection method
JP4429298B2 (en) Object number detection device and object number detection method
US8867790B2 (en) Object detection device, object detection method, and program
EP2372642B1 (en) Method and system for detecting moving objects
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
JP4363295B2 (en) Plane estimation method using stereo images
JP2000357233A (en) Body recognition device
EP3115966B1 (en) Object detection device, object detection method, and computer program
CN115049700A (en) Target detection method and device
WO2020154990A1 (en) Target object motion state detection method and device, and storage medium
JPH11252587A (en) Object tracking device
JP2008262333A (en) Road surface discrimination device and road surface discrimination method
JPH11351862A (en) Foregoing vehicle detecting method and equipment
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
CN111860321A (en) Obstacle identification method and system
JP4123138B2 (en) Vehicle detection method and vehicle detection device
Zhang et al. Image-based vehicle tracking from roadside LiDAR data
JP2013069045A (en) Image recognition device, image recognition method, and image recognition program
JP4918615B2 (en) Object number detection device and object number detection method
JP2006113738A (en) Device and method for detecting object
JP2007233487A (en) Pedestrian detection method, device, and program
JP2006010652A (en) Object-detecting device
JP2009205695A (en) Apparatus and method for detecting the number of objects
JP7207479B2 (en) Building gauge determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071002

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090424