JP2006331266A - Method and apparatus for detecting object - Google Patents

Method and apparatus for detecting object Download PDF

Info

Publication number
JP2006331266A
JP2006331266A JP2005157012A JP2005157012A JP2006331266A JP 2006331266 A JP2006331266 A JP 2006331266A JP 2005157012 A JP2005157012 A JP 2005157012A JP 2005157012 A JP2005157012 A JP 2005157012A JP 2006331266 A JP2006331266 A JP 2006331266A
Authority
JP
Japan
Prior art keywords
detection
image
detected
object detection
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005157012A
Other languages
Japanese (ja)
Inventor
Hironori Sumitomo
博則 墨友
Yuichi Kawakami
雄一 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2005157012A priority Critical patent/JP2006331266A/en
Publication of JP2006331266A publication Critical patent/JP2006331266A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and an apparatus capable of more simply and efficiently detecting an object in a low misdetection state by constituting a plurality of images obtained by photographing the same object as a plurality of detection processes in the detection of the object in the images and effectively utilizing relation of these images. <P>SOLUTION: The object detection method and apparatus include a first detection process for detecting a first image, a second detection area setting process for setting a detection area of a second image, a second detection process for detecting the detection area, and a determination process for determining object detection on the basis of the detection results of the first and second detection processes. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像内の顔などのオブジェクトの検出方法及びオブジェクト検出装置に関するものである。   The present invention relates to a detection method and an object detection device for an object such as a face in an image.

従来、画像から顔などのオブジェクトを検出し、その領域を抽出する処理技術が重要な課題として開発されてきた。特に人間の顔については、より進んだ識別や表情認識の課題も重要となって来つつあり、そのベースである画像からの抽出処理自体の精度と効率がさらに要求されている。   Conventionally, a processing technique for detecting an object such as a face from an image and extracting the area has been developed as an important issue. In particular, for human faces, more advanced identification and facial expression recognition issues are becoming important, and the accuracy and efficiency of the extraction process itself from the image as the base are further required.

人の顔の検出は様々な課題を抱えている。対象となる画像は、通常、制御不可能な照明下で撮影され、背景も一定ではないし、画像品質もよいとはいえず、オブジェクトとの距離も予測できない。当然、顔の位置および向きも、制御されていない。   Human face detection has various problems. The target image is usually taken under uncontrollable illumination, the background is not constant, the image quality is not good, and the distance to the object cannot be predicted. Of course, the position and orientation of the face is not controlled either.

しかしそういった状況下でも、誤検出がきわめて少なく、かつ検出のための処理時間が速くてすむような検出方法が求められてきた。   However, even under such circumstances, there has been a demand for a detection method that has very few false detections and requires a fast processing time.

従来のオブジェクト、特に顔の検出方法としては、画像の濃淡を用いて事前に用意したテンプレートとのマッチング処理を行い最適のテンプレートを選択するテンプレートマッチング法などが知られている。また、検出領域の画像から様々な特徴量を抽出し、それらの特徴量の値から判定していく方法もある。どういう特徴量のどういう値が、オブジェクトの判定に重要であるかは、データを用いて実験的に設定していく、あるいは学習していくこともできる。他にも、検出領域の画像をベクトル空間に位置づけて、判別空間を設定したりするたぐいの検出方法も多数あり、その空間設定や判別の指標についても多数のバリエーションがある。   As a conventional method for detecting an object, particularly a face, a template matching method is known in which matching processing is performed with a template prepared in advance using light and shade of an image to select an optimal template. There is also a method in which various feature amounts are extracted from the image of the detection region, and determination is made from the values of the feature amounts. It is possible to experimentally set or learn what value of what feature value is important for object determination. In addition, there are many detection methods for setting the discrimination space by positioning the image of the detection area in the vector space, and there are many variations on the space setting and discrimination indicators.

しかし、いずれの方法についても、精度(誤検出)の問題と速度(遅い)の問題が常について回った。特にたいていの方法においては、検出するために適切な矩形領域を設定する必要があり、実際的には、検出の精度を低下させぬためには、適切な矩形領域でもって対象となる画像全体をスキャンし、検出される矩形領域を探索する必要があった。このため多大な時間を要したりする。   However, with either method, the problem of accuracy (false detection) and the problem of speed (slow) have always been around. In particular, in most methods, it is necessary to set an appropriate rectangular area for detection. In practice, in order not to reduce the accuracy of detection, the entire target image is detected with an appropriate rectangular area. It was necessary to scan and search for a rectangular area to be detected. For this reason, much time is required.

従って検出の処理自体を簡単にし、全体の処理時間を長くしないと共に、誤検出は増やさないことが求められている。   Therefore, it is required to simplify the detection process itself, not to lengthen the entire processing time, and not to increase false detections.

この検出の精度と速度の問題に対して、複数の簡単な検出方法を組み合わせて、総合的に検出判定するようなタイプの処理技術も提案されている(例えば、特許文献1参照)。   In order to solve the problem of accuracy and speed of detection, a type of processing technique has been proposed in which a plurality of simple detection methods are combined for comprehensive detection determination (see, for example, Patent Document 1).

特許文献1では、カスケード式検出方法と呼ばれる検出処理を提案している。一つ一つは簡単な検出力が弱い識別器を多数、カスケード式に、すなわち順々に実行して、各実行結果による評価値が累積され、その積み重ねにより、順次受け入れ、拒否、検出続行の分別を行っていくものである。これにより、判別しやすい矩形領域は早い段階で判別が決定され、判別しにくいものが後まで残っていくので、処理時間もそれほど長くならないというものである。   Patent Document 1 proposes a detection process called a cascade detection method. One by one, a number of simple discriminators with weak detection power are executed in cascade, i.e., sequentially, and the evaluation values according to each execution result are accumulated. This is what sorts are done. As a result, the rectangular area that is easy to be discriminated is determined at an early stage, and those that are difficult to discriminate remain until later, so that the processing time is not so long.

しかしながら、精度、すなわち誤検出の問題については、簡単で検出力が弱い識別器を用いるため、その数をどのくらい用意するかに依存してしまう。また、単に検出力のよく似た識別器を増やすだけでは、効果に限界がある。誤検出をより少なくするための、別の手段を付加することが望まれる。   However, the problem of accuracy, that is, erroneous detection, depends on how many numbers are prepared because a simple classifier with weak detection power is used. Also, simply increasing the number of discriminators having similar detection power has a limit on the effect. It would be desirable to add another means to reduce false detections.

また、ステレオ画像を利用して、検出すべきオブジェクトのサイズを特定し、矩形領域を網羅的に探索していく手間を省こうというタイプの技術も提案されている(例えば、特許文献2参照)。   In addition, a technique of using a stereo image to specify the size of an object to be detected and to save the trouble of exhaustively searching for a rectangular area has been proposed (for example, see Patent Document 2). .

特許文献2では、ステレオ画像を利用して距離情報を求めている。ステレオ画像は立体視可能なように撮影された視差のある二つの画像からなる。これから画像中の特定の箇所毎に距離情報を算出することができる。画像全体に渡って距離情報を求めると、被写体のエッジ部が求められ、それによりオブジェクト候補の輪郭を導き出そうというものである。オブジェクト候補の位置と大きさがほぼ推定できるなら、矩形領域の探索の手間が大幅に省け、処理を高速化できるというものである。   In Patent Literature 2, distance information is obtained using a stereo image. A stereo image is composed of two images with parallax that are photographed so as to be stereoscopically viewable. From this, distance information can be calculated for each specific location in the image. When the distance information is obtained over the entire image, the edge portion of the subject is obtained, and thereby the contour of the object candidate is derived. If the position and size of the object candidate can be almost estimated, the labor for searching the rectangular area can be greatly reduced, and the processing speed can be increased.

しかしながら、検出する処理自体は従来の方法を必要とする。また、オブジェクト候補の輪郭をより正確に求めるには、距離情報の算出精度が問題になってくる。精度のよくない距離情報よりも、ステレオ画像そのものを検出に利用することが望まれる。
特開2004−252940号公報 特開2002−216129号公報
However, the detection process itself requires a conventional method. In addition, the accuracy of calculating the distance information becomes a problem in order to obtain the contour of the object candidate more accurately. It is desirable to use the stereo image itself for detection rather than distance information with poor accuracy.
JP 2004-252940 A JP 2002-216129 A

本発明の目的は、画像中のオブジェクトの検出において、同一の被写体を撮影した複数の画像を用いて、それを複数の検出工程として構成し、かつその画像間の関係を有効利用することにより、上記課題を解決し、より簡単で効率的、かつ誤検出の少ないオブジェクト検出方法及びオブジェクト検出装置を提供することである。   An object of the present invention is to use a plurality of images obtained by photographing the same subject in the detection of an object in an image, configure it as a plurality of detection steps, and effectively use the relationship between the images, It is an object of the present invention to provide an object detection method and an object detection apparatus that solve the above-mentioned problems, are simpler, more efficient, and have fewer erroneous detections.

本発明の目的は、以下の構成により達成することができる。   The object of the present invention can be achieved by the following configurations.

(請求項1)
異なる位置から同一の被写体に対する複数の画像を撮影する撮影装置により取得された第1の画像と第2の画像を用いて、前記第1の画像及び第2の画像中の特定のオブジェクトを検出するオブジェクト検出方法において、前記第1の画像においてオブジェクト候補を検出する第1のオブジェクト検出工程と、前記第1のオブジェクト検出工程で検出されたオブジェクト候補に基づいて、前記第2の画像における検出領域を設定する第2の検出領域設定工程と、前記第2の検出領域設定工程で設定された検出領域でオブジェクト候補を検出する第2のオブジェクト検出工程と、前記第2のオブジェクト検出工程におけるオブジェクト候補の検出結果に基づいて、オブジェクト検出を判定するオブジェクト判定工程とを含むことを特徴とするオブジェクト検出方法。
(Claim 1)
A specific object in the first image and the second image is detected using the first image and the second image acquired by a photographing device that photographs a plurality of images of the same subject from different positions. In the object detection method, based on the first object detection step of detecting an object candidate in the first image and the object candidate detected in the first object detection step, a detection area in the second image is determined. A second detection area setting step for setting, a second object detection step for detecting an object candidate in the detection area set in the second detection area setting step, and an object candidate in the second object detection step An object determination step for determining object detection based on the detection result. Object detection method.

(請求項2)
前記第1のオブジェクト検出工程は、前記第1の画像におけるオブジェクト候補の位置と大きさに関する情報を検出するものであり、前記第2の検出領域設定工程は、前記第1のオブジェクト検出工程で検出されたオブジェクト候補の前記第1の画像における位置と大きさに関する情報から、前記オブジェクト候補と対応する前記第2の画像でのオブジェクト候補の位置と大きさを推定して、前記第2の画像においてオブジェクト候補を検出すべき領域を設定する、ことを特徴とする請求項1に記載のオブジェクト検出方法。
(Claim 2)
The first object detection step detects information related to the position and size of the object candidate in the first image, and the second detection region setting step is detected in the first object detection step. The position and size of the object candidate in the second image corresponding to the object candidate are estimated from information on the position and size of the object candidate in the first image, and The object detection method according to claim 1, wherein a region where an object candidate is to be detected is set.

(請求項3)
前記第1のオブジェクト検出工程は、前記第1の画像において異なる複数の検出領域を設定する第1の検出領域設定工程を含んでおり、かつ、前記第1の検出領域設定工程で設定されたそれぞれの検出領域において、オブジェクト候補を検出するものであり、前記第2の検出領域設定工程は、前記第1のオブジェクト検出工程でオブジェクト候補が検出されたときに、それぞれのオブジェクト候補に対応付けられた、前記第2の画像における検出領域を設定し、前記第2のオブジェクト検出工程は、前記第2の検出領域設定工程により設定されたそれぞれの検出領域において、オブジェクト候補を検出するものであり、前記オブジェクト判定工程は、前記第1のオブジェクト検出工程で検出されたそれぞれのオブジェクト候補の検出結果と、前記第2のオブジェクト検出工程で対応付けて検出されたそれぞれのオブジェクト候補の検出結果とに基づいて、オブジェクト検出を判定する、ことを特徴とする請求項1または2に記載のオブジェクト検出方法。
(Claim 3)
The first object detection step includes a first detection region setting step for setting a plurality of different detection regions in the first image, and each set in the first detection region setting step. In the detection area, object candidates are detected, and the second detection area setting step is associated with each object candidate when the object candidate is detected in the first object detection step. The detection area in the second image is set, and the second object detection step detects an object candidate in each detection area set by the second detection area setting step, The object determination step includes a detection result of each object candidate detected in the first object detection step, Serial based on the detection result of the second each object candidates detected in association with the object detection process determines object detection, object detection method according to claim 1 or 2, characterized in that.

(請求項4)
前記第1のオブジェクト検出工程は、前記第1の画像において異なる複数のオブジェクト検出方法でオブジェクト候補を検出するものであり、前記オブジェクト判定工程は、前記第1のオブジェクト検出工程において、設定された検出領域に対して、それぞれのオブジェクト検出方法のうち少なくとも一つの検出方法でオブジェクト候補が検出されなかった場合、当該検出領域ではオブジェクトは検出されないと判定する、ことを特徴とする請求項1乃至3の何れか1項に記載のオブジェクト検出方法。
(Claim 4)
The first object detection step is to detect object candidates using a plurality of different object detection methods in the first image, and the object determination step is a detection set in the first object detection step. 4. The method according to claim 1, wherein when no object candidate is detected by at least one of the object detection methods for each area, it is determined that no object is detected in the detection area. The object detection method according to any one of the preceding claims.

(請求項5)
前記第2のオブジェクト検出工程は、前記第2の画像において異なる複数のオブジェクト検出方法でオブジェクト候補を検出するものであり、前記オブジェクト判定工程は、前記第2のオブジェクト検出工程において、設定された検出領域に対して、それぞれのオブジェクト検出方法のうち少なくとも一つの検出方法でオブジェクト候補が検出されなかった場合、当該検出領域ではオブジェクトは検出されないと判定する、ことを特徴とする請求項1乃至4の何れか1項に記載のオブジェクト検出方法。
(Claim 5)
The second object detection step is to detect object candidates by a plurality of different object detection methods in the second image, and the object determination step is a detection set in the second object detection step. 5. The method according to claim 1, wherein if no object candidate is detected in at least one of the object detection methods for each area, it is determined that no object is detected in the detection area. The object detection method according to any one of the preceding claims.

(請求項6)
前記第1のオブジェクト検出工程は、前記第1の検出領域設定工程で設定されたそれぞれの検出領域において、異なる複数のオブジェクト検出方法でオブジェクト候補を検出するものであり、一つの検出方法により検出されたオブジェクト候補の数が、予め定められたしきい値以下のときに、第2のオブジェクト検出工程に移行する、ことを特徴とする請求項1乃至5の何れか1項に記載のオブジェクト検出方法。
(Claim 6)
In the first object detection step, object candidates are detected by a plurality of different object detection methods in each detection region set in the first detection region setting step, and detected by one detection method. 6. The object detection method according to claim 1, wherein when the number of detected object candidates is equal to or less than a predetermined threshold value, the process proceeds to a second object detection step. .

(請求項7)
前記検出するオブジェクトは顔であることを特徴とする請求項1乃至6の何れか1項に記載のオブジェクト検出方法。
(Claim 7)
The object detection method according to claim 1, wherein the object to be detected is a face.

(請求項8)
異なる位置から同一の被写体に対する複数の画像を撮影する撮影装置により取得された第1の画像と第2の画像を用いて、前記第1の画像及び第2の画像中の特定のオブジェクトを検出するオブジェクト検出装置において、前記第1の画像においてオブジェクト候補を検出する第1のオブジェクト検出手段と、前記第1のオブジェクト検出手段で検出されたオブジェクト候補に基づいて、前記第2の画像における検出領域を設定する第2の検出領域設定手段と、前記第2の検出領域設定手段で設定された検出領域でオブジェクト候補を検出する第2のオブジェクト検出手段と、前記第2のオブジェクト検出手段におけるオブジェクト候補の検出結果に基づいて、オブジェクト検出を判定するオブジェクト判定手段とを有することを特徴とするオブジェクト検出装置。
(Claim 8)
A specific object in the first image and the second image is detected using the first image and the second image acquired by a photographing device that photographs a plurality of images of the same subject from different positions. In the object detection device, a detection area in the second image is determined based on a first object detection unit that detects an object candidate in the first image and an object candidate detected by the first object detection unit. Second detection area setting means for setting, second object detection means for detecting object candidates in the detection area set by the second detection area setting means, and object candidate in the second object detection means And an object determination unit that determines object detection based on the detection result. Object detection apparatus.

(請求項9)
前記第1のオブジェクト検出手段は、前記第1の画像におけるオブジェクト候補の位置と大きさに関する情報を検出するものであり、前記第2の検出領域設定手段は、前記第1のオブジェクト検出手段で検出されたオブジェクト候補の前記第1の画像における位置と大きさに関する情報から、前記オブジェクト候補と対応する前記第2の画像でのオブジェクト候補の位置と大きさを推定して、前記第2の画像においてオブジェクト候補を検出すべき領域を設定する、ことを特徴とする請求項8に記載のオブジェクト検出装置。
(Claim 9)
The first object detection means detects information regarding the position and size of the object candidate in the first image, and the second detection area setting means is detected by the first object detection means. The position and size of the object candidate in the second image corresponding to the object candidate are estimated from information on the position and size of the object candidate in the first image, and 9. The object detection apparatus according to claim 8, wherein an area where an object candidate is to be detected is set.

(請求項10)
前記第1のオブジェクト検出手段は、前記第1の画像において異なる複数の検出領域を設定する第1の検出領域設定手段を含んでおり、かつ、前記第1の検出領域設定手段で設定されたそれぞれの検出領域において、オブジェクト候補を検出するものであり、前記第2の検出領域設定手段は、前記第1のオブジェクト検出手段でオブジェクト候補が検出されたときに、それぞれのオブジェクト候補に対応付けられた、前記第2の画像における検出領域を設定し、前記第2のオブジェクト検出手段は、前記第2の検出領域設定手段により設定されたそれぞれの検出領域において、オブジェクト候補を検出するものであり、前記オブジェクト判定手段は、前記第1のオブジェクト検出手段で検出されたそれぞれのオブジェクト候補の検出結果と、前記第2のオブジェクト検出手段で対応付けて検出されたそれぞれのオブジェクト候補の検出結果とに基づいて、オブジェクト検出を判定する、ことを特徴とする請求項8または9に記載のオブジェクト検出装置。
(Claim 10)
The first object detection means includes first detection area setting means for setting a plurality of different detection areas in the first image, and each set by the first detection area setting means. The second detection region setting means is associated with each object candidate when the object candidate is detected by the first object detection means. A detection area in the second image is set, and the second object detection means detects an object candidate in each detection area set by the second detection area setting means, The object determination means includes a detection result of each object candidate detected by the first object detection means, Serial based on the detection result of each object candidates detected in association with the second object detection means determines an object detection, object detection apparatus according to claim 8 or 9, characterized in that.

(請求項11)
前記第1のオブジェクト検出手段は、前記第1の画像において異なる複数のオブジェクト検出方法でオブジェクト候補を検出するものであり、前記オブジェクト判定手段は、前記第1のオブジェクト検出手段において、設定された検出領域に対して、それぞれのオブジェクト検出方法のうち少なくとも一つの検出方法でオブジェクト候補が検出されなかった場合、当該検出領域ではオブジェクトは検出されないと判定する、ことを特徴とする請求項8乃至10の何れか1項に記載のオブジェクト検出装置。
(Claim 11)
The first object detection means detects an object candidate by a plurality of different object detection methods in the first image, and the object determination means is a detection set by the first object detection means. 11. The method according to claim 8, wherein if no object candidate is detected by at least one of the object detection methods for each area, it is determined that no object is detected in the detection area. The object detection device according to any one of the preceding claims.

(請求項12)
前記第2のオブジェクト検出手段は、前記第2の画像において異なる複数のオブジェクト検出方法でオブジェクト候補を検出するものであり、前記オブジェクト判定手段は、前記第2のオブジェクト検出手段において、設定された検出領域に対して、それぞれのオブジェクト検出方法のうち少なくとも一つの検出方法でオブジェクト候補が検出されなかった場合、当該検出領域ではオブジェクトは検出されないと判定する、ことを特徴とする請求項8乃至11の何れか1項に記載のオブジェクト検出装置。
(Claim 12)
The second object detection means is for detecting object candidates by a plurality of different object detection methods in the second image, and the object determination means is a detection set by the second object detection means. The object according to any one of claims 8 to 11, wherein if no object candidate is detected by at least one of the respective object detection methods for an area, it is determined that no object is detected in the detection area. The object detection device according to any one of the preceding claims.

(請求項13)
前記第1のオブジェクト検出手段は、前記第1の検出領域設定手段で設定されたそれぞれの検出領域において、異なる複数のオブジェクト検出方法でオブジェクト候補を検出するものであり、一つの検出方法により検出されたオブジェクト候補の数が、予め定められたしきい値以下のときに、第2のオブジェクト検出手段を動作させる、ことを特徴とする請求項8乃至12の何れか1項に記載のオブジェクト検出装置。
(Claim 13)
The first object detection means detects object candidates by a plurality of different object detection methods in each detection area set by the first detection area setting means, and is detected by one detection method. 13. The object detection device according to claim 8, wherein the second object detection unit is operated when the number of the object candidates is equal to or less than a predetermined threshold value. .

(請求項14)
前記検出するオブジェクトは顔であることを特徴とする請求項8乃至13の何れか1項に記載のオブジェクト検出装置。
(Claim 14)
The object detection apparatus according to claim 8, wherein the object to be detected is a face.

請求項1及び8に記載の発明によれば、
同一の被写体を撮影した複数の画像を用いて、それを複数のオブジェクト検出工程として構成し、それらの検出工程でオブジェクト候補が検出された場合のみオブジェクトの検出を判定し、一度でも検出されないと非検出としてその後の処理を打ち切ることにより、より簡単で効率的、かつ誤検出の少ないオブジェクト検出方法を提供することができる。
According to invention of Claim 1 and 8,
A plurality of images obtained by photographing the same subject are used as a plurality of object detection processes, and object detection is determined only when an object candidate is detected in these detection processes. By stopping the subsequent processing as detection, it is possible to provide an object detection method that is simpler, more efficient, and less erroneously detected.

請求項2及び9に記載の発明によれば、
同一の被写体を撮影した複数の画像を用いて、それを複数のオブジェクト検出工程として構成し、先行する工程で設定した検出領域に応じて、次の工程での検出領域を特定することにより、オブジェクト検出方法をさらに簡単で効率的にすることができる。
According to invention of Claim 2 and 9,
By using multiple images taken of the same subject and configuring them as multiple object detection steps, and by specifying the detection region in the next step according to the detection region set in the preceding step, the object The detection method can be made simpler and more efficient.

請求項3,4,5,10,11そして12に記載の発明によれば、
同一の被写体を撮影した複数の画像を用いて、それを複数のオブジェクト検出工程として構成し、各々の工程で適切な、異なる複数の検出領域設定及び異なる複数の検出方法設定と組み合わせることにより、オブジェクト検出方法をさらに誤検出の少ないものにすることができる。
According to the inventions of claims 3, 4, 5, 10, 11 and 12,
By using multiple images of the same subject and configuring them as multiple object detection steps, combining them with different detection area settings and different detection method settings appropriate for each step, The detection method can be further reduced in erroneous detection.

請求項6及び13に記載の発明によれば、
同一の被写体を撮影した複数の画像を用いて、それを複数のオブジェクト検出工程として構成し、各々の工程で適切な検出領域設定及び検出方法設定と組み合わせるにあたり、検出工程でオブジェクト候補が一度でも検出されないと非検出としてその後の処理を打ち切ることにより、検出方法の変更される毎にオブジェクト候補の数が減っていくように複数のオブジェクト検出工程を構成することができ、さらに打ち切りによりオブジェクト候補の数が所定のしきい値以下になったかどうかで処理のステップを変更することにより、オブジェクト検出方法をさらに簡単で効率的にすることができる。
According to invention of Claim 6 and 13,
Using multiple images of the same subject and configuring them as multiple object detection processes, combining them with appropriate detection area settings and detection method settings in each process, the object candidate is detected even once in the detection process. If the detection method is not detected, the subsequent processing is aborted, so that a plurality of object detection steps can be configured so that the number of object candidates decreases every time the detection method is changed. The object detection method can be made simpler and more efficient by changing the processing step depending on whether or not the value of the object becomes equal to or less than a predetermined threshold value.

請求項7及び14に記載の発明によれば、
同一の被写体を撮影した複数の画像を用いて、それを複数の顔検出工程として構成し、各々の工程で適切な検出領域設定及び検出方法設定と組み合わせることにより、また先行する工程で設定した検出領域に応じて、次の工程での検出領域を特定することができることにより、またすべての検出工程の顔候補検出結果を総合して、顔の検出を判定することにより、画像中での検出が困難な人の顔に対して、より簡単で効率的、かつ誤検出の少ない顔検出方法を提供することができる。
According to invention of Claim 7 and 14,
Using multiple images taken of the same subject, it is configured as multiple face detection processes, combined with appropriate detection area settings and detection method settings in each process, and detection set in the preceding process Depending on the area, the detection area in the next process can be specified, and the face candidate detection results in all the detection processes are combined to determine face detection, so that detection in the image can be performed. It is possible to provide a face detection method that is simpler, more efficient, and has fewer false detections for difficult human faces.

本発明に係る撮影装置としてステレオカメラを使用し、前記ステレオカメラを用いて取得した第1、第2の画像からオブジェクトを検出する場合を例にして、本発明に係るオブジェクト検出方法及びオブジェクト検出装置の実施形態の例を説明する。   An object detection method and an object detection apparatus according to the present invention, taking as an example a case where a stereo camera is used as a photographing apparatus according to the present invention and an object is detected from first and second images acquired using the stereo camera. An example of the embodiment will be described.

検出したいオブジェクトとしては、人間あるいはその顔が要求されることが多い。以下の例では、人の顔を検出すべきオブジェクトとして考える。   As an object to be detected, a human or its face is often required. In the following example, a human face is considered as an object to be detected.

顔は、人間が視覚的に特定の個人を同定するために、最も簡単に精度よく利用できるものである。従って、画像から人の顔を自動的に抽出する多くの顔検出方法が研究されてきた。また、検出のみならず、検出した顔から機械的に特定の個人を認証できるシステムも要求が高まっている。顔から特定の個人を認証するために顔の三次元情報を利用することも盛んになってきており、顔の検出にも三次元情報の元になるステレオ画像が用いられるケースが増えて来ている。   Faces are the simplest and most accurately available for humans to visually identify specific individuals. Therefore, many face detection methods for automatically extracting a human face from an image have been studied. In addition to detection, there is an increasing demand for a system that can mechanically authenticate a specific individual from a detected face. The use of three-dimensional face information to authenticate a specific person from the face has become popular, and the number of cases in which stereo images that are the basis of three-dimensional information are also used for face detection is increasing. Yes.

図1は、本発明に係る撮影装置の一実施形態であるステレオカメラ1の外観図である。   FIG. 1 is an external view of a stereo camera 1 which is an embodiment of a photographing apparatus according to the present invention.

ステレオカメラ1は、平行に位置する第1の光学系Aと第2の光学系Bの二つの光学系を有し、両方の光学系は、特定の位置にある被写体をある視差を以て撮影するような配置構造となっている。従って検出したいオブジェクト、例えば顔が撮影された画像中に写っている場合は、二つの光学系、つまり第1の光学系Aと第2の光学系Bにより撮影された第1の画像と第2の画像の両方に写っているはずである。   The stereo camera 1 has two optical systems, ie, a first optical system A and a second optical system B, which are positioned in parallel, and both optical systems capture an object at a specific position with a certain parallax. It has a simple arrangement structure. Therefore, when an object to be detected, for example, a face is captured in a captured image, the first image captured by the two optical systems, that is, the first optical system A and the second optical system B, and the second image. Should appear in both images.

図9に、ステレオカメラで撮影された第1の画像(画像AX1)と第2の画像(画像BX1)のサンプルを簡略化した図にして示す。画像間には視差があり、同一の被写体Pが写っているが、その水平方向の位置は異なっている。本実施形態例では、この第1の画像と第2の画像の特別な関係を利用して、検出の処理を効率化すると共に、検出の精度を向上するものである。   FIG. 9 is a simplified diagram showing samples of the first image (image AX1) and the second image (image BX1) taken by the stereo camera. There is parallax between images, and the same subject P is shown, but its horizontal position is different. In the present embodiment, the special relationship between the first image and the second image is used to improve the efficiency of the detection process and improve the detection accuracy.

なお、ステレオカメラを例にしているが、撮影装置は、それに限定されるものではなく、複数の撮影装置を組み合わせたものでもよい。異なる位置から同一の被写体に対する複数の画像を撮影するものであり、その配置関係が特定できるような撮影装置であればその配置構成は問わない。   Although a stereo camera is taken as an example, the photographing apparatus is not limited to this, and a combination of a plurality of photographing apparatuses may be used. Any arrangement may be used as long as it captures a plurality of images of the same subject from different positions and can identify the arrangement relationship.

図2は、図1に示したステレオカメラ1及び本発明に係るオブジェクト検出装置の一実施形態である画像処理装置2からなるオブジェクト検出システムの構成を示すブロック図である。図2を用いて、ステレオカメラ1で撮影した第1の画像と第2の画像が、画像処理装置2におけるオブジェクト検出のための画像処理部3により取得される流れを説明する。   FIG. 2 is a block diagram showing a configuration of an object detection system including the stereo camera 1 shown in FIG. 1 and an image processing apparatus 2 which is an embodiment of the object detection apparatus according to the present invention. A flow in which the first image and the second image captured by the stereo camera 1 are acquired by the image processing unit 3 for object detection in the image processing apparatus 2 will be described with reference to FIG.

画像処理装置2はオブジェクト検出装置として機能する。画像処理装置2において、画像処理部3がオブジェクト検出処理を実行する。   The image processing device 2 functions as an object detection device. In the image processing apparatus 2, the image processing unit 3 executes an object detection process.

ステレオカメラ1において、Aは第1の光学系である。Bは第1の光学系と光軸が平行になるよう配置された第2の光学系である。9は第1の光学系Aにより結像された第1の画像を撮像する第1の撮像素子である。10は第2の光学系Bにより結像された第2の画像を撮像する第2の撮像素子である。第1の撮像素子9及び第2の撮像素子10によって撮像された第1の画像と第2の画像は、それぞれ電気信号に変換され、出力画像生成部11に送られる。   In the stereo camera 1, A is a first optical system. B is a second optical system arranged so that the optical axis is parallel to the first optical system. Reference numeral 9 denotes a first imaging element that captures a first image formed by the first optical system A. Reference numeral 10 denotes a second imaging element that captures a second image formed by the second optical system B. The first image and the second image captured by the first image sensor 9 and the second image sensor 10 are converted into electric signals and sent to the output image generation unit 11.

出力画像生成部11で出力のためにデジタル画像データとして画像形成された第1の画像と、第2の画像は、画像出力部12により通信経路13を通じて画像入力部5に送られ、オブジェクト検出処理を実行する画像処理部3により取得される。画像処理部3は取得した第1の画像と第2の画像を一旦メモリ4に格納し、オブジェクト検出処理に備える。   The first image and the second image formed as digital image data for output in the output image generation unit 11 are sent to the image input unit 5 through the communication path 13 by the image output unit 12, and the object detection process Is acquired by the image processing unit 3 that executes. The image processing unit 3 temporarily stores the acquired first image and second image in the memory 4 and prepares for object detection processing.

なお、本実施形態例では、オブジェクト検出処理はステレオカメラ1の外部の画像処理装置2で行っているが、ステレオカメラ自体がオブジェクト検出処理を実行する画像処理部3を含むような構成であってもよい。また、第1の画像と第2の画像は、通信経路13を経るのではなく、一旦取り外し可能な記録媒体に移されて、その後読み出されるものであってもよい。画像処理部3の画像取得方法は、様々な形態が可能である。   In this embodiment, the object detection process is performed by the image processing apparatus 2 outside the stereo camera 1, but the stereo camera itself includes an image processing unit 3 that executes the object detection process. Also good. Further, the first image and the second image may be transferred to a removable recording medium and then read out instead of passing through the communication path 13. The image acquisition method of the image processing unit 3 can take various forms.

画像処理部3によるオブジェクト検出結果は、必要に応じて、適宜ディスプレイやプリンタを含む出力部6により表示またはプリントアウトされる。   The object detection result by the image processing unit 3 is displayed or printed out by the output unit 6 including a display and a printer as needed.

図3を用いて、画像処理部3の構成を説明する。図3は図2における画像処理装置2のうち、画像処理部3とメモリ4の構成を示すブロック図である。   The configuration of the image processing unit 3 will be described with reference to FIG. FIG. 3 is a block diagram showing the configuration of the image processing unit 3 and the memory 4 in the image processing apparatus 2 in FIG.

画像処理部3において、31は、CPUとプログラムを格納するROM、作業領域としてのRAMなどのメモリを含む制御部であり、画像処理部3全体の活動を制御する。32は画像切り換え部であり、主として、処理工程に応じて第1及び第2の画像の一方を保持するために機能する。33はオブジェクト判定部であり、オブジェクト判定手段として機能する。すなわち、後述のオブジェクト判定工程を実行する。   In the image processing unit 3, reference numeral 31 denotes a control unit including a CPU, a ROM for storing a program, and a memory such as a RAM as a work area, and controls the activity of the entire image processing unit 3. An image switching unit 32 mainly functions to hold one of the first and second images according to the processing process. An object determination unit 33 functions as an object determination unit. That is, an object determination process described later is executed.

34は第1検出領域設定部であり、第1の検出領域設定手段として機能する。すなわち、後述の第1の検出領域設定工程を実行する。35は第1検出方法設定部であり、第1の検出方法設定手段として機能する。すなわち、後述の第1の検出方法設定工程を実行する。36は第1オブジェクト検出部であり、前記第1検出領域設定部及び第1検出方法設定部と協同して、前記第1のオブジェクト検出手段として機能する。すなわち、後述の第1のオブジェクト検出工程を実行する。   Reference numeral 34 denotes a first detection area setting unit, which functions as a first detection area setting means. That is, a first detection area setting process described later is executed. Reference numeral 35 denotes a first detection method setting unit, which functions as first detection method setting means. That is, a first detection method setting step described later is executed. Reference numeral 36 denotes a first object detection unit that functions as the first object detection unit in cooperation with the first detection region setting unit and the first detection method setting unit. That is, a first object detection process described later is executed.

37は第2検出領域設定部であり、第2の検出領域設定手段として機能する。すなわち、後述の第2の検出領域設定工程を実行する。38は第2検出方法設定部であり、第2の検出方法設定手段として機能する。すなわち、後述の第2の検出方法設定工程を実行する。39は第2オブジェクト検出部であり、第2のオブジェクト検出手段として機能する。すなわち、後述の第2のオブジェクト検出工程を実行する。   Reference numeral 37 denotes a second detection area setting unit, which functions as second detection area setting means. That is, a second detection area setting process described later is executed. Reference numeral 38 denotes a second detection method setting unit, which functions as second detection method setting means. That is, a second detection method setting step described later is executed. 39 is a 2nd object detection part, and functions as a 2nd object detection means. That is, a second object detection process described later is executed.

メモリ4において、41は複数の検出情報であり、例えば、第1検出領域設定部34や第2検出領域設定部37で設定された検出領域の位置情報や検出領域の大きさ情報、第1オブジェクト検出部36や第2オブジェクト検出部39で検出されたオブジェクト候補の評価値等が含まれる。   In the memory 4, reference numeral 41 denotes a plurality of detection information. For example, the position information of the detection area, the size information of the detection area set by the first detection area setting unit 34 and the second detection area setting unit 37, the first object Evaluation values of object candidates detected by the detection unit 36 and the second object detection unit 39 are included.

43には、オブジェクト候補を検出した複数の検出領域の具体的データが、検出データとして格納される。検出情報41にはインデックス情報が格納されており、その実体が検出データ43である。   In 43, specific data of a plurality of detection areas in which the object candidates are detected is stored as detection data. Index information is stored in the detection information 41, and the substance is detection data 43.

図4(a)には、メモリ4に記憶される検出データ43の内容の例を示す。通し番号431、第1の画像に対するオブジェクト候補を検出した領域の始点座標432、同じく終点座標433、必要ならば検出時の評価値434、それらに対応して、第2の画像でオブジェクト候補を検出した領域の始点座標435、同じく終点座標436、必要ならば検出時の評価値437などである。始点座標と終点座標から位置と大きさが求められる。   FIG. 4A shows an example of the contents of the detection data 43 stored in the memory 4. Serial number 431, the start point coordinate 432 of the area where the object candidate for the first image is detected, the end point coordinate 433, if necessary, the evaluation value 434 at the time of detection, the object candidate was detected in the second image corresponding to them The start point coordinates 435 of the region, the end point coordinates 436, and the evaluation value 437 at the time of detection, if necessary. The position and size are obtained from the start point coordinates and end point coordinates.

検出情報41は、オブジェクト判定部33により、制御部31を通じてアクセスされる。その動作は、検出情報の書き込み、あるいは削除である。一度でもオブジェクト検出と判定されると検出情報が書き込み、または保持され、一度でもオブジェクト非検出と判定されると検出情報が削除される。また第2検出領域設定部37からも、検出領域設定のための情報として読み出される。   The detection information 41 is accessed by the object determination unit 33 through the control unit 31. The operation is writing or deleting detection information. If it is determined that the object is detected even once, the detection information is written or held, and if it is determined that the object is not detected even once, the detection information is deleted. The information is also read from the second detection area setting unit 37 as information for setting the detection area.

42は複数の検出方法の情報であり、実行済み及び残余の検出方法も含めて、インデックス情報が格納されている。44には複数の検出方法の本体データが予め格納されている。図4(b)には、メモリ4に記憶されている検出方法データ44の内容の例を示す。通し番号441、第1の画像に対するオブジェクト候補の検出方法、すなわち第1の検出方法442、第2の画像に対するオブジェクト候補の検出方法、すなわち第2の検出方法443などである。これらはオブジェクト検出処理に先立って予め記憶されており、処理中に書き換え、または削除されることはない。   Reference numeral 42 denotes information of a plurality of detection methods, and index information is stored including the detection methods of executed and remaining. 44 stores in advance main body data of a plurality of detection methods. FIG. 4B shows an example of the contents of the detection method data 44 stored in the memory 4. A serial number 441, a detection method of an object candidate for the first image, that is, a first detection method 442, a detection method of an object candidate for the second image, that is, a second detection method 443, and the like. These are stored in advance prior to the object detection process, and are not rewritten or deleted during the process.

検出方法情報42は、同じく制御部31を通じて、第1検出方法設定部35及び第2検出方法設定部38により、検出方法設定のためにアクセスされる。また、検出方法の繰り返しにおいて、実行済み、あるいは残余の検出方法を確認し、処理の流れを切り換えるためにもアクセスされる。   Similarly, the detection method information 42 is accessed for detection method setting by the first detection method setting unit 35 and the second detection method setting unit 38 through the control unit 31. Further, in the repetition of the detection method, an access is made to confirm a detection method that has been executed or the remaining method and to switch the processing flow.

これらの画像処理部3の各構成要素が動作する手順については、以下の処理例を用いて詳しく説明する。   The procedure in which each component of the image processing unit 3 operates will be described in detail using the following processing example.

(処理例1)
図5を用いて、オブジェクト検出処理の処理例1を説明する。図5は処理例1によるオブジェクト検出処理の流れを示すフローチャートである。
(Processing example 1)
A processing example 1 of the object detection processing will be described with reference to FIG. FIG. 5 is a flowchart showing the flow of object detection processing according to Processing Example 1.

オブジェクト検出処理を開始すると、まずステップS11でメモリ4に格納されている第1の画像、第2の画像を読み出す。あるいはステレオカメラ1から、あるいはその他の記憶装置から、受信して取得してもよい。   When the object detection process is started, first, the first image and the second image stored in the memory 4 are read in step S11. Or you may receive and acquire from the stereo camera 1 or another memory | storage device.

次に、第1の検出領域設定工程であるステップS12で、第1検出領域設定部34が、第1の画像に対して、第1の検出領域を設定する。具体的には、適当なサブウィンドウを設定し、そのサブウィンドウで第1の画像の全領域をスキャンしていく。   Next, in step S12, which is a first detection area setting step, the first detection area setting unit 34 sets a first detection area for the first image. Specifically, an appropriate subwindow is set, and the entire area of the first image is scanned in the subwindow.

図6を用いてステップS12で実行されるサブウィンドウのスキャンを説明する。図6(a)は、第1の画像の全領域51に対してサブウィンドウ61を設定したところを示す。   The sub-window scan executed in step S12 will be described with reference to FIG. FIG. 6A shows the setting of the sub window 61 for the entire area 51 of the first image.

このサブウィンドウ61の領域が、第1の検出領域として設定されることになる。この設定した第1の検出領域、すなわちサブウィンドウ61に対してオブジェクト、すなわち顔の検出処理が実行されるが、検出処理が実行されるのは一つのサブウィンドウだけではなく、サブウィンドウを第1の画像全領域51に渡ってスキャンすることにより、第1の画像全領域51に対して検出処理を行うことになる。   The area of the sub window 61 is set as the first detection area. An object, that is, a face detection process is executed on the set first detection area, that is, the subwindow 61. However, the detection process is executed not only on one subwindow but also on the entire subimage of the first image. By scanning over the area 51, the detection process is performed on the entire first image area 51.

図6(a)にはサブウィンドウ61が矢印方向に画素単位でずらされ、スキャンされる様子を示す。水平方向にスキャンが終わると垂直方向にまた画素単位でずらされ、同じくスキャンを継続する。このようにして第1の画像51中のあらゆる位置にあるサブウィンドウ61、すなわち検出領域に対してオブジェクト検出処理が実行されることになる。   FIG. 6A shows a state in which the sub window 61 is shifted in the arrow direction in units of pixels and scanned. When scanning in the horizontal direction is completed, the pixel is shifted in the vertical direction again in units of pixels, and the scanning is continued. In this way, the object detection process is executed on the subwindow 61 located at any position in the first image 51, that is, the detection area.

図6(b)には、第1の画像の全領域51に対して、図6(a)とは異なるサイズのサブウィンドウ62を設定したところを示す。第1の画像中51に検出すべきオブジェクトがあるとしても、そのサイズは不明である。異なるサイズのオブジェクトに対しても同様の検出方法を適用するために、サブウィンドウのサイズを少しずつ変えて、やはり第1の画像の全領域51をスキャンする。これでオブジェクトのサイズが異なっても、検出することができる。   FIG. 6B shows a case where a sub window 62 having a size different from that in FIG. 6A is set for the entire area 51 of the first image. Even if there is an object to be detected in the first image 51, its size is unknown. In order to apply the same detection method to objects of different sizes, the size of the subwindow is changed little by little, and the entire area 51 of the first image is also scanned. Even if the object size is different, it can be detected.

従って、サブウィンドウのサイズを様々に変え、かつスキャンをしてその都度検出処理を行っていくことになる。   Therefore, the size of the sub-window is changed variously, and scanning is performed and detection processing is performed each time.

また、サイズを変える別法として、第1の画像の解像度変換を行い、第1の画像のサイズ自体を少しずつ変えていき、ウィンドウは同じサイズで、それら複数の解像度変換された画像をスキャンしていくという方法もある。この方法だと、検出領域のサイズは不変なのでサイズを考慮することなく効率的に検出処理を実行することができる。   As another method for changing the size, the resolution of the first image is converted, the size of the first image itself is changed little by little, the window is the same size, and the plurality of resolution-converted images are scanned. There is also a way to go. According to this method, since the size of the detection area is not changed, the detection process can be executed efficiently without considering the size.

このようにスキャンの方法は様々な形態があり得るが、要は、第1の画像の全領域中のどの位置にどのサイズでオブジェクトが存在していても検出できるように、第1の画像に対して網羅的に第1の検出領域を設定していくということである。   As described above, the scanning method may have various forms. In short, the first image is detected so that the object can be detected at any position and in any position in the entire area of the first image. On the other hand, the first detection area is set comprehensively.

本処理例では、処理を繰り返すことにより、第1の検出領域設定を順次変更して、第1の画像の全領域を網羅的にスキャンするようにした。   In this processing example, by repeating the processing, the first detection area setting is sequentially changed, and the entire area of the first image is scanned comprehensively.

図5に戻って、第1の検出方法設定工程であるステップS13では、第1検出方法設定部35が、ステップS12で設定した第1の検出領域に対するオブジェクト検出方法の設定を行う。   Returning to FIG. 5, in step S13, which is the first detection method setting step, the first detection method setting unit 35 sets the object detection method for the first detection region set in step S12.

オブジェクト検出方法は様々な公知の方法があり、任意の方法を設定すればよい。例えば、テンプレートマッチングのような方法でもよい。様々なテンプレートを用意し、各々とのマッチング度合いから判定していき、多数の用意されたテンプレートの判定を総合して判定するようにすれば、全体としての精度を上げることもできる。   There are various known object detection methods, and any method may be set. For example, a method such as template matching may be used. If various templates are prepared and determined from the degree of matching with each template, and the determination of a large number of prepared templates is comprehensively determined, the accuracy as a whole can be improved.

検出領域の画像から様々な特徴量を抽出し、それらの特徴量の値から判定していく方法もある。どういう特徴量のどういう値が、オブジェクトの判定に重要であるかは、データを用いて実験的に設定していく、あるいは学習していくことで検出精度を上げることもできる。   There is also a method in which various feature amounts are extracted from the image of the detection area, and determination is made from the values of the feature amounts. It is possible to increase the detection accuracy by experimentally setting or learning what value of what feature value is important for object determination.

他にも、検出領域の画像をベクトル空間に位置づけて、判別空間を設定したりするたぐいの検出方法も多数あり、その空間設定や判別の指標についても多数のバリエーションがある。   In addition, there are many detection methods for setting the discrimination space by positioning the image of the detection area in the vector space, and there are many variations on the space setting and discrimination indicators.

本処理例においては、具体的な検出方法は問わないが、検出の精度と検出の速さを兼ね備えるために、簡単な検出方法、すなわち弱い識別手段を多数、カスケード式に構成し、順次試して、総合的に判定することを前提としている。   In this processing example, a specific detection method is not limited. However, in order to have both the detection accuracy and the detection speed, a simple detection method, that is, a number of weak identification means are configured in a cascade manner, and are sequentially tested. , Based on the premise of comprehensive judgment.

このようにすれば、ステップS13が何度も繰り返され、その都度異なる検出方法が設定されるようなオブジェクト検出処理も可能である。またステップS13で設定する検出方法は、複数の検出方法からなる検出方法であってもよい。   In this way, it is possible to perform object detection processing in which step S13 is repeated many times, and a different detection method is set each time. Further, the detection method set in step S13 may be a detection method including a plurality of detection methods.

本処理例は、複数の検出方法を予め用意しておき、それらすべてを順次実行すべく、繰り返し処理を行うようにしたが、こういった検出処理の方法についての詳細は後述する。   In this processing example, a plurality of detection methods are prepared in advance, and repeated processing is performed so that all of them are sequentially executed. Details of these detection processing methods will be described later.

次に、第1のオブジェクト検出工程であるステップS14で、第1オブジェクト検出部36が、ステップS12で設定した第1の検出領域に対して、ステップS13で設定した第1の検出方法を適用し、オブジェクト候補の検出処理を実行する。   Next, in step S14 which is the first object detection step, the first object detection unit 36 applies the first detection method set in step S13 to the first detection region set in step S12. The object candidate detection process is executed.

ステップS14の検出工程はオブジェクトの候補があるかどうかの結果を出力する。この段階では候補であり、オブジェクト検出の判定は、すべてのオブジェクト検出工程を終えることにより判定されることになる。   The detection step in step S14 outputs a result indicating whether there is an object candidate. At this stage, it is a candidate, and object detection is determined by completing all object detection steps.

ステップS15では、ステップS14の第1のオブジェクト検出工程の結果に対してオブジェクトの候補が検出されたかどうかを判別する。オブジェクトの候補が検出された場合(ステップS15:YES)は、ステップS16を実行し、オブジェクト候補の検出情報をメモリに記憶して、ステップS18へ進む。ステップS16で記憶されるのは、検出領域の位置情報、検出領域の大きさ情報などであり、検出方法によっては、オブジェクト候補の評価値等も含まれる。   In step S15, it is determined whether or not an object candidate has been detected for the result of the first object detection step in step S14. If an object candidate is detected (step S15: YES), step S16 is executed, the object candidate detection information is stored in the memory, and the process proceeds to step S18. In step S16, the position information of the detection area, the size information of the detection area, and the like are stored. Depending on the detection method, the evaluation value of the object candidate is also included.

なお、メモリ4に記憶されるオブジェクト候補の検出情報41は、異なる検出領域でオブジェクト候補の検出を行うことで増加し、異なる検出方法でオブジェクト候補の検出を行うことにより減少する。最終的にすべての検出方法を試した後で残ったオブジェクト候補がオブジェクトとして判定されることになる。   Note that the object candidate detection information 41 stored in the memory 4 increases when an object candidate is detected in a different detection area, and decreases when an object candidate is detected using a different detection method. Eventually, the object candidates remaining after trying all the detection methods are determined as objects.

ステップS15でオブジェクトの候補が検出されなかった場合(ステップS15:NO)は、ステップS17を実行し、この時点で当該検出領域にはオブジェクト候補が検出されなかったと判定する。もし該当する検出領域の位置情報、検出領域の大きさ情報が既に記憶されている場合は、その検出情報を削除することになる。一旦検出情報が削除されると、その検出情報が参照されることはない、すなわち同じ検出領域に対してその後新たな検出方法が試されることはない。従って次のステップS18は省略され、ステップS19へ進むことになる。   If no object candidate is detected in step S15 (step S15: NO), step S17 is executed, and it is determined that no object candidate is detected in the detection area at this time. If the position information of the corresponding detection area and the size information of the detection area are already stored, the detection information is deleted. Once the detection information is deleted, the detection information is not referred to, that is, no new detection method is subsequently tried for the same detection area. Therefore, the next step S18 is omitted, and the process proceeds to step S19.

要は、用意されたすべての検出方法に対してオブジェクト候補が検出された場合にのみ、その検出領域に対してオブジェクト検出の判定を下し、用意されたすべての検出方法の中で一度でもオブジェクト候補が検出されないと、その検出領域はオブジェクト非検出の判定を下し、それ以後のその検出領域に対する検出処理は打ち切るのである。   In short, only when object candidates are detected for all the prepared detection methods, the object detection is judged for the detection area, and the object is detected even once among all the prepared detection methods. If a candidate is not detected, the detection area makes a determination that the object is not detected, and the subsequent detection processing for the detection area is terminated.

この第1の検出領域に対するステップS15の判別とステップS16、S17の検出情報の記憶管理、そして後述する第2の検出領域に対するステップS24の判別とステップS25、S26の検出情報の記憶管理は、オブジェクト判定部33により、オブジェクト検出処理の終了までに何度も繰り返されることになるが、それらすべての工程が総合されてオブジェクト判定工程が形成されることになる。   The determination in step S15 for the first detection area and the storage management of detection information in steps S16 and S17, and the determination in step S24 for the second detection area described later and the storage management of detection information in steps S25 and S26 The determination unit 33 repeats the object detection process many times before the end of the object detection process, but all these processes are combined to form an object determination process.

ステップS18では、予め用意された複数の検出方法がすべて試されたかどうかを判定する。設定された第1の検出領域に対して、すべての検出方法が終了している場合(ステップS18:YES)は、ステップS19に進む。未実行の検出方法が残っている場合(ステップS18:NO)は、ステップS13の第1の検出方法設定工程に戻り、新たな検出方法を設定の上、引き続く処理を繰り返すことになる。   In step S18, it is determined whether or not a plurality of detection methods prepared in advance have been tried. If all the detection methods have been completed for the set first detection region (step S18: YES), the process proceeds to step S19. If an unexecuted detection method remains (step S18: NO), the process returns to the first detection method setting step of step S13, and after setting a new detection method, the subsequent processing is repeated.

ステップS19では、第1の画像に対する第1の検出領域のスキャンがすべて終了したかどうかを判定する。スキャンが終了し、すべての検出領域設定が終了している場合(ステップS19:YES)は、ステップS20に進む。検出領域のスキャンが残っている場合(ステップS19:NO)は、ステップS12の第1の検出領域設定工程に戻り、スキャンを継続して新たな検出領域を設定の上、引き続く処理を繰り返すことになる。   In step S19, it is determined whether or not scanning of the first detection area for the first image has been completed. When the scan is completed and all the detection area settings are completed (step S19: YES), the process proceeds to step S20. When the scan of the detection area remains (step S19: NO), the process returns to the first detection area setting step of step S12, and the scan is continued to set a new detection area and repeat the subsequent processing. Become.

ステップS19を終えてステップS20へ進んだ時点で、第1の画像の全領域をスキャンしたすべて第1の検出領域に対して、すべての用意された第1の検出方法を適用し、すべての第1のオブジェクト検出工程が終了したことになる。   When step S19 is completed and the process proceeds to step S20, all the prepared first detection methods are applied to all the first detection areas scanned in all areas of the first image. That is, the object detection process 1 is completed.

もちろん、ここまでの処理途中でオブジェクト候補が非検出という結果になり、検出情報41としてメモリ4に記憶されなかった、あるいは削除された検出領域が多数あるはずである。ステップS20へ進んだ時点で検出情報41としてメモリ4に記憶されている検出領域は、まだオブジェクト候補が検出され続けているということであり、引き続く第2の画像での検出処理でも検出情報41としてメモリ4に記憶が保持されていれば、最終的に当該検出領域におけるオブジェクト検出と判定されることになる。   Of course, the object candidate is not detected in the process so far, and there should be many detection areas that are not stored in the memory 4 as the detection information 41 or deleted. The detection area stored in the memory 4 as the detection information 41 at the time of proceeding to Step S20 means that the object candidate is still being detected, and the detection information 41 is also detected in the subsequent second image detection process. If the memory 4 holds the memory, it is finally determined that the object is detected in the detection area.

従って、以下の第2の画像に対する処理は、ここまでに検出情報として記憶されている検出領域だけを対象として順次実行される。   Accordingly, the following processing for the second image is sequentially executed only for the detection area stored as detection information so far.

ステップS20では、メモリ4から順次検出情報41を読み出していく。これは、第1の画像に対してはスキャン操作により網羅的に第1の検出領域を設定したのに対して、第2の画像に対しては、第1の画像に対する結果からオブジェクト候補があると推定される検出領域のみを第2の検出領域として設定していく操作になる。   In step S20, the detection information 41 is sequentially read from the memory 4. This is because the first detection area is comprehensively set by the scanning operation for the first image, whereas there are object candidates for the second image based on the result for the first image. This is an operation of setting only the estimated detection area as the second detection area.

次の、第2の検出領域設定工程であるステップS21では、第2検出領域設定部37が、ステップS20で読み出された検出情報41に基づき、その検出情報41に対応する第2の画像における第2の検出領域を設定する。   In step S21, which is the next second detection area setting step, the second detection area setting unit 37 is based on the detection information 41 read in step S20, in the second image corresponding to the detection information 41. A second detection area is set.

ステップS16で記憶され、ステップS20で読み出された検出情報(位置情報と大きさ情報)は、第1の画像中で検出されたオブジェクト候補の位置と大きさを表しており、第2の画像中での対応するオブジェクト候補の位置と大きさを推定するのに用いられる。   The detection information (position information and size information) stored in step S16 and read out in step S20 represents the position and size of the candidate object detected in the first image, and the second image Used to estimate the position and size of the corresponding object candidate.

つまり、第2の画像においては、第1の画像の場合と異なり、検出領域の設定は第2の画像の全領域をスキャンするのではなく、第1の画像で検出されたオブジェクト候補の検出情報から、第2の画像中の対応するオブジェクト候補が存在する位置とサイズを推定し、その領域を第2の検出領域として設定する。   That is, in the second image, unlike the case of the first image, the setting of the detection area does not scan the entire area of the second image, but the detection information of the object candidates detected in the first image. From this, the position and size of the corresponding object candidate in the second image are estimated, and the area is set as the second detection area.

ステップS21で実行される第2の検出領域の設定方法についての詳細は後述する。   Details of the second detection area setting method executed in step S21 will be described later.

次に、第2の検出方法設定工程であるステップS22では、第2検出方法設定部38が、ステップS21で設定された第2の検出領域に対して、オブジェクト検出方法の設定を行う。   Next, in step S22 which is a second detection method setting step, the second detection method setting unit 38 sets an object detection method for the second detection region set in step S21.

本処理例では、第2の画像についても、第1の画像の場合と同じく、複数の検出方法を予め用意しておき、繰り返し処理でそれらすべてを順次実行するようにした。これら複数の検出方法は、本処理例では第1の画像についての複数の検出方法と同じ検出方法を使用したが、もちろん第1の画像の場合と異なる検出方法を使用してもよい。また、一つの検出方法が複数の検出方法から構成されていてもよい。   In the present processing example, as in the case of the first image, a plurality of detection methods are prepared in advance for the second image, and all of them are sequentially executed by repeated processing. These detection methods use the same detection method as the plurality of detection methods for the first image in the present processing example, but of course, a detection method different from that for the first image may be used. One detection method may be composed of a plurality of detection methods.

次に、第2のオブジェクト検出工程であるステップS23で、第2オブジェクト検出部39が、ステップS21で設定した第2の検出領域に対して、ステップS22で設定した第2の検出方法を適用し、オブジェクト候補の検出処理を実行する。   Next, in step S23 which is the second object detection step, the second object detection unit 39 applies the second detection method set in step S22 to the second detection region set in step S21. The object candidate detection process is executed.

第1の画像の場合と同様に、設定した検出方法による検出工程はオブジェクトの候補があるかどうかの結果を出力する。   As in the case of the first image, the detection step using the set detection method outputs a result indicating whether there is an object candidate.

ステップS24では、ステップS23の第2のオブジェクト検出工程の結果に対してオブジェクトの候補が検出されたかどうかを判別する。オブジェクトの候補が検出された場合(ステップS24:YES)は、ステップS25を実行し、オブジェクト候補の検出情報をメモリに記憶して、ステップS27へ進む。   In step S24, it is determined whether or not an object candidate has been detected for the result of the second object detection step in step S23. If an object candidate is detected (step S24: YES), step S25 is executed, the object candidate detection information is stored in the memory, and the process proceeds to step S27.

第1の画像についての検出処理でメモリ4に記憶され続けたオブジェクト候補の検出情報41ではあるが、第2の画像についてさらに多数の検出方法を試すことにより、さらに減っていくことになる。第2の画像についてのすべての検出方法を試した後で残ったオブジェクト候補がオブジェクトとして判定されることになる。   Although it is the detection information 41 of the object candidate that has been continuously stored in the memory 4 in the detection process for the first image, it can be further reduced by trying more detection methods for the second image. Object candidates remaining after trying all the detection methods for the second image are determined as objects.

ステップS24でオブジェクトの候補が検出されなかった場合(ステップS24:NO)は、ステップS26を実行し、この時点で当該検出領域にはオブジェクト候補が検出されなかったと判定する。従って該当する検出領域の位置情報と大きさ情報は、その検出情報を削除することになる。一旦検出情報が削除されると、その検出情報が参照されることはない、すなわち同じ検出領域に対してその後新たな検出方法が試されることはないのは、第1の画像の場合と同様である。従って次のステップS27は省略され、ステップS28へ進むことになる。   If no object candidate is detected in step S24 (step S24: NO), step S26 is executed, and it is determined that no object candidate is detected in the detection area at this time. Therefore, the detection information is deleted from the position information and size information of the corresponding detection area. Once the detection information is deleted, the detection information is not referred to, that is, a new detection method is not tried for the same detection area, as in the case of the first image. is there. Accordingly, the next step S27 is omitted, and the process proceeds to step S28.

ステップS27では、予め用意された複数の検出方法がすべて試されたかどうかを判定する。設定された第2の検出領域に対して、すべての検出方法が終了している場合(ステップS27:YES)は、ステップS28に進む。未実行の検出方法が残っている場合(ステップS27:NO)は、ステップS22の第2の検出方法設定工程に戻り、新たな検出方法を設定の上、引き続く処理を繰り返すことになる。   In step S27, it is determined whether or not all the plurality of detection methods prepared in advance have been tried. If all the detection methods have been completed for the set second detection area (step S27: YES), the process proceeds to step S28. If an unexecuted detection method remains (step S27: NO), the process returns to the second detection method setting step of step S22, and a new detection method is set and subsequent processing is repeated.

ステップS28では、メモリに記憶されていたすべての検出情報を読み出し、第2の画像に対して、その検出情報に対応するすべての処理が終了したかどうかを判定する。すべての検出情報に対する処理が終了している場合(ステップS28:YES)は、これですべてのオブジェクト検出処理を終了する。この時点でメモリに残っている検出情報が、最終的にオブジェクト検出と判定されたことになる。   In step S28, all detection information stored in the memory is read out, and it is determined whether or not all processes corresponding to the detection information have been completed for the second image. If the processing for all the detection information has been completed (step S28: YES), all the object detection processing is ended. The detection information remaining in the memory at this time is finally determined to be object detection.

検出情報の読み出しと処理が残っている場合(ステップS28:NO)は、ステップS20の検出情報の読み出しに戻り、残った新たな検出情報を読み出した上で、引き続く処理を繰り返すことになる。   When reading of detection information and processing remain (step S28: NO), it returns to reading of detection information of step S20, and after reading the remaining new detection information, the subsequent processing is repeated.

図5のステップS13乃至ステップS18及びステップS22乃至ステップS27で実行される検出方法の設定及びオブジェクト候補検出処理の一例として、カスケード方式の検出処理について説明する。   As an example of detection method setting and object candidate detection processing executed in steps S13 to S18 and steps S22 to S27 in FIG. 5, a cascade detection process will be described.

この検出処理方法においては、複数の簡単な検出方法を予め用意しておき、それらすべてを順次実行すべく、繰り返し処理を行うことにより、簡単な検出方法で、精度よく、かつ効率的にオブジェクトを検出することができる。その詳細を図7を用いて説明する。図7(a)は、複数の検出方法をカスケード式に、すなわち順次実行して判別処理を掛けていく手順を示したものである。   In this detection processing method, a plurality of simple detection methods are prepared in advance, and an object is accurately and efficiently processed by a simple detection method by repeatedly performing all of them in order. Can be detected. Details thereof will be described with reference to FIG. FIG. 7A shows a procedure in which a plurality of detection methods are executed in cascade, that is, sequentially and subjected to discrimination processing.

図7(a)において、101はある検出方法を実行する工程であり、102は別のある検出方法を実行する工程である。そういった互いに異なる検出方法を実行する工程が複数並んでおり、最終がMの検出方法実行工程である。実行処理は矢印の順に行われる。つまり工程101、工程102の順に実行され、工程Mで終了する。   In FIG. 7A, 101 is a step of executing a certain detection method, and 102 is a step of executing another certain detection method. A plurality of processes for executing such different detection methods are arranged, and the final M detection method execution process. Execution processing is performed in the order of the arrows. That is, the process 101 and the process 102 are executed in this order, and the process ends.

まず、検出領域が設定されると、工程101が実行される。工程101の結果により、オブジェクトが、この時点では候補として、検出されると、次の工程102が実行される。オブジェクト候補が検出されないと、この時点でオブジェクト非検出と最終判定され、以後の処理は行われない。   First, when the detection area is set, step 101 is executed. If the object is detected as a candidate at this time point according to the result of step 101, the next step 102 is executed. If no object candidate is detected, it is finally determined that no object is detected at this point, and the subsequent processing is not performed.

工程102に進んだ場合、同様に、工程102の結果によりオブジェクト候補が検出されると、次の工程103(図示せず)が実行される。オブジェクト候補が検出されないと、同じようにこの時点でオブジェクト非検出と最終判定され、以後の処理は行われない。   Similarly, when the process proceeds to step 102, if an object candidate is detected based on the result of step 102, the next step 103 (not shown) is executed. If no object candidate is detected, it is finally determined that no object is detected at this point, and the subsequent processing is not performed.

このように検出処理を進めていき、最後の検出方法実行工程Mの結果にいたるまで、すべての検出方法実行工程でオブジェクト候補が検出された場合のみ、最終的にオブジェクト検出と判定される。途中で一度でもオブジェクト候補が検出されなければ、その時点でオブジェクト非検出と最終判定され、検出処理は終了する。   The detection process proceeds in this way, and only when the object candidate is detected in all detection method execution steps until the result of the last detection method execution step M is reached, it is finally determined that the object is detected. If an object candidate is not detected even once in the middle, it is finally determined that no object is detected at that time, and the detection process ends.

以上から分かるように、この検出処理の特徴は、簡単な検出方法を複数用意することで全体としての検出精度を確保すると共に、一つ一つの検出方法は弱い検出、すなわちオブジェクトらしきものは候補とし、確実にオブジェクトでないものは排除していくことで、おそらく大多数のオブジェクトを含まない検出領域を早い処理段階で排除し、全体の処理時間を短縮することにある。   As can be seen from the above, the characteristics of this detection process are to prepare multiple simple detection methods to ensure the overall detection accuracy, and each detection method is a weak detection, that is, an object-like one is a candidate. By eliminating those that are not objects reliably, it is possible to eliminate detection regions that probably do not contain the majority of objects at an early stage of processing, thereby shortening the overall processing time.

これらの複数の検出方法は順次実行されるが、連続して実行される必要はない。例えば、工程101の結果が出た時点で、工程102に移らず、別の検出領域に対する工程101の実行に移ってもよい。但し工程101の結果は保持されていて、いずれ工程102を実行することになる。従って順序は保持されるが、連続して実行される必要はない。   These multiple detection methods are performed sequentially but need not be performed sequentially. For example, when the result of the process 101 is obtained, the process 101 may be performed for another detection region without moving to the process 102. However, the result of step 101 is retained, and step 102 will be executed. Thus, the order is preserved but need not be executed continuously.

複数の検出方法を構成して一つの検出方法としてまとめてもよい。図7(b)にその例を示す。   A plurality of detection methods may be configured and combined as one detection method. An example is shown in FIG.

図7(b)では、二つずつの副検出方法をまとめて一つの検出方法としている。図7(a)との比較でいえば、101、102といった工程が、それぞれ二つずつの副検出方法から構成されている。従ってこの二つの副検出方法は連続して実行される。しかしその両方でオブジェクト候補が検出された場合のみオブジェクト候補が検出されたとするのは、図7(a)と同じである。   In FIG. 7B, two sub detection methods are combined into one detection method. In comparison with FIG. 7A, the steps 101 and 102 are each composed of two sub-detection methods. Therefore, these two sub detection methods are executed in succession. However, it is the same as FIG. 7A that an object candidate is detected only when an object candidate is detected in both of them.

このように複数の検出方法の組み合わせは多々考えられるが、オブジェクトでないものは早い段階で排除するという考え方で、任意に適切な組み合わせを選択すればよい。   As described above, there are many possible combinations of detection methods. However, it is only necessary to select an appropriate combination based on the idea that non-objects are excluded at an early stage.

図5のステップS21で実行される、第1の検出領域での検出情報41から第2の検出領域を設定する方法について、図8を用いて、具体的な実例を説明する。図8は、オブジェクトを撮影したステレオカメラと撮影対象のオブジェクトの位置関係を示す図である。   A specific example of the method of setting the second detection area from the detection information 41 in the first detection area executed in step S21 of FIG. 5 will be described with reference to FIG. FIG. 8 is a diagram illustrating a positional relationship between a stereo camera that captures an object and an object to be captured.

図8において、1は撮影に用いるステレオカメラであり、Xは撮影対象のオブジェクトPの位置を示す。Xはステレオカメラ1の第1の光学系A及び第2の光学系Bから等距離にあるものとし、光学系A及びBの光軸方向でのステレオカメラ1からの距離をDとする。dは、光学系A及びBの各光軸間の距離である。θは各光学系の画角、すなわち撮影画像に写る角度範囲を示す。   In FIG. 8, reference numeral 1 denotes a stereo camera used for photographing, and X denotes the position of the object P to be photographed. X is assumed to be equidistant from the first optical system A and the second optical system B of the stereo camera 1, and D is the distance from the stereo camera 1 in the optical axis direction of the optical systems A and B. d is the distance between the optical axes of the optical systems A and B. θ represents the angle of view of each optical system, that is, the range of angles that appear in the captured image.

図9は、Xの位置にあるオブジェクトP(ここでは顔である)をステレオカメラ1で撮影し、取得された画像を示す。画像AX1は、第1の光学系Aにより取得された第1の画像であり、画像BX1は、第2の光学系Bにより取得された第2の画像である。   FIG. 9 shows an image obtained by photographing the object P (here, a face) at the position X with the stereo camera 1. The image AX1 is a first image acquired by the first optical system A, and the image BX1 is a second image acquired by the second optical system B.

画像AX1及び画像BX1の双方の画像中に、同一のXの位置にあるオブジェクトPが画像として存在している。しかし、第1の光学系と第2の光学系の光軸が距離dを隔てているため、画像AX1中でのオブジェクトの位置と画像BX1中でのオブジェクトの位置とは、互いに異なっている。   In both the images AX1 and BX1, the object P at the same X position exists as an image. However, since the optical axes of the first optical system and the second optical system are separated from each other by the distance d, the position of the object in the image AX1 and the position of the object in the image BX1 are different from each other.

本実施形態では、まず第1の画像に対してオブジェクト検出が行われ、次いで第2の画像に対してオブジェクト検出が行われる。第1の画像及び第2の画像の少なくとも一方でオブジェクト候補が検出されなかった場合には、その検出領域に対する検出処理はそこで打ち切られる。すなわち、第1の画像に対してオブジェクトの候補が検出された検出領域に対してのみ、第2の画像についてオブジェクト検出処理を行う。   In the present embodiment, object detection is first performed on the first image, and then object detection is performed on the second image. When an object candidate is not detected in at least one of the first image and the second image, the detection process for the detection area is terminated there. That is, the object detection process is performed on the second image only for the detection region where the object candidate is detected for the first image.

第1の画像でオブジェクトの候補が検出された場合は、検出されたオブジェクト候補の検出情報、すなわち第1の検出領域の第1の画像中の位置及び大きさから、第2の画像での対応するオブジェクト候補の存在する位置と大きさを推定し、第1の検出領域と対応する第2の検出領域を設定する。   When an object candidate is detected in the first image, the response in the second image is detected from detection information of the detected object candidate, that is, the position and size of the first detection area in the first image. The position and size of the candidate object to be present are estimated, and a second detection area corresponding to the first detection area is set.

上記推定の実例として、第1の画像AX1及び第2の画像BX1の画像サイズを、いずれも640×480画素とし、第1の光学系Aと第2の光学系Bの距離dを0.1m、それぞれの画角θをいずれも50度とする。またオブジェクトPの位置Xのステレオカメラ1からの距離Dを1mとする。   As an actual example of the above estimation, the image sizes of the first image AX1 and the second image BX1 are both 640 × 480 pixels, and the distance d between the first optical system A and the second optical system B is 0.1 m. Each angle of view θ is 50 degrees. The distance D from the stereo camera 1 at the position X of the object P is 1 m.

第1の画像AX1におけるオブジェクトPの水平座標位置と第2の画像BX1におけるオブジェクトの水平座標位置との差をxとし、これを求める。   The difference between the horizontal coordinate position of the object P in the first image AX1 and the horizontal coordinate position of the object in the second image BX1 is set as x, and this is obtained.

第1の光学系Aと第2の光学系Bの距離d=0.1mであるから、ステレオカメラ1からの距離D=1mの地点での水平方向0.1mが、画像AX1と画像BX1における水平方向の座標位置の差x(画素)に相当することになる。   Since the distance d of the first optical system A and the second optical system B is 0.1 m, the horizontal direction 0.1 m at the point of the distance D = 1 m from the stereo camera 1 is in the image AX1 and the image BX1. This corresponds to the difference x (pixel) in the coordinate position in the horizontal direction.

画角θ=50度を考慮すれば、距離D=1mの地点での水平方向全画像範囲が640画素に相当するので、
x/640=d/(2Dtan(θ/2))
従って、これを計算すると
x=68(画素)
となる。
Considering the angle of view θ = 50 degrees, the entire horizontal image range at a distance D = 1 m corresponds to 640 pixels.
x / 640 = d / (2Dtan (θ / 2))
Therefore, when this is calculated, x = 68 (pixels)
It becomes.

表1に、距離Dが異なった場合についての、第1の画像AX1での検出情報(オブジェクトの位置と大きさ、すなわち検出領域の位置と大きさ)から、第2の画像BX1での検出領域の位置と大きさを計算した例を示す。位置と大きさはいずれも水平方向の座標値(画素)に基づく。   Table 1 shows the detection area in the second image BX1 based on the detection information (the position and size of the object, that is, the position and size of the detection area) in the first image AX1 when the distance D is different. An example of calculating the position and size of is shown. Both position and size are based on horizontal coordinate values (pixels).

Figure 2006331266
Figure 2006331266

例えば、上記の例で、第1の画像AX1での検出情報(オブジェクト候補を検出した第1の検出領域の位置と大きさ)が、それぞれ250と137の場合は、x=68(画素)により、第2の画像BX1での第2の検出領域の位置と大きさは、位置が250−68=182で、大きさは137になる。この場合は、ステレオカメラであり、第1及び第2の光学系から、各光学系の光軸方向のオブジェクトとの距離が同じであるため、水平方向に位置がずれるだけで大きさは変わらない。   For example, in the above example, when the detection information in the first image AX1 (the position and size of the first detection region where the object candidate is detected) is 250 and 137, respectively, x = 68 (pixels) The position and the size of the second detection region in the second image BX1 are 250-68 = 182 and the size is 137. In this case, since it is a stereo camera and the distance from the first and second optical systems to the object in the optical axis direction of each optical system is the same, the size does not change just by shifting the position in the horizontal direction. .

図9には、水平方向の座標位置を上記の数値例で示している。第1の画像AX1における第1の検出領域AX2の水平方向位置が250、大きさが137に対して、第2の画像BX1における第2の検出領域BX2の水平方向位置が182、大きさが137である。   FIG. 9 shows the coordinate position in the horizontal direction with the above numerical example. The horizontal position of the first detection region AX2 in the first image AX1 is 250 and the size is 137, whereas the horizontal position of the second detection region BX2 in the second image BX1 is 182 and the size is 137. It is.

このようにして、第1の画像でのオブジェクト候補検出情報、すなわち第1の検出領域の第1の画像中の位置及び大きさから、第2の画像での対応するオブジェクト候補の存在する位置と大きさを推定し、第1の検出領域と対応する第2の検出領域を設定することができる。   In this way, from the object candidate detection information in the first image, that is, the position and size of the first detection region in the first image, the position where the corresponding object candidate exists in the second image, and The size can be estimated and a second detection area corresponding to the first detection area can be set.

実際にはオブジェクト候補の位置とサイズの推定には変動が生ずることが考えられる。例えば、ウィンドウサイズが137としたときに検出されたとする。ウィンドウサイズは離散的であり、その次のサイズが114であったとすれば、137から114の間に適切なウィンドウサイズがあるものと考えられる。   Actually, it is considered that the estimation of the position and size of the object candidate varies. For example, suppose that it is detected when the window size is 137. If the window size is discrete and the next size is 114, it is assumed that there is an appropriate window size between 137 and 114.

ウィンドウサイズ114の場合は、上記位置のずれはx=57(画素)と計算されるので、実際は図10に示すように、第2の検出領域64の位置を第1の検出領域63の位置に対して、−68から−57まで変化させてスキャンし、最適の検出領域を設定するようにすることが好ましい。   In the case of the window size 114, since the positional shift is calculated as x = 57 (pixels), the position of the second detection area 64 is actually set to the position of the first detection area 63 as shown in FIG. On the other hand, it is preferable to scan by changing from −68 to −57 to set an optimal detection area.

以上、処理例1の手順を実行することにより、次のような検出精度向上と、処理時間短縮の効果がある。   As described above, executing the procedure of Processing Example 1 has the following effects of improving detection accuracy and reducing processing time.

(1)そのオブジェクト検出処理の中で、第1の画像と第2の画像の双方を検出工程に掛け、かつ一方で検出されるならば当然他方でも検出されねばならないことを利用し、オブジェクトでないものは他方の検出工程を省略することにより、画像を増加して精度向上に寄与しながら、処理時間の増大は最小限にとどめることができる。   (1) In the object detection process, both the first image and the second image are subjected to the detection process, and if it is detected on the one hand, it must be detected on the other hand. By omitting the other detection step, the increase in processing time can be minimized while increasing the number of images and contributing to improvement in accuracy.

(2)また、第1の画像でオブジェクトの候補が検出されたときには、第1の画像での検出情報、すなわち第1の画像中でのオブジェクト候補検出の位置と大きさに関する情報から、第2の画像中でのオブジェクト候補の存在すべき位置と大きさの情報を算出することにより、第2の画像について検出領域を特定することができ、検出領域を変更して反復検出する工程を削減し、処理時間を大きく短縮することができる。   (2) Further, when an object candidate is detected in the first image, the second information is detected from the detection information in the first image, that is, information on the position and size of the object candidate detection in the first image. By calculating the information on the position and size of the object candidate in the image, the detection area can be specified for the second image, and the process of repeatedly detecting by changing the detection area can be reduced. The processing time can be greatly shortened.

(3)また、精度向上のためには、複数の検出方法を設定した複数の検出工程に掛けることが有効であるが、一方で処理を煩雑にし、処理時間を増やすことになる。しかし、上記複数画像や複数検出領域と組み合わせながら、オブジェクト候補を検出できなかった領域は、即、以後の処理を打ち切るというふるい落とし方式の判定を実行することにより、画像中の大多数を占める非オブジェクト領域を早い段階で排除し、処理時間を大きく短縮することができる。   (3) In order to improve accuracy, it is effective to apply a plurality of detection steps in which a plurality of detection methods are set, but on the other hand, the processing becomes complicated and the processing time is increased. However, non-objects that occupy the majority in the image can be obtained by executing a screening method determination that immediately terminates subsequent processing for areas where object candidates cannot be detected while being combined with the multiple images and multiple detection areas. The area can be eliminated at an early stage, and the processing time can be greatly shortened.

本実施形態でのオブジェクト検出処理は、精度を向上すべく、複数の検出工程を順次反復する構成となっている。検出工程を複数にしている要素は、複数の画像(ステレオ画像としての第1及び第2の画像)、複数の検出領域、複数の検出方法である。各検出工程はそれらの組み合わせであるが、それらの反復の組み合わせにより順序的に見ると様々な多段構成がある。   The object detection process in the present embodiment is configured to sequentially repeat a plurality of detection steps in order to improve accuracy. The elements that make a plurality of detection steps are a plurality of images (first and second images as stereo images), a plurality of detection regions, and a plurality of detection methods. Each detection step is a combination thereof, but there are various multi-stage configurations when viewed in order by a combination of these repetitions.

例えば、上述の処理例1では、まず第1の画像と第2の画像の設定が変更され、次に各画像について検出領域が設定変更して繰り返され、次に各検出領域について検出方法が設定変更して繰り返される。   For example, in the processing example 1 described above, the settings of the first image and the second image are first changed, then the detection area is changed for each image, and the detection method is set for each detection area. Change and repeat.

それらの反復の組み合わせ順序は、いかに早い段階でオブジェクトでないものを排除して、必要のない検出工程をスキップするか、すなわち全体の処理を効率化して処理時間を短縮するか、という観点から任意に選択すればよい。   The order in which the iterations are combined is arbitrary from the viewpoint of eliminating non-objects at an early stage and skipping unnecessary detection steps, that is, improving the overall processing efficiency and reducing the processing time. Just choose.

以下の処理例2及び処理例3では、別の反復の組み合わせを例示して説明する。   In the following processing example 2 and processing example 3, another combination of iterations will be exemplified and described.

(処理例2)
図11を用いて、オブジェクト検出処理の別の処理例2を説明する。図11は処理例2によるオブジェクト検出処理の流れを示すフローチャートである。
(Processing example 2)
Another example 2 of the object detection process will be described with reference to FIG. FIG. 11 is a flowchart showing the flow of object detection processing according to Processing Example 2.

処理例2が処理例1と異なるのは、反復処理の順序が異なるのみであり、一つ一つのステップは処理例1と同じものがほとんどである。処理例1と同じステップには同じ符号を付して、その工程の説明は省略する。   Process example 2 differs from process example 1 only in the order of the iterative processing, and each step is almost the same as process example 1. The same steps as those of the processing example 1 are denoted by the same reference numerals, and description of the steps is omitted.

オブジェクト検出処理を開始すると、まずステップS11でメモリに格納されている第1の画像、第2の画像を読み出す。それ以前の撮影も含めて、処理例1と同様である。   When the object detection process is started, first, the first image and the second image stored in the memory are read in step S11. This is the same as Processing Example 1 including the previous shooting.

次に、第1の検出領域設定工程であるステップS12で、第1の画像に対して、第1の検出領域を設定する。適当なサブウィンドウを設定し、そのサブウィンドウで第1の画像の全領域をスキャンしていくのは、処理例1と同様である。   Next, in step S12, which is a first detection area setting step, a first detection area is set for the first image. An appropriate sub-window is set, and the entire area of the first image is scanned in the sub-window as in the processing example 1.

次に、第1の検出方法設定工程であるステップS13では、ステップS12で設定した第1の検出領域に対するオブジェクト検出方法の設定を行う。複数の検出方法を予め用意しておき、それらすべてを順次実行すべく、繰り返し処理を行うようにしたのは、処理例1と同様である。   Next, in step S13, which is a first detection method setting step, an object detection method is set for the first detection area set in step S12. A plurality of detection methods are prepared in advance, and repeated processing is performed in order to sequentially execute all of them, as in the first processing example.

次に、第1のオブジェクト検出工程であるステップS14で、ステップS12で設定した第1の検出領域に対して、ステップS13で設定した第1の検出方法を適用し、オブジェクト候補の検出処理を実行する。この段階ではオブジェクト候補であり、オブジェクト検出の判定は、すべてのオブジェクト検出工程を終えてから判定されることになるのは、処理例1と同様である。   Next, in step S14, which is the first object detection step, the first detection method set in step S13 is applied to the first detection region set in step S12, and object candidate detection processing is executed. To do. It is an object candidate at this stage, and object detection is determined after all object detection steps are completed, as in the first processing example.

ステップS15では、ステップS14の第1のオブジェクト検出工程の結果に対してオブジェクトの候補が検出されたかどうかを判別する。オブジェクトの候補が検出された場合(ステップS15:YES)は、ステップS21へ進む、すなわちオブジェクト候補が検出された時点で第2の画像の処理に進むことになる。   In step S15, it is determined whether or not an object candidate has been detected for the result of the first object detection step in step S14. If an object candidate is detected (step S15: YES), the process proceeds to step S21, that is, the process of the second image is performed when the object candidate is detected.

ステップS15でオブジェクトの候補が検出されなかった場合(ステップS15:NO)は、ステップS17を実行し、この時点で当該検出領域にはオブジェクト候補が検出されなかったと判定し、もし当該検出情報が既に記憶されていれば削除する。従って第2の画像に対して検出処理が行われることはなく、次のステップS21以後の処理は省略され、ステップS19へ進むことになる。   If no object candidate is detected in step S15 (step S15: NO), step S17 is executed, and at this time, it is determined that no object candidate is detected in the detection area, and if the detection information has already been detected. If it is remembered, delete it. Therefore, the detection process is not performed on the second image, the process after the next step S21 is omitted, and the process proceeds to step S19.

次の、第2の検出領域設定工程であるステップS21では、ステップS14でオブジェクト候補を検出した第1の検出領域に基づき、その検出領域に対応する第2の画像における第2の検出領域を設定する。第1の検出領域の位置情報、大きさ情報から第2の検出領域の位置、大きさを推定する方法は、処理例1と同様である。   In step S21, which is the second detection area setting step, the second detection area in the second image corresponding to the detection area is set based on the first detection area in which the object candidate is detected in step S14. To do. The method for estimating the position and size of the second detection area from the position information and size information of the first detection area is the same as in the first processing example.

次に、第2の検出方法設定工程であるステップS22では、ステップS21で設定された第2の検出領域に対して、オブジェクト検出方法の設定を行う。第1の画像についての複数の検出方法と同じ検出方法を使用してもよいし、異なる検出方法を使用してもよいのは、処理例1と同様である。   Next, in step S22, which is a second detection method setting step, an object detection method is set for the second detection region set in step S21. The same detection method as a plurality of detection methods for the first image may be used, or a different detection method may be used as in Processing Example 1.

次に、第2のオブジェクト検出工程であるステップS23で、ステップS21で設定した第2の検出領域に対して、ステップS22で設定した第2の検出方法を適用し、オブジェクト候補の検出処理を実行する。   Next, in step S23 which is the second object detection step, the object detection processing is executed by applying the second detection method set in step S22 to the second detection region set in step S21. To do.

ステップS24では、ステップS23の第2のオブジェクト検出工程の結果に対してオブジェクトの候補が検出されたかどうかを判別する。オブジェクトの候補が検出された場合(ステップS24:YES)は、ステップS16を実行し、オブジェクト候補の検出情報をメモリに記憶して、ステップS18へ進む。   In step S24, it is determined whether or not an object candidate has been detected for the result of the second object detection step in step S23. If an object candidate is detected (step S24: YES), step S16 is executed, the object candidate detection information is stored in the memory, and the process proceeds to step S18.

ステップS24でオブジェクトの候補が検出されなかった場合(ステップS24:NO)は、ステップS17を実行し、この時点で当該検出領域にはオブジェクト候補が検出されなかったと判定し、当該検出情報を削除する。従ってその検出領域に対してその後新たな検出方法が試されることはないのは、処理例1と同様である。従って次のステップS18は省略され、ステップS19へ進むことになる。   If no object candidate is detected in step S24 (step S24: NO), step S17 is executed. At this time, it is determined that no object candidate is detected in the detection area, and the detection information is deleted. . Accordingly, a new detection method is not tried after that for the detection region, as in the first processing example. Therefore, the next step S18 is omitted, and the process proceeds to step S19.

用意されたすべての検出方法に対してオブジェクト候補が検出された場合にのみ、その検出領域に対してオブジェクト検出の判定を下し、一度でもオブジェクト候補が検出されないと、その検出領域はオブジェクト非検出の判定を下し、第2の画像も含めて、それ以後のその検出領域に対する検出処理は打ち切るのである。   Only when object candidates are detected for all detection methods prepared, the detection area is determined to detect an object, and if no object candidate is detected, the detection area is not detected. Thus, the subsequent detection processing for the detection area including the second image is aborted.

従って処理例2の場合、第1の検出領域および第2の検出領域に対して何度も繰り返されることになるステップS15の判別とステップS16、S17の記憶及び削除の処理がオブジェクト判定工程を形成することになる。   Therefore, in the case of the process example 2, the determination in step S15 and the storage and deletion processes in steps S16 and S17 that are repeated many times for the first detection area and the second detection area form the object determination process. Will do.

ステップS18では、予め用意された複数の検出方法がすべて試されたかどうかを判定する。設定された検出領域に対して、すべての検出方法が終了している場合(ステップS18:YES)は、ステップS19に進む。未実行の検出方法が残っている場合(ステップS18:NO)は、ステップS13の第1の検出方法設定工程に戻り、新たな検出方法を設定の上、引き続く処理を繰り返すことになる。   In step S18, it is determined whether or not a plurality of detection methods prepared in advance have been tried. When all the detection methods have been completed for the set detection area (step S18: YES), the process proceeds to step S19. If an unexecuted detection method remains (step S18: NO), the process returns to the first detection method setting step of step S13, and after setting a new detection method, the subsequent processing is repeated.

ステップS19では、第1の画像に対する第1の検出領域のスキャンがすべて終了したかどうかを判定する。スキャンが終了し、すべての検出領域設定が終了している場合(ステップS19:YES)は、これですべてのオブジェクト検出処理を終了する。この時点でメモリに残っている検出情報が、最終的にオブジェクト検出と判定されたことになる。   In step S19, it is determined whether or not scanning of the first detection area for the first image has been completed. If the scan is finished and all the detection area settings are finished (step S19: YES), all the object detection processes are finished here. The detection information remaining in the memory at this time is finally determined to be object detection.

検出領域のスキャンが残っている場合(ステップS19:NO)は、ステップS12の第1の検出領域設定工程に戻り、スキャンを継続して新たな検出領域を設定の上、引き続く処理を繰り返すことになる。   When the scan of the detection area remains (step S19: NO), the process returns to the first detection area setting step of step S12, and the scan is continued to set a new detection area and repeat the subsequent processing. Become.

(処理例3)
図12乃至図15を用いて、オブジェクト検出処理の他の処理例3を説明する。図12乃至図15は処理例3によるオブジェクト検出処理の流れを示すフローチャートである。
(Processing example 3)
Another process example 3 of the object detection process will be described with reference to FIGS. 12 to 15 are flowcharts showing the flow of object detection processing according to Processing Example 3.

処理例3が処理例1及び2と異なるのは、反復処理の順序が異なる点、さらにオブジェクト候補の検出された検出領域の数が所定のしきい値以下になった時点で、反復処理の順序を変更している点である。一つ一つのステップは処理例1及び2と同じものがほとんどである。処理例1及び2と同じステップには、処理例1及び2の符号を参照してその工程の説明は省略する。   The processing example 3 is different from the processing examples 1 and 2 in that the order of the iterative processing is different, and further, when the number of detected areas where the object candidates are detected is equal to or less than a predetermined threshold, Is the point that has changed. Most of the steps are the same as those in Processing Examples 1 and 2. The same steps as those of the processing examples 1 and 2 are referred to by the reference numerals of the processing examples 1 and 2, and the description of the steps is omitted.

オブジェクト検出処理を開始すると、まず図12のステップS301でメモリに格納されている第1の画像、第2の画像を読み出す。それ以前の撮影も含めて、処理例1のステップS11と同様である。   When the object detection process is started, first, the first image and the second image stored in the memory are read in step S301 in FIG. The process is the same as Step S11 in Processing Example 1 including the previous shooting.

次に、第1の検出方法設定工程であるステップS302で、オブジェクト検出方法の設定を行う。複数の検出方法を予め用意しておき、それらすべてを順次実行すべく、繰り返し処理を行うようにしたのは、処理例1ステップS13と同様である。   Next, in step S302, which is a first detection method setting step, an object detection method is set. A plurality of detection methods are prepared in advance, and repeated processing is performed in order to sequentially execute all of them, as in the first processing example step S13.

ステップS303では、メモリから順次検出情報を読み出していく。処理例1ステップS20と同様である。但し、初期のみは第1の画像のスキャンを行う。すなわち、このステップS303は省略し、次のステップS304でスキャン操作により網羅的に第1の検出領域を設定していく。   In step S303, the detection information is sequentially read from the memory. Processing example 1 is the same as step S20. However, the first image is scanned only in the initial stage. That is, this step S303 is omitted, and the first detection area is comprehensively set by a scanning operation in the next step S304.

次に、第1の検出領域設定工程であるステップS304で、第1の画像に対して、第1の検出領域を設定する。前述のように、初期は適当なサブウィンドウを設定し、そのサブウィンドウで第1の画像の全領域をスキャンしていく。先行するステップS303で検出情報を読み取っているときは、その検出情報に基づき設定する。   Next, in step S304, which is a first detection area setting step, a first detection area is set for the first image. As described above, an appropriate subwindow is initially set, and the entire area of the first image is scanned in the subwindow. When the detection information is read in the preceding step S303, the detection information is set based on the detection information.

次に、第1のオブジェクト検出工程であるステップS305で、ステップS304で設定した第1の検出領域に対して、ステップS302で設定した第1の検出方法を適用し、オブジェクト候補の検出処理を実行する。処理例1ステップS14と同様である。   Next, in step S305, which is the first object detection step, the first detection method set in step S302 is applied to the first detection region set in step S304, and object candidate detection processing is executed. To do. Processing example 1 is the same as step S14.

ステップS306では、ステップS305の第1のオブジェクト検出工程の結果に対してオブジェクトの候補が検出されたかどうかを判別する。処理例1ステップS15と同様である。オブジェクトの候補が検出された場合(ステップS306:YES)は、ステップS307を実行し、オブジェクト候補の検出情報をメモリに記憶または保持する。   In step S306, it is determined whether an object candidate has been detected for the result of the first object detection step in step S305. Processing example 1 is the same as step S15. If an object candidate is detected (step S306: YES), step S307 is executed to store or hold the object candidate detection information in the memory.

ステップS306でオブジェクトの候補が検出されなかった場合(ステップS306:NO)は、ステップS308を実行し、この時点で当該検出領域にはオブジェクト候補が検出されなかったと判定する。すなわちメモリに検出情報は記憶されず、既に記憶されていれば削除される。   If no object candidate is detected in step S306 (step S306: NO), step S308 is executed, and it is determined that no object candidate is detected in the detection area at this point. That is, the detection information is not stored in the memory and is deleted if it is already stored.

ステップS309では、メモリに記憶されていたすべての検出情報を読み出し、第1の画像に対して、その検出情報に対応するすべての処理が終了したかどうかを判定する。処理例1ステップS28と同様である。すべての検出情報に対する処理が終了している場合(ステップS309:YES)は、これですべてのオブジェクト検出処理を終了する。この時点でメモリに残っている検出情報が、最終的にオブジェクト検出と判定されたことになる。   In step S309, all the detection information stored in the memory is read out, and it is determined whether or not all the processes corresponding to the detection information have been completed for the first image. Processing example 1 is the same as step S28. If the processing for all the detection information has been completed (step S309: YES), all the object detection processing is ended. The detection information remaining in the memory at this time is finally determined to be object detection.

検出情報の読み出しと処理が残っている場合(ステップS309:NO)は、ステップS303の検出情報の読み出しに戻り、残った新たな検出情報を読み出した上で、引き続く処理を繰り返すことになる。   When reading of detection information and processing remain (step S309: NO), the process returns to reading of detection information in step S303, and after reading the remaining new detection information, the subsequent processing is repeated.

次に、ステップS310では、オブジェクト候補の検出された検出領域の数、すなわちメモリに記憶された検出情報の数が所定のしきい値以下であるかどうかを判定する。ただし、初期はすべての検出領域についてスキャン中、すなわち検出情報記憶中であるので、スキャン中はこのステップS310は省略する。   Next, in step S310, it is determined whether or not the number of detection areas in which object candidates are detected, that is, the number of detection information stored in the memory is equal to or less than a predetermined threshold value. However, since all the detection areas are initially being scanned, that is, the detection information is being stored, this step S310 is omitted during the scan.

ステップS310で検出情報の数が所定のしきい値以下である場合(ステップS310:YES)は、前検出方法の終了を待たずに第2の画像の処理に移行するため、ステップS312に進む。検出情報の数が所定のしきい値以下でない場合(ステップS310:NO)は、ステップS311に進む。   If the number of pieces of detection information is equal to or less than the predetermined threshold value in step S310 (step S310: YES), the process proceeds to step S312 in order to shift to the processing of the second image without waiting for the end of the previous detection method. If the number of pieces of detection information is not less than or equal to the predetermined threshold (step S310: NO), the process proceeds to step S311.

ステップS311では、予め用意された複数の検出方法がすべて試されたかどうかを判定する。処理例1ステップS18と同様である。すべての検出方法が終了している場合(ステップS311:YES)は、ステップS312へ進む。未実行の検出方法が残っている場合(ステップS311:NO)は、ステップS302の第1の検出方法設定工程に戻り、新たな検出方法を設定の上、引き続く処理を繰り返すことになる。   In step S311, it is determined whether or not a plurality of detection methods prepared in advance have been tried. Processing example 1 is the same as step S18. If all the detection methods have been completed (step S311: YES), the process proceeds to step S312. If an unexecuted detection method remains (step S311: NO), the process returns to the first detection method setting step of step S302, and after setting a new detection method, the subsequent processing is repeated.

ステップS312では、ここまでに既に実行済みの検出方法の情報をメモリに記憶する。同じ実行済みの検出方法を、次の図13の第2の画像についての処理で実行するためである。   In step S312, information on detection methods already executed so far is stored in the memory. This is because the same detection method that has already been executed is executed in the processing for the second image in FIG.

図13のステップS321では、メモリに記憶されている第1の画像についての既に実行済みの検出方法の情報をメモリから読み出す。   In step S321 of FIG. 13, information on the detection method already executed for the first image stored in the memory is read from the memory.

次に、第2の検出方法設定工程であるステップS322では、ステップS321で読み出された実行済みの検出方法に基づき、それらを順次実行すべく第2のオブジェクト検出方法の設定を行う。処理例1ステップS22と同様である。   Next, in step S322, which is the second detection method setting step, the second object detection method is set to be sequentially executed based on the detection methods that have been read in step S321. Processing example 1 is the same as step S22.

ステップS323では、メモリに記憶された検出情報を順次読み出していく。処理例1ステップS20と同様である。   In step S323, the detection information stored in the memory is sequentially read. Processing example 1 is the same as step S20.

次の、第2の検出領域設定工程であるステップS324では、ステップS323で読み出された検出情報に基づき、その検出情報に対応する第2の画像における第2の検出領域を設定する。第2の検出領域の設定方法は、処理例1及び2のステップS21と同様である。   In step S324, which is a second detection area setting step, the second detection area in the second image corresponding to the detection information is set based on the detection information read in step S323. The setting method of the second detection area is the same as that in step S21 of processing examples 1 and 2.

次に、第2のオブジェクト検出工程であるステップS325で、ステップS324で設定した第2の検出領域に対して、ステップS322で設定した第2の検出方法を適用し、オブジェクト候補の検出処理を実行する。処理例1及び2のステップS23と同様である。   Next, in step S325, which is the second object detection step, the second detection method set in step S322 is applied to the second detection region set in step S324, and object candidate detection processing is executed. To do. This is the same as Step S23 in Processing Examples 1 and 2.

ステップS326では、ステップS325の第2のオブジェクト検出工程の結果に対してオブジェクトの候補が検出されたかどうかを判別する。ステップS306と同様である。オブジェクトの候補が検出された場合(ステップS326:YES)は、ステップS327を実行し、オブジェクト候補の検出情報をメモリに記憶または保持する。   In step S326, it is determined whether or not an object candidate has been detected for the result of the second object detection step in step S325. This is the same as step S306. If an object candidate is detected (step S326: YES), step S327 is executed, and the object candidate detection information is stored or held in the memory.

ステップS326でオブジェクトの候補が検出されなかった場合(ステップS326:NO)は、ステップS328を実行し、この時点で当該検出領域にはオブジェクト候補が検出されなかったと判定する。すなわちメモリに記憶されている当該検出情報は削除される。   If no object candidate is detected in step S326 (step S326: NO), step S328 is executed, and it is determined that no object candidate is detected in the detection area at this point. That is, the detection information stored in the memory is deleted.

ステップS329では、メモリに記憶されていたすべての検出情報を読み出し、第2の画像に対する処理が終了したかどうかを判定する。処理例1及び2のステップS28と同様である。すべての検出情報に対する処理が終了している場合(ステップS329:YES)は、ステップS330へ進む。   In step S329, all the detection information stored in the memory is read out, and it is determined whether or not the processing for the second image is completed. This is the same as Step S28 in Processing Examples 1 and 2. If the processing for all detection information has been completed (step S329: YES), the process proceeds to step S330.

検出情報の読み出しと処理が残っている場合(ステップS329:NO)は、ステップS323の検出情報の読み出しに戻り、残った新たな検出情報を読み出した上で、引き続く処理を繰り返すことになる。   When reading of detection information and processing remain (step S329: NO), the process returns to reading of detection information in step S323, and after reading the remaining new detection information, the subsequent processing is repeated.

ステップS330では、メモリに実行済み検出方法情報として記憶されているすべての実行済み検出方法を読み出し、第2の画像について実行処理したかどうかを判定する。すべての実行済み検出方法に対する実行処理が終了している場合(ステップS330:YES)は、ステップS331へ進む。   In step S330, all executed detection methods stored as executed detection method information in the memory are read out, and it is determined whether or not the second image has been executed. When the execution process for all the executed detection methods has been completed (step S330: YES), the process proceeds to step S331.

実行済み検出方法の読み出しと処理が残っている場合(ステップS330:NO)は、ステップS321の実行済み検出方法情報の読み出しに戻り、残った新たな実行済み検出方法を読み出した上で、引き続く処理を繰り返すことになる。   When the readout of the executed detection method and the process remain (step S330: NO), the process returns to the readout of the executed detection method information in step S321, and after reading the remaining executed detection method, the subsequent process Will be repeated.

ステップS331では、予め用意された複数の検出方法がすべて、実行済み検出方法に含まれているかどうか、すなわちすべての検出方法が第1及び第2の画像に対して試されたかどうかを判定する。すべての検出方法が終了している場合(ステップS331:YES)は、これですべてのオブジェクト検出処理を終了する。この時点でメモリに残っている検出情報が、最終的にオブジェクト検出と判定されたことになる。   In step S331, it is determined whether or not all of the plurality of detection methods prepared in advance are included in the executed detection method, that is, whether or not all the detection methods have been tried on the first and second images. If all the detection methods have been completed (step S331: YES), all the object detection processes are completed. The detection information remaining in the memory at this time is finally determined to be object detection.

実行済みでない検出方法が残っている場合(ステップS331:NO)は、未実行の検出方法を第1及び第2の画像に対して実行処理するため、図14のステップS341へと進む。   If there is still a detection method that has not been executed (step S331: NO), the process proceeds to step S341 in FIG. 14 in order to execute an unexecuted detection method on the first and second images.

図14のステップS341では、予め用意された複数の検出方法のうち、実行済み検出方法に含まれていないもの、すなわち残っているすべて未実行の検出方法についての情報を残余検出方法情報としてメモリに記憶する。   In step S341 in FIG. 14, information on detection methods that are not included in the executed detection methods among the plurality of detection methods prepared in advance, that is, information on all remaining unexecuted detection methods is stored in the memory as residual detection method information. Remember.

ステップS342では、メモリに記憶されている残余検出方法情報を順次メモリから読み出す。   In step S342, the residual detection method information stored in the memory is sequentially read from the memory.

次に、第1の検出方法設定工程であるステップS343では、ステップS342で読み出された残余検出方法情報に基づき、それらを順次実行すべく第1のオブジェクト検出方法の設定を行う。処理例1及び2のステップS13と同様である。   Next, in step S343, which is the first detection method setting step, the first object detection method is set so as to be sequentially executed based on the residual detection method information read in step S342. This is the same as Step S13 in Processing Examples 1 and 2.

ステップS344では、メモリに記憶された検出情報を順次読み出していく。処理例1及び2のステップS20と同様である。   In step S344, the detection information stored in the memory is sequentially read. This is the same as Step S20 in Processing Examples 1 and 2.

次の、第1の検出領域設定工程であるステップS345では、ステップS344で読み出された検出情報に基づき、その検出情報に対応する第1の画像における第1の検出領域を設定する。処理例1及び2のステップS12と同様である。   In step S345, which is the next first detection area setting step, the first detection area in the first image corresponding to the detection information is set based on the detection information read in step S344. This is the same as Step S12 in Processing Examples 1 and 2.

次に、第1のオブジェクト検出工程であるステップS346で、ステップS345で設定した第1の検出領域に対して、ステップS343で設定した第1の検出方法を適用し、オブジェクト候補の検出処理を実行する。処理例1及び2のステップS14と同様である。   Next, in step S346, which is the first object detection step, the first detection method set in step S343 is applied to the first detection region set in step S345, and object candidate detection processing is executed. To do. This is the same as Step S14 in Processing Examples 1 and 2.

ステップS347では、ステップS346の第1のオブジェクト検出工程の結果に対してオブジェクトの候補が検出されたかどうかを判別する。ステップS306と同様である。オブジェクトの候補が検出された場合(ステップS347:YES)は、ステップS348を実行し、オブジェクト候補の検出情報をメモリに保持する。   In step S347, it is determined whether or not an object candidate has been detected with respect to the result of the first object detection step in step S346. This is the same as step S306. If an object candidate is detected (step S347: YES), step S348 is executed, and the object candidate detection information is held in the memory.

ステップS347でオブジェクトの候補が検出されなかった場合(ステップS347:NO)は、ステップS349を実行し、この時点で当該検出領域にはオブジェクト候補が検出されなかったと判定する。すなわちメモリに記憶されている当該検出情報は削除される。   If no object candidate is detected in step S347 (step S347: NO), step S349 is executed, and it is determined that no object candidate is detected in the detection area at this time. That is, the detection information stored in the memory is deleted.

ステップS350では、メモリに記憶されていたすべての検出情報を読み出し、第1の画像に対する処理が終了したかどうかを判定する。ステップS329と同様である。すべての検出情報に対する処理が終了している場合(ステップS350:YES)は、ステップS351へ進む。   In step S350, all the detection information stored in the memory is read out, and it is determined whether or not the processing for the first image is completed. This is the same as step S329. If the processing for all the detection information has been completed (step S350: YES), the process proceeds to step S351.

検出情報の読み出しと処理が残っている場合(ステップS350:NO)は、ステップS344の検出情報の読み出しに戻り、残った新たな検出情報を読み出した上で、引き続く処理を繰り返すことになる。   When reading of detection information and processing remain (step S350: NO), the process returns to reading of detection information in step S344, and the subsequent processing is repeated after reading the remaining new detection information.

ステップS351では、メモリに残余検出方法情報として記憶されているすべての残余検出方法を読み出し、第1の画像について実行処理したかどうかを判定する。すべての残余検出方法に対する実行処理が終了している場合(ステップS351:YES)は、残余の検出方法を第2の画像に対して実行処理するため、次の図15のステップS361へと進む。   In step S351, all the residual detection methods stored as the residual detection method information in the memory are read out, and it is determined whether or not the first image has been executed. If the execution process for all the residual detection methods has been completed (step S351: YES), the process proceeds to step S361 in FIG. 15 to execute the residual detection method for the second image.

残余検出方法の読み出しと処理が残っている場合(ステップS351:NO)は、ステップS342の残余検出方法情報の読み出しに戻り、残った新たな残余検出方法を読み出した上で、引き続く処理を繰り返すことになる。   When the remaining detection method reading and processing remain (step S351: NO), the process returns to reading the residual detection method information in step S342, and after reading the remaining new residual detection method, the subsequent processing is repeated. become.

図15のステップS361では、メモリに記憶されている残余検出方法情報を順次メモリから読み出す。   In step S361 in FIG. 15, the residual detection method information stored in the memory is sequentially read from the memory.

次に、第2の検出方法設定工程であるステップS362では、ステップS361で読み出された残余検出方法情報に基づき、それらを順次実行すべく第2のオブジェクト検出方法の設定を行う。処理例1及び2のステップS22と同様である。   Next, in step S362, which is the second detection method setting step, the second object detection method is set to sequentially execute them based on the residual detection method information read in step S361. This is the same as Step S22 in Processing Examples 1 and 2.

ステップS363では、メモリに記憶された検出情報を順次読み出していく。処理例1及び2のステップS20と同様である。   In step S363, the detection information stored in the memory is sequentially read out. This is the same as Step S20 in Processing Examples 1 and 2.

次の、第2の検出領域設定工程であるステップS364では、ステップS363で読み出された検出情報に基づき、その検出情報に対応する第2の画像における第2の検出領域を設定する。処理例1及び2のステップS21と同様である。   In step S364, which is the second detection area setting step, the second detection area in the second image corresponding to the detection information is set based on the detection information read in step S363. This is the same as Step S21 in Processing Examples 1 and 2.

次に、第2のオブジェクト検出工程であるステップS365で、ステップS364で設定した第2の検出領域に対して、ステップS362で設定した第2の検出方法を適用し、オブジェクト候補の検出処理を実行する。処理例1及び2のステップS23と同様である。   Next, in step S365, which is the second object detection step, the object detection processing is executed by applying the second detection method set in step S362 to the second detection region set in step S364. To do. This is the same as Step S23 in Processing Examples 1 and 2.

ステップS366では、ステップS365の第2のオブジェクト検出工程の結果に対してオブジェクトの候補が検出されたかどうかを判別する。ステップS306と同様である。オブジェクトの候補が検出された場合(ステップS366:YES)は、ステップS367を実行し、オブジェクト候補の検出情報をメモリに保持する。   In step S366, it is determined whether or not an object candidate is detected with respect to the result of the second object detection step in step S365. This is the same as step S306. If an object candidate is detected (step S366: YES), step S367 is executed, and the detection information of the object candidate is held in the memory.

ステップS366でオブジェクトの候補が検出されなかった場合(ステップS366:NO)は、ステップS368を実行し、この時点で当該検出領域にはオブジェクト候補が検出されなかったと判定する。すなわちメモリに記憶されている当該検出情報は削除される。   If no object candidate is detected in step S366 (step S366: NO), step S368 is executed, and it is determined that no object candidate is detected in the detection area at this time. That is, the detection information stored in the memory is deleted.

ステップS369では、メモリに記憶されていたすべての検出情報を読み出し、第2の画像に対する処理が終了したかどうかを判定する。処理例1及び2のステップS28と同様である。すべての検出情報に対する処理が終了している場合(ステップS369:YES)は、ステップS370へ進む。   In step S369, all detection information stored in the memory is read out, and it is determined whether or not the processing for the second image is completed. This is the same as Step S28 in Processing Examples 1 and 2. If the processing for all the detection information has been completed (step S369: YES), the process proceeds to step S370.

検出情報の読み出しと処理が残っている場合(ステップS369:NO)は、ステップS363の検出情報の読み出しに戻り、残った新たな検出情報を読み出した上で、引き続く処理を繰り返すことになる。   When reading of detection information and processing remain (step S369: NO), the process returns to reading of detection information in step S363, and after reading the remaining new detection information, the subsequent processing is repeated.

ステップS370では、メモリに残余検出方法情報として記憶されているすべての残余検出方法を読み出し、第2の画像について実行処理したかどうかを判定する。すべての残余検出方法に対する実行処理が終了している場合(ステップS370:YES)は、これですべてのオブジェクト検出処理が終了する。この時点でメモリに残っている検出情報が、最終的にオブジェクト検出と判定されたことになる。   In step S370, all the residual detection methods stored as residual detection method information in the memory are read out, and it is determined whether or not the second image has been executed. When the execution process for all the residual detection methods has been completed (step S370: YES), all the object detection processes are completed. The detection information remaining in the memory at this time is finally determined to be object detection.

残余検出方法の読み出しと処理が残っている場合(ステップS370:NO)は、ステップS361の残余検出方法情報の読み出しに戻り、残った新たな残余検出方法を読み出した上で、引き続く処理を繰り返すことになる。   If the remaining detection method reading and processing remain (step S370: NO), the process returns to reading the remaining detection method information in step S361, and after reading the remaining new residual detection method, the subsequent processing is repeated. become.

上記処理例1乃至3に示したような実施形態により、画像中のオブジェクトの検出において、同一の被写体を撮影した複数の画像を用いて、それを複数の検出工程として構成し、かつその画像間の関係を有効利用することにより、より簡単で効率的、かつ誤検出の少ないオブジェクト検出方法及びオブジェクト検出装置を提供することができる。   According to the embodiments as shown in the above processing examples 1 to 3, in the detection of the object in the image, a plurality of images obtained by photographing the same subject are used as a plurality of detection steps, and the interval between the images is determined. By effectively utilizing the relationship, it is possible to provide an object detection method and an object detection device that are simpler, more efficient, and have fewer false detections.

なお本発明の実施形態は、上記の実施形態に限定されるものではなく、本発明の趣旨に則る限り、様々な変更された形態もその範囲に許容されるものである。   The embodiment of the present invention is not limited to the above-described embodiment, and various modified forms are allowed within the scope as long as the gist of the present invention is met.

本発明に係る撮影装置の一実施形態であるステレオカメラの外観図である。1 is an external view of a stereo camera that is an embodiment of a photographing apparatus according to the present invention. 図1のステレオカメラ及び本発明に係るオブジェクト検出装置の一実施形態である画像処理装置からなるオブジェクト検出システムの構成を示すブロック図である。It is a block diagram which shows the structure of the object detection system which consists of the stereo camera of FIG. 1 and the image processing apparatus which is one Embodiment of the object detection apparatus based on this invention. 図2の画像処理装置における、画像処理部とメモリの構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of an image processing unit and a memory in the image processing apparatus of FIG. 2. 図3のメモリに記憶される検出情報及び検出方法の内容の例を示す図である。It is a figure which shows the example of the content of the detection information memorize | stored in the memory of FIG. 3, and the detection method. 処理例1に係るオブジェクト検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the object detection process which concerns on the process example 1. FIG. 第1の画像に対して第1の検出領域を設定し、スキャンする状態を示す図である。It is a figure which shows the state which sets the 1st detection area | region with respect to a 1st image, and scans. 複数の異なる検出方法を用いて順次検出、判別する検出処理の実例を示す図である。It is a figure which shows the actual example of the detection process which detects and discriminate | determines sequentially using several different detection methods. オブジェクトを撮影したステレオカメラと撮影対象のオブジェクトの位置関係の実例を示す図である。It is a figure which shows the actual example of the positional relationship of the stereo camera which image | photographed the object, and the object of imaging | photography object. ステレオカメラで撮影された第1の画像と第2の画像の例を簡略化して示す図である。It is a figure which simplifies and shows the example of the 1st image and 2nd image which were image | photographed with the stereo camera. 第1の検出領域に対する第2の検出領域設定の状態の例を示す図である。It is a figure which shows the example of the state of the 2nd detection area setting with respect to a 1st detection area. 処理例2に係るオブジェクト検出処理の流れを示すフローチャートである。10 is a flowchart showing a flow of object detection processing according to Processing Example 2; 処理例3に係るオブジェクト検出処理の流れを示すフローチャート(1/4)である。It is a flowchart (1/4) which shows the flow of the object detection process which concerns on the process example 3. FIG. 処理例3に係るオブジェクト検出処理の流れを示すフローチャート(2/4)である。It is a flowchart (2/4) which shows the flow of the object detection process which concerns on the process example 3. FIG. 処理例3に係るオブジェクト検出処理の流れを示すフローチャート(3/4)である。It is a flowchart (3/4) which shows the flow of the object detection process which concerns on the process example 3. 処理例3に係るオブジェクト検出処理の流れを示すフローチャート(4/4)である。It is a flowchart (4/4) which shows the flow of the object detection process which concerns on the process example 3.

符号の説明Explanation of symbols

1 ステレオカメラ
2 画像処理装置
3 画像処理部
4 メモリ
5 画像入力部
6 出力部
9 第1の撮像素子
10 第2の撮像素子
11 出力画像生成部
12 画像出力部
13 通信経路
31 制御部
32 画像切り換え部
33 オブジェクト判定部
34 第1検出領域設定部
35 第1検出方法設定部
36 第1オブジェクト検出部
37 第2検出領域設定部
38 第2検出方法設定部
39 第2オブジェクト検出部
41 検出情報
42 検出方法情報
51 画像領域
61、62 サブウィンドウ
63、64 検出領域
DESCRIPTION OF SYMBOLS 1 Stereo camera 2 Image processing apparatus 3 Image processing part 4 Memory 5 Image input part 6 Output part 9 1st image pick-up element 10 2nd image pick-up element 11 Output image generation part 12 Image output part 13 Communication path 31 Control part 32 Image switching Unit 33 object determination unit 34 first detection region setting unit 35 first detection method setting unit 36 first object detection unit 37 second detection region setting unit 38 second detection method setting unit 39 second object detection unit 41 detection information 42 detection Method information 51 Image area 61, 62 Subwindow 63, 64 Detection area

Claims (14)

異なる位置から同一の被写体に対する複数の画像を撮影する撮影装置により取得された第1の画像と第2の画像を用いて、前記第1の画像及び第2の画像中の特定のオブジェクトを検出するオブジェクト検出方法において、
前記第1の画像においてオブジェクト候補を検出する第1のオブジェクト検出工程と、
前記第1のオブジェクト検出工程で検出されたオブジェクト候補に基づいて、前記第2の画像における検出領域を設定する第2の検出領域設定工程と、
前記第2の検出領域設定工程で設定された検出領域でオブジェクト候補を検出する第2のオブジェクト検出工程と、
前記第2のオブジェクト検出工程におけるオブジェクト候補の検出結果に基づいて、オブジェクト検出を判定するオブジェクト判定工程とを含むことを特徴とするオブジェクト検出方法。
A specific object in the first image and the second image is detected using the first image and the second image acquired by a photographing device that photographs a plurality of images of the same subject from different positions. In the object detection method,
A first object detection step of detecting object candidates in the first image;
A second detection region setting step of setting a detection region in the second image based on the object candidates detected in the first object detection step;
A second object detection step of detecting an object candidate in the detection region set in the second detection region setting step;
An object determination step of determining object detection based on a detection result of the object candidate in the second object detection step.
前記第1のオブジェクト検出工程は、前記第1の画像におけるオブジェクト候補の位置と大きさに関する情報を検出するものであり、
前記第2の検出領域設定工程は、
前記第1のオブジェクト検出工程で検出されたオブジェクト候補の前記第1の画像における位置と大きさに関する情報から、前記オブジェクト候補と対応する前記第2の画像でのオブジェクト候補の位置と大きさを推定して、前記第2の画像においてオブジェクト候補を検出すべき領域を設定する、
ことを特徴とする請求項1に記載のオブジェクト検出方法。
The first object detection step detects information regarding the position and size of the object candidate in the first image,
The second detection area setting step includes:
The position and size of the object candidate in the second image corresponding to the object candidate are estimated from information on the position and size of the object candidate detected in the first object detection step in the first image. Then, an area where an object candidate is to be detected in the second image is set.
The object detection method according to claim 1.
前記第1のオブジェクト検出工程は、前記第1の画像において異なる複数の検出領域を設定する第1の検出領域設定工程を含んでおり、かつ、前記第1の検出領域設定工程で設定されたそれぞれの検出領域において、オブジェクト候補を検出するものであり、
前記第2の検出領域設定工程は、前記第1のオブジェクト検出工程でオブジェクト候補が検出されたときに、それぞれのオブジェクト候補に対応付けられた、前記第2の画像における検出領域を設定し、
前記第2のオブジェクト検出工程は、前記第2の検出領域設定工程により設定されたそれぞれの検出領域において、オブジェクト候補を検出するものであり、
前記オブジェクト判定工程は、前記第1のオブジェクト検出工程で検出されたそれぞれのオブジェクト候補の検出結果と、前記第2のオブジェクト検出工程で対応付けて検出されたそれぞれのオブジェクト候補の検出結果とに基づいて、オブジェクト検出を判定する、
ことを特徴とする請求項1または2に記載のオブジェクト検出方法。
The first object detection step includes a first detection region setting step for setting a plurality of different detection regions in the first image, and each set in the first detection region setting step. In this detection area, object candidates are detected.
The second detection region setting step sets a detection region in the second image associated with each object candidate when the object candidate is detected in the first object detection step,
The second object detection step detects object candidates in each detection region set by the second detection region setting step,
The object determination step is based on a detection result of each object candidate detected in the first object detection step and a detection result of each object candidate detected in association with the second object detection step. To determine object detection,
The object detection method according to claim 1, wherein the object detection method is an object detection method.
前記第1のオブジェクト検出工程は、前記第1の画像において異なる複数のオブジェクト検出方法でオブジェクト候補を検出するものであり、
前記オブジェクト判定工程は、前記第1のオブジェクト検出工程において、設定された検出領域に対して、それぞれのオブジェクト検出方法のうち少なくとも一つの検出方法でオブジェクト候補が検出されなかった場合、当該検出領域ではオブジェクトは検出されないと判定する、
ことを特徴とする請求項1乃至3の何れか1項に記載のオブジェクト検出方法。
In the first object detection step, object candidates are detected by a plurality of different object detection methods in the first image,
In the object determination step, in the first object detection step, when no object candidate is detected by at least one detection method among the respective object detection methods with respect to the set detection region, Determine that the object is not detected,
The object detection method according to claim 1, wherein the object detection method is an object detection method.
前記第2のオブジェクト検出工程は、前記第2の画像において異なる複数のオブジェクト検出方法でオブジェクト候補を検出するものであり、
前記オブジェクト判定工程は、前記第2のオブジェクト検出工程において、設定された検出領域に対して、それぞれのオブジェクト検出方法のうち少なくとも一つの検出方法でオブジェクト候補が検出されなかった場合、当該検出領域ではオブジェクトは検出されないと判定する、
ことを特徴とする請求項1乃至4の何れか1項に記載のオブジェクト検出方法。
The second object detection step detects object candidates by a plurality of different object detection methods in the second image,
In the object determination step, in the second object detection step, when no object candidate is detected by at least one detection method among the respective object detection methods for the set detection region, Determine that the object is not detected,
The object detection method according to claim 1, wherein the object detection method is an object detection method.
前記第1のオブジェクト検出工程は、前記第1の検出領域設定工程で設定されたそれぞれの検出領域において、異なる複数のオブジェクト検出方法でオブジェクト候補を検出するものであり、
一つの検出方法により検出されたオブジェクト候補の数が、予め定められたしきい値以下のときに、第2のオブジェクト検出工程に移行する、
ことを特徴とする請求項1乃至5の何れか1項に記載のオブジェクト検出方法。
In the first object detection step, object candidates are detected by different object detection methods in each detection region set in the first detection region setting step,
When the number of object candidates detected by one detection method is equal to or less than a predetermined threshold value, the process proceeds to the second object detection step.
The object detection method according to claim 1, wherein the object detection method is an object detection method.
前記検出するオブジェクトは顔であることを特徴とする請求項1乃至6の何れか1項に記載のオブジェクト検出方法。 The object detection method according to claim 1, wherein the object to be detected is a face. 異なる位置から同一の被写体に対する複数の画像を撮影する撮影装置により取得された第1の画像と第2の画像を用いて、前記第1の画像及び第2の画像中の特定のオブジェクトを検出するオブジェクト検出装置において、
前記第1の画像においてオブジェクト候補を検出する第1のオブジェクト検出手段と、
前記第1のオブジェクト検出手段で検出されたオブジェクト候補に基づいて、前記第2の画像における検出領域を設定する第2の検出領域設定手段と、
前記第2の検出領域設定手段で設定された検出領域でオブジェクト候補を検出する第2のオブジェクト検出手段と、
前記第2のオブジェクト検出手段におけるオブジェクト候補の検出結果に基づいて、オブジェクト検出を判定するオブジェクト判定手段とを有することを特徴とするオブジェクト検出装置。
A specific object in the first image and the second image is detected using the first image and the second image acquired by a photographing device that photographs a plurality of images of the same subject from different positions. In the object detection device,
First object detection means for detecting object candidates in the first image;
Second detection area setting means for setting a detection area in the second image based on the object candidates detected by the first object detection means;
Second object detection means for detecting an object candidate in the detection area set by the second detection area setting means;
An object detection apparatus comprising: object determination means for determining object detection based on a detection result of object candidates in the second object detection means.
前記第1のオブジェクト検出手段は、前記第1の画像におけるオブジェクト候補の位置と大きさに関する情報を検出するものであり、
前記第2の検出領域設定手段は、
前記第1のオブジェクト検出手段で検出されたオブジェクト候補の前記第1の画像における位置と大きさに関する情報から、前記オブジェクト候補と対応する前記第2の画像でのオブジェクト候補の位置と大きさを推定して、前記第2の画像においてオブジェクト候補を検出すべき領域を設定する、
ことを特徴とする請求項8に記載のオブジェクト検出装置。
The first object detection means detects information related to the position and size of an object candidate in the first image,
The second detection area setting means includes:
The position and size of the object candidate in the second image corresponding to the object candidate are estimated from information on the position and size of the object candidate detected by the first object detection means in the first image. Then, an area where an object candidate is to be detected in the second image is set.
The object detection apparatus according to claim 8.
前記第1のオブジェクト検出手段は、前記第1の画像において異なる複数の検出領域を設定する第1の検出領域設定手段を含んでおり、かつ、前記第1の検出領域設定手段で設定されたそれぞれの検出領域において、オブジェクト候補を検出するものであり、
前記第2の検出領域設定手段は、前記第1のオブジェクト検出手段でオブジェクト候補が検出されたときに、それぞれのオブジェクト候補に対応付けられた、前記第2の画像における検出領域を設定し、
前記第2のオブジェクト検出手段は、前記第2の検出領域設定手段により設定されたそれぞれの検出領域において、オブジェクト候補を検出するものであり、
前記オブジェクト判定手段は、前記第1のオブジェクト検出手段で検出されたそれぞれのオブジェクト候補の検出結果と、前記第2のオブジェクト検出手段で対応付けて検出されたそれぞれのオブジェクト候補の検出結果とに基づいて、オブジェクト検出を判定する、
ことを特徴とする請求項8または9に記載のオブジェクト検出装置。
The first object detection means includes first detection area setting means for setting a plurality of different detection areas in the first image, and each set by the first detection area setting means. In this detection area, object candidates are detected.
The second detection area setting means sets a detection area in the second image associated with each object candidate when the object candidate is detected by the first object detection means,
The second object detection means detects an object candidate in each detection area set by the second detection area setting means,
The object determination means is based on a detection result of each object candidate detected by the first object detection means and a detection result of each object candidate detected in association with the second object detection means. To determine object detection,
The object detection apparatus according to claim 8, wherein the object detection apparatus is an object detection apparatus.
前記第1のオブジェクト検出手段は、前記第1の画像において異なる複数のオブジェクト検出方法でオブジェクト候補を検出するものであり、
前記オブジェクト判定手段は、前記第1のオブジェクト検出手段において、設定された検出領域に対して、それぞれのオブジェクト検出方法のうち少なくとも一つの検出方法でオブジェクト候補が検出されなかった場合、当該検出領域ではオブジェクトは検出されないと判定する、
ことを特徴とする請求項8乃至10の何れか1項に記載のオブジェクト検出装置。
The first object detection means detects object candidates by a plurality of different object detection methods in the first image,
The object determination unit is configured to detect, in the detection region, when the first object detection unit detects no object candidate by at least one detection method among the respective object detection methods for the set detection region. Determine that the object is not detected,
The object detection device according to claim 8, wherein the object detection device is an object detection device.
前記第2のオブジェクト検出手段は、前記第2の画像において異なる複数のオブジェクト検出方法でオブジェクト候補を検出するものであり、
前記オブジェクト判定手段は、前記第2のオブジェクト検出手段において、設定された検出領域に対して、それぞれのオブジェクト検出方法のうち少なくとも一つの検出方法でオブジェクト候補が検出されなかった場合、当該検出領域ではオブジェクトは検出されないと判定する、
ことを特徴とする請求項8乃至11の何れか1項に記載のオブジェクト検出装置。
The second object detection means detects object candidates by a plurality of different object detection methods in the second image,
The object determination means, when the object detection is not detected by at least one detection method among the respective object detection methods for the set detection area in the second object detection means, Determine that the object is not detected,
The object detection device according to claim 8, wherein the object detection device is an object detection device.
前記第1のオブジェクト検出手段は、前記第1の検出領域設定手段で設定されたそれぞれの検出領域において、異なる複数のオブジェクト検出方法でオブジェクト候補を検出するものであり、
一つの検出方法により検出されたオブジェクト候補の数が、予め定められたしきい値以下のときに、第2のオブジェクト検出手段を動作させる、
ことを特徴とする請求項8乃至12の何れか1項に記載のオブジェクト検出装置。
The first object detection means detects object candidates by a plurality of different object detection methods in each detection area set by the first detection area setting means,
Operating the second object detection means when the number of object candidates detected by one detection method is less than or equal to a predetermined threshold;
The object detection apparatus according to claim 8, wherein the object detection apparatus is an object detection apparatus.
前記検出するオブジェクトは顔であることを特徴とする請求項8乃至13の何れか1項に記載のオブジェクト検出装置。 The object detection apparatus according to claim 8, wherein the object to be detected is a face.
JP2005157012A 2005-05-30 2005-05-30 Method and apparatus for detecting object Pending JP2006331266A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005157012A JP2006331266A (en) 2005-05-30 2005-05-30 Method and apparatus for detecting object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005157012A JP2006331266A (en) 2005-05-30 2005-05-30 Method and apparatus for detecting object

Publications (1)

Publication Number Publication Date
JP2006331266A true JP2006331266A (en) 2006-12-07

Family

ID=37552869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005157012A Pending JP2006331266A (en) 2005-05-30 2005-05-30 Method and apparatus for detecting object

Country Status (1)

Country Link
JP (1) JP2006331266A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234654A (en) * 2007-03-21 2008-10-02 Ricoh Co Ltd Object image detection method and image detection device
JP2010287193A (en) * 2009-06-15 2010-12-24 Canon Inc Data processor, data processing method and program
WO2012132167A1 (en) * 2011-03-31 2012-10-04 株式会社ソニー・コンピュータエンタテインメント Information processing system, information processing device, imaging device, and information processing method
US8660317B2 (en) 2007-03-21 2014-02-25 Ricoh Company, Ltd. Object image detection method and object image detection device for detecting an object image from an input image
JPWO2015108200A1 (en) * 2014-01-20 2017-03-23 セーレン株式会社 Toning simulation method, toning simulation apparatus, and toning program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234654A (en) * 2007-03-21 2008-10-02 Ricoh Co Ltd Object image detection method and image detection device
US8254643B2 (en) 2007-03-21 2012-08-28 Ricoh Company, Ltd. Image processing method and device for object recognition
US8660317B2 (en) 2007-03-21 2014-02-25 Ricoh Company, Ltd. Object image detection method and object image detection device for detecting an object image from an input image
JP2010287193A (en) * 2009-06-15 2010-12-24 Canon Inc Data processor, data processing method and program
WO2012132167A1 (en) * 2011-03-31 2012-10-04 株式会社ソニー・コンピュータエンタテインメント Information processing system, information processing device, imaging device, and information processing method
JP2012216006A (en) * 2011-03-31 2012-11-08 Sony Computer Entertainment Inc Information processing system, information processing device, imaging device, and information processing method
CN103430210A (en) * 2011-03-31 2013-12-04 索尼电脑娱乐公司 Information processing system, information processing device, imaging device, and information processing method
TWI462052B (en) * 2011-03-31 2014-11-21 新力電腦娛樂股份有限公司 Information processing system, information processing device, image capturing device and information processing method
US9710923B2 (en) 2011-03-31 2017-07-18 Sony Corporation Information processing system, information processing device, imaging device, and information processing method
JPWO2015108200A1 (en) * 2014-01-20 2017-03-23 セーレン株式会社 Toning simulation method, toning simulation apparatus, and toning program

Similar Documents

Publication Publication Date Title
US10997465B2 (en) Information processing device, information processing method, and storage medium
US7469055B2 (en) Real-time face tracking in a digital image acquisition device
JP4670658B2 (en) Image processing apparatus, image processing method, and program
JP2010262601A (en) Pattern recognition system and pattern recognition method
JP2011095862A (en) Apparatus and method for processing image and program
JP2006331266A (en) Method and apparatus for detecting object
JP2009134587A (en) Image processing device
JP5294798B2 (en) Image processing apparatus and image processing method
JP2010165052A (en) Image processor and image processing method
JP2006313543A (en) Image recognition method capable of recognizing a plurality of objects without recording entire image
JP4878283B2 (en) Feature detection method and apparatus, program, and storage medium
JP2006323779A (en) Image processing method and device
JP2005227966A (en) Fingerprint input device
JP2002216131A (en) Image collating device, image collating method and storage medium
JP2018092507A (en) Image processing apparatus, image processing method, and program
EP3786889A1 (en) Method and system for tracking motion of subjects in three dimensional scene
JP5164658B2 (en) Image processing apparatus, image processing method, and program
JP4630106B2 (en) Corneal endothelial cell image processing device
US10380463B2 (en) Image processing device, setting support method, and non-transitory computer-readable media
US20100008542A1 (en) Object detection method and apparatus
JP6077873B2 (en) Image processing apparatus and image processing method
JP2009080701A (en) Method and apparatus for retrieving pattern
JPH08194825A (en) Outline information extracting device
JPH08288188A (en) Wafer identification character recognition system
JPH09245166A (en) Pattern matching device