JP2002323301A - Object position measurement device - Google Patents

Object position measurement device

Info

Publication number
JP2002323301A
JP2002323301A JP2001128708A JP2001128708A JP2002323301A JP 2002323301 A JP2002323301 A JP 2002323301A JP 2001128708 A JP2001128708 A JP 2001128708A JP 2001128708 A JP2001128708 A JP 2001128708A JP 2002323301 A JP2002323301 A JP 2002323301A
Authority
JP
Japan
Prior art keywords
distance
detection processing
outer shape
missing
outline
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001128708A
Other languages
Japanese (ja)
Other versions
JP4588914B2 (en
Inventor
Kazufumi Nakayama
收文 中山
Morihito Shiobara
守人 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001128708A priority Critical patent/JP4588914B2/en
Publication of JP2002323301A publication Critical patent/JP2002323301A/en
Application granted granted Critical
Publication of JP4588914B2 publication Critical patent/JP4588914B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To stably detect an object even if distance information about a part of the object in lacking due to fluctuation of a lighting condition in stereo distance measurement. SOLUTION: This object position measurement device is characterized by being provided with an object detection processing selection means 4 judging whether the distance information is obtained from the overall figuration of the object to be detected or not, an overall figuration object detection processing means 5 deciding an objection position when the distance information is obtained from the overall figuration, and a partial figuration object detection processing means 6 identifying a missing part of the figuration by means of a previously prepared object figuration appearance model and computing a distance of the figuration about the missing part when the distance information about a part of the object figuration is missing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はステレオ距離計測の
手法により得た映像内の各物体までの距離情報に基づき
映像内に映っている物体を検出する装置において、照明
状態の変化などによって映像全体または一部の明るさが
増減して、結果として物体の一部の距離情報が欠落する
場合においても、安定に物体を検出して物体の3次元位
置を計測するものに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for detecting an object reflected in an image based on distance information to each object in the image obtained by a stereo distance measuring method. Also, the present invention relates to a method for stably detecting an object and measuring a three-dimensional position of the object even when a part of the distance information of the object is lost due to a change in brightness of a part.

【0002】映像中の任意の物体を検出し、その3次元
位置を特定する装置は、例えば路上映像から車両の位置
を計測して車両の通過の有無や通過速度を算出する交通
流計測システムや、人が往来する映像から通過する人の
位置や人数を計測する人物監視システムなど、物体監視
システム一般に適用可能である。
An apparatus for detecting an arbitrary object in an image and specifying its three-dimensional position includes, for example, a traffic flow measurement system that measures the position of a vehicle from a road image and calculates the presence or absence of a vehicle and the speed of passage. The present invention can be generally applied to an object monitoring system such as a person monitoring system that measures the position and the number of persons passing from an image of a person coming and going.

【0003】またベルトコンベア上を運ばれてくる物品
の種別を判別する物流システムにおいて、その物品の大
きさや映像特徴から運ばれている物品を特定する物品識
別へ適用することも可能であり、その外に無人搬送シス
テムで走行ルート上にある障害物を特定するための物体
検出手段としての適用や、自律ロボットシステムにおい
て、周囲にある物体の位置や大きさを計測する認識処理
への適用が可能である。
In a physical distribution system for determining the type of an article carried on a belt conveyor, the present invention can be applied to an article identification for specifying an article being carried based on the size and image characteristics of the article. Can be applied as an object detection means to identify obstacles on the traveling route with an unmanned transport system outside, and can be applied to recognition processing to measure the position and size of surrounding objects in an autonomous robot system It is.

【0004】[0004]

【従来の技術】従来の、センサ周囲の距離情報を用いて
物体の位置を計測する計測方式は、最初にステレオ距離
計測方式によってセンサ周囲にある物体の各位置までの
距離(これを距離情報という)を計測して、次に得られ
た距離情報から特定の大きさや形を持つ部位を抽出して
該当物体として識別する。この識別された物体は距離情
報を有しているので、その距離情報により、センサから
見たステレオ画像により3次元位置が計測できる。
2. Description of the Related Art A conventional measuring method for measuring the position of an object using distance information around a sensor is based on a distance to each position of an object around the sensor by a stereo distance measuring method (this is called distance information). ) Is measured, and a part having a specific size or shape is extracted from the obtained distance information and identified as a corresponding object. Since the identified object has the distance information, the three-dimensional position can be measured from the stereo image viewed from the sensor based on the distance information.

【0005】この方式の代表例として実吉 敬二、塙
圭二、十川 能之、荒井 一真等の「ステレオ画像を用
いた運転支援のための前方状況認識システム」電子情報
通信学会技術研究報告PRMU97−25〜36pp.
39−46の方式を例として説明する。
As typical examples of this method, Keiji Sumiyoshi and Hanawa
Keiji, Nobuyuki Togawa, Kazuma Arai et al., "Forward Situation Recognition System for Driving Assistance Using Stereo Images" IEICE Technical Report PRMU 97-25-36pp.
The method of 39-46 will be described as an example.

【0006】これによれば、図8に示す如く、計測した
い物体21を含む情景を2台のテレビカメラ22、23
を用いて撮影し、ステレオ画像を得る。ここでは左右水
平に取付けられたテレビカメラを用いているので、左右
1対のステレオ画像24、25の映像が取得できる。
According to this, as shown in FIG. 8, a scene including an object 21 to be measured is displayed on two television cameras 22 and 23.
To obtain a stereo image. Here, since a television camera mounted horizontally horizontally is used, a pair of left and right stereo images 24 and 25 can be obtained.

【0007】次にこのステレオ画像24、25から明る
さが急変する点群であるエッジ点を、ステレオ画像を微
分処理して抽出して、左右画像それぞれに対するエッジ
画像26、27を得る。続して、後述するステレオ距離
計測処理により、各エッジ点について画像の位置ずれ検
出画面28に示す如く、ずれ量dを検出し、このずれ量
dと、テレビカメラ22、23の距離にもとづきこのエ
ッジ点について物体までの距離を計測する。
Next, from the stereo images 24 and 25, edge points, which are points at which the brightness suddenly changes, are extracted by differentiating the stereo image to obtain edge images 26 and 27 for the left and right images, respectively. Subsequently, by a stereo distance measurement process described later, a shift amount d is detected for each edge point as shown in an image position shift detection screen 28, and based on the shift amount d and the distance between the television cameras 22 and 23, The distance from the edge point to the object is measured.

【0008】ステレオ距離計測処理とは、一方のエッジ
画像、例えばエッジ画像26中の各位置において、N×
N画素の局所領域を設ける。そしてそれぞれの局所領域
毎に、他方のエッジ画像27中にN×N画素の局所領域
を設け、他方のエッジ画像27中でこの局所領域を走査
することにより、エッジ画像26の局所領域と同じエッ
ジ点の分布するエッジ画像27における局所領域を検出
する。すなわち左のエッジ画像26と右のエッジ画像2
7から同一物体を示す個所を探し出す処理を行う。これ
がステレオ距離計測処理である。
[0008] The stereo distance measurement processing means that at each position in one edge image, for example, the edge image 26, N ×
A local region of N pixels is provided. Then, for each local area, a local area of N × N pixels is provided in the other edge image 27, and this local area is scanned in the other edge image 27, so that the same edge as the local area of the edge image 26 is obtained. A local area in the edge image 27 where points are distributed is detected. That is, the left edge image 26 and the right edge image 2
Then, a process of searching for a position indicating the same object from the position 7 is performed. This is the stereo distance measurement processing.

【0009】物体は、左右画像では距離に応じて映る位
置つまり投影される位置が異なるため逆に同一物体の画
像での投影位置を左右画像から探し求めることでその位
置ずれ量を検出することで、物体までの距離を計算する
ことができる。
Since the position of the object, that is, the projected position is different depending on the distance in the left and right images, the projected position of the same object in the image is searched for from the left and right images. The distance to the object can be calculated.

【0010】このステレオ処理によって画像の各エッジ
点で求められた距離の情報は、3次元空間の一点にマッ
ピングされるので、距離が求まった各エッジ点について
マッピング作業を行い、3次元空間での位置の分布を得
る。この3次元空間で、例えば予め定めた路面の位置よ
り上方にあり、かつ車両の幅・高さ・奥行きに合致する
3次元の塊を検出することで、計測対象である車両を識
別することができる。
The information of the distance obtained at each edge point of the image by the stereo processing is mapped to one point in the three-dimensional space. Get the distribution of locations. In this three-dimensional space, for example, a vehicle to be measured can be identified by detecting a three-dimensional lump that is above a predetermined road surface position and that matches the width, height, and depth of the vehicle. it can.

【0011】[0011]

【発明が解決しようとする課題】このような対象情景の
各位置までの距離情報を取得し、その距離情報にのみ基
づいて物体位置を計測する逐次的な方式では、物体まで
の距離情報が得られている場合には、物体を識別でき、
その3次元位置を計測することができる。
In such a sequential method of acquiring distance information to each position of a target scene and measuring an object position based only on the distance information, the distance information to the object is obtained. The object can be identified,
The three-dimensional position can be measured.

【0012】ところが、例えば屋外で稼働する場合を考
えると、日照変化や天候変化により照度の増減があるた
め、映像全体が暗くなり過ぎたり、明るくなり過ぎたり
して、対象物体と背景の明るさが似てきてしまい、対象
物体の外形を示すエッジ点の検出位置がずれることがあ
る。
However, when operating outdoors, for example, since the illuminance increases or decreases due to changes in sunlight or weather, the entire image becomes too dark or too bright, and the brightness of the target object and the background is reduced. May be similar, and the detection position of the edge point indicating the outer shape of the target object may be shifted.

【0013】しかもその位置ずれは、左右上下のいずれ
の方向に生じるかは各エッジ毎に独立であるため、エッ
ジ点毎のステレオ処理において、局所領域毎のエッジ点
の分布形状を比較しても左右画像から一致する部分が見
つけられず、物体外形の距離が計測できなかったり、一
致部分を見つけられたとしてもエッジの位置がずれを含
むため、誤った距離の情報を呈することとなる。結果と
して物体外形を示す距離情報が欠落して物体の検出がで
きなかったり、誤った距離情報を用いて誤った位置に物
体があると誤認識してしまう問題があった。
[0013] In addition, since the positional deviation occurs in any of the left, right, upper and lower directions independently of each edge, the stereo point-by-edge stereo processing can be performed by comparing the edge point distribution shapes of the local regions. A matching part cannot be found from the left and right images, so that the distance of the object outer shape cannot be measured, or even if a matching part is found, the position of the edge includes a shift, so that incorrect distance information is presented. As a result, there has been a problem in that the distance information indicating the outer shape of the object is missing, so that the object cannot be detected, or that an erroneous recognition of an object at an erroneous position using erroneous distance information occurs.

【0014】2つの画像によるステレオ処理では、設置
した2台のカメラと平行な方向のエッジについては原理
的に距離を求めることができない。例えば左右水平にカ
メラを設置した場合には、水平線エッジの距離を算出で
きず、物体の縦方向の外形しか距離は得られない。実際
に照度変化が生じたときに、どのように物体外形の距離
情報が欠けるかを観察すると、物体外形の全体が得られ
ない場合よりも、物体左右端の外形のいずれかが欠ける
ことが多い。物体外形の左右端のいずれかが欠けると、
3次元的な幅や高さが変わるので、物体として検出でき
ない。
In stereo processing using two images, a distance cannot be determined in principle for an edge in a direction parallel to the two cameras installed. For example, when cameras are installed horizontally horizontally, the distance of the horizontal line edge cannot be calculated, and the distance can be obtained only in the vertical outer shape of the object. When observing how the distance information of the object outer shape is missing when the illuminance change actually occurs, one of the outer shapes at the left and right ends of the object is often missing than when the entire object outer shape is not obtained. . If one of the left and right ends of the object outline is missing,
Since the three-dimensional width and height change, they cannot be detected as objects.

【0015】このような状況を考えると物体の外形の一
部から距離情報が得られない場合でも物体の位置を正確
に検出できることが必要である。従って本発明の目的
は、物体の外形の一部から距離情報が得られない場合で
も物体の位置を正確に検出することができる物体位置計
測装置を提供することである。
Considering such a situation, it is necessary that the position of the object can be accurately detected even when distance information cannot be obtained from a part of the outer shape of the object. Therefore, an object of the present invention is to provide an object position measuring device capable of accurately detecting the position of an object even when distance information cannot be obtained from a part of the outer shape of the object.

【0016】[0016]

【課題を解決するための手段】本発明の原理構成を図1
に示す。図1において1はステレオ画像撮影部、2はス
テレオ処理部、3は物体検出処理部、4は物体検出処理
選択部、5は全体外形物体検出処理部、6は部分外形物
体検出処理部である。本発明の前記目的は下記(1)〜
(3)により達成することができる。
FIG. 1 shows the principle configuration of the present invention.
Shown in In FIG. 1, 1 is a stereo image photographing unit, 2 is a stereo processing unit, 3 is an object detection processing unit, 4 is an object detection processing selection unit, 5 is an entire external object detection processing unit, and 6 is a partial external object detection processing unit. . The object of the present invention is as follows (1) to
This can be achieved by (3).

【0017】(1)ステレオ計測距離情報から物体を検
出する物体位置計測装置において、検出すべき物体の外
形の全体で距離情報が得られているか否かを判断する物
体検出処理選択手段4と、前記外形の全体で距離情報が
得られているとき、物体位置を決定する全体外形物体検
出処理手段5と、前記物体の外形の一部の距離情報が欠
けている場合に、予め用意した物体の外形の見え方モデ
ルを使用して外形の欠けている部分を識別し、欠けた部
分に対して外形の距離を算出する部分外形物体検出処理
手段6を具備したことを特徴とする物体位置計測装置。
(1) In an object position measuring device for detecting an object from stereo measurement distance information, an object detection processing selecting means 4 for judging whether or not distance information has been obtained for the entire outer shape of the object to be detected; When the distance information is obtained for the entire outer shape, the entire outer shape object detection processing means 5 for determining the object position, and when the distance information for a part of the outer shape of the object is missing, the An object position measuring device, comprising: a partial external object detection processing means 6 for identifying a missing portion of an external shape using an external appearance appearance model and calculating a distance of the external shape to the defective portion. .

【0018】(2)前記欠けた部分について、ステレオ
処理で距離が求まらない外形については、前記部分外形
物体検出処理手段6において、エッジ点の如き特徴量の
塊にもとづき外形を形成し、この塊単位でステレオ対応
付けを行うことにより、前記欠けた部分の外形の距離を
算出することを特徴とする前記(1)記載の物体位置計
測装置。
(2) With respect to the outer shape for which the distance cannot be determined by stereo processing for the missing portion, the outer shape is formed by the partial outer shape object detection processing means 6 based on a cluster of feature quantities such as edge points. The object position measuring device according to the above (1), wherein a stereoscopic correspondence is calculated for each block to calculate a distance of an outer shape of the missing portion.

【0019】(3)前記全体外形物体検出処理手段5
と、前記部分外形物体検出処理手段6において、複数の
物体位置候補を算出して、これらを物体位置決定処理手
段に送出し、物体位置決定処理手段では過去に求められ
た物体位置の情報を用いて複数の物体位置候補から正し
い物体位置を決定可能にしたことを特徴とする前記
(1)または前記(2)記載の物体位置計測装置。
(3) The overall external object detection processing means 5
And the partial external object detection processing means 6 calculates a plurality of object position candidates and sends them to the object position determination processing means, and the object position determination processing means uses information on the object positions obtained in the past. The object position measuring device according to (1) or (2), wherein a correct object position can be determined from a plurality of object position candidates.

【0020】これにより下記の作用効果を奏する。As a result, the following operation and effect can be obtained.

【0021】(1)物体外形の全体で距離が得られてい
る場合に物体位置を決定する処理部に加えて、物体外形
の一部の距離情報が欠けている場合でも、予め用意した
物体の外形の見え方のモデルを用いて外形の欠けた部分
に対しても距離を算出する処理部を設けたので、物体外
形全体で距離が得られている場合は勿論のこと、物体外
形の一部が欠けている場合でも、正確に物体を検出する
ことができる。
(1) In addition to the processing unit for determining the object position when the distance is obtained for the entire object outline, even if the distance information of a part of the object outline is lacking, the object prepared in advance A processing unit is provided to calculate the distance even for a part where the outline is missing using a model of the appearance of the outline, so that not only when the distance is obtained for the entire object outline, but also for a part of the object outline The object can be accurately detected even when the object is missing.

【0022】(2)ステレオ処理で距離が求められな
い、一部の欠けた外形について、エッジ点などのように
距離とは異なる特徴量の塊を使用して外形を形成するの
で、一部が欠けた外形に対しても外形部分を正確に得る
ことができる。
(2) For a part of a missing contour whose distance is not obtained by the stereo processing, the contour is formed by using a lump having a feature amount different from the distance such as an edge point. Even for a chipped outer shape, an outer shape portion can be obtained accurately.

【0023】(3)過去に得られた物体位置の情報を用
いて複数の物体位置候補から正しい物体位置を時系列的
に得ることができるので、背景にもエッジ点があるよう
な場合でもそれを誤認することなく正確に物体を検出す
ることができる。
(3) Since the correct object position can be obtained in time series from a plurality of candidate object positions using the information of the object position obtained in the past, even if the background has an edge point, The object can be detected accurately without misidentifying the object.

【0024】[0024]

【発明の実施の形態】本発明の概略を図1及び図2に基
づき説明する。図1は本発明の概略構成図、図2は外形
の一部が欠けている場合の処理状態説明図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The outline of the present invention will be described with reference to FIGS. 1 is a schematic configuration diagram of the present invention, and FIG. 2 is an explanatory diagram of a processing state when a part of the outer shape is missing.

【0025】先ず2個のカメラを有するステレオ画像撮
影部1で得られたステレオ画像を、ステレオ処理部2に
送出し、距離情報を取得する。この距離情報は、従来方
式と同じ手法で得られるものであり、ステレオ画像を微
分処理して明るさが急変するエッジ部分を検出し、次に
左右の画像から得られたエッジ部分の一致する同一部分
を検出し、この同一部分のズレを求めて距離を得るもの
である。従来は、物体検出処理に際し、距離情報を3次
元空間にマッピングして、その3次元点情報から物体の
幅・高さ・奥行きのモデル(3次元モデルであり、検出
物体があらかじめどのようなサイズのものかを予め記述
したものであり、複数の固定の場合も、また式で表現し
た可変サイズの場合もある)を用いて物体を検出する処
理のみを、全体外形物体検出処理部5で行っていた。
First, a stereo image obtained by a stereo image photographing section 1 having two cameras is sent to a stereo processing section 2 to acquire distance information. This distance information is obtained by the same method as in the conventional method. Differential processing is performed on the stereo image to detect an edge portion where the brightness changes abruptly, and then the same edge portion obtained from the left and right images matches. A part is detected, and a distance is obtained by calculating a deviation of the same part. Conventionally, when the object detection processing, and mapping the distance information in three-dimensional space, a model (three-dimensional model of the width, height and depth of the object from the 3-dimensional point information, what size detection object in advance , And only the process of detecting an object using a plurality of fixed objects or a variable size expressed by an equation) is performed by the entire outer shape object detection processing unit 5. I was

【0026】これに対し、本発明では、距離情報から物
体を検出する処理において、従来からの物体外形の全体
で距離が得られている場合だけでなく、物体外形の一部
の距離情報が欠けている場合には、予め用意した物体の
外形の見え方のモデルを用いて、外形のどこが欠けてい
るのかを識別し、欠けた部分では再度外形の距離を、図
1に示す部分外形物体検出処理部6で行い、この全体外
形の距離が得られている場合の処理と、物体外形の一部
の距離情報が欠けている場合の処理を物体検出処理選択
部4で切替制御することにより、物体外形の全体が得ら
れている場合でも、物体外形の一部が欠けている場合で
も安定に物体を検出できるようにしたものである。
On the other hand, according to the present invention, in the process of detecting an object from the distance information, not only the case where the distance is obtained for the entire object outline but also some distance information of the object outline is missing. In this case, a model of the appearance of the external shape of the object prepared in advance is used to identify where the external shape is missing. The processing is performed by the processing unit 6, and the processing when the distance of the entire outer shape is obtained and the processing when the distance information of a part of the outer shape of the object is lacking are controlled by the object detection processing selecting unit 4 so as to be switched. The object can be detected stably even when the entire object outline is obtained or when a part of the object outline is missing.

【0027】物体外形の一部が欠けている場合の処理
は、図1における部分外形物体検出処理部6で行うもの
であり、本発明の重要な構成部分であるので、この物体
の外形が欠けた部分で再度外形の距離を算出する処理を
図2により説明する。図2では左右水平状態にカメラを
取り付け物体の形状を矩形(直方体)として、その左端
の外形しか距離情報が得られていない場合を想定してい
る。
The processing when a part of the outer shape of the object is missing is performed by the partial outer shape object detection processing unit 6 in FIG. 1 and is an important component of the present invention. The process of calculating the distance of the outer shape again at the portion where the error has occurred will be described with reference to FIG. In FIG. 2, it is assumed that the camera is mounted horizontally in the left-right direction and the shape of the object is rectangular (rectangular parallelepiped), and only the left outer shape of the object can obtain distance information.

【0028】まず一方の画像(ここでは左カメラで撮影
した左画像)の各エッジ位置について距離を定めた距離
画像(左距離画像)に対して、物体の外形の見え方モデ
ルMを当てはめて、外形が欠けているかいないか調べる
(処理)。これにより外形右端の欠けていることが検
出される。
First, the appearance model M of the outer shape of the object is applied to a distance image (left distance image) in which the distance is determined for each edge position of one image (here, the left image captured by the left camera). Check whether the external shape is missing (processing). This detects that the right end of the outer shape is missing.

【0029】次に欠けていると判断された個所(この場
合は右端)については直接エッジ画像を調べ、物体の外
形に相当する距離が求まっていないエッジ点の有無を調
査する(処理)。
Next, for the portion determined to be missing (the right end in this case), the edge image is directly examined, and the presence or absence of an edge point for which the distance corresponding to the outer shape of the object has not been determined (process).

【0030】もしこの距離の求められていないエッジ点
があれば、それらエッジ点群を一塊として抽出する(処
理)。そしてこのエッジ塊を、欠けていた外形右端と
見なす(処理)。
If there are edge points for which the distance has not been determined, those edge point groups are extracted as one lump (process). Then, this edge block is regarded as the right end of the missing outline (process).

【0031】この操作を他方画像(ここでは右距離画
像)についても同様に行い、外形右端を形成するエッジ
塊を検出する(処理′、′、′、′)。
This operation is similarly performed on the other image (here, the right distance image), and an edge block forming the right end of the outer shape is detected (processes ',', ',').

【0032】次に前記左距離画像より得られている距離
情報外形を外形左端とし(処理)、前記処理より得
られた外形右端を統合して左統合画面を作成する。同様
にして右距離画像より得られている距離情報外形を外形
左端とし(処理′)前記処理′より得られた外形右
端を統合して右統合画面を作成する。そして左統合画像
と右統合画像の右端の塊同士を対応ずけ(例えば平均位
置を算出)、右端外形の距離を算出する(処理)。
Next, the distance information outline obtained from the left distance image is set as the outline left end (processing), and the outline right end obtained by the processing is integrated to create a left integrated screen. Similarly, the outer contour of the distance information obtained from the right distance image is defined as the outer left end (process '). The right outer edge obtained from the above process' is integrated to create a right integrated screen. Then, the right masses of the left integrated image and the right integrated image are associated with each other (for example, the average position is calculated), and the distance of the right outer shape is calculated (process).

【0033】このように物体と背景との明るさの差が減
少した場合のように、エッジ点自体は存在するが、その
検出された位置の精度が低く左右画像間でエッジ点毎の
対応つまりエッジ点の一致検出が無理である場合でもエ
ッジの塊同士では対応付けられることを意味している。
As described above, as in the case where the difference in brightness between the object and the background is reduced, the edge point itself exists, but the accuracy of the detected position is low and the correspondence between the edge points between the left and right images, that is, Even if it is impossible to detect the coincidence of the edge points, it means that the clumps of the edges are associated with each other.

【0034】しかしエッジ点だけを頼りに物体外形を定
めると、背景のエッジなど物体ではない誤った部分のエ
ッジを用いて物体外形と誤認する場合が発生する。そこ
で本発明では、後述する第2の実施の形態に説明するよ
うに、部分外形物体検出処理部6では、モデル一致度
(物体らしさの評価値)を定めておき、物体位置を探索
しながらそのモデル一致度が高かった上位K番目(Kは
1以上)の複数の物体候補を出力する。そして物体の運
動の履歴情報等の過去の物体位置の情報から動きの滑ら
かさなどを判断して物体位置決定処理を行い、複数の候
補の中から最も物体である可能性の高いものを最終的な
物体位置として出力する。これにより物体外形の一部が
欠けても、背景や他の物体の影響を受けることなく、正
しい物体位置を決定することができる。
However, if the object outline is determined only by using the edge points, there may be a case where the object outline is erroneously recognized by using an edge of an erroneous portion which is not an object such as a background edge. Therefore, in the present invention, as will be described in a second embodiment described later, the partial external object detection processing unit 6 determines the model matching degree (evaluation value of the likeness of an object), and searches for the object position while searching for the object position. A plurality of top K-th (K is 1 or more) object candidates having a high model matching degree are output. The object position is determined by determining the smoothness of movement based on past object position information such as the history information of the object's motion, and the most likely object among the plurality of candidates is finally determined. Is output as a simple object position. Thus, even if a part of the outer shape of the object is missing, the correct object position can be determined without being affected by the background and other objects.

【0035】本発明の一実施の形態を図3〜図5によ
り、他図を参照して説明する。図3は本発明の一実施の
形態、図4は距離画像説明図、図5は走査範囲説明図、
図6は物体外形の見え方モデルと外形検出領域の関係説
明図である。
One embodiment of the present invention will be described with reference to FIGS. 3 is an embodiment of the present invention, FIG. 4 is an explanatory diagram of a distance image, FIG. 5 is an explanatory diagram of a scanning range,
FIG. 6 is a diagram illustrating the relationship between the appearance model of the object outline and the outline detection area.

【0036】図中、他図と同記号は同一部を示し、1は
ステレオ画像撮影部、2はステレオ処理部、3は物体検
出処理部、4は物体検出処理選択部、5は全体外形物体
検出処理部、6は部分外形物体検出処理部である。
In the figures, the same symbols as those in the other figures denote the same parts, 1 is a stereo image photographing section, 2 is a stereo processing section, 3 is an object detection processing section, 4 is an object detection processing selection section, and 5 is an entire external object. The detection processing unit 6 is a partial external object detection processing unit.

【0037】ステレオ画像撮影部1は設置位置が異なる
2台以上、例えば2台のカメラから構成され、このステ
レオカメラ装置により、例えば2枚のステレオ画像を取
得するものである。
The stereo image photographing section 1 is composed of two or more, for example, two cameras having different installation positions, and obtains, for example, two stereo images by this stereo camera device.

【0038】ステレオ処理部2は、ステレオ画像撮影部
1で得られたステレオ画像を入力として、最初にそれぞ
れの入力画像について徴分処理を行い、明るさが急変す
る箇所すなわちエッジ点を抽出し、エッジ画像を作成す
る。次にこのステレオ画像のエッジ画像を入力として同
部分を求めるステレオ対応付け処理を行い、同一部分に
対してはその画像のずれ量より距離を求める。そして距
離の求められているもののみエッジ点毎に奥行き情報を
有する距離画像を作成し、ステレオ処理部2の出力とす
る。また同時に最初に求めたエッジ画像群もステレオ処
理部2の出力として後段処理のため出力する。
The stereo processing unit 2 receives the stereo image obtained by the stereo image photographing unit 1 as input, first performs a classification process on each of the input images, and extracts a portion where the brightness changes suddenly, that is, an edge point. Create an edge image. Next, a stereo association process for obtaining the same portion is performed by using an edge image of the stereo image as an input, and a distance is obtained for the same portion from a shift amount of the image. Then, a distance image having depth information is created for each edge point only for the object for which the distance is required, and is output from the stereo processing unit 2. At the same time, an edge image group obtained first is also output as an output of the stereo processing unit 2 for subsequent processing.

【0039】物体検出処理部3は、ステレオ処理部2の
前記出力である距離画像とエッジ画像群を入力として、
物体を検出して3次元位置を定める処理を行うものであ
り、物体検出処理選択部4、全体外形物体検出処理部
5、部分外形物体検出処理部6等を備えている。
The object detection processing unit 3 receives the distance image and the edge image group which are the outputs of the stereo processing unit 2 as inputs,
It performs a process of detecting an object to determine a three-dimensional position, and includes an object detection processing selection unit 4, an entire external object detection processing unit 5, a partial external object detection processing unit 6, and the like.

【0040】物体検出処理選択部4は、入力された距離
情報(距離画像)から物体らしい部位Pi i ≧1)
(物体断片と呼ぶ)を抽出し、予め用意した物体の3次
元形状を表した物体形状モデルMj j ≧1)から定ま
る画像での見え方モデルMLi j j ≧1)を物体断片
i に当てはめ、距離情報について物体外形が欠けてい
るかを判断するものである。なお見え方モデルとは、物
体をその見る位置に応じて示したものであり、同一物体
でもその見える位置により形状が変わるものであり、例
えば直方体の場合、真横からみれば見え方モデルは矩形
になり、斜め横方向から見れば見え方モデルは正面部分
の他に側面が見える形状となる。図2の例は直方体を真
横から見た場合の見え方モデルMを示している。
The object detection processing selection unit 4 determines the input distance
From the information (distance image), the part P that looks like an objecti(i≧ 1)
(Called an object fragment) and extract the tertiary
Object shape model M representing original shapej(j≧ 1)
Model ML in the imagei j(j≧ 1) is the object fragment
PiThe object outline is missing in the distance information
It is to judge whether or not. The appearance model is an object
The body is shown according to the position where it is seen, and the same object
However, the shape changes depending on the visible position.
For example, in the case of a rectangular parallelepiped, the view model is rectangular when viewed from the side
, And when viewed from the diagonal side, the appearance model is the front part
In addition to the shape, the side is visible. In the example of Fig. 2, the cuboid is true.
The appearance model M when viewed from the side is shown.

【0041】もし欠けが無ければ、物体検出処理選択部
4は処理を全体外形物体検出処理部5に移して物体外形
全体の距離情報を用いて物体の有無を判断し、物体が有
るならばその位置を決定する。また物体検出処理選択部
4は物体外形に欠けがあると判断すれば、処理を部分外
形物体検出処理部6に移して部分的な外形の距離情報と
欠けた部分ではエッジ点情報を用いて物体の有無を判定
し、物体があればその位置を決定する。
If there is no chipping, the object detection processing selection unit 4 shifts the processing to the whole outline object detection processing unit 5 and judges the presence or absence of the object using the distance information of the whole outline of the object. Determine the position. If the object detection processing selection unit 4 determines that there is a lack in the object outline, it shifts the processing to the partial outline object detection processing unit 6 and uses the distance information of the partial outline and the edge point information in the part where the outline is missing. Is determined, and if there is an object, its position is determined.

【0042】以下に各部の詳細内容について説明する。The details of each part will be described below.

【0043】まず、物体検出処理選択部4について説明
する。物体検出処理選択部4では、最初に次の手順で物
体断片Pi (0≦i ≦N;Nは物体断片の数)を検出す
る。Pi の検出の手法として、図4に示す如く、まず、
距離画像Dimgを幅と高さがGw ×Gh の小領域Gk
(グリッド)に区切り、各小領域毎に含まれるエッジ点
の距離分布の平均値と分散値及びエッジ点の個数を求
め、距離の分散値が閾値より大きな領域もしくはエッジ
点の個数が閾値以下の領域は距離が一定でなく不安定領
域として削除する。残りの小領域については、距離画像
上(2次元)での小領域Gk 間の距離差L1 と小領域間
が持つ3次元空間での距離差(奥行差)L 2 とが、それ
ぞれ閾値以内にある小領域群を一つにまとめて物体断片
i として抽出する。これは、3次元的に近くに位置す
る塊を物体断片として抽出していることになる。
First, the object detection processing selection unit 4 will be described.
I do. In the object detection processing selection unit 4, first, the object is detected in the following procedure.
Body fragment Pi(0 ≦i≤ N; N is the number of object fragments)
You. PiFirst, as shown in FIG.
The width and height of the distance image Dimg are Gw× GhSmall area Gk
(Grid), edge points included in each small area
The average and variance values of the distance distribution and the number of edge points
Area or edge where the variance of the distance is greater than the threshold
In the area where the number of points is below the threshold, the distance is not constant and the area is unstable.
Delete as area. For the remaining small areas, the distance image
Small area G in upper (two-dimensional)kDistance difference L between1And small area
Has a distance difference (depth difference) L in a three-dimensional space TwoBut it
Small area groups within each threshold are combined into one object fragment
PiExtract as It is located three-dimensionally close
This means that the object is extracted as an object fragment.

【0044】次に、得られた各物体断片Pi に対して、
物体の3次元形状モデルMj (1≦j≦Nm;Nmは用
意する物体形状モデルの種別数)を用いて、そのモデル
それぞれを物体断片Pi の位置(距離)に置いた時の物
体外形がどのように見えるかを表す「物体外形見え方モ
デルMLi j 」(iは物体断片の番号、jは使用してい
るモデルの番号で、1≦j≦Nm;Nmは用意する物体
形状モデルの種別数)を作成する。物体の3次元形状モ
デルはどのようなものでも良いが、ここでは実現例の一
つとして、物体の幅MWj 、高さMHj 、奥行きMDj
を示す直方体モデルを採用する。
Next, for each of the obtained object fragments P i ,
Using the three-dimensional shape model M j of the object (1 ≦ j ≦ Nm; Nm is the number of types of the prepared object shape models), the object outline when each of the models is placed at the position (distance) of the object fragment P i in There how "object outline appearance model ML i j" indicating how looks (i is the number of object fragments, number of model j are using, 1 ≦ j ≦ Nm; object shape model Nm is to prepare Number of types). 3-dimensional shape model of the object may be of any type but, as one where an implementation, the width MW j of the object, the height MH j, depth MD j
Is adopted.

【0045】各物体断片Pi の3次元位置の中心位置
(Cxi,Cyi,Czi )に直方体モデルの前面を合わせ
るように置くと、直方体の各頂点は(Cxi ±MWj
2,Cyi ±MHj /2,Czi )×(Cxi ±MWj
/2,Cyi ±MHj /2,Czi +MDj )(符号組
合せは任意)となる。各頂点位置を(X,Y,Z)とし
て、カメラの内部パラメータである焦点距離fと2台の
カメラ間距離bとを用いて、画像上への投影位置(x,
y)を下式(1)により求め、投影点を囲む最小矩形領
When the front of the rectangular parallelepiped model is placed so as to match the center position (Cx i, Cy i, Cz i ) of the three-dimensional position of each object fragment P i , each vertex of the rectangular parallelepiped becomes (Cx i ± MW j /
2, Cy i ± MH j / 2, Cz i) × (Cx i ± MW j
/ 2, Cy i ± MH j / 2, C z i + MD j ) (the sign combination is arbitrary). With each vertex position being (X, Y, Z), the projection position (x, y) on the image is calculated using the focal length f, which is an internal parameter of the camera, and the distance b between the two cameras.
y) is obtained by the following equation (1), and the minimum rectangular area surrounding the projection point

【0046】[0046]

【数1】 (Equation 1)

【0047】を物体外形の見え方モデルMLi j (1≦
j≦Nm;Nmは用意する物体形状モデルの種別数)と
する。この物体外形の見え方モデルMLi j の大きさで
距離画像内を走査していき、以下に述べる判断条件
(1)を満たす場合には、物体外形全体が求まったと見
なす。このとき、k(i)番目の物体候補Oij k(i)を生
成して、Oij k(i)に対してその走査位置を記録するとと
もに、全体外形物体検出処理部5へ移行するフラグを立
てる。このk(i)とは、i番目の物体断片Pi に対し
て検出された物体候補に付けられる通し番号で、候補毎
に異なる番号が付され、複数の候補が検出されても良い
ことを意味する。
The appearance model ML i j (1 ≦ 1)
j ≦ Nm; Nm is the number of types of prepared object shape models). Continue scanning the inside distance image in the size of the appearance model ML i j of the object outline, if satisfying the judgment condition (1) described below, considered as a whole object contour is Motoma'. At this time, a k (i) -th object candidate O ij k (i) is generated, its scanning position is recorded for O ij k (i) , and a flag for shifting to the whole external object detection processing unit 5 is set. Stand up. This k (i) is a serial number assigned to the object candidate detected for the i-th object fragment P i , and a different number is assigned to each candidate, meaning that a plurality of candidates may be detected. I do.

【0048】また、後述する判断条件(2)を満たす場
合には、物体外形の一部が求まったと見なし、k(i)
番目の物体候補Oij k(i)を生成して、その走査位置を記
録するとともに、部分外形物体検出処理部6へ移行する
フラグを立てる。
When the judgment condition (2) described later is satisfied, it is regarded that a part of the object outer shape has been obtained, and k (i)
The second object candidate O ij k (i) is generated, its scanning position is recorded, and a flag for shifting to the partial external object detection processing unit 6 is set.

【0049】条件(1)も(2)も満足しない場合は、
物体は存在しないと見なし、走査作業を続行する。走査
範囲は、図5に示すように、物体断片Pi と物体の見え
方モデルMLi j が重なる最左端から最右端までの範
囲、すなわち、物体断片Pi の右側と見え方モデルML
i j の右側が一致する位置から、物体断片Pi の左側と
見え方モデルMLi j の左側が一致する位置までの範囲
とする。
If neither condition (1) nor condition (2) is satisfied,
The object is assumed to be absent and scanning continues. Scanning range, as shown in FIG. 5, the range from the most left end object fragment P i and object appearance model ML i j overlaps up to the rightmost, i.e., the model appearance and the right of the object fragments P i ML
The range is from the position where the right side of i j coincides to the position where the left side of the object fragment P i and the left side of the appearance model ML i j coincide.

【0050】判断条件(1):(外形全体が得られてい
るかの検査) ここでは、ステレオカメラが並んだ方向を水平軸と考え
たとき(実際に水平である必要は無い)、左側に位置す
るカメラ(画像)を左、右側に位置するカメラ(画像)
を右とする。このとき、ステレオの性質上、物体の縦成
分しか距離が求まらない。従って、物体外形として重要
なのは、左右端の縦の外形である。そこで、この左右端
の外形の有無を外形全体が得られているか否かの判断基
準とする。
Judgment condition (1): (inspection of whether or not the entire outer shape has been obtained) Here, when the direction in which the stereo cameras are arranged is considered to be a horizontal axis (it is not necessary to actually be horizontal), Cameras (images) located on the left and right
To the right. At this time, due to the nature of the stereo, only the vertical component of the object can determine the distance. Therefore, what is important as the object outline is the vertical outline at the left and right ends. Therefore, the presence or absence of the outer shape at the left and right ends is used as a criterion for determining whether or not the entire outer shape has been obtained.

【0051】物体外形の見え方モデルMLi j を距離画
像内に設置し、図6に示すような調査領域(R1〜R
3)を見え方モデルMLi j の位置を基準に設定する。
ここで、R1は外形の左端側の存在を検査するための領
域、R2は右端側の外形の存在を検査する領域、R3は
物体の内部か外部かを判定する領域である。領域の大き
さは次のように定める。R1、R2については、高さは
見え方モデルMLi j の高さMHi j と同じで、幅Rw
は見え方モデルMLi j の幅MWi j を基準にある関数
F(MWi j )で与えるものとし、例えばF(X)=X
/4などである。R1とR2を設定する位置は図6に示
したように、R1やR2の幅の1/2が見え方モデルと
重なるようにする。また、R3は見え方モデル内でR
1、R2でない部分とする。従って、領域R3の幅はM
i j −F(MWi j )で、高さはMHi j である。
[0051] established a appearance model ML i j of the object contour in the distance image, the inspection region, as shown in FIG. 6 (R1~R
How to see the 3) to set the position of the model ML i j to the reference.
Here, R1 is a region for examining the existence of the left end of the outline, R2 is a region for examining the existence of the outline on the right end, and R3 is a region for determining whether the object is inside or outside. The size of the area is determined as follows. R1, for R2, the height the same as the height MH i j of the appearance model ML i j, width R w
It shall be given in the function F (MW i j) in the reference width MW i j of appearance model ML i j, for example F (X) = X
/ 4. As shown in FIG. 6, the positions where R1 and R2 are set are such that 1/2 of the width of R1 or R2 overlaps the appearance model. R3 is R in the appearance model.
1, a part other than R2. Therefore, the width of the region R3 is M
In W i j -F (MW i j ), a height of MH i j.

【0052】外形の検出領域R1、R2について、以下
に示す条件の両者を満足する時に、物体の外形が全て見
つかったと判断する。
When both of the following conditions are satisfied for the detection regions R1 and R2 of the outer shape, it is determined that all the outer shapes of the object have been found.

【0053】(左端側の検査領域R1内にある距離を有
すエッジ点の数)≧閾値Th1 (右端側の検査領域R2内にある距離を有すエッジ点の
数)≧閾値Th1 ここで、閾値Th1 は、領域R1(またはR2)に存在
すべき距離を有すエッジ点の数の最低値を定めたノイズ
による影響を抑制するための閾値である。これ以上の数
のエッジ点がある時に安定して距離を有すエッジ点の塊
が存在する、すなわち距離を有す外形が存在すると見な
す。
(The number of edge points having a distance within the inspection area R1 on the left end) ≧ threshold Th 1 (the number of edge points having a distance within the inspection area R2 on the right end) ≧ threshold Th 1 in, the threshold Th 1 is a threshold for suppressing the influence of noise that defines the minimum value of the number of edge points having a distance to be in a region R1 (or R2). When there are more edge points than this, it is considered that there is a cluster of edge points having a stable distance, that is, there is an outer shape having a distance.

【0054】判断条件(2):(外形の一部分が得られ
ているか、すなわち一部が欠けているかの検査) 判断条件(1)と同様に、物体外形の見え方モデルML
i j をステレオ画像のうちの一方の距離画像内に設置
し、図6で示した調査領域(R1、R2)について、以
下のいずれかの条件を満足するか調べる。
Judgment condition (2): (inspection of whether a part of the outline is obtained, that is, whether part is missing) Similar to the judgment condition (1), the appearance model ML of the object outline is determined.
established a i j in one of the distance image of the stereo image, the investigation region (R1, R2) shown in FIG. 6, it is checked whether satisfies one of the following conditions.

【0055】[0055]

【数2】 (Equation 2)

【0056】ここで、「距離が求まっていないエッジ
点」とは、物体と背景との間の明るさの変化が少ないな
どの理由によりエッジ点の位置がずれてしまい、ステレ
オ処理で左右エッジ画像間で同一箇所を定められず、距
離が求まっていないエッジ点を指す。このいずれかの条
件を満たすならば、一方の端では3次元位置を定められ
る距離情報を持つ物体外形があり、他方端では、距離は
分からないが、塊として物体外形を形成し得る特徴(痕
跡)が存在することを表す。ます、距離が求まっていな
いエッジ点の数に対する閾値Th2 は、閾値Th1 に対
して
Here, the "edge point for which the distance has not been determined" means that the position of the edge point is shifted due to a small change in brightness between the object and the background, and the left and right edge images are subjected to stereo processing. It indicates an edge point for which the same location cannot be determined and the distance is not determined. If either of these conditions is satisfied, at one end there is an object outline having distance information that can determine a three-dimensional position, and at the other end, a feature (trace) that can form the object outline as a lump although the distance is unknown. ) Is present. Trout, distance has not been determined threshold Th 2 for the number of edge points, against a threshold Th 1

【0057】[0057]

【数3】 (Equation 3)

【0058】なる関係を持つ値とする。ここで式中のT
は、全エッジ点に対する平均対応率であり、あらかじ
め、例えば実験により求めておくものであり、全エッジ
数のうち、平均的に距離が求まるエッジ点の数の割合を
表す。通常は、全てのエッジ点に対して距離が求まらな
いので、1以下の数値となる。この関数Tを用いること
で、距離が求まっているエッジ点の数と、距離が求まっ
ていないエッジ点の数と影響がほぼ等しくなるように調
整している。
The values have the following relationship. Where T in the equation
Is an average correspondence ratio with respect to all edge points, which is obtained in advance by, for example, an experiment, and represents a ratio of the number of edge points whose distance can be determined on average to the total number of edges. Normally, the distance is not obtained for all the edge points, so the value is 1 or less. By using this function T, adjustment is made so that the number of edge points for which the distance is obtained and the number of edge points for which the distance is not obtained are substantially equal.

【0059】もし、式2の条件のいずれかを満足するな
らば、物体の外形の一部が見つかった(一部が欠けてい
る)可能性があると判断して、下記の次処理で説明す
る、他方画像で同様に外形の有無を調査する。この調査
の目的は、互いに異なる物体の一部分ずつを組合せて、
一部の外形が欠けた物体であるとする誤認識を防ぐため
であり、ステレオ画像間で矛盾無く「外形が欠けてい
る」と判断できるかを確認している。
If any of the conditions of Equation 2 is satisfied, it is determined that there is a possibility that a part of the outer shape of the object has been found (partly missing), and the following processing will be described. On the other hand, the presence / absence of the outer shape is similarly examined in the image. The purpose of this study is to combine parts of different objects,
This is to prevent erroneous recognition that the object is a part of which lacks an outer shape, and confirms whether it is possible to determine that "the outer shape is missing" without inconsistency between stereo images.

【0060】もし、式2のどちらも満足しないならば、
判断条件(2)を満足しないとして返る。
If neither equation 2 is satisfied,
It returns that the judgment condition (2) is not satisfied.

【0061】次処理である他方画像での物体外形の有無
の判定は、次のように行う。まず、元の画像における外
形検出領域R1またはR2のうち、「距離を有すエッジ
点を多く含む領域」側の平均距離に基づいて、他方画像
における物体の見えるべき位置を算出する(後述)。次
に、他方画像での見えるべき位置で図6で示した調査領
域を設定し、元の画像で「距離が求まっていないエッジ
点を多く含む領域」側と同一側の領域において、以下の
条件を満足するか調べる。
The determination of the presence or absence of the outer shape of the object in the other image, which is the next process, is performed as follows. First, based on the average distance on the “region including many edge points having a distance” in the outer shape detection region R1 or R2 in the original image, the position where the object should be seen in the other image is calculated (described later). Next, the investigation area shown in FIG. 6 is set at a position to be seen in the other image, and the following conditions are set in the area on the same side as the “area including many edge points for which the distance is not determined” in the original image. Find out if you are satisfied.

【0062】(距離が求まっているエッジ点の数)≦閾
値Th3 (距離が求まっていないエッジ点の数)≦閾値Th2 この条件は、ステレオ画像間で、物体の左右端の同一側
で距離を有す外形が欠けていることを判断するためのも
のである。上記の2つの条件を満足するならば、矛盾無
く外形の一部が欠けているので、判断条件(2)を満足
するとして返る。もし満足しないならば、判断条件
(2)は満足しないとする。
(The number of edge points for which the distance is determined) ≦ threshold Th 3 (the number of edge points for which the distance is not determined) ≦ threshold Th 2 This condition is satisfied between the stereo images on the same side of the left and right ends of the object. This is for judging that a contour having a distance is missing. If the above two conditions are satisfied, since a part of the outer shape is missing without contradiction, it is returned that the determination condition (2) is satisfied. If they are not satisfied, it is determined that the judgment condition (2) is not satisfied.

【0063】他方画像における物体の見えるべき位置の
算出は、次のように行う。一方画像のエッジ点位置E1
(xe 1,e 1 )と他方画像でのエッジ点位置E2 (x
e 2,e 2 )の関係は、エッジ点の距離DE 、カメラの
焦点距離f、カメラ間距離bによって以下のように関連
付けられる(水平に設置されたステレオの場合)。
On the other hand, the calculation of the position where the object should be seen in the image is performed as follows. On the other hand, the edge point position E 1 of the image
(X e 1, y e 1 ) and the edge point position E 2 (x
The relationship of e 2, y e 2 ) is related as follows by the distance D E of the edge point, the focal length f of the camera, and the distance b between the cameras (in the case of a horizontally installed stereo).

【0064】[0064]

【数4】 (Equation 4)

【0065】従って、物体外形のうち距離が求まってい
る側の平均距離Dmeanを用いて、物体外形の見え方モデ
ルMLi j の矩形領域をx方向に計算値分だけずらすこ
とで、他方画像での物体の見えるべき位置を決定でき
る。
[0065] Thus, by using the average distance Dmean the side where been determined distance of the object outline, by shifting the rectangular region of appearance model ML i j of the object outline in the x-direction by the calculated value content, on the other hand the image Of the object can be determined.

【0066】もし、i番目の物体断片Pi について、全
ての物体モデルを用いて走査を終了したならば、他の物
体断片Pk (k=i+1 )について以上の操作を繰り返
す。もし全ての物体断片について以上の処理を施したな
らば、物体検出処理選択部4の処理を終え、それぞれの
物体候補Oij k(i)毎に関連付けられた物体検出処理(全
体外形物体検出処理部5、又は、部分外形物体検出処理
部6)へ処理を移す。
If scanning has been completed for all the object models for the i-th object fragment P i , the above operation is repeated for the other object fragments P k (k = i + 1 ). If the above processing has been performed on all the object fragments, the processing of the object detection processing selection unit 4 is completed, and the object detection processing (the entire outer shape object detection processing ) associated with each of the object candidates Oij k (i) is completed. The processing is shifted to the section 5 or the partial external object detection processing section 6).

【0067】次に、全体外形物体検出処理部5について
説明する。全体外形物体検出処理部5では、物体断片P
i に関して走査により得られた距離を有する外形が全体
から得られている物体候補Oij k について、物体の有無
を判定し、物体があると判定されたならば、その3次元
位置を決定する。処理の詳細について説明する。まず、
i番目の物体断片に対して、j番目の物体モデル(見え
方モデルMLi j )を走査して求まったk番目の物体候
補Oij k (0≦k≦NOj i ;NOj i はi番目の物体
断片に対して、j番目のモデルを走査したときに得られ
る物体候補の数)について、見え方モデルMLi j を当
てはめた時の当てはめ度合の良し悪しを評価するための
モデル一致度E1ij k を計算し、物体断片Pi 毎に、用
いた見え方モデル全てから得られた物体候補の中でモデ
ル一致度が最大となる値E1i ma x と、それを与えるモ
デル位置(j,k)を次のように求める。
Next, the entire external object detection processing section 5 will be described.
explain. In the whole external object detection processing unit 5, the object fragment P
iThe overall shape with the distance obtained by scanning with respect to
Object candidate O obtained fromij kAbout the existence of the object
Is determined, and if it is determined that there is an object, the three-dimensional
Determine the position. Details of the processing will be described. First,
For the i-th object fragment, the j-th object model (look
Model MLi j) Scan k)
Supplement Oij k(0 ≦ k ≦ NOj i; NOj iIs the i-th object
Obtained when the j-th model is scanned for fragments
Number of object candidates), the appearance model MLi jThis
To evaluate the degree of fit when fitting
Model agreement E1ij kAnd calculate the object fragment PiFor each
Model among the candidate objects obtained from all the appearance models
Value E1 at which the degree of coincidence becomes maximumi ma xAnd give it a mo
The Dell position (j, k) is obtained as follows.

【0068】[0068]

【数5】 (Equation 5)

【0069】もし、最大値E1i max が閾値以上なら、
(j,k)で与えられる位置(物体見え方モデルMLi
j をk番目の物体候補を与える位置に置いた位置)に物
体が存在すると決定する。もし最大値E1i max が閾値
以下なら、物体断片Pi に対する物体は存在しないと決
定する。
If the maximum value E1 i max is equal to or larger than the threshold value,
The position (object appearance model ML i ) given by (j, k)
It is determined that the object exists at the position where j is set at the position where the k-th object candidate is given). If the maximum value E1 i max is less than or equal to the threshold value, it is determined that no object exists for the object fragment P i .

【0070】ここで、見え方モデルとの一致度E1ij k
は、与えられたモデルと画像から得られる物体の特徴量
がどれだけ符合するかを表す量であれば、その実現方法
については特に言及しないが、例えば次のようなもので
ある。図6に示した外形検出領域R1、R2で、距離を
有すエッジ点の個数の合計をE1in 1 とし、物体内部検
出領域R3で距離を有すエッジ点の内、外形検出領域R
1、R2の平均距離との差が閾値以内の点数をE
in 2 、閾値以上の点数をE1out とする時、以下の式
でモデル一致度を与える。
Here, the degree of coincidence E1 ij k with the appearance model
Is a quantity representing how much the feature quantity of an object obtained from a given model and an image matches, but there is no particular mention of a method of realizing it. In the contour detection areas R1 and R2 shown in FIG. 6, the total number of edge points having a distance is E1 in 1, and the contour detection area R among the edge points having a distance in the object inside detection area R3.
1, the score whose difference from the average distance of R2 is within the threshold is E
Assuming that 1 in 2 and the number of points equal to or larger than the threshold value are E1 out , a model matching degree is given by the following equation.

【0071】E1ij k =E1in 1 +E1in 2 −E1out これは、物体の外形部や内部から物体と同一距離を持つ
エッジ点が得られるほど、また、物体の内部からは検査
中の物体以外の証拠である距離の異なるエッジ点が得ら
れていないほど高い得点になり、物体らしいとするもの
である。
E1 ij k = E1 in 1 + E1 in 2 −E1 out This is because the edge point having the same distance as the object from the outer shape or the inside of the object can be obtained, and the object under inspection from the inside of the object. The higher the number of edge points having different distances, which is evidence other than that, the higher the score is, and the object is considered to be an object.

【0072】続いて、部分外形物体検出処理部6につい
て説明する。本処理では、物体断片Pi に関して走査に
より得られた距離を有す外形が一部(左右端のいずれ
か)からしか得られない場合に、物体の有無を判定し、
物体があると判定されたならば、その3次元位置を決定
する処理である。処理の詳細は、見え方モデルとの一致
度の計算方法が異なることを除いては、先の全体外形物
体検出処理部5と同じである。
Next, the partial outline object detection processing section 6 will be described. In this processing, when the outer shape having the distance obtained by scanning with respect to the object fragment P i can be obtained only from a part (either the left or right end), the presence or absence of the object is determined.
If it is determined that there is an object, the process is to determine its three-dimensional position. The details of the process are the same as those of the whole external object detection processing unit 5 except that the method of calculating the degree of coincidence with the appearance model is different.

【0073】部分外形での物体検出処理での見え方モデ
ル一致度E2ij k は、全体外形での物体検出処理の時と
同様に、与えられたモデルと画像から得られる物体の特
徴量がどれだけ符合するかを表す量であれば、その実現
方法については特に言及しないが、例えば次のようなも
のである。
The appearance model coincidence E2 ij k in the object detection processing in the partial outline is the same as that in the object detection processing in the entire outline, and is based on the characteristic amount of the object obtained from the given model and image. The method of realizing this is not particularly described as long as it is an amount indicating whether or not they match. For example, the following method is used.

【0074】図6に示した外形検出領域R1、R2のい
ずれかで距離を有すエッジ点を含む側での距離を有すエ
ッジ点の個数をE2in 1 、他方の距離が求まらないエッ
ジ点を含む側の外形検出領域内にある距離が求まらない
エッジ点の個数から求まる評価値をE2in 2 とし、物体
内部検出領域R3における距離を有すエッジ点の内、外
形検出領域R1、R2のいずれかで距離を有す側から求
まる平均距離との差が閾値以内の点数をE2in 3 、閾値
以上の点数をE2out とする時、以下の式でモデル一致
度を与える。
E2 in 1 is the number of edge points having a distance on the side including the edge point having a distance in one of the outer shape detection regions R1 and R2 shown in FIG. 6, and the other distance cannot be obtained. An evaluation value obtained from the number of edge points for which the distance is not obtained in the outer shape detection area on the side including the edge point is E2 in 2, and the outer shape detection area among the edge points having the distance in the object inner detection area R3. When the difference between the average distance obtained from the side having the distance in either of R1 and R2 is within a threshold value, E2 in 3 , and the score, which is equal to or larger than the threshold value, is E2 out , the model matching degree is given by the following equation.

【0075】 E2ij k =E2in 1 +E2in 2 +E2in 3 −E2out ただし、E2in 2 =(外形検出領域内のエッジ点の数)
×T(Tは式2と同じ平均対応率) この式の意味は、先の全体外形物体検出処理部5と同じ
であり、物体の外形部や内部から物体と同一距離を持つ
エッジ点が得られるほど、また、物体の内部からは検査
中の物体外である証拠である距離の異なるエッジ点が得
られていないほど高い得点になり、物体らしいとするも
のである。ただし、距離が求まるエッジ点数と距離が求
まらないエッジ点数の影響を同じにするために、E2in
2 の算出で計数Tをかけてある。
[0075] E2 ij k = E2 in 1 + E2 in 2 + E2 in 3 -E2 out , however, E2 in 2 = (the number of edge points of the outline detection area)
× T (T is the same average correspondence rate as in Expression 2) The meaning of this expression is the same as that of the whole external object detection processing unit 5 described above, and an edge point having the same distance from the external portion or the inside of the object as the object is obtained. The higher the score is, the higher the score is that the edge points having different distances from the inside of the object, which are evidence of the outside of the object under inspection, are not obtained. However, in order to make the influence of the number of edge points for which the distance is obtained equal to the number of edge points for which the distance is not obtained, E2 in
It is multiplied by the count T in the second calculation.

【0076】本発明の第2の実施の形態を図7により他
図を参考にして説明する。図7において、他図と同記号
は同一部分を示し、10は物体検出処理部、11は全体
外形物体検出処理部、12は部分外形物体検出処理部、
13は物体位置決定処理部である。
A second embodiment of the present invention will be described with reference to FIG. 7, the same symbols as those in the other figures denote the same parts, 10 is an object detection processing unit, 11 is an entire external object detection processing unit, 12 is a partial external object detection processing unit,
Reference numeral 13 denotes an object position determination processing unit.

【0077】物体検出処理部10は、前記図3に示す物
体検出処理部3と同様に、ステレオ処理部2から距離情
報とエッジ情報を受け取り、物体位置を出力するもので
はあるが、図3と異なる点は、物体検出処理部10を構
成する全体外形物体検出処理部11と、部分外形物体検
出処理部12は、前記図3の全体外形物体検出処理部5
と、部分外形物体検出処理部6のように、各物体断片P
i に対して唯一の物体位置を決定するものではなく、複
数のK個(K≧2)の物体位置候補Ui k (kは物体位
置候補の番号を表し、0≦k≦K)を選定することと、
この複数の物体位置候補Ui k を新たに設けた物体位置
決定処理部13により、過去の物体の情報を用いて、複
数の物体位置候補Ui k から、それぞれの物体断片Pi
に対応する物体位置を決定することである。
The object detection processing unit 10 receives distance information and edge information from the stereo processing unit 2 and outputs an object position, similarly to the object detection processing unit 3 shown in FIG. The difference is that the whole external object detection processing unit 11 and the partial external object detection processing unit 12 constituting the object detection processing unit 10 are different from the whole external object detection processing unit 5 in FIG.
And each object fragment P
A plurality of K (K ≧ 2) object position candidates U i k (k represents the number of object position candidates and 0 ≦ k ≦ K) are selected instead of determining only one object position for i. To do
The object position determination unit 13 is newly provided with the plurality of object position candidate U i k, using the information of the past object, from a plurality of object position candidate U i k, each object fragment P i
Is determined.

【0078】この構成により、画像から得られる情報の
みで物体位置を決定せずに、過去の物体の、例えば移動
情報等の、情報にもっとも符合する位置を決定すること
ができ、常に安定して正しく物体位置を決定することが
できる。
With this configuration, it is possible to determine the position of the past object that best matches the information, such as, for example, movement information, without determining the object position using only the information obtained from the image. The object position can be correctly determined.

【0079】以下に、前記図3の構成と異なる部分につ
いて詳述する。
Hereinafter, portions different from the configuration of FIG. 3 will be described in detail.

【0080】まず、全体外形物体検出処理部11につい
て述べる。前記図3に示す全体外形物体検出処理部5と
比較して違う点は、i番目の物体断片Pi に対してj番
目の見え方モデルMLi j を走査して得られたk番目の
物体候補Oij k について、見え方モデルMLi j を当て
はめた時の当てはめ度合いの良し悪しを評価するモデル
一致度E1ij k を用いて、物体断片Pi 毎に、用いた見
え方モデル全てを通して得られた物体候補Oij k (0≦
i≦N,1≦j≦Nm)の中から、モデル一致度が大き
いものから上位k番目までを物体位置候補Ui k (0≦
k≦K)として出力する点である。
First, the overall external object detection processing section 11 will be described. FIG 3 shows that different compared to the overall outer shape object detection processing section 5, i-th j th appearance model ML i k-th object obtained by scanning a j with respect to the object fragment P i for the candidate O ij k, appearance model using ML i j a model matching degree E1 ij k to evaluate good or bad degree fitting when fitted, for each object fragment P i, obtained through all appearance model used Object candidate Oij k (0 ≦
From i ≦ N, 1 ≦ j ≦ Nm), the object position candidates U i k (0 ≦
k <K).

【0081】次に、部分外形物体検出処理部12につい
て述べる。前記図3に示す部分外形物体検出処理部6と
比較して違う点は、先ほどと同様に、物体候補Oij k
ついて、見え方モデルMLi j を当てはめた時の当ては
め度合の良し悪しを評価するモデル一致度E2ij k を用
いて、物体断片Pi 毎に、用いた見え方モデル全てを通
して得られた物体候補Oij k (0≦i≦N,1≦j≦N
m)の中から、モデル一致度が大きいものから上位k番
目までを物体位置候補Ui k (0≦k≦K)として出力
する点である。
Next, the partial outline object detection processing section 12 will be described. FIG 3 shows partial outline object detection processing unit 6 and to different points comparison, evaluation as before, the object candidate O ij k, fitting good degree bad when fitting the appearance model ML i j The object candidates O ij k (0 ≦ i ≦ N, 1 ≦ j ≦ N) obtained through all the appearance models used for each object fragment P i using the model matching degree E2 ij k
m), the object position candidates U i k (0 ≦ k ≦ K) are output from the object having the highest model matching degree to the top k-th.

【0082】続いて、物体位置決定処理部13について
述べる。今、既にN0 個の物体Wqq は物体の番号を
表し、0≦q≦N0 である)が検出されているとする。
それぞれの物体Wq 毎に運動モデルを持ち、前回までの
物体位置の履歴から、運動モデルを用いて今回存在し得
る物体位置Wpre q を予測する。運動モデルの実際につ
いては特段規定せず、例えば一時刻前の位置からの線形
予測モデルや、カルマンフィルタを用いた予測モデルで
良い。ある予測物体位置Wpre q に対して、N個の物体
断片Pi のそれぞれについて求めた物体位置候補Ui k
(0≦k≦K)とを比較して、3次元での距離差が閾値
以内なら、予測物体位置Wpre q と物体位置候補Ui k
から物体位置Wpre q =Fp (Wpre q ,Ui k )とし
て、物体位置Wpre q を更新する。そしてWpre q と対
応しなかった残りの物体位置候補Ui k は、同時には存
在し得ないので、物体位置候補から削除する。
Next, the object position determination processing section 13 will be described. Now, it is assumed that N 0 objects W q ( q represents the number of the object and 0 ≦ q ≦ N 0 ) have already been detected.
It has a kinetic model to each of each object W q, from the history of the object position up to the previous, to predict the object position W pre q which may be present time using a motion model. The actual motion model is not particularly defined, and may be, for example, a linear prediction model from a position one hour before or a prediction model using a Kalman filter. For a certain predicted object position W pre q , an object position candidate U i k obtained for each of the N object fragments P i
(0 ≦ k ≦ K), and if the three-dimensional distance difference is within the threshold, the predicted object position W pre q and the object position candidate U i k
Object position from W pre q = F p (W pre q, U i k) as to update the object position W pre q. Then, the remaining object position candidates U i k that do not correspond to W pre q cannot exist at the same time, and are deleted from the object position candidates.

【0083】この操作により、物体位置Wpre q と対応
が求まらなかった物体位置候補Ui k (0≦k≦K,0
≦i≦N)については各物体断片Pi から検出された物
体位置候補Ui k (0≦k≦K)毎に、評価値が最も高
い候補位置に新たに物体が検出されたとして、物体位置
pre q+1 として登録する。この結果、検出された物体
数をN0 ←N0 +1とする。
By this operation, the object position Wpre qAnd corresponding
Object position candidate U for which was not foundi k(0 ≦ k ≦ K, 0
≦ i ≦ N), each object fragment PiObjects detected from
Body position candidate Ui kThe highest evaluation value for each (0 ≦ k ≦ K)
If a new object is detected at a new candidate position,
Wpre q + 1Register as As a result, the detected object
Number N0← N0+1.

【0084】また、物体位置候補Ui k (0≦k≦K,
0≦i≦N)のいずれとも対応が付かなかった物体位置
pre q があるならば、その物体位置Wpre q を削除す
る。この結果、検出された物体数をN0 ←N0 −1とす
る。
Further, object position candidates U i k (0 ≦ k ≦ K,
If there is an object position W pre q that does not correspond to any of 0 ≦ i ≦ N), the object position W pre q is deleted. As a result, the number of detected objects is set to N 0 ← N 0 -1.

【0085】このようにして予測した位置のものともっ
とも近いものを抽出することができるので、背景のエッ
ジなど物体ではない部分のエッジを用いて物体外形と誤
認するようなことはなく、過去の物体位置の情報つまり
運動の履歴情報等から動きの滑らかさなどを用いて、も
っとも物体である可能性の高いものを最終的な物体位置
として正確に出力できる。
In this way, it is possible to extract the one closest to the predicted position, so that the edge of the part other than the object such as the background edge is not mistaken for the object outline, and the past outline is not used. The most likely object can be accurately output as the final object position using the information on the object position, that is, the smoothness of the movement based on the movement history information and the like.

【0086】本発明は、距離情報から物体を検出する方
式において、従来からの物体外形の全体で距離情報が求
まっている場合だけでなく、物体外形の一部の距離情報
が欠けている場合には、予め用意した物体の外形の見え
方のモデルを用いて、外形のどこが欠けているか識別
し、欠けた部分では再度外形の距離を算出する処理を追
加し、この2つの方式を適宜切り替えることで、物体外
形の一部が欠けても安定に物体を検出できるようにした
ことにより、照明状態の変化などによって映像全体の明
るさが増減して、結果として物体の一部の距離情報が欠
落する場合においても、安定に物体を検出できる。
The present invention relates to a method for detecting an object from distance information, not only when distance information is obtained for the entire object outline but also when part of the object outline lacks distance information. Uses a model of the appearance of the outline of the object prepared in advance, identifies where the outline is missing, adds processing to calculate the distance of the outline again at the missing part, and switches between these two methods as appropriate Therefore, even if a part of the object outline is missing, the object can be detected stably, so that the brightness of the entire image increases or decreases due to changes in the lighting conditions, etc., and as a result, distance information of a part of the object is missing In this case, the object can be detected stably.

【0087】[0087]

【発明の効果】本発明によれば下記の効果を奏すること
ができる。
According to the present invention, the following effects can be obtained.

【0088】(1)物体外形の全体で距離が得られてい
る場合に物体位置を決定する処理部に加えて、物体外形
の一部の距離情報が欠けている場合でも、予め用意した
物体の外形の見え方のモデルを用いて外形の欠けた部分
に対しても距離を算出する処理部を設けたので、物体外
形全体で距離が得られている場合は勿論のこと、物体外
形の一部が欠けている場合でも、正確に物体を検出する
ことができる。
(1) In addition to the processing unit for determining the object position when the distance is obtained for the entire object outline, even if the distance information of a part of the object outline is lacking, the object prepared in advance A processing unit is provided to calculate the distance even for a part where the outline is missing using a model of the appearance of the outline, so that not only when the distance is obtained for the entire object outline, but also for a part of the object outline The object can be accurately detected even when the object is missing.

【0089】(2)ステレオ処理で距離が求められな
い、一部の欠けた外形について、エッジ点などのように
距離とは異なる特徴量の塊を使用して外形を形成するの
で、一部が欠けた外形に対しても外形部分を正確に得る
ことができる。
(2) For a part of the missing outline for which a distance cannot be obtained by the stereo processing, the outline is formed by using a lump having a feature amount different from the distance, such as an edge point. Even for a chipped outer shape, an outer shape portion can be obtained accurately.

【0090】(3)過去に得られた物体位置の情報を用
いて複数の物体位置候補から正しい物体位置を時系列的
に得ることができるので、背景にもエッジ点があるよう
な場合でもそれを誤認することなく正確に物体を検出す
ることができる。
(3) Since the correct object position can be obtained in time series from a plurality of candidate object positions using the information of the object position obtained in the past, even if the background has an edge point, The object can be detected accurately without misidentifying the object.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の概略構成図である。FIG. 1 is a schematic configuration diagram of the present invention.

【図2】本発明における外形の一部が欠けている場合の
処理説明図である。
FIG. 2 is an explanatory diagram of a process when a part of an outer shape is missing in the present invention.

【図3】本発明の一実施の形態である。FIG. 3 is an embodiment of the present invention.

【図4】距離画像説明図である。FIG. 4 is an explanatory diagram of a distance image.

【図5】走査範囲説明図である。FIG. 5 is an explanatory diagram of a scanning range.

【図6】物体外形の見え方モデルと外形検出領域の関係
説明図である。
FIG. 6 is a diagram illustrating the relationship between a visual appearance model of an object outline and an outline detection area.

【図7】本発明の第2の実施の形態である。FIG. 7 is a second embodiment of the present invention.

【図8】ステレオ画像による位置ずれ検出説明図であ
る。
FIG. 8 is an explanatory diagram of position shift detection using a stereo image.

【符号の説明】[Explanation of symbols]

1 ステレオ画像撮影部 2 ステレオ処理部 3、10 物体検出処理部 4 物体検出処理選択部 5、11 全体外形物体検出処理部 6、12 部分外形物体検出処理部 REFERENCE SIGNS LIST 1 stereo image photographing unit 2 stereo processing unit 3, 10 object detection processing unit 4 object detection processing selection unit 5, 11 overall external object detection processing unit 6, 12 partial external object detection processing unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA12 AA51 BB05 BB15 BB24 CC11 CC16 DD04 FF05 JJ03 JJ05 JJ26 KK01 MM02 QQ06 QQ13 QQ24 QQ25 QQ27 QQ34 QQ39 QQ42 RR08 SS02 UU05 2F112 AC06 BA06 CA04 CA05 CA12 FA27 FA31 FA38 5B057 AA02 AA16 AA19 BA11 CA13 CB06 CB13 CB20 CE12 DA11 DA12 DA13 DB03 DC16 DC30 5L096 AA09 BA08 CA05 DA02 EA07 FA06 FA70 HA01 HA07 HA09 JA24  ──────────────────────────────────────────────────続 き Continuing on the front page F term (reference) 2F065 AA04 AA12 AA51 BB05 BB15 BB24 CC11 CC16 DD04 FF05 JJ03 JJ05 JJ26 KK01 MM02 QQ06 QQ13 QQ24 QQ25 QQ27 QQ34 QQ39 QQ42 RR08 SS02 UU05 FA06 CA06 BA06 CA06 AA16 AA19 BA11 CA13 CB06 CB13 CB20 CE12 DA11 DA12 DA13 DB03 DC16 DC30 5L096 AA09 BA08 CA05 DA02 EA07 FA06 FA70 HA01 HA07 HA09 JA24

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】ステレオ計測距離情報から物体を検出する
物体位置計測装置において、 検出すべき物体の外形の中でステレオ計測で距離が求ま
らないステレオカメラと水平な成分を除く距離情報が得
られているか否かを判断する物体検出処理選択手段と、 前記外形の全体で距離情報が得られているとき、物体位
置を決定する全体外形物体検出処理手段と、 前記物体の外形の一部の距離情報が欠けている場合に、
予め用意した物体の外形の見え方モデルを使用して外形
の欠けている部分を識別し、欠けた部分に対して外形の
距離を算出する部分外形物体検出処理手段を具備したこ
とを特徴とする物体位置計測装置。
1. An object position measuring apparatus for detecting an object from stereo measurement distance information, wherein distance information excluding a horizontal component and a stereo camera whose distance is not obtained by stereo measurement in the contour of the object to be detected is obtained. Object detection processing selecting means for determining whether or not the object has been obtained, and when distance information has been obtained for the entire outer shape, an entire outer shape object detection processing means for determining an object position; and a part of the outer shape of the object. If distance information is missing,
A part-outside object detection processing means for identifying a part where the outside is missing using a previously prepared appearance appearance model of the object, and calculating a distance of the outside to the missing part. Object position measurement device.
【請求項2】前記欠けた部分について、ステレオ処理で
距離が求まらない外形については、前記部分外形物体検
出処理手段において、エッジ点の如き特徴量の塊にもと
づき外形を形成し、この塊単位でステレオ対応付けを行
うことにより、前記欠けた部分の外形の距離を算出する
ことを特徴とする請求項1記載の物体位置計測装置。
2. An outline for which a distance cannot be determined by stereo processing for the missing part is formed by the partial outline object detection processing means based on an aggregate of feature quantities such as edge points. 2. The object position measuring device according to claim 1, wherein the distance of the outer shape of the missing portion is calculated by performing stereo correspondence in units.
【請求項3】前記全体外形物体検出処理手段と、前記部
分外形物体検出処理手段において、複数の物体位置候補
を算出して、これらを物体位置決定処理手段に送出し、
物体位置決定処理手段では過去に求められた物体位置の
情報を用いて複数の物体位置候補から正しい物体位置を
決定可能にしたことを特徴とする請求項1または請求項
2記載の物体位置計測装置。
3. The whole external object detection processing means and the partial external object detection processing means calculate a plurality of object position candidates and send them to an object position determination processing means.
3. The object position measuring device according to claim 1, wherein the object position determination processing means is capable of determining a correct object position from a plurality of candidate object positions using information on the object position obtained in the past. .
JP2001128708A 2001-04-26 2001-04-26 Object position measuring device Expired - Fee Related JP4588914B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001128708A JP4588914B2 (en) 2001-04-26 2001-04-26 Object position measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001128708A JP4588914B2 (en) 2001-04-26 2001-04-26 Object position measuring device

Publications (2)

Publication Number Publication Date
JP2002323301A true JP2002323301A (en) 2002-11-08
JP4588914B2 JP4588914B2 (en) 2010-12-01

Family

ID=18977366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001128708A Expired - Fee Related JP4588914B2 (en) 2001-04-26 2001-04-26 Object position measuring device

Country Status (1)

Country Link
JP (1) JP4588914B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008151659A (en) * 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd Object detector
WO2014050285A1 (en) * 2012-09-27 2014-04-03 日立オートモティブシステムズ株式会社 Stereo camera device
JP2016133399A (en) * 2015-01-20 2016-07-25 セイコーエプソン株式会社 Head-mounted display device and method of controlling head-mounted display device, and computer program
JP2019117522A (en) * 2017-12-27 2019-07-18 株式会社ミツバ Obstacle detection device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08136220A (en) * 1994-11-14 1996-05-31 Mazda Motor Corp Method and device for detecting position of article
JPH0990026A (en) * 1995-09-27 1997-04-04 Honda Motor Co Ltd Object detecting device and its method
JP2001091232A (en) * 1999-09-24 2001-04-06 Sony Corp Three-dimensional shape measuring device and method, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08136220A (en) * 1994-11-14 1996-05-31 Mazda Motor Corp Method and device for detecting position of article
JPH0990026A (en) * 1995-09-27 1997-04-04 Honda Motor Co Ltd Object detecting device and its method
JP2001091232A (en) * 1999-09-24 2001-04-06 Sony Corp Three-dimensional shape measuring device and method, and recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008151659A (en) * 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd Object detector
WO2014050285A1 (en) * 2012-09-27 2014-04-03 日立オートモティブシステムズ株式会社 Stereo camera device
JP2014067320A (en) * 2012-09-27 2014-04-17 Hitachi Automotive Systems Ltd Stereo camera device
JP2016133399A (en) * 2015-01-20 2016-07-25 セイコーエプソン株式会社 Head-mounted display device and method of controlling head-mounted display device, and computer program
JP2019117522A (en) * 2017-12-27 2019-07-18 株式会社ミツバ Obstacle detection device

Also Published As

Publication number Publication date
JP4588914B2 (en) 2010-12-01

Similar Documents

Publication Publication Date Title
JP5950296B2 (en) Person tracking attribute estimation device, person tracking attribute estimation method, program
JP4451307B2 (en) How to classify objects in a scene
González et al. Automatic traffic signs and panels inspection system using computer vision
CN102222346B (en) Vehicle detecting and tracking method
JP4467838B2 (en) Image recognition apparatus and image recognition method
US7769227B2 (en) Object detector
US6205242B1 (en) Image monitor apparatus and a method
JPH10143659A (en) Object detector
KR100631235B1 (en) Method for linking edges in stereo images into chains
JP2003083742A (en) Distance correction apparatus and method of monitoring system
JP2004028727A (en) Monitoring system, monitoring method, distance correction device for the monitoring system, and distance correction method
JP2000331148A (en) Obstacle detector
JP2002323301A (en) Object position measurement device
JPH05215547A (en) Method for determining corresponding points between stereo images
Agouris et al. Automated spatiotemporal change detection in digital aerial imagery
JP2004028728A (en) Topography recognition device and topography recognition method
CN115657021A (en) Fire detection method for movable robot and movable robot
JP3576734B2 (en) Moving object extraction device
Lee Application of machine vision techniques for the evaluation of highway pavements in unstructured environments
JP2000261787A (en) Method and system for detecting intruding object
Hao et al. Slice-based window detection from scene point clouds
JP2003294422A (en) Object recognition apparatus and method therefor
CN108257170A (en) Real-time volume matching failure predication and solution based on orthogonal stereo device
CN115035251B (en) Bridge deck vehicle real-time tracking method based on field enhanced synthetic data set
JP2591694B2 (en) Line width continuous measurement method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100726

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100726

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100909

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees