JP4389602B2 - Object detection apparatus, object detection method, and program - Google Patents

Object detection apparatus, object detection method, and program Download PDF

Info

Publication number
JP4389602B2
JP4389602B2 JP2004048633A JP2004048633A JP4389602B2 JP 4389602 B2 JP4389602 B2 JP 4389602B2 JP 2004048633 A JP2004048633 A JP 2004048633A JP 2004048633 A JP2004048633 A JP 2004048633A JP 4389602 B2 JP4389602 B2 JP 4389602B2
Authority
JP
Japan
Prior art keywords
distance
reliability
detection target
pixel
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004048633A
Other languages
Japanese (ja)
Other versions
JP2005242488A (en
Inventor
秀和 荒木
智治 中原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Corp
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Works Ltd filed Critical Panasonic Corp
Priority to JP2004048633A priority Critical patent/JP4389602B2/en
Publication of JP2005242488A publication Critical patent/JP2005242488A/en
Application granted granted Critical
Publication of JP4389602B2 publication Critical patent/JP4389602B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、着目する空間において距離情報を用いることにより当該空間に出入りする人や物品のような物体を背景から分離して検出する物体検出装置、物体検出方法、プログラムに関するものである。   The present invention relates to an object detection device, an object detection method, and a program for detecting an object such as a person or an object entering or leaving the space by separating it from the background by using distance information in the space of interest.

従来から、人や自動車のような検出対象である物体が出入りする空間を監視する目的で、着目する空間に出入りする検出対象を背景から分離して抽出する技術が知られている。たとえば、視野を固定したTVカメラにより異なる時刻に撮像した複数の画像を用い、画像間において対応する位置の各画素の画素値の差分を画素値とする差分画像を生成し、差分画像において画素値が規定した閾値以上である画素の集合を検出対象(移動物体)に対応する領域として背景から分離する技術が知られている。TVカメラにより撮像される画像には、濃淡画像またはカラー画像が用いられる。   Conventionally, for the purpose of monitoring a space where an object to be detected, such as a person or a car, enters and exits, a technique is known in which a detection object that enters and exits a space of interest is separated and extracted from the background. For example, using a plurality of images captured at different times by a TV camera with a fixed field of view, a difference image is generated in which the difference between the pixel values of each pixel at a corresponding position between the images is a pixel value. There is known a technique for separating a set of pixels that are equal to or more than the threshold defined by the above as a region corresponding to a detection target (moving object) from the background. A gray image or a color image is used as an image picked up by the TV camera.

上述した技術は、画像内に検出対象が存在するときと検出対象が存在しないときとで明暗や色が変化することを利用して検出対象を背景から分離するものであるから、着目する空間内で外光や照明の影響による光量変化や色変化が生じると、検出対象が存在しない場合であっても検出対象の存在と誤認することがあるという問題がある。   The technique described above separates the detection target from the background by using the change in brightness and color between when the detection target exists in the image and when the detection target does not exist. When there is a change in the amount of light or color due to the influence of external light or illumination, there is a problem that even if there is no detection target, it may be mistaken for the presence of the detection target.

そこで、着目する空間の明暗や色の変化の影響を受けないように背景から検出対象を分離して検出するために距離情報を用いることが提案されている(たとえば、特許文献1参照)。つまり、検出対象を含まない空間の距離情報と検出対象を含む空間の距離情報との差分により検出対象を抽出すれば、外光や照明の影響を受けにくいと考えられる。ここに、検出対象を背景から分離して検出することを前提として距離情報を求めるためには、着目する空間内において検出対象が占める領域よりも十分に小さい部位ごとに距離を求めることができる分解能が必要である。
特公平8−21149号公報
Thus, it has been proposed to use distance information to separate and detect a detection target from the background so as not to be affected by light and darkness of the space of interest or color change (see, for example, Patent Document 1). That is, if the detection target is extracted based on the difference between the distance information of the space that does not include the detection target and the distance information of the space that includes the detection target, it is considered that the detection target is hardly affected by external light or illumination. Here, in order to obtain distance information on the assumption that the detection target is detected separately from the background, the resolution can be obtained for each part sufficiently smaller than the area occupied by the detection target in the space of interest. is required.
Japanese Patent Publication No. 8-21149

ところで、距離情報を求める技術は種々知られているが、上述のように空間内の各部位の距離を求める場合には、いずれかの部位の計測結果に誤りが含まれることが多い。たとえば、2台のTVカメラで撮像した画像を用い、両TVカメラで撮像した2枚の画像内の各部位を対応付け、両TVカメラの視差に基づいて距離画像を生成するステレオ画像法のように空間の各部位の距離を光学的に計測する場合には、TVカメラへの入射光量が少ないと誤計測を生じやすいから、空間内に存在する物体の反射率が低い部位では距離の計測結果に誤りを生じる可能性がある。   By the way, various techniques for obtaining distance information are known, but when obtaining the distance of each part in the space as described above, an error is often included in the measurement result of any part. For example, a stereo image method that uses images captured by two TV cameras, associates each part in the two images captured by both TV cameras, and generates a distance image based on the parallax of both TV cameras. When measuring the distance of each part of the space optically, if the amount of light incident on the TV camera is small, erroneous measurement is likely to occur. Therefore, the distance measurement result at the part where the reflectance of the object existing in the space is low May cause errors.

上述のように、空間のいずれかの部位で距離の計測結果に誤りがあると、検出対象を背景から分離するために距離の差分には検出対象以外の誤差が含まれることになる。そこで、上述した特許文献1に記載の技術では、検出対象を含まない空間の距離と検出対象を含む空間の距離情報とのうち、誤計測を含まない部位のみを利用して検出対象を抽出する技術を採用している。しかしながら、このような技術を採用すると、誤計測の部位の情報は利用されないものであるから、検出対象に欠落部分を生じる可能性がある。その結果、検出対象の特徴量を抽出するような目的には利用することができないという問題を有している。   As described above, if there is an error in the distance measurement result at any part of the space, the distance difference includes an error other than the detection target in order to separate the detection target from the background. Therefore, in the technique described in Patent Document 1 described above, a detection target is extracted using only a part that does not include an erroneous measurement among the distance of the space that does not include the detection target and the distance information of the space that includes the detection target. Adopt technology. However, if such a technique is employed, information on the erroneously measured part is not used, and thus there is a possibility that a missing part is generated in the detection target. As a result, there is a problem that it cannot be used for the purpose of extracting the feature quantity of the detection target.

本発明は上記事由に鑑みて為されたものであり、その目的は、空間の各部位の距離を計測したときの計測結果の信頼度を求め、距離情報から得られる検出対象の候補を信頼度に応じて評価することによって、欠落部分をほとんど生じることなく検出対象を抽出することができるようにした物体検出装置、物体検出方法、プログラムを提供することにある。   The present invention has been made in view of the above-mentioned reasons, and its purpose is to obtain the reliability of the measurement result when measuring the distance of each part of the space, and to select the detection target candidate obtained from the distance information as the reliability. It is an object to provide an object detection apparatus, an object detection method, and a program capable of extracting a detection target with almost no missing part by performing an evaluation according to the above.

請求項1の発明は、着目する空間の各部位の距離を計測する測距手段と、着目する1つの空間について測距手段で異なる時刻に計測した各部位ごとの距離の差分を求める差分手段と、差分手段で得られた距離の差分を用いて空間内での検出対象となる物体の候補の存在部位を抽出する物体抽出手段と、物体抽出手段により抽出した検出対象の候補から検出対象を抽出し検出対象の特徴量を抽出する物体判定手段と、測距手段による空間の各部位の距離の計測結果について信頼度を求める信頼性算出手段とを有し、物体抽出手段は、各部位ごとに異なる時刻の距離の計測結果の信頼度の組合せによって各部位ごとの距離の差分を分類する機能を有し、物体判定手段は、物体抽出手段での各部位ごとの分類結果および距離の評価により検出対象の候補を検出対象ごとにグループ化して抽出する機能を有することを特徴とする。   The invention according to claim 1 is a distance measuring means for measuring the distance of each part of the space of interest, and a difference means for obtaining a difference of distances for each part measured at different times by the distance measuring means for one space of interest. The object extraction means for extracting the existence part of the candidate object to be detected in the space using the difference in distance obtained by the difference means, and the detection target is extracted from the detection target candidate extracted by the object extraction means And an object determination means for extracting the feature quantity of the detection target, and a reliability calculation means for obtaining a reliability for the measurement result of the distance of each part of the space by the distance measurement means. The object extraction means is provided for each part. It has a function to classify the difference in distance for each part by combining the reliability of the measurement results of distances at different times, and the object determination means is detected by the classification result and distance evaluation for each part in the object extraction means Subject And having a function of extracting grouped complement each detection target.

上記構成によれば、距離の差分を用いるだけではなく、測距手段での距離の計測結果について信頼度を求め、信頼度に基づいて検出対象の候補となる領域を評価するから、計測結果に誤りが含まれている場合でも検出対象の誤検出を低減することができる。その結果、欠落部分をほとんど生じることなく検出対象を抽出することが可能になる。   According to the above configuration, not only the distance difference is used, but also the reliability is obtained for the distance measurement result by the distance measuring means, and the detection target candidates are evaluated based on the reliability. Even when an error is included, it is possible to reduce the erroneous detection of the detection target. As a result, it is possible to extract the detection target with almost no missing part.

請求項2の発明では、請求項1の発明において、前記信頼性算出手段は、前記測距手段で距離を計測する各部位について近傍領域を設定し、着目部位の近傍領域での距離の計測結果の分散の関数として当該部位の信頼度を算出することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the reliability calculating means sets a neighborhood area for each part whose distance is measured by the distance measuring means, and a measurement result of the distance in the neighboring area of the target part The reliability of the part is calculated as a function of the variance of.

この構成によれば、着目部位の近傍領域で得られる情報を用いて着目部位の信頼度を評価するから、測距手段から得られる距離の情報のみで計測結果の信頼度を求めることが可能になる。   According to this configuration, since the reliability of the target portion is evaluated using information obtained in the vicinity region of the target portion, it is possible to obtain the reliability of the measurement result using only the distance information obtained from the distance measuring means. Become.

請求項3の発明では、請求項1の発明において、前記信頼性算出手段は、前記測距手段で距離を計測する各部位について近傍領域を設定するとともに、着目部位の近傍領域である第1の領域に含まれる各部位についてさらに近傍領域である第2の領域を設定し、第2の領域での距離の計測結果の分散を第1の領域内で合計した総和の関数として当該部位の信頼度を算出することを特徴とする。   According to a third aspect of the invention, in the first aspect of the invention, the reliability calculating means sets a neighboring area for each part whose distance is measured by the distance measuring means, and is a first neighboring area of the target part. For each part included in the area, a second area that is a neighboring area is further set, and the reliability of the part as a function of the sum total of the dispersion of the measurement results of the distance in the second area in the first area Is calculated.

この構成によれば、着目部位について設定される近傍領域よりも広い範囲から得られる情報を用いて着目部位の信頼度を評価するから、測距手段から得られる距離の情報のみで計測結果の信頼度を求めることが可能になる。しかも、着目部位が検出対象の境界や段差部分であっても境界や段差の影響を軽減することができる。   According to this configuration, since the reliability of the target region is evaluated using information obtained from a wider range than the neighboring region set for the target region, the reliability of the measurement result can be determined only by the distance information obtained from the distance measuring means. The degree can be obtained. Moreover, even if the region of interest is the boundary or step portion of the detection target, the influence of the boundary or step can be reduced.

請求項4の発明では、請求項1の発明において、前記測距手段は、空間の各部位の距離について計測結果の信頼度の目安となる付随情報を出力し、前記信頼性算出手段は、空間の各部位の計測結果について付随情報を用いて信頼度を求めることを特徴とする。   According to a fourth aspect of the present invention, in the first aspect of the invention, the distance measuring means outputs accompanying information that is a measure of the reliability of the measurement result for the distance of each part of the space, and the reliability calculating means The reliability is obtained by using the accompanying information for the measurement result of each part.

この構成によれば、測距手段から得られる付随情報を用いて信頼度を求めているから、測距手段で得られる距離情報以外の情報を用いて計測結果の信頼度を評価することになり、信頼度による計測結果の評価に対する信憑性を高めることができる。   According to this configuration, since the reliability is obtained using the accompanying information obtained from the distance measuring means, the reliability of the measurement result is evaluated using information other than the distance information obtained by the distance measuring means. The reliability of the measurement result evaluation based on the reliability can be improved.

請求項5の発明では、請求項4の発明において、前記測距手段は、複数台のTVカメラを用いて撮像した複数枚の画像に含まれる画素を互いに対応付けることにより空間の各部位の距離を各画素の画素値とした距離画像を生成するものであって付随情報として各TVカメラで撮像した複数枚の画像のうちのいずれかの各画素の濃度を出力し、前記信頼性算出手段は、当該画像の各画素について近傍領域を設定し、距離画像において着目する画素の近傍領域での濃度の分散の関数として当該画素の信頼度を算出することを特徴とする。   According to a fifth aspect of the present invention, in the fourth aspect of the present invention, the distance measuring means associates pixels included in a plurality of images picked up using a plurality of TV cameras with each other to thereby determine the distance between each part of the space. A distance image having a pixel value of each pixel is generated, and as the accompanying information, the density of each pixel of a plurality of images captured by each TV camera is output, and the reliability calculation unit includes: A neighborhood region is set for each pixel of the image, and the reliability of the pixel is calculated as a function of density dispersion in the neighborhood region of the pixel of interest in the distance image.

この構成によれば、測距手段としてステレオ画像法により距離画像を生成する構成を採用しており、ステレオ画像の生成に際して用いる複数枚の画像のいずれかから計測精度に影響の大きい濃度を付随情報に用いているから、計測結果を正確に反映させた信頼度を求めることができる。   According to this configuration, a distance image is generated by a stereo image method as a distance measuring unit, and a density that greatly affects measurement accuracy is selected from any one of a plurality of images used when generating a stereo image. Therefore, the reliability that accurately reflects the measurement result can be obtained.

請求項6の発明では、請求項4の発明において、前記測距手段は、複数台のTVカメラを用いて撮像した複数枚の画像に含まれる画素を互いに対応付けることにより空間の各部位の距離を各画素の画素値とした距離画像を生成するものであって付随情報として各TVカメラで撮像した複数枚の画像において画素を対応付けた領域および複数枚の画像の各画素の濃度を出力し、前記信頼性算出手段は、対応付けた領域における画素の濃度の相関値として当該領域に含まれる画素の信頼度を算出することを特徴とする。   According to a sixth aspect of the present invention, in the fourth aspect of the present invention, the distance measuring means associates pixels included in a plurality of images captured using a plurality of TV cameras with each other to thereby determine the distance between each part of the space. A distance image is generated as a pixel value of each pixel, and as ancillary information, a region in which a pixel is associated in a plurality of images captured by each TV camera and a density of each pixel of the plurality of images are output, The reliability calculation means calculates the reliability of the pixels included in the area as the correlation value of the density of the pixels in the associated area.

この構成によれば、測距手段としてステレオ画像法により距離画像を生成する構成を採用しており、ステレオ画像の生成に際して用いる複数枚の画像の対応付けの精度を付随情報に用いているから、計測結果を正確に反映させた信頼度を求めることができる。   According to this configuration, the distance measurement unit adopts a configuration that generates a distance image by the stereo image method, and uses the accuracy of associating a plurality of images used for generating a stereo image as accompanying information. The reliability that accurately reflects the measurement result can be obtained.

請求項7の発明では、請求項1ないし請求項6の発明において、前記物体抽出手段は、距離の計測結果の信頼度を複数段階に区分するとともに、各部位ごとに異なる時刻の計測結果の信頼度の段階を組み合わせ、各部位ごとの距離の差分を信頼度の段階の組合せで3種類以上に分類し、分類ごとに検出対象の候補か否かを評価することを特徴とする。   According to a seventh aspect of the present invention, in the first to sixth aspects of the present invention, the object extraction means divides the reliability of the distance measurement result into a plurality of stages, and the reliability of the measurement result at different times for each part. The degree of distance is combined, the difference in distance for each part is classified into three or more types by the combination of the degree of reliability, and whether or not it is a candidate for detection is evaluated for each classification.

この構成によれば、計測結果の信頼度を用いて計測結果を部位ごとに3種類以上に分類し、しかも分類した種類ごとに検出対象の候補か否かを評価するから、単なる差分画像では検出できなくなるような部位でも検出対象の候補として抽出することが可能になる。つまり、計測結果に誤計測が多く含まれるような場合でも検出対象の候補を正確に抽出することが可能になる。   According to this configuration, since the measurement results are classified into three or more types for each part using the reliability of the measurement results, and whether or not each of the classified types is a candidate for a detection target, it is detected by a simple difference image. Even parts that cannot be extracted can be extracted as candidates for detection. That is, it is possible to accurately extract detection target candidates even when the measurement result includes many erroneous measurements.

請求項8の発明では、請求項1ないし請求項7の発明において、前記物体判定手段は、前記物体抽出手段で抽出した検出対象の候補について、着目する空間内での候補間の3次元の距離が規定した第1の閾値以下である検出対象の候補をグループとして抽出し、さらに測距手段への投影面内で前記グループとの距離が規定した第2の閾値以下である検出対象を前記グループと連結するグループとして抽出し、連結されたグループを1つの検出対象とすることを特徴とする。   According to an eighth aspect of the present invention, in the first to seventh aspects of the present invention, the object determining means is a three-dimensional distance between candidates in the space of interest for the detection target candidates extracted by the object extracting means. The detection target candidates that are equal to or smaller than the first threshold defined by the above are extracted as a group, and the detection targets whose distance from the group is equal to or smaller than the second threshold defined within the projection plane to the distance measuring means are selected as the group. And extracted as a group to be connected, and the connected group is set as one detection target.

この構成によれば、検出対象の候補について3次元の距離が近い領域をグループとして抽出することで検出対象である可能性の高い部位を抽出することができ、さらに検出対象である可能性の高いグループに対して検出対象の候補から投影面内での距離が近い部位を抽出して連結することで検出対象ごとに正確にグループ化することができる。   According to this configuration, it is possible to extract a region having a high possibility of being a detection target by extracting a region having a close three-dimensional distance as a group with respect to the detection target candidate, and it is highly likely that the detection target candidate is a detection target. By extracting and linking the parts having a short distance in the projection plane from the detection target candidates to the group, it is possible to accurately group each detection target.

請求項9の発明は、物体検出方法であって、着目する空間の各部位の距離を測距手段により計測し、着目する1つの空間について測距手段で異なる時刻に計測した各部位ごとの距離の差分を求め、求めた距離の差分を用いて空間内での検出対象となる物体の候補の存在部位を抽出し、抽出した検出対象の候補から検出対象を抽出し検出対象の特徴量を抽出する物体検出方法であって、測距手段による空間の各部位の距離の計測結果について信頼度を求め、各部位ごとに異なる時刻の距離の計測結果の信頼度の組合せによって各部位ごとの距離の差分を分類し、各部位ごとの分類結果および距離の評価により検出対象の候補を検出対象ごとにグループ化して抽出することを特徴とする。   The invention of claim 9 is an object detection method, wherein the distance of each part of the space of interest is measured by the distance measuring means, and the distance for each part measured at different times by the distance measuring means for one space of interest. The difference between the obtained distances is extracted, the presence part of the candidate object to be detected in the space is extracted, the detection target is extracted from the extracted detection target candidates, and the feature amount of the detection target is extracted. A method for detecting the distance of each part of the space by the distance measuring means, and determining the reliability of the distance of each part by combining the reliability of the measurement results of the distance at different times for each part. Differences are classified, and detection target candidates are grouped and extracted for each detection target based on the classification result and distance evaluation for each part.

この方法によれば、距離の差分を用いるだけではなく、測距手段での距離の計測結果について信頼度を求め、信頼度に基づいて検出対象の候補となる領域を評価するから、計測結果に誤りが含まれている場合でも検出対象の誤検出を低減することができる。その結果、欠落部分をほとんど生じることなく検出対象を抽出することが可能になる。   According to this method, not only the difference in distance is used, but also the reliability of the distance measurement result obtained by the distance measuring means is obtained, and the candidate area to be detected is evaluated based on the reliability. Even when an error is included, it is possible to reduce the erroneous detection of the detection target. As a result, it is possible to extract the detection target with almost no missing part.

請求項10の発明は、コンピュータ読取可能なプログラムであって、請求項1ないし請求項8のいずれか1項に記載の物体検出装置における差分手段と物体抽出手段と物体判定手段と信頼性算出手段とを実現するものである。   A tenth aspect of the present invention is a computer-readable program, the difference means, the object extraction means, the object determination means, and the reliability calculation means in the object detection device according to any one of the first to eighth aspects. Is realized.

すなわち、このプログラムによって汎用のコンピュータと測距手段とを用いて物体検出装置を構成することが可能になる。   That is, this program makes it possible to configure an object detection device using a general-purpose computer and distance measuring means.

本発明の構成によれば、距離の差分を用いるだけではなく、測距手段での距離の計測結果について信頼度を求め、信頼度に基づいて検出対象の候補となる領域を評価するから、計測結果に誤りが含まれている場合でも検出対象の誤検出を低減することができるという利点がある。   According to the configuration of the present invention, not only the distance difference is used, but also the reliability of the distance measurement result obtained by the distance measuring means is obtained, and the candidate area to be detected is evaluated based on the reliability. Even when an error is included in the result, there is an advantage that erroneous detection of the detection target can be reduced.

(実施形態1)
本実施形態は、図1に示すように、着目する空間の各部位までの距離を計測する測距手段1を備え、着目する1つの空間について測距手段1で異なる時刻に計測した距離を用いて物体を検出するものである。
(Embodiment 1)
As shown in FIG. 1, this embodiment includes a distance measuring unit 1 that measures the distance to each part of a space of interest, and uses distances measured at different times by the distance measuring unit 1 for one space of interest. The object is detected.

以下に説明する実施形態では、測距手段1として、着目する空間を2台のTVカメラで撮像し、両TVカメラで撮像された画像に含まれる画素を互いに対応付けるとともに両TVカメラの視差を利用することにより画素毎に距離を求めるようにしたステレオ画像法の測距手段を採用する。すなわち、2台のTVカメラで撮像した画像から各画素に距離を対応付けた距離画像を生成する。なお、測距手段1はステレオ画像法に限らず距離画像を生成可能であればどのような技術を採用してもよい。   In the embodiment described below, as the distance measuring unit 1, the target space is imaged by two TV cameras, the pixels included in the images captured by both TV cameras are associated with each other, and the parallax of both TV cameras is used. Thus, a stereo image method distance measuring means is employed in which the distance is obtained for each pixel. That is, a distance image in which a distance is associated with each pixel is generated from images captured by two TV cameras. The distance measuring means 1 is not limited to the stereo image method, and any technique may be adopted as long as a distance image can be generated.

測距手段1では一定時間毎に距離画像を生成しており、本実施形態では、異なる時刻に得られた2枚の距離画像から検出対象を検出するものとする。ここでは、説明を簡単にするために、距離画像の時系列で先の時刻に得られた画像には検出対象が含まれず背景のみが含まれているものとし、この距離画像を背景距離画像と呼ぶ。また、検出対象の存否を検出する対象の距離画像を対象距離画像と呼ぶ。背景距離画像は、装置の動作前にあらかじめ生成しておけばよい。   The distance measuring means 1 generates a distance image at regular time intervals, and in this embodiment, the detection target is detected from two distance images obtained at different times. Here, to simplify the explanation, it is assumed that the image obtained at the previous time in the time series of the distance image does not include the detection target and includes only the background, and this distance image is referred to as the background distance image. Call. In addition, a distance image of a target for detecting the presence or absence of a detection target is referred to as a target distance image. The background distance image may be generated in advance before the operation of the apparatus.

測距手段1で得られた背景距離画像は背景記憶手段2に記憶され、測距手段1で得られた対象距離画像は差分手段3に入力される。差分手段3は、対象距離画像と背景距離画像との対応する画素毎の差分を画素値に持つ差分距離画像を生成する。対象距離画像に検出対象が含まれるときに、差分距離画像では、理想的には、検出対象が存在する領域の画素値は比較的大きい値になり、他の領域の画素値はほぼ0になる。したがって、差分距離画像の画素値を適宜の閾値で2値化すれば検出対象の存在する領域を抽出することができる。ただし、実際の差分距離画像にはノイズ成分や誤差成分が含まれているから、本実施形態では、ノイズ成分や誤差成分の影響を軽減するために、対象距離画像と背景距離画像との測距精度の信頼性の評価値(以下、「信頼度」という)を算出する信頼性算出手段4と、信頼性算出手段4により算出した信頼度を用いて差分距離画像から検出対象の候補である画素を抽出する物体抽出手段5と、物体抽出手段5により抽出した画素についてノイズ成分の除去や画素のグループ化などを行うとともに、グループ化した画素群の特徴量により検出対象か否かを判断する物体判定手段6とを設けている。   The background distance image obtained by the distance measuring means 1 is stored in the background storage means 2, and the target distance image obtained by the distance measuring means 1 is input to the difference means 3. The difference means 3 generates a difference distance image having a pixel value of a difference for each corresponding pixel between the target distance image and the background distance image. When the detection target is included in the target distance image, ideally, in the differential distance image, the pixel value of the region where the detection target exists is a relatively large value, and the pixel value of the other region is almost zero. . Therefore, if the pixel value of the difference distance image is binarized with an appropriate threshold, a region where a detection target exists can be extracted. However, since the actual difference distance image includes a noise component and an error component, in this embodiment, in order to reduce the influence of the noise component and the error component, distance measurement between the target distance image and the background distance image is performed. A reliability calculation unit 4 that calculates an accuracy reliability evaluation value (hereinafter referred to as “reliability”), and a pixel that is a candidate for detection from the difference distance image using the reliability calculated by the reliability calculation unit 4 An object extracting unit 5 for extracting a pixel, and an object for performing a noise component removal, pixel grouping, and the like on a pixel extracted by the object extracting unit 5 and determining whether the pixel is a detection target based on a feature amount of the grouped pixel group Determination means 6 is provided.

本実施形態の信頼性算出手段4では、背景距離画像と対象距離画像との両方について各画素の測距精度の信頼度を算出する。また、物体抽出手段5では、背景距離画像の各画素値の信頼度と対象距離画像の各画素値の信頼度とを組み合わせを用いることによって、差分距離画像の各画素を分類する。物体判定手段6では、物体抽出手段5での画素の分類結果を用いてノイズ成分の除去や画素のグループ化を行い、グループ化された画素群について位置、形状、大きさなどの特徴量を用いて検出対象か否かを判断する。なお、測距手段1の一部、背景記憶手段2、差分手段3、信頼性算出手段4、物体検出手段5、物体判定手段6はコンピュータを用いて実現される。   In the reliability calculation means 4 of this embodiment, the reliability of the distance measurement accuracy of each pixel is calculated for both the background distance image and the target distance image. Further, the object extraction unit 5 classifies each pixel of the difference distance image by using a combination of the reliability of each pixel value of the background distance image and the reliability of each pixel value of the target distance image. The object determination unit 6 performs noise component removal and pixel grouping using the pixel classification result obtained by the object extraction unit 5, and uses feature quantities such as position, shape, and size for the grouped pixel group. To determine whether it is a detection target. A part of the distance measuring means 1, the background storage means 2, the difference means 3, the reliability calculation means 4, the object detection means 5, and the object determination means 6 are realized using a computer.

(信頼性算出手段の動作)
以下では信頼性算出手段4の動作を説明する。
(Operation of reliability calculation means)
Below, operation | movement of the reliability calculation means 4 is demonstrated.

信頼度(1)
本例は、距離画像において着目する画素の近傍領域では画素値の差が少ない(距離の差が小さい)と推定し、近傍領域において画素値が他の画素とは大きく異なる場合に当該画素の画素値の信頼度が小さくなるように信頼度を算出するものである。具体的には、距離画像において着目する画素を中心として、N×M画素(N,Mは自然数)の大きさの近傍領域を設定し、近傍領域の画素値の分散を求め、分散が大きいほど着目する画素の信頼度を小さくするように、数1を用いて信頼度を求めるものである。なお、数1においてVarは分散、Rは信頼度、D(u,v)は背景距離画像と対象距離画像とのそれぞれの画素値、AはN×M画素の近傍領域を表す。
Reliability (1)
In this example, it is estimated that the pixel value difference is small (distance difference is small) in the vicinity region of the pixel of interest in the distance image, and the pixel value of the pixel is significantly different from the other pixels in the vicinity region. The reliability is calculated so that the reliability of the value becomes small. Specifically, a neighboring region having a size of N × M pixels (N and M are natural numbers) is set around the pixel of interest in the distance image, and the variance of pixel values in the neighboring region is obtained. The reliability is obtained using Equation 1 so as to reduce the reliability of the pixel of interest. In Equation 1, Var is variance, R is reliability, D (u, v) is a pixel value of each of the background distance image and the target distance image, and A is a neighborhood area of N × M pixels.

Figure 0004389602
Figure 0004389602

信頼度(2)
信頼度(1)の方法で求める信頼度Rは、背景距離画像および対象距離画像において距離がほぼ一定である物体に対してはよい結果を得ることができるが、検出対象と背景との境界や物体内に存在する段差の部位などでは分散が比較的大きくなるから、測距の精度が高い場合でも数1によって求められる信頼度Rが小さい値になる。そこで、本例では、境界や段差の周辺での測距の精度が高ければ、境界や段差の部位でも同程度の精度で距離が測定されているとみなして信頼度を求めている。
Reliability (2)
The reliability R obtained by the method of reliability (1) can obtain a good result for an object whose distance is substantially constant in the background distance image and the target distance image, but the boundary between the detection target and the background, Since the variance is relatively large at a stepped portion or the like present in the object, the reliability R obtained by Equation 1 is a small value even when the distance measurement accuracy is high. Therefore, in this example, if the accuracy of distance measurement around the boundary or step is high, the reliability is obtained by assuming that the distance is measured with the same degree of accuracy at the boundary or step portion.

すなわち、着目する画素を中心とするN×M画素の大きさの近傍領域における画素値の分散から信頼度を求めるのではなく、数2のように、着目する画素の画素値の信頼度を、着目する画素の近傍領域に含まれる全画素をそれぞれ中心としてN×M画素の大きさで設定した近傍領域の分散の総和から求める。なお、数2において、nは着目する画素について設定した近傍領域の中で画素を区別する符号であって1≦n≦N×Mであり、Var〔n〕は画素nを中心として設定した近傍領域での分散、Rは信頼度、D(u,v)は背景距離画像と対象距離画像とのそれぞれの画素値、Anは画素nを中心とするN×M画素の近傍領域を表す。また、Regionは近傍領域Anの全体を含む領域を意味している。数2により求められる信頼度Rは、検出対象と背景との境界や物体内の段差の部位などであっても、信頼度(1)の方法で求められる信頼度を境界や段差の周辺で合算しているから、境界や段差の影響が緩和される。   That is, the reliability of the pixel value of the pixel of interest is not calculated from the dispersion of the pixel value in the neighborhood area of the size of N × M pixels centered on the pixel of interest, as shown in Equation 2. It is obtained from the sum of the variances of the neighborhood area set with a size of N × M pixels with each of the pixels included in the neighborhood area of the pixel of interest as the center. In Equation 2, n is a code for distinguishing the pixels in the neighboring region set for the pixel of interest, and 1 ≦ n ≦ N × M, and Var [n] is a neighborhood set around the pixel n. The variance in the region, R is the reliability, D (u, v) is the pixel value of each of the background distance image and the target distance image, and An is a neighborhood region of N × M pixels centered on the pixel n. Region means a region including the entire neighborhood region An. The reliability R calculated by Equation 2 is the sum of the reliability calculated by the method of reliability (1) around the boundary or step even if it is the boundary between the detection target and the background or the step portion in the object. As a result, the effects of boundaries and steps are alleviated.

Figure 0004389602
Figure 0004389602

(物体抽出手段の動作)
以下では、物体抽出手段5において差分距離画像の各画素を分類する技術について説明する。
(Operation of object extraction means)
Below, the technique which classifies each pixel of a difference distance image in the object extraction means 5 is demonstrated.

いま、測距手段1から図2(a)のような対象距離画像が出力され、背景記憶手段2には図2(b)のような背景距離画像が記憶されているものとする。図示例では明度が大きい部位ほど近い(白部位がもっとも近い)ものとする。また、信頼性算出手段4では、測距手段1から出力された対象距離画像の各画素に対して図3(a)のように信頼度が算出され、背景記憶手段2に記憶されている背景距離画像の各画素に対して図3(b)のように信頼度が算出されているものとする。図3では、明るいほど信頼度が高いものとしている(白部位がもっとも高い)。   Now, it is assumed that the target distance image as shown in FIG. 2A is output from the distance measuring means 1 and the background distance image as shown in FIG. In the example shown in the figure, it is assumed that the part having the higher brightness is closer (the white part is closest). Further, the reliability calculation means 4 calculates the reliability as shown in FIG. 3A for each pixel of the target distance image output from the distance measurement means 1 and stores the background stored in the background storage means 2. Assume that the reliability is calculated for each pixel of the distance image as shown in FIG. In FIG. 3, the brighter the higher the reliability (the white part is the highest).

物体抽出手段5では、対象距離画像と背景距離画像との信頼度に基づいて各画素を3種類に分類する。すなわち、対象距離画像と背景距離画像との信頼度をそれぞれ2値化し、信頼度の大小を組合せることによって、両者がともに高信頼度である場合、両者がともに低信頼度である場合、一方のみが高信頼度である場合の3種類に分類する。たとえば、図3(a)の対象距離画像に関する信頼度を図4(a)のように2値化し、図3(b)の背景距離画像に関する信頼度を図4(b)のように2値化したとする。図4において斜線部が低信頼度の領域を示している。図4(a)(b)の各領域を組み合わせることによって、上述した3種類の分類を行うと、図4(c)のように各領域が分類される。図4(c)において、白部分が両者ともに高信頼度の部位、黒部分が両者ともに低信頼度の部位、斜線部が一方のみ高信頼度の部位を示す。   The object extraction unit 5 classifies each pixel into three types based on the reliability of the target distance image and the background distance image. In other words, by binarizing the reliability of the target distance image and the background distance image and combining the magnitudes of the reliability, when both are highly reliable, when both are low reliability, Are classified into three types when only high reliability. For example, the reliability regarding the target distance image in FIG. 3A is binarized as shown in FIG. 4A, and the reliability regarding the background distance image in FIG. 3B is binary as shown in FIG. 4B. Suppose that In FIG. 4, the shaded area indicates the low reliability region. When the three types of classification described above are performed by combining the areas shown in FIGS. 4A and 4B, the areas are classified as shown in FIG. In FIG. 4 (c), the white part indicates a highly reliable part, the black part indicates a low reliable part, and the hatched part indicates only one highly reliable part.

上述のようにして3種類の領域を分類すれば、対象距離画像と背景距離画像とがともに高信頼度である部位については、Df−Db≧thr1を満足するときに検出対象の候補として抽出される。ここに、Df、Dbは対象距離画像と背景距離画像とにおける同位置の画素の画素値(距離)であり、thr1は距離の計測精度よりもやや大きく設定した閾値である。要するに、背景よりも近い領域が存在すれば検出対象の候補と判断するのである。また、対象距離画像と背景距離画像との一方のみが高信頼度である部位についてはすべての部位を検出対象の候補と判断する。図4(c)の分類結果に対して上述の条件を適用した結果として得られる検出対象の候補の部位を図5に示す。図5における黒部位が検出対象の候補となる部位である。   If the three types of regions are classified as described above, a part with high reliability in both the target distance image and the background distance image is extracted as a detection target candidate when Df−Db ≧ thr1 is satisfied. The Here, Df and Db are pixel values (distances) of pixels at the same position in the target distance image and the background distance image, and thr1 is a threshold set slightly larger than the distance measurement accuracy. In short, if a region closer to the background exists, it is determined as a candidate for detection. Further, with respect to a part where only one of the target distance image and the background distance image is highly reliable, all parts are determined as detection target candidates. FIG. 5 shows candidate regions to be detected that are obtained as a result of applying the above-described conditions to the classification result of FIG. The black part in FIG. 5 is a part to be a candidate for detection.

ただし、図5から明らかなように、検出対象と考えられる部位の一部に検出対象の候補として選択されていない部位が存在している(図5において、検出対象の候補となっている左側の領域の下部が白抜きになっている)。このような部位を含めて検出対象の候補として抽出するには、対象距離画像と背景距離画像とがともに低信頼度であった部位のうち、信頼度の変化が比較的大きい部位を抽出すればよい。すなわち、対象距離画像と背景距離画像とにおいて信頼度が変化した原因は、検出対象が発生したことに起因すると推定し、対象距離画像と背景距離画像とから求めた信頼度Rf,Rbの差の絶対値が規定した閾値thr2以上であるとき、すなわち、|Rf−Rb|≧thr2を満たす部位を検出対象の候補に含める。図5に対してこの条件を適用した結果を図6に示す。物体抽出手段5では、上述の処理によって、検出対象の候補となる部位をすべて抽出することが可能になる。   However, as is clear from FIG. 5, there is a part that is not selected as a detection target candidate in a part of the part that is considered as a detection target (in FIG. 5, the left side that is a detection target candidate in FIG. 5). The bottom of the area is outlined). In order to extract such a part as a candidate for a detection target, if a part with a relatively large change in reliability is extracted from parts where both the target distance image and the background distance image have low reliability, Good. That is, the reason why the reliability has changed between the target distance image and the background distance image is estimated to be due to the occurrence of the detection target, and the difference between the reliability Rf and Rb obtained from the target distance image and the background distance image is estimated. When the absolute value is equal to or greater than the prescribed threshold value thr2, that is, a region satisfying | Rf−Rb | ≧ thr2 is included in the detection target candidates. The result of applying this condition to FIG. 5 is shown in FIG. The object extraction unit 5 can extract all the detection target candidates by the above-described processing.

なお、上述の例では対象距離画像と背景距離画像との信頼度をそれぞれ2値化しているが、3段階以上に区分することも可能である。   In the above example, the reliability of the target distance image and the background distance image is binarized, but it can be divided into three or more stages.

(物体判定手段の動作)
物体抽出手段5では、検出対象の候補となる部位が抽出されるが、ノイズ成分が含まれている場合やグループ化すべき部位が分離されている場合があるから、ノイズ成分の除去やグループ化が必要である。
(Operation of object judgment means)
The object extraction unit 5 extracts a part that is a candidate for detection, but there may be a case where a noise component is included or a part that should be grouped is separated. is necessary.

そこで、物体判定手段6では、物体抽出手段5で抽出された検出対象の候補について、測距精度の高い(測定の信頼性が高い)画素群(以下、「A群」という)と、他の画素群(以下、「B群」という)とに分類する。   Therefore, in the object determination unit 6, with respect to the detection target candidates extracted by the object extraction unit 5, a pixel group (hereinafter referred to as “A group”) with high ranging accuracy (high reliability of measurement) and other They are classified into pixel groups (hereinafter referred to as “B group”).

A群となる画素の条件は、対象距離画像において検出対象の候補である領域内の2個の画素i,jについて、各画素i,jの画素値Di,Dj(つまり、距離)と、各画素i,jの座標(ui,vi)(uj,vj)とが規定の閾値thrAとの間に数3の式1の関係を満足することである。また、B群となる画素の条件は、対象距離画像において検出対象の候補である領域内の2個の画素k,lについて、各画素k,lの座標(uk,vk)(ul,vl)が規定の閾値thrBとの間に数3の式2の関係を満足することである。さらに、A群とB群との間では、A群の画素aとB群の画素bとの座標(ua,va)(ub,vb)と規定の閾値thrABとの間に数3の式3の関係が満たされるときには、1個の検出対象になるものと判断し、A群とB群との画素を1つのグループに統合する。上述の処理によって得られた結果を図7に示す。図7においてA1,A2はA群、B1〜B4はB群の画素の集合であり、(A1,B2)が1つのグループに統合され、(A2,,B1,B3,B4)が1つのグループに統合されている。つまり、各グループがそれぞれ個別の検出対象になる。   The conditions for the pixels in the A group are the pixel values Di and Dj (that is, distances) of the pixels i and j for the two pixels i and j in the region that is a candidate for detection in the target distance image, That is, the relationship of Equation 1 in Expression 3 is satisfied between the coordinates (ui, vi) (uj, vj) of the pixel i, j and the prescribed threshold value thrA. Further, the condition of the pixels in the group B is that the coordinates (uk, vk) (ul, vl) of the pixels k and l are set for two pixels k and l in the region that is a candidate for detection in the target distance image. Satisfies the relationship of Equation 2 in Equation 3 with the prescribed threshold value thrB. Further, between the group A and the group B, the expression 3 in the expression 3 is provided between the coordinates (ua, va) (ub, vb) of the pixel a of the group A and the pixel b of the group B and the prescribed threshold value thrAB. When the above relationship is satisfied, it is determined that the detection target is one, and the pixels of the A group and the B group are integrated into one group. The result obtained by the above process is shown in FIG. In FIG. 7, A1 and A2 are groups of pixels of A group, B1 to B4 are groups of pixels of B group, (A1, B2) are integrated into one group, and (A2, B1, B3, B4) is one group. Integrated into. That is, each group becomes an individual detection target.

Figure 0004389602
Figure 0004389602

ところで、上述のようにA群とB群との画素をグループに統合する際に、図8にB5として示すような位置に生じるB群の画素は、A1を含むグループとA2を含むグループとのいずれにもグループ化される可能性がある。このような場合には、B5として示すB群の画素をどちらのグループに統合するかを決定しなければならない。たとえば、検出対象を検出する目的が、図9に示す特定領域(危険領域など)Adに侵入しないように監視することであれば、B5を特定領域Adに近いほうの検出対象に統合することが合理的であると考えられる(グループ内の画素数が多くなるから検出が容易になる)。   By the way, when the pixels of the A group and the B group are integrated into the group as described above, the pixels of the B group that are generated at the positions shown as B5 in FIG. 8 are the group including the A1 and the group including the A2. Any of them may be grouped. In such a case, it is necessary to determine to which group the group B pixels indicated as B5 are to be integrated. For example, if the purpose of detecting the detection target is to monitor so as not to enter the specific area (dangerous area) Ad shown in FIG. 9, B5 may be integrated into the detection target closer to the specific area Ad. It is considered reasonable (detection is easy because the number of pixels in the group increases).

ここにおいて、特定領域AdとA1,A2を含む各グループとの距離は、測距手段1から特定領域Adの代表点までの距離Ddと、測距手段1から各グループの代表点までの距離とによって評価する。各グループの代表点までの距離D1,D2は数4により求める。数4はA1,A2に含まれる画素値(距離)の平均値であり、N1,N2はそれぞれA1,A2に含まれる画素数である。   Here, the distance between the specific area Ad and each group including A1 and A2 is the distance Dd from the distance measuring means 1 to the representative point of the specific area Ad, and the distance from the distance measuring means 1 to the representative point of each group. Evaluate by. The distances D1 and D2 to the representative point of each group are obtained by Equation 4. Equation 4 is an average value of pixel values (distances) included in A1 and A2, and N1 and N2 are the numbers of pixels included in A1 and A2, respectively.

Figure 0004389602
Figure 0004389602

上述のようにA群とB群との画素を1つの検出対象とみなせるグループに統合するにあたって、各画素群についてノイズ成分を事前に除去しておけば、検出対象の正確な判断につながる上に処理負荷の軽減にもなる。ここに、ノイズ成分は画素群の占める面積が小さいと考えられるから、A群とB群との各画素群の画素数(面積)に対して適宜の閾値を設定し、画素数が閾値以下である画素群はノイズ成分として処理対象から削除すればよい。   As described above, when integrating the pixels of the A group and the B group into a group that can be regarded as one detection target, if the noise component is removed in advance for each pixel group, the detection target can be accurately determined. It also reduces the processing load. Here, since the noise component is considered to have a small area occupied by the pixel group, an appropriate threshold is set for the number of pixels (area) of each pixel group of the A group and the B group, and the number of pixels is equal to or less than the threshold value. A certain pixel group may be deleted from the processing target as a noise component.

ただし、測距手段1からの距離が大きいほど画像内で占める面積が小さくなるから、各画素群の面積を単純に閾値と比較すると、遠方の検出対象が削除される可能性が生じる。そこで、各画素群の代表点の距離を求め、距離に応じて閾値を変化させるようにすれば、検出対象をノイズ成分と誤認して削除する可能性を低減することができる。このような閾値は、たとえば距離に反比例するように設定し、測距手段1の画角によって適宜の係数を乗じた値に設定すればよい。   However, the larger the distance from the distance measuring means 1, the smaller the area occupied in the image. Therefore, if the area of each pixel group is simply compared with a threshold value, there is a possibility that a distant detection target is deleted. Therefore, if the distance between the representative points of each pixel group is obtained and the threshold value is changed according to the distance, the possibility of misdetecting the detection target as a noise component and deleting it can be reduced. Such a threshold value may be set to be inversely proportional to the distance, for example, and set to a value obtained by multiplying an appropriate coefficient depending on the angle of view of the distance measuring means 1.

上述の処理によって、画素群を1つのグループに統合したとしても、B群となる画素群は測距精度が比較的低い可能性がある。たとえば、人体を検出対象とした場合に、図10に示すように、毛髪部分については測距精度が低い可能性がある。したがって、検出対象までの距離を求める目的で使用する場合には、毛髪部分の距離を採用することができない。グループを構成する画素群に測距精度の低い画素群(B群)が含まれている場合には、グループ内において当該画素群の近傍において測距精度が高い画素群から測距精度の低い画素群と同個数の画素を抽出し、抽出した画素の平均値を測距精度が低い画素群の距離に代用して用いる。すなわち、測距精度の高い画素群Objから抽出した画素の画素値(距離)をD(u,v)、抽出した個数をNumとするときに、数5を適用して距離Dvを求める。すなわち、測距精度の低い画素群の距離Dvを測距精度の高い画素群の距離の補間によって求めたことになる。   Even if the pixel groups are integrated into one group by the above-described processing, the pixel group to be the B group may have relatively low distance measurement accuracy. For example, when a human body is a detection target, as shown in FIG. 10, there is a possibility that the distance measurement accuracy is low for the hair portion. Therefore, when using for the purpose of calculating | requiring the distance to a detection target, the distance of a hair part cannot be employ | adopted. When the pixel group constituting the group includes a pixel group (B group) with low ranging accuracy, a pixel group with high ranging accuracy in the vicinity of the pixel group in the group from a pixel group with low ranging accuracy. The same number of pixels as the group are extracted, and the average value of the extracted pixels is used in place of the distance of the pixel group with low ranging accuracy. That is, when the pixel value (distance) of the pixel extracted from the pixel group Obj with high ranging accuracy is D (u, v) and the extracted number is Num, the distance Dv is obtained by applying Expression 5. That is, the distance Dv of the pixel group with low ranging accuracy is obtained by interpolation of the distance of the pixel group with high ranging accuracy.

Figure 0004389602
Figure 0004389602

検出対象が人体のように平面に近い形状であるときには、検出対象までの距離Dvを数6のような加重平均で求めてもよい。数6においてD(u,v)は、対象距離画像内での検出対象の各画素値(距離)であり、Objは検出対象の画素、R(u,v)は信頼性算出手段4で求めた各画素の信頼度である。   When the detection target has a shape close to a plane like a human body, the distance Dv to the detection target may be obtained by a weighted average as shown in Equation 6. In Equation 6, D (u, v) is each pixel value (distance) of the detection target in the target distance image, Obj is the pixel to be detected, and R (u, v) is obtained by the reliability calculation means 4. The reliability of each pixel.

Figure 0004389602
Figure 0004389602

物体判定手段6では検出対象までの距離のほか検出対象の位置や特徴量としての大きさを求める場合もある。検出対象の位置や大きさを求める場合には、図11に示すように、上述した1つのグループが占める領域に外接矩形Eを設定する。外接矩形Eは、グループを構成する水平方向および垂直方向の座標値の最小値と最大値とを求めることによって設定することができる。検出対象までの距離は数5、数6などによって求めることができるから、検出対象までの距離をDoとすれば、対象距離画像内の外接矩形Eの幅wおよび高さhを用いることによって、検出対象の実際の高さWおよび幅Hを数7で求めることができる。数7におけるβは測距手段1に固有な定数である。また、検出対象の特徴量である面積Sは、数7に示すように、外接矩形Eの面積で近似することができ、検出対象の特徴量として外接矩形Eのアスペクト比Aspectを求めると、人体(Aspect≒0.5)か犬や猫のような小動物(Aspect≒1)かを判別することも可能になる。   In addition to the distance to the detection target, the object determination means 6 may obtain the position of the detection target and the size as the feature amount. When obtaining the position and size of the detection target, as shown in FIG. 11, a circumscribed rectangle E is set in the area occupied by one group described above. The circumscribed rectangle E can be set by obtaining the minimum value and the maximum value of the coordinate values in the horizontal direction and the vertical direction constituting the group. Since the distance to the detection target can be obtained by Equations 5 and 6, etc., if the distance to the detection target is Do, by using the width w and the height h of the circumscribed rectangle E in the target distance image, The actual height W and width H of the detection target can be obtained by Equation 7. Β in Equation 7 is a constant unique to the distance measuring means 1. Further, the area S that is the feature quantity of the detection target can be approximated by the area of the circumscribed rectangle E as shown in Equation 7, and when the aspect ratio Aspect of the circumscribed rectangle E is obtained as the feature quantity of the detection target, the human body It is also possible to determine whether (Aspect≈0.5) or a small animal such as a dog or cat (Aspect≈1).

Figure 0004389602
Figure 0004389602

(実施形態2)
本実施形態は、図12に示すように、実施形態1と同様に、測距手段1、背景記憶手段2、差分手段3、信頼性算出手段4、物体抽出手段5、物体判定手段6を備える。ただし、背景記憶手段2では、背景距離画像だけを記憶するのではなく測距手段1において背景距離画像を生成する際に用いる情報を背景情報として記憶し、また信頼性算出手段4では、背景距離画像の各画素値の信頼度を算出するにあたって背景情報を用い、対象距離画像に代えて測距手段1において対象距離画像を生成する際に用いる情報を対象情報として信頼度の算出に用いる。背景情報および対象情報の具体例は後述する。背景情報および対象情報は、測距手段1の出力目的である距離情報ではない付随情報になる。
(Embodiment 2)
As shown in FIG. 12, the present embodiment includes a distance measuring means 1, a background storage means 2, a difference means 3, a reliability calculation means 4, an object extraction means 5, and an object determination means 6, as in the first embodiment. . However, the background storage means 2 does not store only the background distance image, but stores information used when generating the background distance image in the distance measurement means 1 as background information, and the reliability calculation means 4 stores the background distance. Background information is used in calculating the reliability of each pixel value of the image, and information used when generating the target distance image in the distance measuring means 1 instead of the target distance image is used as target information for calculating the reliability. Specific examples of the background information and the target information will be described later. The background information and the target information become accompanying information that is not the distance information that is the output purpose of the distance measuring means 1.

(信頼性算出手段の動作)
信頼度(3)
本例は、本実施形態における信頼性算出手段4の動作例であって、測距手段1においてステレオ画像法を採用していることを利用する。ステレオ画像法は一般的には複数枚の画像を使用するが、ここでは簡単のために左右2枚の画像を使うものとする。ステレオ画像法において得られる2枚の画像のうちの一方を背景情報および対象情報として用いるものである。ステレオ画像法では、左右2枚の画像に含まれる各画素を対応付ける必要があり、画素を対応付けることによって2枚の画像の視差を求め、2台のTVカメラの距離と視差とを用いることによって画像内の各画素の距離を求めている。したがって、濃度の変化が少ない領域では、画素間を一対一に対応付けることが難しく、対応付けが不正確であると距離の計測値に誤りが生じる。
(Operation of reliability calculation means)
Reliability (3)
This example is an operation example of the reliability calculation unit 4 in the present embodiment, and utilizes the fact that the distance measurement unit 1 employs the stereo image method. The stereo image method generally uses a plurality of images, but here, for the sake of simplicity, two images on the left and right are used. One of the two images obtained by the stereo image method is used as background information and target information. In the stereo image method, it is necessary to associate each pixel included in the left and right images, and the parallax between the two images is obtained by associating the pixels, and the image is obtained by using the distance and the parallax between the two TV cameras. The distance between each pixel is obtained. Therefore, in a region where the change in density is small, it is difficult to associate the pixels on a one-to-one basis. If the association is inaccurate, an error occurs in the distance measurement value.

そこで、本実施形態では、ステレオ画像法で用いる2枚の画像のうち一方の画像(たとえば、左画像)に対応付ける画素を他方の画像(たとえば、右画像)から抽出する場合において、数8のように、前記一方の画像内で着目する画像を中心とするN×M画素(N,Mは自然数)の近傍領域の濃度の分散を求め、濃度の分散を信頼度に用いる。この場合、分散が大きいほど画素の対応付けが容易になるから、距離の計測値の信頼度が大きくなるのである。なお、数8において、Varは分散、Rは信頼度、I(u,v)は画素(u,v)の濃度、AはN×M画素の近傍領域である。   Therefore, in the present embodiment, when a pixel associated with one image (for example, the left image) of the two images used in the stereo image method is extracted from the other image (for example, the right image), Equation 8 is obtained. In addition, the dispersion of density in the vicinity of N × M pixels (N and M are natural numbers) centering on the image of interest in the one image is obtained, and the dispersion of density is used with reliability. In this case, the greater the variance, the easier the pixel association, so the reliability of the distance measurement value increases. In Equation 8, Var is variance, R is reliability, I (u, v) is the density of the pixel (u, v), and A is a neighborhood area of N × M pixels.

Figure 0004389602
Figure 0004389602

信頼度(4)
本例は、信頼度(3)と同様に、ステレオ画像法における2枚の画像の対応付けの良否が測距の精度に影響するという知見に基づいて、対応付けの良否に関する評価値(正規化相関値)を数9により求め、背景距離画像および対象距離画像に対する背景情報および対象情報として用いるものである。なお、数9において、Il(ul,vl),Ir(ur,vr)はそれぞれ左画像の濃度と右画像の濃度、Al,Arは左右の各画像において互いに対応付ける領域、Avel,Averはそれぞれ領域Al,Ar内の濃度の平均値である。数9で求める評価値Cは、0≦C≦1の値であって、2枚の画像の対応付けが良好であるほど大きい値になる。
Reliability (4)
Similar to the reliability (3), this example is based on the knowledge that the quality of the correspondence between the two images in the stereo image method affects the accuracy of the distance measurement (normalization value (normalization) (Correlation value) is obtained by Equation 9 and used as background information and target information for the background distance image and the target distance image. In Equation 9, Il (ul, vl) and Ir (ur, vr) are the density of the left image and the density of the right image, Al and Ar are areas associated with each other in the left and right images, and Avel and Aver are areas, respectively. It is the average value of the concentration in Al and Ar. The evaluation value C obtained by Equation 9 is a value of 0 ≦ C ≦ 1, and becomes larger as the correspondence between the two images is better.

Figure 0004389602
Figure 0004389602

なお、信頼度(4)では濃度に代えて色(色相、彩度、明度の少なくとも1種類)を用いてもよい。 In the reliability (4), a color (at least one of hue, saturation, and brightness) may be used instead of the density.

信頼度(5)
数9における正規化相関値Cを求める際に、輝度を用いる代わりに数10で示す微分値Ampあるいは濃度勾配方向Dirを用いてもよい。着目する画素の微分値を求めるには、図13に示すようなソーベルフィルタ(Sobel)を適用すればよい。図13(a)は水平微分値Hを求める際のソーベルフィルタであり、図13(b)は垂直微分値Vを求める際のソーベルフィルタである。
Reliability (5)
When obtaining the normalized correlation value C in Equation 9, the differential value Amp or the concentration gradient direction Dir shown in Equation 10 may be used instead of using the luminance. In order to obtain the differential value of the pixel of interest, a Sobel filter (Sobel) as shown in FIG. 13 may be applied. FIG. 13A is a Sobel filter for obtaining the horizontal differential value H, and FIG. 13B is a Sobel filter for obtaining the vertical differential value V.

Figure 0004389602
Figure 0004389602

本実施形態の他の構成は実施形態1と同様である。   Other configurations of the present embodiment are the same as those of the first embodiment.

上述した実施形態1、実施形態2では測距手段1として、2台のTVカメラを用いたステレオ画像法により距離画像を生成するものを想定したが、測距手段1としては、音(一般には超音波)や光の送波から反射波を受波するまでの時間差を用いて距離を測定するものを採用してもよい。この種の測距手段1では、図14に示すように、音あるいは光の速度をSsとすれば、送波から受波までの時間差がTrであるときに、物体までの距離Dを、D=Ss×Tr/2と表すことができる。このような測距手段1では反射波の受波強度Arが大きいほど測距の信頼性が高いと言えるから、信頼度Rとして強度Arを用いればよい。あるいはまた、音または光を間欠的に送波するものとして、音または光の送出時の受波強度A0と反射波の受波時の受波強度Arとを用い、両者の比(=Ar/A0)あるいは両者の差(Ar−A0)を信頼度Rに用いるようにしてもよい。   In the first embodiment and the second embodiment described above, the distance measuring unit 1 is assumed to generate a distance image by the stereo image method using two TV cameras. You may employ | adopt what measures distance using the time difference from receiving an ultrasonic wave) or light transmission to receiving a reflected wave. In this type of distance measuring means 1, as shown in FIG. 14, when the speed of sound or light is Ss, when the time difference from transmission to reception is Tr, the distance D to the object is expressed as D = Ss × Tr / 2. In such distance measuring means 1, it can be said that the greater the received wave intensity Ar of the reflected wave, the higher the reliability of distance measurement. Alternatively, as the sound or light that is intermittently transmitted, the reception intensity A0 at the time of transmission of the sound or light and the reception intensity Ar at the reception of the reflected wave are used, and the ratio between them (= Ar / A0) or the difference between the two (Ar−A0) may be used for the reliability R.

光を用いる測距手段1としては、送波する光の強度を変調しておき(つまり、光の強度を所定の規則に従って時間経過に伴って変化させ)、送波した光と受波した反射波との強度変調の位相差から物体までの距離を求める技術を採用してもよい。たとえば、送波する光の強度を正弦波で変調している場合に、受波する光の受波強度Arは図15のように変化し、受波強度Arが大きいほど位相差の検出誤差が小さくなるから、受波強度Arを測距の信頼性の目安に用いることができる。つまり、信頼度Rとして受波強度Arを用いることができる。   As the distance measuring means 1 using light, the intensity of the transmitted light is modulated (that is, the intensity of the light is changed with time according to a predetermined rule), and the transmitted light and the reflected light are received. You may employ | adopt the technique which calculates | requires the distance to an object from the phase difference of intensity modulation with a wave. For example, when the intensity of transmitted light is modulated with a sine wave, the received intensity Ar of the received light changes as shown in FIG. 15, and the detection error of the phase difference increases as the received intensity Ar increases. Therefore, the received wave intensity Ar can be used as a measure of the reliability of distance measurement. That is, the received wave intensity Ar can be used as the reliability R.

実施形態1を示すブロック図である。1 is a block diagram illustrating a first embodiment. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 実施形態2を示すブロック図である。FIG. 6 is a block diagram illustrating a second embodiment. 同上に用いるソーベルフィルタを示す図である。It is a figure which shows the Sobel filter used for the same as the above. 他の構成例の動作説明図である。It is operation | movement explanatory drawing of the example of another structure. さらに他の構成例の動作説明図である。It is operation | movement explanatory drawing of another structural example.

符号の説明Explanation of symbols

1 測距手段
2 背景記憶手段
3 差分手段
4 信頼性算出手段
5 物体抽出手段
6 物体判定手段
DESCRIPTION OF SYMBOLS 1 Distance measuring means 2 Background memory means 3 Difference means 4 Reliability calculation means 5 Object extraction means 6 Object determination means

Claims (10)

着目する空間の各部位の距離を計測する測距手段と、着目する1つの空間について測距手段で異なる時刻に計測した各部位ごとの距離の差分を求める差分手段と、差分手段で得られた距離の差分を用いて空間内での検出対象となる物体の候補の存在部位を抽出する物体抽出手段と、物体抽出手段により抽出した検出対象の候補から検出対象を抽出し検出対象の特徴量を抽出する物体判定手段と、測距手段による空間の各部位の距離の計測結果について信頼度を求める信頼性算出手段とを有し、物体抽出手段は、各部位ごとに異なる時刻の距離の計測結果の信頼度の組合せによって各部位ごとの距離の差分を分類する機能を有し、物体判定手段は、物体抽出手段での各部位ごとの分類結果および距離の評価により検出対象の候補を検出対象ごとにグループ化して抽出する機能を有することを特徴とする物体検出装置。   A distance measuring means for measuring the distance of each part in the space of interest, a difference means for obtaining a difference in distance for each part measured at different times by the distance measuring means for one space of interest, and a difference means The object extraction means for extracting the existence part of the candidate object to be detected in the space using the difference of the distance, and the detection target is extracted from the detection target candidate extracted by the object extraction means, and the feature amount of the detection target is obtained. An object determining means for extracting, and a reliability calculating means for obtaining a reliability of the distance measurement result of each part of the space by the distance measuring means, wherein the object extracting means is a measurement result of the distance at a different time for each part The function of classifying the difference in distance for each part based on the combination of the reliability of the object, the object determination means for each detection target candidate of the detection target by the classification result and distance evaluation of each part in the object extraction means Object detecting apparatus characterized by having a function of extracting grouped. 前記信頼性算出手段は、前記測距手段で距離を計測する各部位について近傍領域を設定し、着目部位の近傍領域での距離の計測結果の分散の関数として当該部位の信頼度を算出することを特徴とする請求項1記載の物体検出装置。   The reliability calculation means sets a neighborhood area for each part whose distance is measured by the distance measuring means, and calculates the reliability of the part as a function of the dispersion of the distance measurement result in the vicinity area of the part of interest. The object detection apparatus according to claim 1. 前記信頼性算出手段は、前記測距手段で距離を計測する各部位について近傍領域を設定するとともに、着目部位の近傍領域である第1の領域に含まれる各部位についてさらに近傍領域である第2の領域を設定し、第2の領域での距離の計測結果の分散を第1の領域内で合計した総和の関数として当該部位の信頼度を算出することを特徴とする請求項1記載の物体検出装置。   The reliability calculation means sets a neighborhood area for each part whose distance is measured by the distance measuring means, and further includes a second area that is a neighborhood area for each part included in the first area that is the neighborhood area of the site of interest. 2. The object according to claim 1, wherein the reliability of the part is calculated as a function of the total sum of the variances of the distance measurement results in the second area in the first area. Detection device. 前記測距手段は、空間の各部位の距離について計測結果の信頼度の目安となる付随情報を出力し、前記信頼性算出手段は、空間の各部位の計測結果について付随情報を用いて信頼度を求めることを特徴とする請求項1記載の物体検出装置。   The distance measuring means outputs accompanying information that is a measure of the reliability of the measurement result for the distance of each part of the space, and the reliability calculating means uses the accompanying information for the measurement result of each part of the space. The object detection apparatus according to claim 1, wherein: 前記測距手段は、複数台のTVカメラを用いて撮像した複数枚の画像に含まれる画素を互いに対応付けることにより空間の各部位の距離を各画素の画素値とした距離画像を生成するものであって付随情報として各TVカメラで撮像した複数枚の画像のうちのいずれかの各画素の濃度を出力し、前記信頼性算出手段は、当該画像の各画素について近傍領域を設定し、距離画像において着目する画素の近傍領域での濃度の分散の関数として当該画素の信頼度を算出することを特徴とする請求項4記載の物体検出装置。   The distance measuring means generates a distance image in which the distance of each part of the space is the pixel value of each pixel by associating pixels included in the plurality of images captured using a plurality of TV cameras. Then, as the accompanying information, the density of each pixel of the plurality of images captured by each TV camera is output, and the reliability calculation unit sets a neighborhood region for each pixel of the image, and the distance image The object detection device according to claim 4, wherein the reliability of the pixel is calculated as a function of density dispersion in a region near the pixel of interest. 前記測距手段は、複数台のTVカメラを用いて撮像した複数枚の画像に含まれる画素を互いに対応付けることにより空間の各部位の距離を各画素の画素値とした距離画像を生成するものであって付随情報として各TVカメラで撮像した複数枚の画像において画素を対応付けた領域および複数枚の画像の各画素の濃度を出力し、前記信頼性算出手段は、対応付けた領域における画素の濃度の相関値として当該領域に含まれる画素の信頼度を算出することを特徴とする請求項4記載の物体検出装置。   The distance measuring means generates a distance image in which the distance of each part of the space is the pixel value of each pixel by associating pixels included in the plurality of images captured using a plurality of TV cameras. Then, as ancillary information, a region in which a pixel is associated in a plurality of images captured by each TV camera and a density of each pixel in the plurality of images are output, and the reliability calculation unit is configured to output the pixel in the associated region. The object detection apparatus according to claim 4, wherein the reliability of pixels included in the region is calculated as a density correlation value. 前記物体抽出手段は、距離の計測結果の信頼度を複数段階に区分するとともに、各部位ごとに異なる時刻の計測結果の信頼度の段階を組み合わせ、各部位ごとの距離の差分を信頼度の段階の組合せで3種類以上に分類し、分類ごとに検出対象の候補か否かを評価することを特徴とする請求項1ないし請求項6のいずれか1項に記載の物体検出装置。   The object extracting means classifies the reliability of the distance measurement result into a plurality of stages, combines the reliability levels of the measurement results at different times for each part, and determines the difference in distance for each part as the reliability stage. The object detection apparatus according to claim 1, wherein the object detection device is classified into three or more types based on the combination of the two, and whether or not each of the classifications is a candidate for a detection target is evaluated. 前記物体判定手段は、前記物体抽出手段で抽出した検出対象の候補について、着目する空間内での候補間の3次元の距離が規定した第1の閾値以下である検出対象の候補をグループとして抽出し、さらに測距手段への投影面内で前記グループとの距離が規定した第2の閾値以下である検出対象を前記グループと連結するグループとして抽出し、連結されたグループを1つの検出対象とすることを特徴とする請求項1ないし請求項7のいずれか1項に記載の物体検出装置。   The object determination means extracts detection target candidates whose detection target candidates extracted by the object extraction means have a three-dimensional distance between the candidates within the space of interest as a specified threshold value or less as a group. In addition, a detection target whose distance to the group is equal to or less than a second threshold defined in the projection plane to the distance measuring means is extracted as a group connected to the group, and the connected group is defined as one detection target. The object detection device according to claim 1, wherein the object detection device is an object detection device. 着目する空間の各部位の距離を測距手段により計測し、着目する1つの空間について測距手段で異なる時刻に計測した各部位ごとの距離の差分を求め、求めた距離の差分を用いて空間内での検出対象となる物体の候補の存在部位を抽出し、抽出した検出対象の候補から検出対象を抽出し検出対象の特徴量を抽出する物体検出方法であって、測距手段による空間の各部位の距離の計測結果について信頼度を求め、各部位ごとに異なる時刻の距離の計測結果の信頼度の組合せによって各部位ごとの距離の差分を分類し、各部位ごとの分類結果および距離の評価により検出対象の候補を検出対象ごとにグループ化して抽出することを特徴とする物体検出方法。   The distance of each part of the space of interest is measured by the distance measuring means, the difference of the distances of each part measured at different times by the distance measuring means for one space of interest is obtained, and the space is calculated using the obtained distance difference. An object detection method for extracting a detection target from an extracted detection target candidate and extracting a feature amount of the detection target from the extracted detection target candidate. Obtain the reliability of the distance measurement results for each part, classify the difference in distance for each part according to the combination of the reliability of the distance measurement results at different times for each part, and determine the classification result and distance for each part. An object detection method, wherein candidates for detection targets are grouped and extracted for each detection target by evaluation. 請求項1ないし請求項8のいずれか1項に記載の物体検出装置における差分手段と物体抽出手段と物体判定手段と信頼性算出手段とを実現するコンピュータ読取可能なプログラム。   9. A computer-readable program for realizing a difference unit, an object extraction unit, an object determination unit, and a reliability calculation unit in the object detection apparatus according to claim 1.
JP2004048633A 2004-02-24 2004-02-24 Object detection apparatus, object detection method, and program Expired - Fee Related JP4389602B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004048633A JP4389602B2 (en) 2004-02-24 2004-02-24 Object detection apparatus, object detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004048633A JP4389602B2 (en) 2004-02-24 2004-02-24 Object detection apparatus, object detection method, and program

Publications (2)

Publication Number Publication Date
JP2005242488A JP2005242488A (en) 2005-09-08
JP4389602B2 true JP4389602B2 (en) 2009-12-24

Family

ID=35024195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004048633A Expired - Fee Related JP4389602B2 (en) 2004-02-24 2004-02-24 Object detection apparatus, object detection method, and program

Country Status (1)

Country Link
JP (1) JP4389602B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096480A (en) * 2005-09-27 2007-04-12 Konica Minolta Holdings Inc Object tracking apparatus and object tracking method
JP4815190B2 (en) * 2005-10-28 2011-11-16 セコム株式会社 Intrusion detection device
JP2007122508A (en) * 2005-10-28 2007-05-17 Secom Co Ltd Intrusion detection apparatus
JP4887540B2 (en) * 2008-02-15 2012-02-29 本田技研工業株式会社 Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP5580062B2 (en) * 2010-01-21 2014-08-27 クラリオン株式会社 Obstacle detection alarm device
JP5872818B2 (en) * 2010-08-20 2016-03-01 パナソニック株式会社 Positioning processing device, positioning processing method, and image processing device
JP5802917B2 (en) * 2011-04-06 2015-11-04 オプテックス株式会社 Distance image camera and distance measuring method using the same
WO2013054499A1 (en) * 2011-10-11 2013-04-18 パナソニック株式会社 Image processing device, imaging device, and image processing method
KR20130047822A (en) * 2011-11-01 2013-05-09 삼성전자주식회사 Image processing apparatus and method
JP5613147B2 (en) * 2011-12-27 2014-10-22 住友電気工業株式会社 Camera parameter measuring device, camera parameter measuring method, and program
JP5877722B2 (en) * 2012-01-18 2016-03-08 セコム株式会社 Image monitoring device
JP6031908B2 (en) * 2012-09-14 2016-11-24 オムロン株式会社 Image processing apparatus, object detection method, and object detection program
JP6273156B2 (en) * 2014-02-20 2018-01-31 株式会社Subaru Pedestrian recognition device
JP6335695B2 (en) * 2014-07-09 2018-05-30 キヤノン株式会社 Information processing apparatus, control method therefor, program, and storage medium
JP6800650B2 (en) * 2015-10-30 2020-12-16 キヤノン株式会社 Reliability generator, reliability generator, and imaging device
JP6862750B2 (en) 2016-10-14 2021-04-21 富士通株式会社 Distance measuring device, distance measuring method and program
WO2018179361A1 (en) * 2017-03-31 2018-10-04 日本電気株式会社 Image-processing device, image-processing method, and recording medium
WO2018179360A1 (en) * 2017-03-31 2018-10-04 日本電気株式会社 Image-processing device, image-processing method, and recording medium
CN113139952B (en) * 2021-05-08 2024-04-09 佳都科技集团股份有限公司 Image processing method and device
CN114459614A (en) * 2022-02-10 2022-05-10 浙江大华技术股份有限公司 Method and device for determining heat source type, storage medium and electronic device

Also Published As

Publication number Publication date
JP2005242488A (en) 2005-09-08

Similar Documents

Publication Publication Date Title
JP4389602B2 (en) Object detection apparatus, object detection method, and program
US11636615B2 (en) Depth acquisition device and depth acquisition method
JP6554169B2 (en) Object recognition device and object recognition system
EP2072947B1 (en) Image processing device and image processing method
EP2959454B1 (en) Method, system and software module for foreground extraction
JP4533836B2 (en) Fluctuating region detection apparatus and method
US10791252B2 (en) Image monitoring device, image monitoring method, and recording medium
JPH07302328A (en) Method for extracting area of moving object based upon background difference
WO2020066637A1 (en) Depth acquisition device, depth acquisition method, and program
CN105787429B (en) The method and apparatus for being used to check object using machine vision
US20200211171A1 (en) Adhered substance detection apparatus
JP4641902B2 (en) Image sensor
JP4042602B2 (en) Image processing device
JP2011090708A (en) Apparatus and method for detecting the number of objects
JP2693586B2 (en) Image identification / tracking device
JP4674920B2 (en) Object number detection device and object number detection method
TWI589468B (en) Pedestrian detecting system
JP3957495B2 (en) Image sensor
JPH1166490A (en) Vehicle detecting method
JP2017135656A (en) Space recognition device
JP6332703B2 (en) Space recognition device
KR20170132539A (en) Apparatus and method for classificating Road marking
JP2017156847A (en) Object detection device
JP6332702B2 (en) Space recognition device
EP3611655A1 (en) Object detection based on analysis of a sequence of images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090915

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090928

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121016

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121016

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees