JP2011185664A - Object detector - Google Patents

Object detector Download PDF

Info

Publication number
JP2011185664A
JP2011185664A JP2010049429A JP2010049429A JP2011185664A JP 2011185664 A JP2011185664 A JP 2011185664A JP 2010049429 A JP2010049429 A JP 2010049429A JP 2010049429 A JP2010049429 A JP 2010049429A JP 2011185664 A JP2011185664 A JP 2011185664A
Authority
JP
Japan
Prior art keywords
distance image
distance
pixel
image sensor
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2010049429A
Other languages
Japanese (ja)
Inventor
Eiji Nakamoto
栄次 中元
Satoshi Furukawa
聡 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Electric Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Electric Works Co Ltd filed Critical Panasonic Electric Works Co Ltd
Priority to JP2010049429A priority Critical patent/JP2011185664A/en
Publication of JP2011185664A publication Critical patent/JP2011185664A/en
Ceased legal-status Critical Current

Links

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To more reduce processing load in detection of an object by using a distance image, while reducing the amount of information keeping information for determining whether it is the object or not. <P>SOLUTION: A distance image is created by an active-type distance image sensor 1. A background acquisition means 2 stores a background distance image, and a difference image creation means 3 creates a distance difference image from the distance image and the background distance image. A pixel-of-interest extraction means 4 extracts pixels whose pixel values in the distance difference image are a presence threshold or above from the distance image as pixels of interest, and a density measuring means 5 maps the pixels of interest in a three-dimensional virtual space, and finds the number of pixels of interest in each block of a unit volume as a density. An effective block extraction means 6 extracts blocks whose densities are an object threshold or above as effective blocks, and a region integration means 7 integrates adjoining effective blocks and forms a group. An object determination means 8 determines the group as an object, if the size of the group is in a proper range. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、距離画像センサを用いて対象物を検出する対象物検出装置に関するものである。   The present invention relates to an object detection apparatus that detects an object using a distance image sensor.

従来から、距離画像を用いて対象物を検出する技術が提案されている。たとえば、特許文献1には、ステレオ画像処理により生成した距離画像を用いて自動車の前方に存在する物体を検出する技術が記載されている。   Conventionally, a technique for detecting an object using a distance image has been proposed. For example, Patent Document 1 describes a technique for detecting an object existing in front of an automobile using a distance image generated by stereo image processing.

特許文献1には、距離画像上に複数の区分を設定し、各区分ごとに距離値のヒストグラムを生成するとともに、出現頻度が閾値以上になる距離値を、当該区分を代表する距離値として求めることが記載されている。さらに、区分と距離とからなる処理空間において各区分における距離の代表値が占める位置が隣接している場合に同一物体とみなしてグループ化している。   In Patent Document 1, a plurality of sections are set on a distance image, a histogram of distance values is generated for each section, and a distance value whose appearance frequency is equal to or greater than a threshold is obtained as a distance value representing the section. It is described. Furthermore, in the processing space composed of sections and distances, when the positions occupied by the representative values of the distances in each section are adjacent, they are regarded as the same object and grouped.

特許文献1に記載の技術では、処理空間におけるグループ化を行うことにより、距離の異なる物体を、異なるグループとして分離することを可能にしている。   In the technique described in Patent Document 1, it is possible to separate objects having different distances as different groups by performing grouping in the processing space.

特開2008−64628号公報JP 2008-64628 A

ところで、特許文献1に記載の技術を採用すれば、距離画像内に占める領域が隣接した複数の物体であっても、距離差に基づくグループ化を行うことにより、分離することが可能である。しかも、グループ化を行うことにより、距離画像の画素をそのまま扱う場合よりも処理負荷を低減することができる可能性がある。   By the way, if the technique described in Patent Document 1 is adopted, even if a plurality of objects occupying adjacent areas in the distance image can be separated by performing grouping based on the distance difference. Moreover, by performing grouping, there is a possibility that the processing load can be reduced as compared with the case where the pixels of the distance image are handled as they are.

しかしながら、グループ化の際には物体の形状に関する情報がほとんど失われてしまうから、物体の種類を識別することができないという問題がある。すなわち、距離画像を用いて物体を認識する用途では、特許文献1に記載の技術を採用することができない。   However, since information about the shape of the object is almost lost during grouping, there is a problem that the type of the object cannot be identified. That is, the technique described in Patent Document 1 cannot be used in applications that recognize objects using distance images.

本発明は上記事由に鑑みて為されたものであり、その目的は、距離画像において対象物か否かを判断する情報を残しながらも情報量を低減させることを可能にし、距離画像を用いた対象物の検出における処理負荷を従来よりも低減することができる対象物検出装置を提供することにある。   The present invention has been made in view of the above-mentioned reasons, and the object of the present invention is to make it possible to reduce the amount of information while leaving information for determining whether or not the object is an object in the distance image, and to use the distance image. An object of the present invention is to provide an object detection apparatus capable of reducing the processing load in detection of an object as compared with the conventional technique.

本発明は、上記目的を達成するために、視野領域について画素値が距離である距離画像を生成するアクティブ型の距離画像センサと、視野領域に対象物が存在しない状態において距離画像センサにより生成した距離画像を背景距離画像として記憶する背景取得手段と、視野領域を監視する状態において距離画像センサにより生成した距離画像と背景取得手段に記憶されている背景距離画像との差分画像である距離差分画像を生成する差分画像生成手段と、距離画像センサにより生成した距離画像に含まれる画素のうち、差分画像生成手段により生成した距離差分画像における画素値が規定の存在閾値以上である画素を注目画素として抽出する注目画素抽出手段と、注目画素抽出手段により抽出した注目画素を3次元の仮想空間にマッピングし当該仮想空間内に規定した単位体積のブロックごとに注目画素の個数を密度として求める密度計測手段と、密度計測手段により求めた密度が規定の対象閾値以上であるブロックを有効ブロックとして抽出する有効ブロック抽出手段と、有効ブロック抽出手段で抽出した有効ブロックについて隣接している有効ブロックを統合してグループを形成する領域統合手段と、領域統合手段により形成したグループに対して対象物に関する知識を用いることにより対象物か否かを判別する対象物判別手段とを備えることを特徴とする。   In order to achieve the above object, the present invention generates an active distance image sensor that generates a distance image having a pixel value as a distance for a visual field region, and a distance image sensor in a state where no object exists in the visual field region. A background acquisition unit that stores a distance image as a background distance image, and a distance difference image that is a difference image between a distance image generated by a distance image sensor and a background distance image stored in the background acquisition unit in a state of monitoring a visual field region Among the pixels included in the distance image generated by the difference image generating means and the distance image sensor, the pixel whose pixel value in the distance difference image generated by the difference image generating means is equal to or greater than the specified existence threshold is set as the target pixel. The target pixel extracting means for extracting and the target pixel extracted by the target pixel extracting means are mapped to a three-dimensional virtual space. Density measuring means for obtaining the number of pixels of interest as a density for each block of a unit volume defined in the virtual space, and an effective block for extracting a block whose density obtained by the density measuring means is equal to or more than a prescribed target threshold as an effective block Extraction means, area integration means for forming a group by integrating effective blocks adjacent to the effective block extracted by the effective block extraction means, and using knowledge about the object for the group formed by the area integration means And an object discriminating means for discriminating whether or not the object is an object.

有効ブロック抽出手段は、ブロックまでの距離が大きいほど対象閾値を小さく設定することが望ましい。   It is desirable that the effective block extraction unit sets the target threshold value smaller as the distance to the block is larger.

この場合、有効ブロック抽出手段は、規定の基準距離における対象閾値を基準対象閾値とし、基準距離に対するブロックまでの距離の比の2乗分の1を基準対象閾値に乗じた値を対象閾値に用いることが望ましい。   In this case, the effective block extraction unit uses a target threshold value at a specified reference distance as a reference target threshold value, and uses a value obtained by multiplying the reference target threshold by 1 / square of the ratio of the distance to the block with respect to the reference distance as the target threshold value. It is desirable.

対象物判別手段は、領域統合手段により形成したグループからサイズを特徴として抽出する特徴抽出手段と、特徴量抽出手段が抽出したサイズが規定の適正範囲内であることを知識に用いて当該グループが対象物か否かを判別するサイズ判別手段とを備えることが望ましい。   The object discriminating means includes a feature extracting means for extracting the size as a feature from the group formed by the area integrating means, and the group using the knowledge that the size extracted by the feature amount extracting means is within a prescribed appropriate range. It is desirable to include size determining means for determining whether the object is an object.

また、対象物判別手段は、特徴抽出手段によりグループの特徴として抽出したサイズが規定の前記適正範囲の上限を超える場合に、当該グループを形成する有効ブロックのクラスタリングを行うことにより、当該グループを複数のグループに分割するクラスタリング手段を備え、クラスタリング手段による分割後のグループについてサイズ判別手段による判別を行うことが望ましい。   In addition, when the size extracted as a group feature by the feature extraction unit exceeds the upper limit of the specified appropriate range, the object discrimination unit performs clustering of the effective blocks forming the group, thereby performing a plurality of the groups. It is desirable to provide clustering means for dividing the data into groups, and to perform discrimination by the size discrimination means for the group after division by the clustering means.

有効ブロック抽出手段は、仮想空間を規定する直交座標系の座標平面のうち、距離画像センサの視野領域の中心線と交差する座標平面の上で、有効ブロックに含まれる画素の度数分布を求め、度数が規定した雑音閾値より小さくなる座標値を持つ画素を注目画素として採用しないことが望ましい。   The effective block extraction means obtains the frequency distribution of the pixels included in the effective block on the coordinate plane intersecting the center line of the visual field region of the distance image sensor among the coordinate planes of the orthogonal coordinate system defining the virtual space, It is desirable not to employ a pixel having a coordinate value whose frequency is smaller than the specified noise threshold as the target pixel.

距離画像センサの視野領域における中心線は斜め下向きに設定されており、密度計測手段は、注目画素を仮想空間にマッピングする際に、距離画像センサの視野領域における中心線の俯角に応じた補正を行う構成を採用することができる。   The center line in the visual field area of the distance image sensor is set obliquely downward, and the density measuring means performs correction according to the depression angle of the central line in the visual field area of the distance image sensor when mapping the target pixel in the virtual space. The configuration to be performed can be adopted.

注目画素抽出手段は、距離画像センサの視野領域内において所定の高さ位置に規定した閾値面よりも上方に位置する画素を注目画素として抽出する構成を採用してもよい。   The pixel-of-interest extracting means may adopt a configuration in which a pixel located above a threshold plane defined at a predetermined height position in the visual field region of the distance image sensor is extracted as the pixel of interest.

背景取得手段は、対象物判別手段において対象物が検出されない状態が所定の更新時間に達すると、新たに生成された背景距離画像に更新するようにしてもよい。   The background acquisition unit may update the newly generated background distance image when a state in which the target is not detected by the target determination unit reaches a predetermined update time.

距離画像センサは距離画像による動画像を生成する機能を有し、対象物判別手段が対象物を検出すると、時系列において隣接する距離画像を用いることにより、視野領域内における当該対象物を追跡する対象物追跡手段を備える構成を採用してもよい。   The distance image sensor has a function of generating a moving image based on a distance image, and when the object discriminating means detects the object, the object in the visual field region is tracked by using adjacent distance images in time series. You may employ | adopt the structure provided with an object tracking means.

本発明の構成によれば、距離画像において対象物の候補となる画素を複数個ずつ含むブロックとして扱うことにより、対象物か否かを判断する情報を残しながらも情報量を低減させることが可能になり、距離画像を用いた対象物の検出における処理負荷を従来よりも低減することができる。   According to the configuration of the present invention, it is possible to reduce the amount of information while leaving the information for determining whether or not the object is present by treating the distance image as a block including a plurality of pixels that are candidates for the object. Thus, it is possible to reduce the processing load in the detection of the object using the distance image as compared with the conventional case.

実施形態を示すブロック図である。It is a block diagram which shows embodiment. 同上における画像の例を示す図である。It is a figure which shows the example of the image in the same as the above. 同上におけるブロックの説明図である。It is explanatory drawing of the block in the same as the above. 同上の処理手順を示す図である。It is a figure which shows the process sequence same as the above. 同上においてクラスタリングが必要になる例を示す図である。It is a figure which shows the example which needs clustering in the same as the above. 同上においてクラスタリングが必要になる例を示す図である。It is a figure which shows the example which needs clustering in the same as the above. 同上においてクラスタリング前の有効ブロックの例を示す図である。It is a figure which shows the example of the effective block before clustering same as the above. 同上におけるクラスタリングの手順を示す図である。It is a figure which shows the procedure of the clustering same as the above. 同上におけるクラスタリングの処理手順を示す図である。It is a figure which shows the processing procedure of the clustering same as the above. 同上における異常値の発生例を示す図である。It is a figure which shows the example of generation | occurrence | production of the abnormal value in the same as the above. 同上における異常値の発生例の概略図である。It is the schematic of the example of generation | occurrence | production of the abnormal value in the same as the above. 同上における異常値の発生例と除去例とを示す概略図である。It is the schematic which shows the generation example and removal example of an abnormal value in the same as the above. 同上における異常値を検出する動作の説明図である。It is explanatory drawing of the operation | movement which detects the abnormal value in the same as the above. 同上における閾値面の設定例を示す図である。It is a figure which shows the example of a setting of the threshold value surface in the same as the above. 同上に用いる距離画像センサの構成例を示すブロック図である。It is a block diagram which shows the structural example of the distance image sensor used for the same as the above. 図15に示した構成の動作説明図である。FIG. 16 is an operation explanatory diagram of the configuration shown in FIG. 15. 同上における座標変換の概念説明図である。It is a conceptual explanatory drawing of the coordinate transformation same as the above. 同上におけるアフィン変換の概念説明図である。It is a conceptual explanatory drawing of the affine transformation in the same as the above.

(基本構成)
以下に説明する実施形態で用いる物体検知装置は、画像を構成する画素の値が距離値である距離画像を用いて対象物の存否・移動などを検出する構成を採用している。距離画像を生成する距離画像センサは、視野領域に赤外線のような光を投光するとともに、視野領域に存在する物体(人を含む)での反射光を受光することにより、視野領域に存在する物体までの距離を計測するアクティブ型の構成を有する。
(Basic configuration)
The object detection apparatus used in the embodiments described below employs a configuration that detects the presence / absence / movement of an object using a distance image in which the values of pixels constituting the image are distance values. A distance image sensor that generates a distance image emits light such as infrared rays to the visual field area and receives reflected light from an object (including a person) existing in the visual field area. It has an active configuration for measuring the distance to an object.

アクティブ型の距離画像センサには、投光から受光までの時間を計測する技術のほか、三角測量法の原理を用いる技術などがあり、それぞれの技術において、さらに多種類の技術が知られている。以下に説明する実施形態では、これらの技術のいずれでも用いることが可能であるが、投光から受光までの時間差に相当する情報を用いることにより、物体までの距離を検出する飛行時間法(Time Of Flight)の原理を用いた例により説明を行う。   Active distance image sensors include technologies that measure the time from light projection to light reception, as well as technologies that use the principle of triangulation, and various types of technologies are known for each technology. . In the embodiments described below, any of these techniques can be used, but the time-of-flight method (Time) that detects the distance to an object by using information corresponding to the time difference from light projection to light reception. The explanation is based on an example using the principle of Of Flight.

実施形態において用いる距離画像センサは、時間経過に伴って強度が変化する変調光を発光源から出射し、物体で反射され受光素子で受光された変調光と投光した変調光との位相差を、投光から受光までの時間差に相当する情報として用いる。   The distance image sensor used in the embodiment emits modulated light whose intensity changes with time, from a light source, and calculates the phase difference between the modulated light reflected by the object and received by the light receiving element and the projected modulated light. It is used as information corresponding to the time difference from light projection to light reception.

変調光の変調波形としては、正弦波、三角波、鋸歯状波、方形波などを用いることができる。正弦波、三角波、鋸歯状波を用いる場合には変調光の周期を一定周期とする。また、方形波を用いる場合には変調光の周期を一定周期とするほか、オン期間(発光源の投光期間)とオフ期間(発光源の非投光期間)との比率を乱数的に変化させる技術を採用することも可能である。変調波形としてどの波形を用いるかにかかわらず、1周期(方形波の場合はオン期間とオフ期間とを1回ずつ含む期間)で投光と受光との位相差を求めるのではなく、多数周期の平均値(あるいは積算値)から位相差を求める。   As the modulation waveform of the modulated light, a sine wave, a triangular wave, a sawtooth wave, a square wave, or the like can be used. When a sine wave, a triangular wave, or a sawtooth wave is used, the period of the modulated light is set to a constant period. In addition, when using a square wave, the period of the modulated light is set to a fixed period, and the ratio between the ON period (light emitting source light emitting period) and the OFF period (light emitting source non-light emitting period) is changed randomly. It is also possible to adopt a technique for making them. Regardless of which waveform is used as the modulation waveform, the phase difference between light projection and light reception is not obtained in one cycle (in the case of a square wave, the period including the on period and the off period once), but a large number of periods The phase difference is obtained from the average value (or integrated value) of.

受光素子には、複数個の受光部(光電変換部)が2次元に配列された撮像素子を用いる。撮像素子は、CCDイメージセンサやCMOSイメージセンサとして提供されている濃淡画像を撮像するための周知構成のものを用いることができるが、距離画像センサに適する構造を有するように専用に設計された撮像素子を用いることが望ましい。   As the light receiving element, an imaging element in which a plurality of light receiving parts (photoelectric conversion parts) are two-dimensionally arranged is used. As the imaging device, a well-known configuration for imaging a grayscale image provided as a CCD image sensor or a CMOS image sensor can be used. However, the imaging device is designed specifically to have a structure suitable for a distance image sensor. It is desirable to use an element.

後者の撮像素子は、基本的な構造については、濃淡画像を撮像する周知構成の撮像素子と類似している。ただし、受光部の単位で受光感度を制御する機能を備える。受光部の単位で受光感度を制御するのは、変調光を受光するタイミングを制御することによって投光と受光との位相差を含む情報を検出するためである。この撮像素子は、各受光部で生成された電荷を変調光の変調周期の整数倍の期間に亘って蓄積する蓄積領域を有する。さらに、受光部で生成した電荷のうち変調光ではない環境光ないし周囲光の成分を低減させる機能を設ける場合もある。   The latter image sensor has a basic structure similar to an image sensor having a well-known configuration for capturing gray images. However, it has a function of controlling the light receiving sensitivity in units of light receiving units. The reason why the light receiving sensitivity is controlled in units of light receiving units is to detect information including a phase difference between light projection and light reception by controlling the timing of receiving the modulated light. This imaging element has an accumulation region for accumulating charges generated in each light receiving unit over a period that is an integral multiple of the modulation period of the modulated light. Furthermore, there is a case where a function of reducing components of ambient light or ambient light that is not modulated light among charges generated in the light receiving unit is provided.

以下では、距離画像センサの一構成例として下記構成を想定して説明するが、この構成は本発明を限定する趣旨ではなく、変調光の変調波形、撮像素子の構成、撮像素子の制御などに関して、アクティブ型の周知の種々の距離画像センサに提供された構成を用いることができる。   In the following description, the following configuration is assumed as one configuration example of the distance image sensor. However, this configuration is not intended to limit the present invention, and the modulation waveform of the modulated light, the configuration of the imaging device, the control of the imaging device, etc. The configurations provided in various known active distance image sensors can be used.

以下の説明で用いる距離画像センサ1は、図15に示すように、光(近赤外線を用いるのが望ましい)を出射する発光源11と、視野領域を撮像する撮像素子12とを備える。図示例では、撮像素子12として受光部を2次元配列したエリアイメージセンサを想定している。   As shown in FIG. 15, the distance image sensor 1 used in the following description includes a light emitting source 11 that emits light (desirably using near infrared rays) and an image sensor 12 that images a visual field region. In the illustrated example, an area image sensor in which light receiving units are two-dimensionally arranged is assumed as the image sensor 12.

発光源11には、発光ダイオードやレーザダイオードのように入力の瞬時値に比例した光出力が得られる発光素子を用いる。また、発光源11から出射する光量を確保するために、発光源11は適数個の発光素子を用いて構成される。発光源11から出射された変調光は投光光学系13を通して投光される。また、撮像素子12は、受光光学系14を通して視野領域からの光を受光する。投光光学系13と受光光学系14とは、投受光の方向を平行にし互いに近接して配置してある。すなわち、投光光学系13と受光光学系14との距離は視野領域に対して実質的に無視することができるものとする。   The light emitting source 11 is a light emitting element such as a light emitting diode or a laser diode that can obtain a light output proportional to the instantaneous value of the input. Further, in order to ensure the amount of light emitted from the light source 11, the light source 11 is configured using an appropriate number of light emitting elements. The modulated light emitted from the light source 11 is projected through the light projecting optical system 13. The image sensor 12 receives light from the visual field region through the light receiving optical system 14. The light projecting optical system 13 and the light receiving optical system 14 are arranged close to each other with the light projecting and receiving directions parallel to each other. That is, the distance between the light projecting optical system 13 and the light receiving optical system 14 can be substantially ignored with respect to the visual field region.

距離画像センサ1には、発光源11を駆動するための変調信号を出力する変調信号生成部15と、変調信号生成部15から出力された変調信号に基づいて撮像素子12での受光タイミングを規定する受光タイミング信号を生成するタイミング制御部16と、撮像素子12から出力された受光信号を用いて視野領域に存在する物体Obまでの距離を求める演算処理部17とが設けられる。   In the distance image sensor 1, a modulation signal generation unit 15 that outputs a modulation signal for driving the light source 11, and a light reception timing at the image sensor 12 based on the modulation signal output from the modulation signal generation unit 15 are defined. A timing control unit 16 that generates a received light timing signal, and an arithmetic processing unit 17 that obtains a distance to the object Ob existing in the visual field region using the received light signal output from the image sensor 12.

変調信号生成部15は、出力電圧が一定周波数(たとえば、20MHz)の正弦波形で変化する変調信号を生成し、変調信号を発光源11に与えることにより、図16(a)(b)のように光出力が正弦波状に変化する変調光が発光源11から出射される。発光源11として発光ダイオードを用いる場合には、電流制限抵抗を介して発光ダイオードに変調信号の信号電圧を印加することにより、発光ダイオードの通電電流を変化させ変調光を出射させる。   The modulation signal generation unit 15 generates a modulation signal whose output voltage changes with a sine waveform having a constant frequency (for example, 20 MHz), and gives the modulation signal to the light emission source 11, as shown in FIGS. Then, modulated light whose light output changes in a sine wave form is emitted from the light emitting source 11. When a light-emitting diode is used as the light-emitting source 11, by applying a signal voltage of a modulation signal to the light-emitting diode via a current limiting resistor, the current flowing through the light-emitting diode is changed to emit modulated light.

一方、撮像素子12は、電子シャッタの技術を用いることにより、受光タイミング信号に同期する期間にのみ受光強度に応じた電荷を生成することが可能になっている。また、受光部で生成された電荷は、変調信号の複数周期(たとえば、10000周期)に相当する蓄積期間に亘って蓄積された後、撮像素子12の外部に受光出力として取り出される。   On the other hand, the image pickup device 12 can generate an electric charge according to the received light intensity only during a period synchronized with the received light timing signal by using the electronic shutter technique. Further, the charge generated in the light receiving unit is accumulated over an accumulation period corresponding to a plurality of periods (for example, 10000 periods) of the modulation signal, and then taken out as a light reception output to the outside of the image sensor 12.

すなわち、受光タイミング信号に同期するタイミングで電荷を生成する動作と生成された電荷を蓄積する動作とを、蓄積期間である変調信号の複数周期において繰り返し行う。したがって、蓄積期間において生成された電荷は積算されることになり、積算された電荷が受光出力として取り出される。変調信号の1周期分の電荷では、生成される電荷量が少ない上に、環境光や内部ノイズの影響により電荷量にばらつきが生じやすいが、蓄積期間において電荷を蓄積することによって、この種の原因による電荷量のばらつきが抑制される。   That is, the operation of generating charge at the timing synchronized with the light reception timing signal and the operation of storing the generated charge are repeatedly performed in a plurality of periods of the modulation signal that is an accumulation period. Accordingly, the charges generated during the accumulation period are accumulated, and the accumulated charges are taken out as a light receiving output. With the charge for one period of the modulation signal, the amount of generated charge is small, and the amount of charge tends to vary due to the influence of ambient light and internal noise, but this kind of charge can be obtained by accumulating charge during the accumulation period. Variation in charge amount due to the cause is suppressed.

タイミング制御部16では、変調信号に同期する受光タイミング信号を生成する。ここでは、変調信号の1周期における異なる4位相を規定し、各位相ごとに一定時間幅の受光期間を設定する4種類の受光タイミング信号を生成する。蓄積期間ごとに4種類の受光タイミング信号のうちの各1種類の受光タイミング信号を撮像素子12に与えることにより、受光タイミング信号で設定した位相に対応する期間に受光した電荷が蓄積される。   The timing control unit 16 generates a light reception timing signal synchronized with the modulation signal. Here, four different phases are defined in one period of the modulation signal, and four types of light reception timing signals for setting a light reception period having a certain time width for each phase are generated. By supplying each of the four types of light reception timing signals among the four types of light reception timing signals to the imaging element 12 for each accumulation period, the charges received during the period corresponding to the phase set by the light reception timing signals are accumulated.

すなわち、1種類の受光タイミング信号で規定した受光期間において受光部ごとに生成した電荷を1回の蓄積期間において蓄積し、蓄積後の電荷を受光出力として撮像素子12の外部に取り出す処理を4回繰り返し、4回の蓄積期間で4種類の受光タイミング信号に対応する受光出力を撮像素子12の外部に取り出す。   That is, the charge generated for each light receiving unit in the light receiving period defined by one type of light receiving timing signal is accumulated in one accumulation period, and the accumulated charge is taken out to the outside of the image sensor 12 as a light receiving output four times. Repeatedly, the light receiving outputs corresponding to the four types of light receiving timing signals are taken out of the image sensor 12 in four accumulation periods.

いま、図16(c)のように、受光タイミング信号を変調信号の1周期において90度ずつ異なる位相で規定しているものとする。この場合、各受光タイミング信号に対応する受光出力(電荷量)を、それぞれA0,A1,A2,A3とするときに、位相差ψ〔rad〕は下式で表される。
ψ=(A0−A2)/(A1−A3)
変調信号の周波数をf〔Hz〕とすれば、投光から受光までの時間差Δtは位相差ψを用いて、Δt=ψ/2π・fと表されるから、光速をc〔m/s〕とすると、物体までの距離は、c・ψ/4π・fと表すことができる。
Now, as shown in FIG. 16 (c), it is assumed that the light reception timing signal is defined by a phase different by 90 degrees in one cycle of the modulation signal. In this case, when the light reception outputs (charge amounts) corresponding to the respective light reception timing signals are A0, A1, A2, and A3, the phase difference ψ [rad] is expressed by the following equation.
ψ = (A0−A2) / (A1−A3)
If the frequency of the modulation signal is f [Hz], the time difference Δt from light projection to light reception is expressed as Δt = ψ / 2π · f using the phase difference ψ, so the speed of light is c [m / s]. Then, the distance to the object can be expressed as c · ψ / 4π · f.

すなわち、4種類の受光出力(電荷量)A0〜A3により物体までの距離を求めることができる。なお、受光期間の時間幅は、受光部において適正な受光量が得られるように、適宜に設定することができる(たとえば、変調信号の4分の1周期に相当する時間幅とすることができる)。ただし、各受光期間の時間幅は互いに等しくすることが必要である。   That is, the distance to the object can be obtained from the four types of light reception outputs (charge amounts) A0 to A3. The time width of the light receiving period can be appropriately set so that an appropriate amount of received light can be obtained in the light receiving section (for example, a time width corresponding to a quarter cycle of the modulation signal can be set). ). However, the time width of each light receiving period needs to be equal to each other.

演算処理部17では、受光出力(電荷量)A0〜A3に基づいて位相差ψを求め、距離に換算する上述の処理のほか、以下の実施形態において説明する処理も行うことができる。演算処理部17はコンピュータ(マイコン)を用いて構成され、上述した処理はコンピュータでプログラムを実行することにより実現される。また、演算処理部17だけではなく、発光源11および撮像素子12を除く構成は、コンピュータを用いて実現される。   In the arithmetic processing unit 17, in addition to the above-described processing for obtaining the phase difference ψ based on the light reception outputs (charge amounts) A <b> 0 to A <b> 3 and converting it to the distance, processing described in the following embodiments can also be performed. The arithmetic processing part 17 is comprised using a computer (microcomputer), and the process mentioned above is implement | achieved by running a program with a computer. Further, not only the arithmetic processing unit 17 but also the configuration excluding the light emission source 11 and the image sensor 12 is realized using a computer.

なお、上述の動作例では、4種類の受光タイミング信号を用いているが、3種類の受光タイミング信号でも位相差ψを求めることができ、環境光ないし周囲光が存在しない環境下では、2種類の受光タイミング信号でも位相差ψを求めることが可能である。   In the above-described operation example, four types of light reception timing signals are used. However, the phase difference ψ can be obtained using three types of light reception timing signals, and two types of light reception timing signals can be obtained in an environment where there is no ambient light or ambient light. It is possible to obtain the phase difference ψ even with the light reception timing signal.

また、上述の動作では、4種類の受光出力(電荷量)A0〜A3を撮像素子12から取り出すために4回の蓄積期間が必要であるが、2個の受光部を用いて変調信号の1周期で2種類の受光タイミング信号に対応する電荷を生成することも可能である。この構成では、撮像素子12から2種類の受光タイミング信号に対応した受光出力を1回で読み出すことが可能になる。同様に、4個の受光部を用いて変調信号の1周期で4種類の受光タイミング信号に対応する電荷を生成すれば、4種類の受光タイミング信号に対応する受光出力を1回で読み出すことが可能になる。   Further, in the above-described operation, four accumulation periods are required to take out four types of light reception outputs (charge amounts) A0 to A3 from the image pickup device 12, but one of the modulation signals is obtained using two light reception units. It is also possible to generate charges corresponding to two types of light reception timing signals in a cycle. With this configuration, it is possible to read out light reception outputs corresponding to two types of light reception timing signals from the image sensor 12 at a time. Similarly, if four light receiving units are used to generate charges corresponding to four types of light reception timing signals in one cycle of the modulation signal, light reception outputs corresponding to the four types of light reception timing signals can be read out once. It becomes possible.

上述した距離画像センサ1は、視野領域からの光を受光するための受光素子として複数個の受光部が2次元配列された撮像素子を用いているから、各受光部での受光量に基づいて距離値を求めることにより距離画像が生成されることになる。上述のように1個の受光部を4種類の受光タイミングに対応付けている場合には、1個の受光部が距離画像の1画素に対応する。ただし、2種類の受光タイミング信号に対応付けて2個の受光部を用いる場合は2個の受光部が1画素に対応し、4種類の受光タイミング信号に対応付けて4個の受光部を用いる場合は4個の受光部が1画素に対応する。   Since the above-described distance image sensor 1 uses an image pickup element in which a plurality of light receiving parts are two-dimensionally arranged as a light receiving element for receiving light from the field of view, based on the amount of light received by each light receiving part. A distance image is generated by obtaining the distance value. As described above, when one light receiving unit is associated with four types of light receiving timings, one light receiving unit corresponds to one pixel of the distance image. However, when two light receiving units are used in association with two types of light receiving timing signals, the two light receiving units correspond to one pixel, and four light receiving units are used in association with four types of light receiving timing signals. In this case, four light receiving units correspond to one pixel.

上述のようにして、撮像素子の受光面が距離画像センサ1の視野領域を投影した仮想の投影面として規定され、当該投影面上に2次元配列された複数個の受光部が距離画像の画素に対応付けられる。したがって、受光部の位置が距離画像の画素の位置に対応する。生成された距離画像はコンピュータのメモリに格納される。   As described above, the light receiving surface of the image sensor is defined as a virtual projection surface obtained by projecting the visual field region of the distance image sensor 1, and a plurality of light receiving units arranged two-dimensionally on the projection surface are pixels of the distance image. Is associated with. Therefore, the position of the light receiving unit corresponds to the position of the pixel of the distance image. The generated distance image is stored in the memory of the computer.

上述した距離画像センサ1では、発光源11から視野領域に投光し、1個の撮像素子12により視野領域を撮像するから、視野領域は、距離画像センサ1を頂点として距離画像センサ1から離れるほど広がることになる。   In the distance image sensor 1 described above, light is emitted from the light emission source 11 to the visual field region, and the visual field region is picked up by the single image sensor 12, so the visual field region is separated from the distance image sensor 1 with the distance image sensor 1 as a vertex. Will spread.

たとえば、投光光学系13および受光光学系14が光軸の周りに等方的に形成されているときには、視野領域は距離画像センサ1を頂点とする角錐状になる。また、投光光学系13として外周が楕円形となるレンズやシリンドリカルレンズのように非等方的に形成されたレンズを用いるときには、視野領域は距離画像センサ1を頂点とする扇形状などに形成されることになる。さらに、発光源11を複数個設けるとともに、投光光学系13も2個以上設け、投光光学系13ごとに投光方向を異ならせる構成を採用することもできる。   For example, when the light projecting optical system 13 and the light receiving optical system 14 are formed isotropic around the optical axis, the visual field region has a pyramid shape with the distance image sensor 1 as a vertex. When a lens formed anisotropically, such as a lens having an elliptical outer periphery or a cylindrical lens, is used as the light projecting optical system 13, the visual field region is formed in a fan shape having the distance image sensor 1 as a vertex. Will be. Furthermore, it is possible to employ a configuration in which a plurality of light emitting sources 11 are provided and two or more light projecting optical systems 13 are provided, and the light projecting directions are different for each light projecting optical system 13.

以下の説明では、視野領域が距離画像センサ1を頂点とする角錐状に形成されている場合を想定する。したがって、上述した仮想の投影面に配列された画素の位置は、距離画像センサ1から視野領域を見込む方向に対応することになり、各画素の画素値は当該方向に存在する物体までの距離を表すことになる。距離画像の各画素の位置を2次元の直交座標系の座標値(つまり、画素位置の水平方向と垂直方向との位置)で表せば、この座標位置は、物体を見込む方位角および俯角・仰角に対応する。言い換えると、距離画像の各画素の持つ情報は、物体の位置を極座標で表した情報と等価である。したがって、以下では、距離画像センサ1から出力される距離画像を極座標系の距離画像と呼ぶ。   In the following description, it is assumed that the visual field region is formed in a pyramid shape having the distance image sensor 1 as a vertex. Accordingly, the positions of the pixels arranged on the virtual projection plane described above correspond to the direction in which the visual field area is viewed from the distance image sensor 1, and the pixel value of each pixel indicates the distance to the object existing in the direction. Will represent. If the position of each pixel of the distance image is expressed by the coordinate value of the two-dimensional orthogonal coordinate system (that is, the position of the pixel position in the horizontal direction and the vertical direction), this coordinate position indicates the azimuth angle, depression angle and elevation angle at which the object is viewed. Corresponding to In other words, the information that each pixel of the distance image has is equivalent to information that represents the position of the object in polar coordinates. Therefore, hereinafter, the distance image output from the distance image sensor 1 is referred to as a polar coordinate system distance image.

上述した極座標系の距離画像は、距離画像センサ1からの距離の情報が必要であるときには利便性が高いが、視野領域である実空間の各位置との対応関係がわかりにくく、実空間に存在する物体を基準にした領域を指定するには不便である。そこで、極座標系の距離画像の各画素を、実空間に対応付けた3次元の仮想空間にマッピングするために画像変換部8を設けている。仮想空間には、実空間と対応するように直交座標系の座標軸が設定される。   The distance image of the polar coordinate system described above is highly convenient when information on the distance from the distance image sensor 1 is necessary, but the correspondence with each position in the real space that is the visual field region is difficult to understand and exists in the real space. It is inconvenient to specify a region based on the object to be used. Therefore, an image conversion unit 8 is provided to map each pixel of the distance image in the polar coordinate system to a three-dimensional virtual space associated with the real space. In the virtual space, coordinate axes of an orthogonal coordinate system are set so as to correspond to the real space.

いま、視野領域の上方に距離画像センサ1を配置するとともに、距離画像センサ1の視野領域における中心線を斜め下向きに設定している場合を想定する。また、実空間における床面を仮想空間の下側面に対応付けているものとする。仮想空間に設定する直交座標系の座標軸は、距離画像センサ1の視野領域における中心線を床面に投影することにより形成される直線の延長方向をz軸の正の向きと規定し、距離画像センサ1から鉛直下向きをy軸の正の向きとする。また、右手系の直交座標系を採用するものとし、yz平面に対して原点から右向きをx軸の正の向きとする。また、原点の位置は、距離画像センサ1に設けた撮像素子12の中心の画素から視野領域を見込む視線(つまり、視野領域の中心線)上であって床面から所定の高さ位置に設定する。   Now, it is assumed that the distance image sensor 1 is arranged above the visual field area and the center line in the visual field area of the distance image sensor 1 is set obliquely downward. In addition, it is assumed that the floor surface in the real space is associated with the lower surface of the virtual space. The coordinate axis of the orthogonal coordinate system set in the virtual space defines the extension direction of a straight line formed by projecting the center line in the visual field region of the distance image sensor 1 on the floor surface as the positive direction of the z-axis, and the distance image The vertical downward direction from the sensor 1 is defined as the positive direction of the y-axis. Also, a right-handed orthogonal coordinate system is adopted, and the right direction from the origin to the yz plane is the positive direction of the x axis. Also, the position of the origin is set to a predetermined height position from the floor surface on the line of sight (that is, the center line of the visual field area) from the center pixel of the image sensor 12 provided in the distance image sensor 1. To do.

画像変換部8では、極座標の距離画像から3次元の直交座標系である仮想空間への座標変換を、以下の手順で行う。まず、距離画像センサ1に設けた撮像素子12の受光面が仮想空間のいずれかの座標軸に直交する平面と平行であるものとして極座標系の距離画像から直交座標系への座標変換を行う。その後、求めた直交座標系にアフィン変換を施すことにより、仮想空間の座標軸に対する距離画像センサ1の視野領域の中心線の傾きを修正する座標変換を行う。   The image conversion unit 8 performs coordinate conversion from a polar coordinate distance image to a virtual space, which is a three-dimensional orthogonal coordinate system, in the following procedure. First, the coordinate conversion from the distance image of the polar coordinate system to the orthogonal coordinate system is performed on the assumption that the light receiving surface of the image sensor 12 provided in the distance image sensor 1 is parallel to a plane orthogonal to any coordinate axis of the virtual space. Thereafter, by performing affine transformation on the obtained orthogonal coordinate system, coordinate transformation for correcting the inclination of the center line of the visual field region of the distance image sensor 1 with respect to the coordinate axis of the virtual space is performed.

いま、撮像素子12の受光面上での画素の座標位置を(u,v)で表し、座標位置(u,v)の画素の画素値(つまり、物体までの距離値)をrとする。また、実空間の直交座標系における座標位置を(X,Y,Z)で表す。すなわち、図17に示すように、視野領域に原点Oおよび座標系XYZを規定し、視野領域における座標位置(X,Y,Z)を、撮像素子12の受光面上の画素の座標位置(u,v)および距離値rに対応付ける。ここに、画素の座標位置の単位は〔pixel〕である。   Now, the coordinate position of the pixel on the light receiving surface of the image sensor 12 is represented by (u, v), and the pixel value of the pixel at the coordinate position (u, v) (that is, the distance value to the object) is r. The coordinate position in the orthogonal coordinate system in the real space is represented by (X, Y, Z). That is, as shown in FIG. 17, the origin O and the coordinate system XYZ are defined in the field of view, and the coordinate position (X, Y, Z) in the field of view is represented by the coordinate position (u of the pixel on the light receiving surface of the image sensor 12. , V) and the distance value r. Here, the unit of the coordinate position of the pixel is [pixel].

まず、u軸方向とX軸方向とは平行であるものとし、v軸方向とY軸方向は平行であるものとする。すなわち、距離画像センサ1の視野領域の中心線がZ軸に一致しているものとする。この状態では、X軸を仮想空間のx軸に一致させれば、Y軸は仮想空間のy軸に対してx軸の周りに回転していることになる。   First, it is assumed that the u-axis direction and the X-axis direction are parallel, and the v-axis direction and the Y-axis direction are parallel. That is, it is assumed that the center line of the visual field area of the distance image sensor 1 coincides with the Z axis. In this state, if the X axis coincides with the x axis of the virtual space, the Y axis rotates about the x axis with respect to the y axis of the virtual space.

直交座標系XYZの原点は視野領域の中心線上に位置するものとし、まず、距離画像における基準位置を撮像素子12の受光面上での中心画素(uc,vc)からの距離で表すための変換を行う。
u1=su(u−uc)
v1=sv(v−vc)
ただし、su,sv〔m/pixel〕は撮像素子12の画素サイズである。ここで、レンズの歪みを考慮して座標位置(u1,v1)に対して次式の補正を行う。
u2=a・u1
v2=a・v1
ただし、a=1/{1+κ(u1+v1)}、κはレンズ歪パラメータ〔1/m〕である。補正した座標位置(u2,v2)を用いると、直交座標系XYZの座標位置は、次式で表される。
X=u2・r/b
Y=v2・r/b
Z=fr/b
ただし、b=(u2+v2+f1/2、f〔m〕は受光光学系14の焦点距離である。
The origin of the Cartesian coordinate system XYZ is assumed to be located on the center line of the visual field region. First, conversion for expressing the reference position in the distance image by the distance from the center pixel (uc, vc) on the light receiving surface of the image sensor 12 is performed. I do.
u1 = su (u-uc)
v1 = sv (v−vc)
However, su, sv [m / pixel] is the pixel size of the image sensor 12. Here, the following equation is corrected for the coordinate position (u1, v1) in consideration of lens distortion.
u2 = a · u1
v2 = a · v1
However, a = 1 / {1 + κ (u1 2 + v1 2 )}, κ is a lens distortion parameter [1 / m 2 ]. When the corrected coordinate position (u2, v2) is used, the coordinate position of the orthogonal coordinate system XYZ is expressed by the following equation.
X = u2 · r / b
Y = v2 · r / b
Z = fr / b
However, b = (u2 2 + v2 2 + f 2 ) 1/2 and f [m] are focal lengths of the light receiving optical system 14.

ところで、距離画像センサ1は、視野領域を見下ろすように配置されているから、仮想空間の直交座標系に対応付けるには、直交座標系XYZから、さらに、仮想空間に規定した上述の直交座標系xyzへのアフィン変換を行う必要がある。つまり、上述のようにして極座標系の距離画像から直交座標系XYZへの変換を行うことにより求めた座標位置(X,Y、Z)は、図18(a)のように、距離画像センサ1の前方をZ軸に設定している。これに対して、仮想空間の直交座標系xyzは、図18(b)のように、直交座標系XYZに対してX軸の周りに回転している。したがって、の座標位置(X,Y,Z)を回転させることにより、仮想空間に規定した直交座標系xyzの座標位置(x,y,z)への座標変換がなされる。   By the way, since the distance image sensor 1 is arranged so as to look down on the visual field region, in order to correspond to the orthogonal coordinate system of the virtual space, the above-described orthogonal coordinate system xyz defined in the virtual space is further used from the orthogonal coordinate system XYZ. It is necessary to perform affine transformation to. That is, the coordinate position (X, Y, Z) obtained by performing the conversion from the polar coordinate system distance image to the orthogonal coordinate system XYZ as described above is the distance image sensor 1 as shown in FIG. Is set to the Z axis. On the other hand, the orthogonal coordinate system xyz in the virtual space rotates around the X axis with respect to the orthogonal coordinate system XYZ as shown in FIG. Therefore, by rotating the coordinate position (X, Y, Z), coordinate conversion to the coordinate position (x, y, z) of the orthogonal coordinate system xyz defined in the virtual space is performed.

いま、距離画像センサ1の視野領域の中心線(上述のZ軸)が仮想空間に規定したyz平面に含まれ、かつz軸に対してy軸の正の方向に角度θだけ回転しているものとする。また、X軸は仮想空間のx軸に一致しているものとする。言い換えると、距離画像センサ1の俯角がθに設定されていることになる。   Now, the center line of the visual field area of the distance image sensor 1 (the Z axis described above) is included in the yz plane defined in the virtual space, and is rotated by an angle θ in the positive direction of the y axis with respect to the z axis. Shall. Further, it is assumed that the X axis coincides with the x axis of the virtual space. In other words, the depression angle of the distance image sensor 1 is set to θ.

この場合、Z軸をz軸に一致させるように、直交座標系XYZを角度θだけX軸の周りに回転させるアフィン変換を行えば、直交座標系XYZから直交座標系xyzへの座標変換を行うことができる。つまり、次式のように、yz平面内でのアフィン変換を行う。
x=X
y=Y・cosθ−Z・sinθ
z=Y・sinθ+Z・cosθ
上述の手順で極座標系の距離画像から直交座標系への座標変換を行い、さらにアフィン変換を行うことにより、視野領域を斜め下向きに設定して求めた極座標系の距離画像の情報を、仮想空間に規定した直交座標系の座標位置に対応付けることができる。なお、アフィン変換を行うために用いる俯角θは、撮像素子12の受光面が鉛直面に対してなす角度であるから、俯角θは距離画像センサ1を設置した後に手入力により与える。また、距離画像センサ1の重力方向に対する角度を検出するジャイロセンサを設けることにより、俯角θを自動的に求めることが可能である。
In this case, if affine transformation is performed to rotate the orthogonal coordinate system XYZ around the X axis by an angle θ so that the Z axis coincides with the z axis, coordinate transformation from the orthogonal coordinate system XYZ to the orthogonal coordinate system xyz is performed. be able to. That is, affine transformation in the yz plane is performed as in the following equation.
x = X
y = Y · cos θ−Z · sin θ
z = Y · sin θ + Z · cos θ
By performing the coordinate transformation from the polar coordinate system distance image to the Cartesian coordinate system according to the above-described procedure, and further performing the affine transformation, the polar coordinate system distance image information obtained by setting the visual field region obliquely downward is obtained in the virtual space. Can be associated with the coordinate position of the Cartesian coordinate system defined in the above. Note that the depression angle θ used for performing the affine transformation is an angle formed by the light receiving surface of the image sensor 12 with respect to the vertical plane. Therefore, the depression angle θ is given by manual input after the distance image sensor 1 is installed. Further, by providing a gyro sensor that detects an angle of the distance image sensor 1 with respect to the gravity direction, the depression angle θ can be automatically obtained.

以上のようにして、極座標系の距離画像を仮想空間に規定した直交座標系の座標位置(x,y,z)にマッピングすることができる。以下に説明する実施形態では、距離画像センサ1により生成された極座標系の距離画像から、直交座標系で表される3次元の仮想空間にマッピングする技術を前提として対象物を検出する技術を説明する。   As described above, the distance image of the polar coordinate system can be mapped to the coordinate position (x, y, z) of the orthogonal coordinate system defined in the virtual space. In the embodiment described below, a technique for detecting an object on the assumption of a technique for mapping from a polar coordinate system distance image generated by the distance image sensor 1 to a three-dimensional virtual space represented by an orthogonal coordinate system will be described. To do.

(実施形態)
以下、本実施形態の構成については、図1を参照して説明する。また、図1に示す各構成で生成される画像については、図2を参照して説明する。
(Embodiment)
Hereinafter, the configuration of the present embodiment will be described with reference to FIG. Further, images generated by the respective configurations shown in FIG. 1 will be described with reference to FIG.

また、本実施形態では、距離画像センサ1の視野領域における対象物として人を検出することを想定する。また、距離画像センサ1の視野領域における人の検出に際しては、極座標系の距離画像から直交座標系で表される3次元の仮想空間へのマッピングを行う。   In the present embodiment, it is assumed that a person is detected as an object in the visual field region of the distance image sensor 1. When detecting a person in the field of view of the distance image sensor 1, mapping is performed from a distance image in the polar coordinate system to a three-dimensional virtual space represented by an orthogonal coordinate system.

距離画像センサ1では、視野領域において人が存在しない状態における距離画像(極座標系)としての背景距離画像P1(図2(a))をあらかじめ生成しておき、背景距離画像P1を背景取得手段2に記憶させる。   In the distance image sensor 1, a background distance image P1 (FIG. 2 (a)) as a distance image (polar coordinate system) in a state where no person exists in the visual field region is generated in advance, and the background distance image P1 is used as the background acquisition means 2. Remember me.

距離画像センサ1の視野領域における対象物の有無を検出するには、まず、差分画像生成手段3において、距離画像センサ1により生成した極座標系の距離画像P2(図2(b))と背景取得手段2に記憶されている背景距離画像P1との差分画像を生成する。以下では、この差分画像を距離差分画像P3(図2(c))と呼ぶ。距離差分画像P3では、背景距離画像P1との変化が生じた画素にのみ比較的大きい値が得られる。   In order to detect the presence / absence of an object in the field of view of the distance image sensor 1, first, the difference image generation means 3 obtains the background image P2 (FIG. 2B) of the polar coordinate system generated by the distance image sensor 1 and the background. A difference image from the background distance image P1 stored in the means 2 is generated. Hereinafter, this difference image is referred to as a distance difference image P3 (FIG. 2C). In the distance difference image P3, a relatively large value is obtained only for the pixel in which the change from the background distance image P1 occurs.

差分画像生成手段3により生成された距離差分画像は注目画素抽出手段4に与えられ、注目画素抽出手段4では、距離差分画像P3を適宜に規定の存在閾値により二値化する。存在閾値により距離差分画像P3を二値化すると、図2(d)のような二値画像P4が得られる。この二値画像P4に含まれる画素を距離画像P2から抽出すると、図2(e)のように距離画像P2から注目画素を抽出した画像P5が得られる。すなわち、注目画素抽出手段4は、距離画像P2に含まれる画素のうち、距離差分画像P3における画素値が規定の存在閾値以上である画素を注目画素として抽出する。   The distance difference image generated by the difference image generation means 3 is given to the attention pixel extraction means 4, and the attention pixel extraction means 4 binarizes the distance difference image P3 as appropriate with a specified existence threshold. When the distance difference image P3 is binarized by the presence threshold, a binary image P4 as shown in FIG. 2D is obtained. When pixels included in the binary image P4 are extracted from the distance image P2, an image P5 obtained by extracting the target pixel from the distance image P2 is obtained as shown in FIG. That is, the pixel-of-interest extraction unit 4 extracts, as pixels of interest, a pixel whose pixel value in the distance difference image P3 is equal to or greater than a predetermined existence threshold among the pixels included in the distance image P2.

存在閾値は、検出の目的とする対象物が視野領域に存在する場合に、対象物に対応する画素が注目画素となるように検出する必要があるから、比較的小さい値に設定される。ただし、存在閾値が小さすぎると、距離画像P2内の揺らぎによって発生した雑音成分が注目画素に含まれる可能性があるから、雑音成分を除去できる程度の大きさに設定する。実際には、存在閾値を数十cm程度で設定しておけば、雑音成分を除去しつつ対象物に対応した注目画素を抽出することができる。   The presence threshold value is set to a relatively small value because it is necessary to detect the target pixel when the target object to be detected exists in the visual field region. However, if the presence threshold is too small, a noise component generated by fluctuations in the distance image P2 may be included in the pixel of interest, so the size is set to such a level that the noise component can be removed. Actually, if the existence threshold is set to about several tens of centimeters, the pixel of interest corresponding to the object can be extracted while removing the noise component.

注目画素抽出手段4により極座標系の距離画像から抽出された注目画素は、密度計測手段5において、3次元の仮想空間にマッピングされる。また、密度計測手段5は、この仮想空間内に規定した単位体積のブロックごとに注目画素の個数を密度として求める。図3(b)に示すように、ブロックBは、単位体積の立方体として設定される。密度計測手段5は、このブロックBに含まれる注目画素Pxの個数を密度として計測する。   The pixel of interest extracted from the distance image in the polar coordinate system by the pixel-of-interest extraction unit 4 is mapped in a three-dimensional virtual space by the density measurement unit 5. Further, the density measuring means 5 obtains the number of pixels of interest as the density for each block of the unit volume defined in the virtual space. As shown in FIG. 3B, the block B is set as a unit volume cube. The density measuring unit 5 measures the number of target pixels Px included in the block B as the density.

ここに、仮想空間について、基本構成として説明したように、距離画像センサ1から鉛直下向きをy軸方向とし、距離画像センサ1の視野領域の中心線を床面上に投影した直線の延長方向をz軸方向とする。y軸の正の向きを下向き、z軸の正の向きを距離画像センサ1から遠ざかる向きとし、右手系の直交座標系を採用すると、距離画像センサ1から視野領域を見込むときに、水平方向の右向きがx軸の正の向きになる。ブロックBとなる立方体の各辺は、x軸方向、y軸方向、z軸方向に平行になるように設定する。   Here, as described as the basic configuration of the virtual space, the vertical downward direction from the distance image sensor 1 is the y-axis direction, and the extension direction of the straight line in which the center line of the visual field area of the distance image sensor 1 is projected on the floor surface is The z-axis direction is assumed. When the positive direction of the y-axis is directed downward, the positive direction of the z-axis is directed away from the distance image sensor 1, and a right-handed orthogonal coordinate system is adopted, when the visual field region is viewed from the distance image sensor 1, the horizontal direction The right direction is the positive direction of the x axis. Each side of the cube that forms the block B is set to be parallel to the x-axis direction, the y-axis direction, and the z-axis direction.

密度計測手段5により求められる密度は、対象物の表面において大きくなることが予想されるから、密度が規定の対象閾値以上であるブロックBを対象物の候補である有効ブロックとして抽出する有効ブロック抽出手段6を設けてある。   Since the density obtained by the density measuring means 5 is expected to increase on the surface of the object, effective block extraction is performed to extract a block B having a density equal to or higher than a predetermined object threshold as an effective block that is a candidate for the object. Means 6 are provided.

ところで、基本構成において説明したように、距離画像センサ1を頂点とする角錐状に設定され、図3(a)に示すように、距離画像センサ1から離れるほど視野領域VFに含まれる空間領域の範囲が広くなる。したがって、図3(b)に示しているように、対象物が同じ場合であっても、距離画像センサ1からの距離(図示例ではZ軸方向の距離で示している)が大きくなるほど、ブロックBに含まれる注目画素の個数が減少する。言い換えると、視野領域における位置によらず対象閾値を一定に設定していると、ブロックBは、距離画像センサ1からの距離が小さいと有効ブロックと判断される確率が高く、距離が大きくなるほど有効ブロックと判断される確率が低下する。   By the way, as described in the basic configuration, it is set in a pyramid shape having the distance image sensor 1 as an apex, and as shown in FIG. 3A, the spatial region included in the visual field region VF is further away from the distance image sensor 1. The range becomes wider. Therefore, as shown in FIG. 3B, even when the object is the same, the block from the distance image sensor 1 (indicated by the distance in the Z-axis direction in the illustrated example) increases as the distance increases. The number of target pixels included in B decreases. In other words, if the target threshold value is set to be constant regardless of the position in the visual field region, the probability that the block B is determined to be an effective block is small when the distance from the distance image sensor 1 is small, and the greater the distance, the more effective The probability of being determined as a block is reduced.

ブロックBまでの距離に応じて有効ブロックと判断される確率が変化するのを防止するために、有効ブロック抽出手段6では、ブロックBまでの距離が大きいほど対象閾値を小さく設定することが望ましい。具体的には、ブロックBの密度は、距離の2乗に反比例する。したがって、有効ブロック抽出手段6では、規定の基準距離(適宜に設定する)における対象閾値を基準対象閾値とし、基準距離に対するブロックBまでの距離の比の2乗分の1を基準対象閾値に乗じた値を対象閾値に用いることが望ましい。なお、距離と対象閾値との関係は、他の基準で規定してもよい。   In order to prevent the probability that the block is determined to be an effective block depending on the distance to the block B, the effective block extracting unit 6 desirably sets the target threshold value smaller as the distance to the block B increases. Specifically, the density of the block B is inversely proportional to the square of the distance. Therefore, the effective block extraction unit 6 sets the target threshold value at a specified reference distance (set as appropriate) as the reference target threshold value, and multiplies the reference target threshold value by 1 / square of the ratio of the distance to the block B with respect to the reference distance. It is desirable to use this value as the target threshold value. Note that the relationship between the distance and the target threshold value may be defined by other criteria.

上述のようにして有効ブロック抽出手段6で抽出された有効ブロックは、領域統合手段7に与えられ、領域統合手段7では、有効ブロックが隣接している場合には、同じ対象物に属する有効ブロックであるとみなして有効ブロックを統合する。つまり、隣接した有効ブロックを統合することにより、有効ブロックのグループを形成する。この処理は、2次元の画像におけるラベリングの処理に相当する。   The effective blocks extracted by the effective block extracting unit 6 as described above are given to the region integrating unit 7, and in the region integrating unit 7, when the effective blocks are adjacent, the effective blocks belonging to the same object Integrate effective blocks. That is, a group of effective blocks is formed by integrating adjacent effective blocks. This process corresponds to a labeling process in a two-dimensional image.

領域統合手段7は、基本的には、2個の有効ブロックにおいて単位体積の立方体のいずれか1面が共有されている場合に、両有効ブロックを隣接する有効ブロックと判断する。ただし、2個の有効ブロックにおいて単位体積の立方体のいずれか1個の頂点が共有されている場合も、隣接する有効ブロックに含めるようにしてもよい。   The area integration means 7 basically determines that both effective blocks are adjacent effective blocks when one of the cubes of unit volume is shared by the two effective blocks. However, even when one vertex of a cube of unit volume is shared by two effective blocks, they may be included in adjacent effective blocks.

領域統合手段7により有効ブロックを統合した結果の画像を、z軸方向、x軸方向、y軸方向にそれぞれ投影した結果の一例を、図2(f)(g)(h)に示す。第三角法の投影図で言えば、図2(f)は正面図、図2(g)は右側面図、図2(h)は平面図に相当する。   FIGS. 2F, 2G, and 2H show examples of images obtained by projecting the effective blocks by the region integration unit 7 in the z-axis direction, the x-axis direction, and the y-axis direction, respectively. In terms of the projection of the third trigonometric method, FIG. 2 (f) corresponds to a front view, FIG. 2 (g) corresponds to a right side view, and FIG. 2 (h) corresponds to a plan view.

領域統合手段7により統合された有効ブロックのグループに対しては、対象物判別手段8において、対象物に関する知識を適用することにより対象物か否かの判断を行う。対象物か否かを判別する知識としては、対象物のサイズを用いるのが簡単かつ有効である。また、対象物に関する知識としては、グループの形状、グループの重心の位置、グループの慣性主軸の方向などを用いることも可能である。ただし、グループの構成単位は、ブロックBであるから、形状の細部の情報は失われているから形状のみで判断することは難しく、また、重心の位置や慣性主軸の方向なども単独で判断に用いことは難しい。これらの情報は、他の知識と組み合わせて補助的に用いると、判断結果の信頼性を高めることができる。   For the group of effective blocks integrated by the area integration unit 7, the object discrimination unit 8 determines whether the object is an object by applying knowledge about the object. It is simple and effective to use the size of the object as knowledge for determining whether or not it is an object. Further, as the knowledge about the object, it is also possible to use the shape of the group, the position of the center of gravity of the group, the direction of the inertial main axis of the group, and the like. However, since the structural unit of the group is block B, it is difficult to determine only the shape because information on the details of the shape is lost, and the position of the center of gravity and the direction of the inertial spindle can also be determined independently. It is difficult to use. If these pieces of information are used in combination with other knowledge, the reliability of the determination result can be improved.

以下では、対象物判別手段8がグループのサイズを特徴に用いることによって対象物か否かを判断する例を説明する。グループのサイズは、図2(f)(g)(h)のように、仮想空間の座標軸のうちのいずれかの方向にグループを投影した図形に対する外接矩形Rを設定し、外接矩形Rの辺の長さをサイズとして求めればよい。   Hereinafter, an example will be described in which the object discriminating unit 8 determines whether or not the object is an object by using the group size as a feature. As shown in FIGS. 2F, 2G, and 2H, the size of the group is set to a circumscribed rectangle R for a figure in which the group is projected in one of the coordinate axes of the virtual space, and the sides of the circumscribed rectangle R are set. What is necessary is just to obtain | require the length of as a size.

図2(f)のようにz軸方向に投影した場合は、外接矩形Rの横辺の寸法が幅寸法W、縦辺の寸法が高さ寸法Hになる。また、図2(g)のようにx軸方向に投影した場合は、外接矩形Rの横辺の寸法が奥行き寸法D、縦辺の寸法が高さ寸法Hになる。図2(h)のようにy軸方向に投影した場合は、外接矩形Rの横辺の寸法が幅寸法W、縦辺の寸法が奥行き寸法Dになる。   When projected in the z-axis direction as shown in FIG. 2 (f), the dimension of the lateral side of the circumscribed rectangle R is the width dimension W and the dimension of the vertical side is the height dimension H. When projected in the x-axis direction as shown in FIG. 2G, the dimension of the lateral side of the circumscribed rectangle R is the depth dimension D and the dimension of the vertical side is the height dimension H. When projected in the y-axis direction as shown in FIG. 2H, the dimension of the lateral side of the circumscribed rectangle R is the width dimension W, and the dimension of the vertical side is the depth dimension D.

本実施形態では、対象物の幅寸法Wと高さ寸法Hと奥行き寸法Dとのすべてを用いて対象物か否かを判断する。したがって、対象物判別手段8は、グループをすべての座標軸の方向にそれぞれ投影して外接矩形Rを設定することにより、幅寸法Wと高さ寸法Hと奥行き寸法Dとを求める特徴抽出手段81を備える。また、対象物判別手段8は、特徴抽出手段81で求めたグループの幅寸法Wと高さ寸法Hと奥行き寸法Dとに関してそれぞれ適正範囲を設定するとともに、すべてが適正範囲であるときに当該グループを対象物として判別するサイズ判別手段82を備えている。   In this embodiment, it is judged whether it is a target object using all the width dimension W, the height dimension H, and the depth dimension D of a target object. Therefore, the object discriminating means 8 has the feature extracting means 81 for obtaining the width dimension W, the height dimension H, and the depth dimension D by projecting the group in the direction of all coordinate axes and setting the circumscribed rectangle R. Prepare. Further, the object discriminating means 8 sets appropriate ranges with respect to the width dimension W, height dimension H and depth dimension D of the group obtained by the feature extracting means 81, and when all are within the appropriate range, Size discriminating means 82 for discriminating as an object.

以上の動作をまとめると、図4のようになる。すなわち、背景距離画像P1をあらかじめ記憶させておき(S1)、距離画像センサ1で距離画像P2を生成し(S2)、背景距離画像P1と距離画像P2との差分画像を距離差分画像P3として生成する(S3)。さらに、距離差分画像P3において存在閾値以上である画素を、距離画像P2から注目画素として抽出する(S4)。その後、注目画素について極座標系の距離画像の各画素を3次元の直交座標系にマッピングする座標変換を行い(S5)、各ブロックBの密度を評価して有効ブロックを抽出する(S6)。さらに、隣接する有効ブロックを統合し(S7)、特徴抽出手段81によりサイズを抽出する(S8)。その後、サイズ判別手段82では、サイズが適正範囲か否かを判断するのである(S9)。図4に示す例では、ステップS10として、対象物を追跡する処理を記載しているが、この処理については後述する。   The above operations are summarized as shown in FIG. That is, the background distance image P1 is stored in advance (S1), the distance image sensor 1 generates the distance image P2 (S2), and the difference image between the background distance image P1 and the distance image P2 is generated as the distance difference image P3. (S3). Furthermore, a pixel that is equal to or greater than the presence threshold in the distance difference image P3 is extracted as a target pixel from the distance image P2 (S4). Thereafter, coordinate conversion is performed for mapping each pixel of the distance image in the polar coordinate system to the three-dimensional orthogonal coordinate system for the target pixel (S5), and the density of each block B is evaluated to extract an effective block (S6). Further, adjacent effective blocks are integrated (S7), and the size is extracted by the feature extraction means 81 (S8). Thereafter, the size determining means 82 determines whether or not the size is in an appropriate range (S9). In the example illustrated in FIG. 4, a process for tracking an object is described as step S <b> 10, but this process will be described later.

ところで、対象物判別手段8において対象物の特徴としてサイズを用いるときには、複数人が重なっているときに、幅寸法あるいは奥行き寸法が適正範囲を逸脱し、対象物ではないと判断される可能性がある。   By the way, when using the size as the feature of the object in the object discriminating means 8, there is a possibility that the width dimension or the depth dimension deviates from the appropriate range when a plurality of people overlap and it is determined that the object is not the object. is there.

たとえば、図5あるいは図6に示すように、対象物である人Mが、距離画像センサ1の視野領域内に2人存在し、図5のようにx軸方向に並んでいる場合や、図6のようにz軸方向に並んでいる場合には、有効ブロックによるグループを形成したときに、1つのグループとみなされる可能性がある。これらの場合は、グループから抽出した特徴量として、幅寸法Wと高さ寸法Hと奥行き寸法Dとの3種類の情報を用いている場合に、いずれかの情報については適正範囲を逸脱することになる。つまり、グループが対象物と判別されないことになる。   For example, as shown in FIG. 5 or FIG. 6, when two persons M who are objects exist in the visual field region of the distance image sensor 1 and are lined up in the x-axis direction as shown in FIG. In the case where the groups are arranged in the z-axis direction as in FIG. 6, when a group of effective blocks is formed, it may be regarded as one group. In these cases, when three types of information of the width dimension W, the height dimension H, and the depth dimension D are used as the feature amount extracted from the group, any information deviates from the appropriate range. become. That is, the group is not discriminated as an object.

このような誤判断を防止するために、対象物判別手段8には、特徴抽出手段81によりグループの特徴として抽出したサイズが適正範囲の上限を超える場合に当該グループを形成する有効ブロックのクラスタリングを行うクラスタリング手段83を設けている。以下では、クラスタリング手段83によるクラスタリングの手順について説明する。   In order to prevent such misjudgment, the object discriminating unit 8 performs clustering of effective blocks forming the group when the size extracted as the group feature by the feature extracting unit 81 exceeds the upper limit of the appropriate range. Clustering means 83 for performing is provided. Hereinafter, a clustering procedure by the clustering unit 83 will be described.

ここでは、図5の例のように、対象物である人Mがx軸方向に並んでいる場合を例示する。この場合、各対象物に対応するグループG1,G2として分離されるべき有効ブロックB0の間に隙間がなく、図7のように有効ブロックB0が連続したひとかたまりのグループGになる。そこで、サイズ判別手段82において、幅寸法が、適正範囲の上限を逸脱していると判断した場合(実際には、1人分の幅寸法よりも大きく、かつ2人分の幅寸法よりも小さく設定した上限閾値を超えていると判断した場合)、クラスタリング手段83を起動する。   Here, as in the example of FIG. 5, a case where the person M who is the object is aligned in the x-axis direction is illustrated. In this case, there is no gap between the effective blocks B0 to be separated as the groups G1 and G2 corresponding to each object, and the effective block B0 is a group of groups G that are continuous as shown in FIG. Therefore, when the size determination means 82 determines that the width dimension deviates from the upper limit of the appropriate range (actually, it is larger than the width dimension for one person and smaller than the width dimension for two persons). If it is determined that the set upper limit threshold is exceeded, the clustering means 83 is activated.

クラスタリング手段83では、サイズ判別手段82から引き渡されたグループGが2分割できるものとして、以下に説明するクラスタリングの処理を行う。   The clustering unit 83 performs the clustering process described below assuming that the group G delivered from the size determining unit 82 can be divided into two.

クラスタリングの処理では、図8(a)に示すように、まずグループG内の適宜の2個の有効ブロックB1,B2に着目し、両有効ブロックB1,B2と、グループG内の各有効ブロックB0との距離をそれぞれ求める。着目する有効ブロックB1,B2は、分離されるグループG1,G2にそれぞれ設定することが望ましい。したがって、着目する有効ブロックB1,B2は、サイズ判別手段82において適正範囲の上限を逸脱した方向(この例では、x軸方向)について比較的遠く離れるように設定する。つまり、有効ブロックB1はグループG1に属し、有効ブロックB2はグループG2に属するとみなす。   In the clustering process, as shown in FIG. 8A, first, attention is paid to appropriate two effective blocks B1 and B2 in the group G, and both effective blocks B1 and B2 and each effective block B0 in the group G are focused. Find the distance to each. It is desirable to set the effective blocks B1 and B2 to be focused on in the separated groups G1 and G2, respectively. Therefore, the effective blocks B1 and B2 to be focused are set so as to be relatively far apart in the direction (in this example, the x-axis direction) that deviates from the upper limit of the appropriate range in the size determination unit 82. That is, it is considered that the effective block B1 belongs to the group G1, and the effective block B2 belongs to the group G2.

図8(b)のように、グループGの各有効ブロックB0は、着目した有効ブロックB1,B2のうち距離d1,d2が近いほうの有効ブロックB1,B2と同じグループG1,G2に属すると判断する。つまり、有効ブロックB0についてd1<d2であれば、有効ブロックB0は、有効ブロックB1と同じグループG1に属すると判断する。   As shown in FIG. 8B, each effective block B0 of the group G is determined to belong to the same groups G1 and G2 as the effective blocks B1 and B2 having the shorter distances d1 and d2 among the effective blocks B1 and B2 of interest. To do. That is, if d1 <d2 for the effective block B0, it is determined that the effective block B0 belongs to the same group G1 as the effective block B1.

グループGのすべての有効ブロックB0について、着目する有効ブロックB1,B2との距離を求めると、グループGのすべての有効ブロックB0は、2つのグループG1,G2に分かれるから、各グループG1,G2ごとに重心の座標位置を求める。次に、求めた重心の座標位置を含むブロックを新たな有効ブロックB1,B2に用いて、上述の処理を繰り返す。図8(c)のように、分割後のグループG1,G2の重心の座標位置を含む有効ブロックB1,B2の位置が変化しなくなると、重心位置が収束したと判断し、上述の処理を終了する。   When the distances between the effective blocks B1 and B2 of interest are obtained for all the effective blocks B0 of the group G, all the effective blocks B0 of the group G are divided into two groups G1 and G2. Determine the coordinate position of the center of gravity. Next, the block including the obtained coordinate position of the center of gravity is used as new effective blocks B1 and B2, and the above processing is repeated. As shown in FIG. 8C, when the positions of the effective blocks B1 and B2 including the coordinate positions of the centroids of the divided groups G1 and G2 do not change, it is determined that the centroid positions have converged, and the above-described processing ends. To do.

上述の手順で得られた2つのグループG1,G2を、それぞれ対象物の候補とみなし、対象物判別手段8は、各グループG1,G2について、それぞれ、あらためて特徴抽出手段81およびサイズ判別手段82により対象物か否かの判別を行う。   The two groups G1 and G2 obtained in the above-described procedure are regarded as object candidates, and the object determination unit 8 re-applies the feature extraction unit 81 and the size determination unit 82 for each group G1 and G2, respectively. It is determined whether or not it is an object.

クラスタリング手段83を含む対象物判別手段8の処理を図9に示す。図示例では、まずサイズ判別手段82によるサイズの判定を行っている(S11)。ここで、サイズが適正範囲であれば(S12:N)、グループの分割は不要である。一方、サイズが適正範囲の上限を超えている場合は(S12:Y)、各グループG1,G2の仮の重心位置として適宜の位置に有効ブロックB1,B2を設定する(S13)。設定した有効ブロックB1,B2と、グループG内の各有効ブロックB0との距離を求め(S14)、仮の重心位置とした有効ブロックB1,B2との距離の大小に応じてグループG1,G2の分離を行う(S15)。グループG1,G2に分離した後に、各グループG1,G2の重心位置を求め(S16)、求めた重心位置が収束するまで(S17)、上述の処理を繰り返す。   FIG. 9 shows the processing of the object discrimination means 8 including the clustering means 83. In the illustrated example, first, the size is determined by the size determining means 82 (S11). Here, if the size is in an appropriate range (S12: N), group division is unnecessary. On the other hand, when the size exceeds the upper limit of the appropriate range (S12: Y), the effective blocks B1, B2 are set at appropriate positions as the temporary center positions of the groups G1, G2 (S13). The distance between the set effective blocks B1 and B2 and each effective block B0 in the group G is obtained (S14), and the groups G1 and G2 are grouped according to the distance between the effective blocks B1 and B2 as temporary centroid positions. Separation is performed (S15). After separation into groups G1 and G2, the centroid positions of the groups G1 and G2 are obtained (S16), and the above-described processing is repeated until the obtained centroid positions converge (S17).

ところで、本実施形態の距離画像センサ1は、強度が変化する変調光を投光し、変調光を生成する変調信号の複数の位相における受光強度に基づいて物体までの距離を求めている。また、誤差を低減するために、変調光の多数周期に亘る期間において蓄積した電荷に基づいて距離を求めている。したがって、距離を求めるのに必要な電荷が得られるまでの時間内で物体が移動した場合には距離を正確に求めることができないことがある。距離を求めるのに必要な電荷を蓄積する時間は短時間であるから、物体の多くの部位については距離を計測することが可能である。しかしながら、物体の位置が固定されていない場合には、物体の周縁部の位置に揺らぎが生じ、距離を正確に求めることができない可能性がある。   By the way, the distance image sensor 1 of the present embodiment projects modulated light whose intensity changes, and obtains the distance to the object based on the received light intensity at a plurality of phases of the modulated signal that generates the modulated light. Further, in order to reduce the error, the distance is obtained on the basis of the electric charge accumulated in the period over the multiple cycles of the modulated light. Therefore, when the object moves within the time until the charge necessary for obtaining the distance is obtained, the distance may not be obtained accurately. Since the time for accumulating the electric charge necessary for obtaining the distance is short, it is possible to measure the distance for many parts of the object. However, when the position of the object is not fixed, there is a possibility that the position of the periphery of the object fluctuates and the distance cannot be obtained accurately.

いま、注目画素抽出手段4により注目画素を抽出し、図2(e)に示すような画像P5が得られているものとする。画像P5は3次元の情報を含んでいるから、図2(e)のようなz軸方向の視点ではなく、図10に示すようにy軸方向の視点からも見ることが可能である。図10によれば、物体の周縁部において抽出した注目画素の距離値は、尾を引いたような分布になっていることがわかる。この現象は、上述のように、物体の周縁部での揺らぎにより生じると考えられる。このように、物体の距離値に対して異常値となる距離値が生じていると、密度計測手段5においてブロックBに関する密度を計測する際に密度を正確に計測できず、結果的に、対象物か否かの判別を正確に行うことができなくなる可能性がある。   Now, it is assumed that a pixel of interest is extracted by the pixel-of-interest extraction means 4 and an image P5 as shown in FIG. 2 (e) is obtained. Since the image P5 includes three-dimensional information, it can be viewed from the viewpoint in the y-axis direction as shown in FIG. 10 instead of the viewpoint in the z-axis direction as shown in FIG. According to FIG. 10, it can be seen that the distance value of the pixel of interest extracted at the periphery of the object has a distribution with a tail. As described above, this phenomenon is considered to be caused by fluctuations at the peripheral edge of the object. As described above, if a distance value that is an abnormal value is generated with respect to the distance value of the object, the density cannot be accurately measured when the density measuring unit 5 measures the density related to the block B. It may not be possible to accurately determine whether or not the object is an object.

そこで、物体の周縁部に生じる異常値を持つ画素を注目画素として採用しないために、以下の処理を採用することが望ましい。以下の処理は有効ブロック抽出手段6において行うが、密度計測手段5において行うことも可能である。   Therefore, in order not to employ a pixel having an abnormal value that occurs in the peripheral portion of the object as a target pixel, it is desirable to employ the following processing. The following processing is performed by the effective block extracting unit 6, but can also be performed by the density measuring unit 5.

上述した距離値の異常値が発生している状態を簡略化すれば、図11に示すように、距離画像センサ1から変調光を投光する方向において、物体Obの周縁部に異常値の分布領域A1が生じていると言える。したがって、異常値の分布領域A1は、図12(a)のようにy軸方向の視点だけではなく、図12(b)のようにx軸方向の視点においても存在する。   If the state in which the above-described abnormal value of the distance value is generated is simplified, as illustrated in FIG. 11, the distribution of the abnormal value on the peripheral portion of the object Ob in the direction in which the modulated light is projected from the distance image sensor 1. It can be said that the region A1 occurs. Therefore, the abnormal value distribution area A1 exists not only in the viewpoint of the y-axis direction as shown in FIG. 12A but also in the viewpoint of the x-axis direction as shown in FIG.

このような知見から、密度が対象閾値以上であるブロックBとして抽出された有効ブロックB0に含まれる画素について、xz平面の上での度数を求める。図13に示すように、正常値についてはxz平面上の度数が大きく、異常値についてはxz平面上の度数が少なくなる。したがって、xz平面上で適宜の区間(たとえば、数cm四方ごとの区間)を設定して度数分布を求め、度数が規定の雑音閾値Thより小さい座標値については、異常値として採用しないようにする。言い換えると、xz平面での度数が雑音閾値Th以上となる画素のみを物体に対応する注目画素として採用する。   From such knowledge, the frequency on the xz plane is obtained for the pixels included in the effective block B0 extracted as the block B having a density equal to or higher than the target threshold. As shown in FIG. 13, the frequency on the xz plane is large for the normal value, and the frequency on the xz plane is small for the abnormal value. Accordingly, an appropriate interval (for example, an interval of several cm squares) is set on the xz plane to obtain a frequency distribution, and coordinate values whose frequency is smaller than the prescribed noise threshold Th are not adopted as abnormal values. . In other words, only the pixel whose frequency on the xz plane is equal to or higher than the noise threshold Th is adopted as the target pixel corresponding to the object.

この処理を行うことにより、図12(a)(b)に示す例では、図12(c)のように、異常値の分布領域A1が除去されることになる。上述の例では、距離画像センサ1により床面上の対象物までの距離を斜め上方から計測するから、xz平面上での度数を求めているが、距離画像センサ1と対象物との位置関係によっては、xy平面上の度数を求めてもよい。すなわち、仮想空間の座標平面のうち距離画像センサ1の視野領域の中心線に交差する座標平面の上で度数を求めればよい。   By performing this processing, in the example shown in FIGS. 12A and 12B, the abnormal value distribution area A1 is removed as shown in FIG. 12C. In the above example, the distance image sensor 1 measures the distance to the object on the floor from an obliquely upper side, and thus the frequency on the xz plane is obtained, but the positional relationship between the distance image sensor 1 and the object. Depending on the case, the frequency on the xy plane may be obtained. That is, the frequency may be obtained on a coordinate plane that intersects the center line of the visual field region of the distance image sensor 1 in the coordinate plane of the virtual space.

上述のようにして、度数が雑音閾値Thより小さくなる座標値を持つ画素は注目画素として採用しないことにより、画素値が異常値となる画素(を含む有効ブロックB0)を対象物の判別からは除去することができる。その結果、対象物を判別する精度が高くなる。   As described above, a pixel having a coordinate value whose frequency is smaller than the noise threshold Th is not adopted as a target pixel, so that a pixel (including an effective block B0) having a pixel value that is an abnormal value is determined from the object determination. Can be removed. As a result, the accuracy of discriminating the object increases.

上述の動作では、背景取得手段2が背景距離画像を取得するタイミングについてとくに言及していないが、視野領域内に配置される物品が変化した場合には、背景距離画像も更新する必要がある。背景距離画像の更新を自動化するために、対象物判別手段8において対象物が検出されない状態が所定の更新時間に達すると、距離画像センサ1で得られている新たな距離画像を背景距離画像として背景取得手段2に記憶させるのが望ましい。   In the above-described operation, the timing at which the background acquisition unit 2 acquires the background distance image is not particularly mentioned. However, when the article arranged in the visual field region changes, it is also necessary to update the background distance image. In order to automate the update of the background distance image, when the state in which the object is not detected by the object discrimination means 8 reaches a predetermined update time, the new distance image obtained by the distance image sensor 1 is used as the background distance image. It is desirable to store in the background acquisition means 2.

新たな背景距離画像は、対象物が存在しないと推定される時刻に更新するのが望ましいから、対象物が検出されない状態が更新時間に達した後に、夜間などの定時に更新すればよい。あるいはまた、更新時間に達した時点の距離画像を新たな背景距離画像に用いてもよい。   Since it is desirable to update the new background distance image at a time when it is estimated that the object does not exist, the new background distance image may be updated at a fixed time such as at night after the state in which the object is not detected reaches the update time. Alternatively, the distance image at the time when the update time is reached may be used as a new background distance image.

さらに、上述の動作では、対象物の移動について考慮していないから、距離画像センサ1が距離画像を生成する時間間隔を比較的大きくすることができる(視野領域内を対象物が通過する時間よりは短く設定する必要がある)。たとえば、視野領域内に物体が侵入したことを別のセンサで検出した後に、距離画像センサ1により対象物を確認する目的で使用することも可能である。   Furthermore, in the above-described operation, since the movement of the object is not taken into consideration, the time interval at which the distance image sensor 1 generates the distance image can be made relatively large (than the time during which the object passes through the visual field region. Need to be short). For example, it may be used for the purpose of confirming an object by the distance image sensor 1 after detecting that an object has entered the visual field region by another sensor.

一方、視野領域を通過する対象物を検出しようとする場合には、距離画像センサ1により距離画像の動画像を生成する必要がある。つまり、比較的短い時間間隔(たとえば、10分の1秒以下)で距離画像を生成し、各距離画像から対象物判別手段8において対象物の有無を判別することが必要になる。この場合、対象物判別手段8が対象物を検出した後は、対象物判別手段8で対象物と判断されたグループを対象物追跡手段9に引き渡す。対象物追跡手段9では、距離画像センサ1の視野領域内において対象物が検出されている間に、グループの代表点の位置を対象物として追跡する。すなわち、時系列において隣接する距離画像を用いて、対象物の位置を追跡する。グループの代表点としては、重心位置あるいは上端位置を用いればよい。   On the other hand, when an object passing through the visual field region is to be detected, it is necessary to generate a moving image of the distance image by the distance image sensor 1. That is, it is necessary to generate a distance image at a relatively short time interval (for example, one tenth of a second or less), and determine the presence / absence of the object in the object determination means 8 from each distance image. In this case, after the object discrimination means 8 detects the object, the group determined as the object by the object discrimination means 8 is delivered to the object tracking means 9. The object tracking means 9 tracks the position of the representative point of the group as the object while the object is detected in the visual field region of the distance image sensor 1. That is, the position of an object is tracked using distance images adjacent in time series. As the representative point of the group, the center of gravity position or the upper end position may be used.

対象物追跡手段9を設けることにより、移動する対象物の位置を追跡することができるから、視野領域内への侵入者を対象物として、侵入者の行動を追跡する用途などに用いることが可能である。   Since the position of the moving object can be tracked by providing the object tracking means 9, it can be used for the purpose of tracking the behavior of the intruder with the intruder into the field of view as the object. It is.

上述した構成例では、注目画素抽出手段4において、極座標系の距離画像である背景距離画像と距離画像センサ1により生成した極座標系の距離画像との差分画像から注目画素を抽出している。また、抽出した注目画素を、密度計測手段5において3次元の仮想空間にマッピングしている。一方、対象物が人である場合には、床面の上方の空間領域において対象物の有無を判別すればよく、床面付近の情報は不要である。   In the configuration example described above, the target pixel extraction unit 4 extracts the target pixel from the difference image between the background distance image, which is a polar coordinate system distance image, and the polar coordinate system distance image generated by the distance image sensor 1. Further, the extracted target pixel is mapped in the three-dimensional virtual space by the density measuring means 5. On the other hand, when the object is a person, it is only necessary to determine the presence or absence of the object in the space area above the floor surface, and information about the floor surface is not necessary.

そこで、注目画素抽出手段4において、図14に示すように、床面などの基準面PL0から所定の高さ位置(床面の上方)に閾値面PL1を規定しておき、閾値面PL1よりも上方に存在する画素のみ対象物Obの候補となる注目画素として抽出するのが望ましい。この場合には、距離画像センサ1により生成した極座標系の距離画像を直交座標系の仮想空間にマッピングした上で、注目画素を抽出することになる。   In view of this, in the pixel-of-interest extraction means 4, as shown in FIG. 14, a threshold surface PL1 is defined at a predetermined height position (above the floor surface) from a reference surface PL0 such as a floor surface, and is more than the threshold surface PL1. It is desirable to extract only the pixel existing above as a target pixel that is a candidate for the object Ob. In this case, the pixel of interest is extracted after mapping the polar coordinate system distance image generated by the distance image sensor 1 to the virtual space of the orthogonal coordinate system.

なお、距離画像センサ1により生成した極座標系の距離画像を直交座標系の仮想空間にマッピングした後に、基準面から所定の高さ位置に設定した閾値面よりも上方に存在する画素を注目画素として抽出する構成を採用してもよい。この場合、背景距離画像を用いることなく、対象物の候補である注目画素を抽出することが可能になり、しかも、抽出された注目画素は、仮想空間にマッピングされているから、そのまま密度を評価することが可能である。ただし、この手順を採用すると、床上に置かれている物体についても対象物の候補として抽出されることになるから、対象物以外の情報を別途に除去することが必要である。   In addition, after mapping the polar coordinate system distance image generated by the distance image sensor 1 to the virtual space of the orthogonal coordinate system, the pixel existing above the threshold plane set at a predetermined height position from the reference plane is set as the target pixel. You may employ | adopt the structure to extract. In this case, it is possible to extract a target pixel that is a candidate for an object without using a background distance image. Further, since the extracted target pixel is mapped in the virtual space, the density is evaluated as it is. Is possible. However, if this procedure is adopted, an object placed on the floor is also extracted as a candidate for the target, and it is necessary to separately remove information other than the target.

1 距離画像センサ
2 背景取得手段
3 差分画像生成手段
4 注目画素抽出手段
5 密度計測手段
6 有効ブロック抽出手段
7 領域統合手段
8 対象物判別手段
81 特徴抽出手段
82 サイズ判別手段
83 クラスタリング手段
9 対象物追跡手段
B ブロック
B0 有効ブロック
B1,B2 有効ブロック
G グループ
G1,G2 グループ
Ob 対象物
P1 背景距離画像
P2 距離画像
P3 距離差分画像
P4 二値画像
P5 画像
DESCRIPTION OF SYMBOLS 1 Distance image sensor 2 Background acquisition means 3 Difference image generation means 4 Interesting pixel extraction means 5 Density measurement means 6 Effective block extraction means 7 Area integration means 8 Object discrimination means 81 Feature extraction means 82 Size discrimination means 83 Clustering means 9 Object Tracking means B block B0 effective block B1, B2 effective block G group G1, G2 group Ob object P1 background distance image P2 distance image P3 distance difference image P4 binary image P5 image

Claims (10)

視野領域について画素値が距離である距離画像を生成するアクティブ型の距離画像センサと、視野領域に対象物が存在しない状態において前記距離画像センサにより生成した距離画像を背景距離画像として記憶する背景取得手段と、視野領域を監視する状態において前記距離画像センサにより生成した距離画像と前記背景取得手段に記憶されている背景距離画像との差分画像である距離差分画像を生成する差分画像生成手段と、前記距離画像センサにより生成した距離画像に含まれる画素のうち、前記差分画像生成手段により生成した距離差分画像における画素値が規定の存在閾値以上である画素を注目画素として抽出する注目画素抽出手段と、前記注目画素抽出手段により抽出した注目画素を3次元の仮想空間にマッピングし当該仮想空間内に規定した単位体積のブロックごとに注目画素の個数を密度として求める密度計測手段と、前記密度計測手段により求めた密度が規定の対象閾値以上であるブロックを有効ブロックとして抽出する有効ブロック抽出手段と、前記有効ブロック抽出手段で抽出した有効ブロックについて隣接している有効ブロックを統合してグループを形成する領域統合手段と、前記領域統合手段により形成したグループに対して対象物に関する知識を用いることにより対象物か否かを判別する対象物判別手段とを備えることを特徴とする対象物検出装置。   An active distance image sensor that generates a distance image whose pixel value is a distance for the visual field region, and a background acquisition that stores the distance image generated by the distance image sensor as a background distance image when no object is present in the visual field region A difference image generation means for generating a distance difference image that is a difference image between a distance image generated by the distance image sensor and a background distance image stored in the background acquisition means in a state of monitoring a visual field region; Pixel-of-interest extracting means for extracting, as pixels of interest, a pixel whose pixel value in the distance difference image generated by the difference image generating means is greater than or equal to a predetermined existence threshold among the pixels included in the distance image generated by the distance image sensor; , Mapping the target pixel extracted by the target pixel extraction means into a three-dimensional virtual space Density measuring means for obtaining the number of pixels of interest as a density for each block of the unit volume defined in the above, and effective block extracting means for extracting, as an effective block, a block whose density obtained by the density measuring means is equal to or greater than a prescribed target threshold value; By using the area integration unit that forms a group by integrating adjacent effective blocks with respect to the effective block extracted by the effective block extraction unit, and by using knowledge about the object for the group formed by the area integration unit An object detection apparatus comprising: an object determination unit that determines whether the object is an object. 前記有効ブロック抽出手段は、ブロックまでの距離が大きいほど対象閾値を小さく設定していることを特徴とする請求項1記載の対象物検出装置。   The target detection apparatus according to claim 1, wherein the effective block extraction unit sets the target threshold value smaller as the distance to the block increases. 前記有効ブロック抽出手段は、規定の基準距離における対象閾値を基準対象閾値とし、基準距離に対する前記ブロックまでの距離の比の2乗分の1を基準対象閾値に乗じた値を前記対象閾値に用いることを特徴とする請求項2記載の対象物検出装置。   The effective block extraction unit uses a target threshold value at a specified reference distance as a reference target threshold value, and uses a value obtained by multiplying the reference target threshold by one-quarter of the ratio of the distance to the block with respect to the reference distance as the target threshold value. The object detection apparatus according to claim 2, wherein: 前記対象物判別手段は、前記領域統合手段により形成したグループからサイズを特徴として抽出する特徴抽出手段と、前記特徴量抽出手段が抽出したサイズが規定の適正範囲内であることを知識に用いて当該グループが対象物か否かを判別するサイズ判別手段とを備えることを特徴とする請求項1〜3のいずれか1項に記載の対象物検出装置。   The object discriminating unit uses the feature extraction unit that extracts a size as a feature from the group formed by the region integration unit, and the knowledge that the size extracted by the feature amount extraction unit is within a prescribed appropriate range. The object detection apparatus according to claim 1, further comprising a size determination unit that determines whether or not the group is an object. 前記対象物判別手段は、前記特徴抽出手段によりグループの特徴として抽出したサイズが前記適正範囲の上限を超える場合に、当該グループを形成する有効ブロックのクラスタリングを行うことにより、当該グループを複数のグループに分割するクラスタリング手段を備え、前記クラスタリング手段による分割後のグループについて前記サイズ判別手段による判別を行うことを特徴とする請求項4記載の対象物検出装置。   When the size extracted as a group feature by the feature extraction unit exceeds the upper limit of the appropriate range, the target object discrimination unit performs clustering of the effective blocks that form the group, thereby grouping the group into a plurality of groups. The object detection apparatus according to claim 4, further comprising: a clustering unit that divides the data into groups, and wherein the size determination unit determines the group after the division by the clustering unit. 前記有効ブロック抽出手段は、前記仮想空間を規定する直交座標系の座標平面のうち、前記距離画像センサの視野領域の中心線と交差する座標平面の上で、前記有効ブロックに含まれる画素の度数分布を求め、度数が規定した雑音閾値より小さくなる座標値を持つ画素を注目画素として採用しないことを特徴とする請求項1〜5のいずれか1項に記載の対象物検出装置。   The effective block extracting means includes a frequency of pixels included in the effective block on a coordinate plane intersecting a center line of a visual field area of the distance image sensor among coordinate planes of an orthogonal coordinate system defining the virtual space. 6. The object detection device according to claim 1, wherein a pixel having a coordinate value smaller than a noise threshold value obtained by obtaining a distribution is not adopted as a target pixel. 前記距離画像センサの視野領域における中心線は斜め下向きに設定されており、前記密度計測手段は、前記注目画素を前記仮想空間にマッピングする際に、前記距離画像センサの視野領域における中心線の俯角に応じた補正を行うことを特徴とする請求項1〜6のいずれか1項に記載の対象物検出装置。   The center line in the visual field region of the distance image sensor is set obliquely downward, and the density measuring unit, when mapping the pixel of interest in the virtual space, has a depression angle of the central line in the visual field region of the distance image sensor. The object detection apparatus according to any one of claims 1 to 6, wherein correction is performed in accordance with the object. 前記注目画素抽出手段は、前記距離画像センサの視野領域内において所定の高さ位置に規定した閾値面よりも上方に位置する画素を注目画素として抽出することを特徴とする請求項1〜7のいずれか1項に記載の対象物検出装置。   8. The pixel of interest according to claim 1, wherein the pixel-of-interest extracting means extracts a pixel located above a threshold plane defined as a predetermined height position within the visual field region of the distance image sensor as a pixel of interest. The target object detection apparatus of any one of Claims. 前記背景取得手段は、前記対象物判別手段において対象物が検出されない状態が所定の更新時間に達すると、新たに生成された背景距離画像に更新することを特徴とする請求項1〜8のいずれか1項に記載の対象物検出装置。   9. The background acquisition unit updates a newly generated background distance image when a state in which the target is not detected by the target determination unit reaches a predetermined update time. The object detection apparatus of Claim 1. 前記距離画像センサは距離画像による動画像を生成する機能を有し、前記対象物判別手段が前記対象物を検出すると、時系列において隣接する距離画像を用いることにより、視野領域内における当該対象物を追跡する対象物追跡手段を備えることを特徴とする請求項1〜9のいずれか1項に記載の対象物検出装置。   The distance image sensor has a function of generating a moving image based on a distance image, and when the object determination unit detects the object, the object in the visual field region is used by using adjacent distance images in time series. The object detection device according to claim 1, further comprising an object tracking unit that tracks the object.
JP2010049429A 2010-03-05 2010-03-05 Object detector Ceased JP2011185664A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010049429A JP2011185664A (en) 2010-03-05 2010-03-05 Object detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010049429A JP2011185664A (en) 2010-03-05 2010-03-05 Object detector

Publications (1)

Publication Number Publication Date
JP2011185664A true JP2011185664A (en) 2011-09-22

Family

ID=44792150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010049429A Ceased JP2011185664A (en) 2010-03-05 2010-03-05 Object detector

Country Status (1)

Country Link
JP (1) JP2011185664A (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013047083A1 (en) * 2011-09-28 2013-04-04 沖電気工業株式会社 Image processing device, image processing method, program, and image processing system
RU2498336C1 (en) * 2012-03-13 2013-11-10 Федеральное государственное унитарное предприятие "Российский Федеральный Ядерный Центр - Всероссийский Научно-Исследовательский Институт Технической Физики имени академика Е.И. Забабахина" (ФГУП "РФЯЦ-ВНИИТФ им. академ. Е.И. Забабахина") Method of selecting multiple objects according to range
JP2013257872A (en) * 2012-06-08 2013-12-26 Ricoh Co Ltd Object tracking method and system from parallax figure
JP2014020978A (en) * 2012-07-20 2014-02-03 Fujitsu Ltd Irradiation device, ranging device, and calibration program and calibration method of irradiation device
US20140376779A1 (en) * 2013-06-21 2014-12-25 Samsung Electronics Co., Ltd. Electronic device for extracting distance of object and displaying information and method thereof
RU2552123C2 (en) * 2013-10-22 2015-06-10 Федеральное государственное унитарное предприятие "Российский Федеральный Ядерный Центр-Всероссийский Научно-Исследовательский Институт Технической Физики имени академика Е.И. Забабахина" (ФГУП "РФЯЦ-ВНИИТФ им. академ. Е.И. Забабахина") Method of selecting objects on remote background
WO2015136657A1 (en) * 2014-03-13 2015-09-17 Necディスプレイソリューションズ株式会社 Sensor apparatus and sensor apparatus control method
JP2015175752A (en) * 2014-03-17 2015-10-05 スタンレー電気株式会社 Distance image generating device, object detecting device, and object detecting method
WO2016208198A1 (en) * 2015-06-23 2016-12-29 京セラ株式会社 Three-dimensional-object detection device, stereo camera device, vehicle, and three-dimensional-object detection method
JP2017058189A (en) * 2015-09-15 2017-03-23 株式会社デンソーアイティーラボラトリ Object detection device, object detection system, object detection method, and object detection program
WO2017145450A1 (en) * 2016-02-23 2017-08-31 ソニー株式会社 Ranging module, ranging system, and method of controlling ranging module
WO2017145600A1 (en) * 2016-02-23 2017-08-31 株式会社リコー Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
JP2017532543A (en) * 2014-09-09 2017-11-02 レッダーテック インコーポレイテッド Discretization of detection zones
WO2017199785A1 (en) * 2016-05-17 2017-11-23 コニカミノルタ株式会社 Monitoring system setting method, and monitoring system
WO2017199786A1 (en) * 2016-05-17 2017-11-23 コニカミノルタ株式会社 Monitoring system
JP2018040755A (en) * 2016-09-09 2018-03-15 日産自動車株式会社 Method and device for calculating coordinates
JP2018073044A (en) * 2016-10-27 2018-05-10 Kddi株式会社 Object tracking device, method and program
WO2018142779A1 (en) * 2017-02-06 2018-08-09 三菱電機株式会社 Monitoring device
JP2018132925A (en) * 2017-02-15 2018-08-23 東洋電機製造株式会社 Filter processing device and program
WO2018168552A1 (en) * 2017-03-14 2018-09-20 コニカミノルタ株式会社 Object detection system
WO2019031051A1 (en) * 2017-08-10 2019-02-14 コニカミノルタ株式会社 Analysis device, monitoring system, and program
JP2019045199A (en) * 2017-08-30 2019-03-22 コニカミノルタ株式会社 Object detection system and object detection program
JP2019049484A (en) * 2017-09-11 2019-03-28 コニカミノルタ株式会社 Object detection system and object detection program
WO2019187216A1 (en) * 2018-03-30 2019-10-03 Necソリューションイノベータ株式会社 Object identification device, object identification method, and non-temporary computer readable medium storing control program
RU2703611C1 (en) * 2019-01-28 2019-10-21 Акционерное общество "Стелла-К" Method of producing stereoscopic images with a synthesized stereo base value
JP2019203991A (en) * 2018-05-23 2019-11-28 キヤノン株式会社 Detector, lithography device and article manufacturing method
CN111383244A (en) * 2020-02-28 2020-07-07 浙江大华技术股份有限公司 Target detection tracking method
CN111610531A (en) * 2020-04-21 2020-09-01 吉利汽车研究院(宁波)有限公司 Driving early warning method and device for vehicle and storage medium
JP2020173145A (en) * 2019-04-10 2020-10-22 株式会社国際電気通信基礎技術研究所 Person recognition system and person recognition program
US10996319B2 (en) 2017-06-20 2021-05-04 Canon Kabushiki Kaisha Distance measuring system and control method of distance measuring system
WO2022091706A1 (en) * 2020-10-28 2022-05-05 京セラ株式会社 Electronic device, method for controlling electronic device, and program
WO2023120430A1 (en) * 2021-12-23 2023-06-29 パイオニア株式会社 Information processing device, control method, program, and storage medium
WO2023153451A1 (en) * 2022-02-09 2023-08-17 株式会社小糸製作所 Measurement device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003028635A (en) * 2001-07-16 2003-01-29 Honda Motor Co Ltd Image range finder
JP2006064695A (en) * 2004-07-30 2006-03-09 Matsushita Electric Works Ltd Individual detector and accompanying detection device
JP2006260098A (en) * 2005-03-16 2006-09-28 Matsushita Electric Works Ltd Obstacle detection unit
JP2008268023A (en) * 2007-04-20 2008-11-06 Matsushita Electric Works Ltd Individual detector

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003028635A (en) * 2001-07-16 2003-01-29 Honda Motor Co Ltd Image range finder
JP2006064695A (en) * 2004-07-30 2006-03-09 Matsushita Electric Works Ltd Individual detector and accompanying detection device
JP2006260098A (en) * 2005-03-16 2006-09-28 Matsushita Electric Works Ltd Obstacle detection unit
JP2008268023A (en) * 2007-04-20 2008-11-06 Matsushita Electric Works Ltd Individual detector

Cited By (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013047083A1 (en) * 2011-09-28 2013-04-04 沖電気工業株式会社 Image processing device, image processing method, program, and image processing system
US9489565B2 (en) 2011-09-28 2016-11-08 Oki Electric Industry Co., Ltd. Image processing apparatus, image processing method, program, and image processing system
JP2013073459A (en) * 2011-09-28 2013-04-22 Oki Electric Ind Co Ltd Image processor, image processing method, program, and image processing system
RU2498336C1 (en) * 2012-03-13 2013-11-10 Федеральное государственное унитарное предприятие "Российский Федеральный Ядерный Центр - Всероссийский Научно-Исследовательский Институт Технической Физики имени академика Е.И. Забабахина" (ФГУП "РФЯЦ-ВНИИТФ им. академ. Е.И. Забабахина") Method of selecting multiple objects according to range
JP2013257872A (en) * 2012-06-08 2013-12-26 Ricoh Co Ltd Object tracking method and system from parallax figure
JP2014020978A (en) * 2012-07-20 2014-02-03 Fujitsu Ltd Irradiation device, ranging device, and calibration program and calibration method of irradiation device
KR20140148023A (en) * 2013-06-21 2014-12-31 삼성전자주식회사 Apparatas and method for displaying an information of extracting a subject distance in an electronic device
US20140376779A1 (en) * 2013-06-21 2014-12-25 Samsung Electronics Co., Ltd. Electronic device for extracting distance of object and displaying information and method thereof
US10395132B2 (en) * 2013-06-21 2019-08-27 Samsung Electronics Co., Ltd. Electronic device for extracting distance of object and displaying information and method thereof
KR102124601B1 (en) * 2013-06-21 2020-06-19 삼성전자주식회사 Apparatas and method for displaying an information of extracting a subject distance in an electronic device
RU2552123C2 (en) * 2013-10-22 2015-06-10 Федеральное государственное унитарное предприятие "Российский Федеральный Ядерный Центр-Всероссийский Научно-Исследовательский Институт Технической Физики имени академика Е.И. Забабахина" (ФГУП "РФЯЦ-ВНИИТФ им. академ. Е.И. Забабахина") Method of selecting objects on remote background
WO2015136657A1 (en) * 2014-03-13 2015-09-17 Necディスプレイソリューションズ株式会社 Sensor apparatus and sensor apparatus control method
JP2015175752A (en) * 2014-03-17 2015-10-05 スタンレー電気株式会社 Distance image generating device, object detecting device, and object detecting method
JP2017532543A (en) * 2014-09-09 2017-11-02 レッダーテック インコーポレイテッド Discretization of detection zones
WO2016208198A1 (en) * 2015-06-23 2016-12-29 京セラ株式会社 Three-dimensional-object detection device, stereo camera device, vehicle, and three-dimensional-object detection method
JPWO2016208198A1 (en) * 2015-06-23 2018-02-08 京セラ株式会社 Three-dimensional object detection device, stereo camera device, vehicle, and three-dimensional object detection method
US10567736B2 (en) 2015-06-23 2020-02-18 Kyocera Corporation Three-dimensional object detection apparatus, stereo camera apparatus, vehicle, and three-dimensional object detection method
EP3316006A4 (en) * 2015-06-23 2019-03-06 KYOCERA Corporation Three-dimensional-object detection device, stereo camera device, vehicle, and three-dimensional-object detection method
JP2017058189A (en) * 2015-09-15 2017-03-23 株式会社デンソーアイティーラボラトリ Object detection device, object detection system, object detection method, and object detection program
JPWO2017145600A1 (en) * 2016-02-23 2018-12-06 株式会社リコー Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
WO2017145450A1 (en) * 2016-02-23 2017-08-31 ソニー株式会社 Ranging module, ranging system, and method of controlling ranging module
WO2017145600A1 (en) * 2016-02-23 2017-08-31 株式会社リコー Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
CN107850668A (en) * 2016-02-23 2018-03-27 索尼公司 Range finder module, range-measurement system and the method for controlling range finder module
US10860867B2 (en) 2016-02-23 2020-12-08 Ricoh Company, Ltd. Image processing apparatus, imaging apparatus, mobile device control system, and recording medium
US10746874B2 (en) 2016-02-23 2020-08-18 Sony Corporation Ranging module, ranging system, and method of controlling ranging module
US11199627B2 (en) 2016-05-17 2021-12-14 Konica Minolta, Inc. Monitoring system
WO2017199786A1 (en) * 2016-05-17 2017-11-23 コニカミノルタ株式会社 Monitoring system
JPWO2017199785A1 (en) * 2016-05-17 2019-03-14 コニカミノルタ株式会社 Monitoring system setting method and monitoring system
JPWO2017199786A1 (en) * 2016-05-17 2019-03-14 コニカミノルタ株式会社 Monitoring system
US11614528B2 (en) 2016-05-17 2023-03-28 Konica Minolta, Inc. Setting method of monitoring system and monitoring system
WO2017199785A1 (en) * 2016-05-17 2017-11-23 コニカミノルタ株式会社 Monitoring system setting method, and monitoring system
JP2018040755A (en) * 2016-09-09 2018-03-15 日産自動車株式会社 Method and device for calculating coordinates
JP2018073044A (en) * 2016-10-27 2018-05-10 Kddi株式会社 Object tracking device, method and program
JPWO2018142779A1 (en) * 2017-02-06 2019-06-27 三菱電機株式会社 Monitoring device
WO2018142779A1 (en) * 2017-02-06 2018-08-09 三菱電機株式会社 Monitoring device
JP2018132925A (en) * 2017-02-15 2018-08-23 東洋電機製造株式会社 Filter processing device and program
US11113833B2 (en) * 2017-03-14 2021-09-07 Konica Minolta, Inc. Object detection system
JPWO2018168552A1 (en) * 2017-03-14 2020-01-16 コニカミノルタ株式会社 Object detection system
WO2018168552A1 (en) * 2017-03-14 2018-09-20 コニカミノルタ株式会社 Object detection system
US10996319B2 (en) 2017-06-20 2021-05-04 Canon Kabushiki Kaisha Distance measuring system and control method of distance measuring system
WO2019031051A1 (en) * 2017-08-10 2019-02-14 コニカミノルタ株式会社 Analysis device, monitoring system, and program
JP2019045199A (en) * 2017-08-30 2019-03-22 コニカミノルタ株式会社 Object detection system and object detection program
JP2019049484A (en) * 2017-09-11 2019-03-28 コニカミノルタ株式会社 Object detection system and object detection program
JPWO2019187216A1 (en) * 2018-03-30 2021-02-12 Necソリューションイノベータ株式会社 Object identification device, object identification method, and control program
JP7036464B2 (en) 2018-03-30 2022-03-15 Necソリューションイノベータ株式会社 Object identification device, object identification method, and control program
WO2019187216A1 (en) * 2018-03-30 2019-10-03 Necソリューションイノベータ株式会社 Object identification device, object identification method, and non-temporary computer readable medium storing control program
US11538260B2 (en) 2018-03-30 2022-12-27 Nec Solution Innovators, Ltd. Object identification apparatus, object identification method, and nontransitory computer readable medium storing control program
KR20190133599A (en) * 2018-05-23 2019-12-03 캐논 가부시끼가이샤 Detection appatratus, lithography apparatus, and article manufacturing method
KR102526946B1 (en) * 2018-05-23 2023-04-28 캐논 가부시끼가이샤 Detection appatratus, lithography apparatus, and article manufacturing method
JP7138479B2 (en) 2018-05-23 2022-09-16 キヤノン株式会社 Detection apparatus, detection method, lithographic apparatus and article manufacturing method
JP2019203991A (en) * 2018-05-23 2019-11-28 キヤノン株式会社 Detector, lithography device and article manufacturing method
RU2703611C1 (en) * 2019-01-28 2019-10-21 Акционерное общество "Стелла-К" Method of producing stereoscopic images with a synthesized stereo base value
JP2020173145A (en) * 2019-04-10 2020-10-22 株式会社国際電気通信基礎技術研究所 Person recognition system and person recognition program
JP7311299B2 (en) 2019-04-10 2023-07-19 株式会社国際電気通信基礎技術研究所 Human recognition system and human recognition program
CN111383244A (en) * 2020-02-28 2020-07-07 浙江大华技术股份有限公司 Target detection tracking method
CN111383244B (en) * 2020-02-28 2023-09-01 浙江大华技术股份有限公司 Target detection tracking method
CN111610531A (en) * 2020-04-21 2020-09-01 吉利汽车研究院(宁波)有限公司 Driving early warning method and device for vehicle and storage medium
WO2022091706A1 (en) * 2020-10-28 2022-05-05 京セラ株式会社 Electronic device, method for controlling electronic device, and program
WO2023120430A1 (en) * 2021-12-23 2023-06-29 パイオニア株式会社 Information processing device, control method, program, and storage medium
WO2023153451A1 (en) * 2022-02-09 2023-08-17 株式会社小糸製作所 Measurement device

Similar Documents

Publication Publication Date Title
JP2011185664A (en) Object detector
CN108406731B (en) Positioning device, method and robot based on depth vision
CN107564012B (en) Augmented reality method and device for unknown environment
CN108156450B (en) Method for calibrating a camera, calibration device, calibration system and machine-readable storage medium
TWI710798B (en) Laser scanning system atteched on moving object, laser scanning method for laser scanner atteched on moving object, and laser scanning program
CN110674705B (en) Small-sized obstacle detection method and device based on multi-line laser radar
Mouats et al. Multispectral stereo odometry
US8842162B2 (en) Method and system for improving surveillance of PTZ cameras
CN108022264B (en) Method and equipment for determining camera pose
CN105358937A (en) Positioning method for a surveying instrument and said surveying instrument
KR102303779B1 (en) Method and apparatus for detecting an object using detection of a plurality of regions
JP2016085602A (en) Sensor information integrating method, and apparatus for implementing the same
JP6278790B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
CN109213138A (en) A kind of barrier-avoiding method, apparatus and system
Kahlmann et al. Range imaging technology: new developments and applications for people identification and tracking
CN113439195A (en) Three-dimensional imaging and sensing using dynamic vision sensors and pattern projection
Nedevschi Online cross-calibration of camera and lidar
El Bouazzaoui et al. Enhancing RGB-D SLAM performances considering sensor specifications for indoor localization
CN110073410A (en) The method for tracking the object in scene
CN110345924A (en) A kind of method and apparatus that distance obtains
JP5375249B2 (en) Moving path planning device, moving body control device, and moving body
Priya et al. 3dyolo: Real-time 3d object detection in 3d point clouds for autonomous driving
KR20170106823A (en) Image processing device identifying object of interest based on partial depth map
Pang et al. An efficient 3D pedestrian detector with calibrated RGB camera and 3D LiDAR
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20140422