JP2006048156A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2006048156A
JP2006048156A JP2004224481A JP2004224481A JP2006048156A JP 2006048156 A JP2006048156 A JP 2006048156A JP 2004224481 A JP2004224481 A JP 2004224481A JP 2004224481 A JP2004224481 A JP 2004224481A JP 2006048156 A JP2006048156 A JP 2006048156A
Authority
JP
Japan
Prior art keywords
image
distance
differential
light
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004224481A
Other languages
Japanese (ja)
Inventor
Kenichi Hagio
健一 萩尾
Motoo Igari
素生 井狩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2004224481A priority Critical patent/JP2006048156A/en
Publication of JP2006048156A publication Critical patent/JP2006048156A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for extracting an object without being affected by light quantity change in an object space. <P>SOLUTION: A light emitting source 2 irradiates an object space with light, and a light detecting element 1 images the object space. An image generating part 4 calculates a distance to an object Ob according to a corresponding relation between the rays of light with which the object space has been irradiated from the light emitting source 2 and reflected light reflected by an object in the object space, and received by the light detecting element 1, and generates a distance image whose pixel value corresponding to each direction in the object space is a distance value. A differentiation processing part 5 generates a distance differential image whose distance differential value is a pixel value from the distance image. Furthermore, an object deciding part 6 extracts the neighborhood of a boundary between the object and the background by using the distance differential value. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、対象空間の画像を用いて対象空間に存在する対象物を抽出する画像処理装置に関するものである。   The present invention relates to an image processing apparatus that extracts an object existing in a target space using an image of the target space.

従来から、対象空間を撮像した画像を用いて対象空間を監視したり対象空間内の対象物の外観を抽出したりする技術が種々提案されている(たとえば、特許文献1参照)。
特開平11−284997号公報
Conventionally, various techniques for monitoring a target space using an image obtained by imaging the target space and extracting the appearance of an object in the target space have been proposed (for example, see Patent Document 1).
JP-A-11-284997

ところで、上述した技術において用いている画像は、対象空間の明暗を反映した濃淡画像であって、外光の光量変化の影響を受けるから、光量にほとんど変化の生じない環境でしか使用できないという問題がある。   By the way, the image used in the above-described technique is a grayscale image reflecting the lightness and darkness of the target space, and is affected by a change in the amount of external light, so that it can be used only in an environment where the amount of light hardly changes. There is.

本発明は上記事由に鑑みて為されたものであり、その目的は、対象空間の光量変化の影響を受けることなく対象物を抽出できるようにした画像処理装置を提供することにある。   The present invention has been made in view of the above reasons, and an object of the present invention is to provide an image processing apparatus that can extract an object without being affected by a change in the amount of light in the object space.

請求項1の発明は、対象空間に光を照射する発光源と、対象空間を撮像する光検出素子と、発光源から対象空間に照射され対象空間内の対象物で反射された反射光に対応する光検出素子の出力により対象物までの距離を求め画素値が距離値である距離画像を生成する画像生成部と、距離画像の距離値から求められる各画素の微分強度値である距離微分値を画素値とする距離微分画像を生成する微分処理部と、微分処理部により求めた距離微分値を用いて対象物を抽出する対象物判定部とを備えることを特徴とする。   The invention of claim 1 corresponds to a light emitting source that irradiates light to a target space, a light detection element that images the target space, and reflected light that is irradiated from the light source to the target space and reflected by an object in the target space. An image generation unit for determining a distance to an object based on an output of a light detecting element that generates a distance image having a pixel value as a distance value, and a distance differential value as a differential intensity value of each pixel obtained from the distance value of the distance image A differential processing unit that generates a distance differential image having a pixel value as a pixel value, and an object determination unit that extracts an object using the distance differential value obtained by the differential processing unit.

この構成では、距離画像について微分強度値である距離微分値を画素値とする距離微分画像を生成するから、段差のように距離の変化率が大きい領域と距離の変化率が小さい領域とを容易に識別することが可能になる。たとえば、対象空間において対象物としての人体と背景との距離差が比較的大きく、かつ対象物の周囲において距離の変化率が大きい場合には、距離微分値が大きくなるから人体の輪郭などを抽出するのが容易になる。しかも、距離画像は光検出素子のダイナミックレンジの範囲内であれば外光光量の変化の影響を受けることなく同じ距離微分値を得ることができるから、対象物を正確に検出することが可能になる。   In this configuration, a distance differential image is generated with a distance differential value, which is a differential intensity value, for the distance image as a pixel value, so an area with a large distance change rate and an area with a small distance change rate such as a step can be easily obtained Can be identified. For example, when the distance difference between the human body as the target object and the background is relatively large in the target space and the rate of change of the distance around the target object is large, the distance differential value increases, so the contour of the human body is extracted. Easy to do. Moreover, if the distance image is within the dynamic range of the light detection element, the same distance differential value can be obtained without being affected by the change in the amount of external light, so that the object can be accurately detected. Become.

請求項2の発明では、請求項1の発明において、前記画像生成部は、時間の経過とともに対象空間を撮像した前記光検出素子の出力により距離画像を時系列で生成する構成であって、前記対象物判定部は、異なる時刻で得られた2枚の距離画像から生成した2枚の距離微分画像の差分である差分画像を生成し、差分画像において画素値が規定の閾値以上になる領域を対象物として抽出することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the image generation unit generates a distance image in time series based on an output of the light detection element that images the target space with the passage of time. The object determination unit generates a difference image that is a difference between two distance differential images generated from two distance images obtained at different times, and an area in which the pixel value is equal to or greater than a predetermined threshold in the difference image. It is characterized by extracting as an object.

この構成によれば、2枚の距離微分画像の差分によって光検出素子の視野内で距離に変化が生じた領域のみを抽出することができ、しかも閾値によって差分の小さい領域は除去するから、主として2枚の距離画像が得られた時刻間で移動した対象物の領域を抽出することができる。また、ほぼ静止しているような対象物であっても人体のように微動する場合や風によって揺らいでいるような対象物であれば、対象物の境界付近の領域が抽出されることになる。   According to this configuration, it is possible to extract only the region in which the distance has changed within the field of view of the light detection element due to the difference between the two differential images, and the region having a small difference is removed by the threshold. It is possible to extract the region of the object that has moved between the time when the two distance images were obtained. In addition, even if the object is almost stationary, the region near the boundary of the object is extracted if the object moves slightly like a human body or if the object is fluctuated by the wind. .

請求項3の発明では、請求項1の発明において、前記画像生成部は、時間の経過とともに対象空間を撮像した前記光検出素子の出力により距離画像を時系列で生成する構成であって、前記対象物判定部は、異なる時刻で得られた3枚以上の距離画像から生成した3枚以上の距離微分画像について2枚ずつの差分である差分画像を生成し、複数枚の差分画像の画素値を規定の閾値と比較することにより複数枚の2値画像を生成するとともに各2値画像における同位置の画素値を組み合わせる論理演算により着目する時刻における移動する対象物の領域を抽出することを特徴とする。   According to a third aspect of the present invention, in the first aspect of the invention, the image generation unit generates a distance image in time series based on an output of the light detection element that images the target space as time passes. The target object determination unit generates a difference image that is a difference between each of two or more distance differential images generated from three or more distance images obtained at different times, and pixel values of the plurality of difference images And generating a plurality of binary images by extracting the region of the moving object at the time of interest by a logical operation combining pixel values at the same position in each binary image. And

この構成によれば、差分画像によって背景を除去し、さらに2値画像を生成することによってほぼ完全に背景を除去することができる。また、2値画像の画素値を組み合わせる論理演算を行うから、距離画像内に移動する対象物が含まれている場合には、着目する時刻において背景をほぼ完全に除去して対象物の境界を抽出することができる。すなわち、移動する対象物について言わばシルエットを抽出することになる。   According to this configuration, the background can be removed almost completely by removing the background using the difference image and generating a binary image. In addition, since a logical operation that combines the pixel values of the binary image is performed, when the moving object is included in the distance image, the background of the object is removed by removing the background almost completely at the time of interest. Can be extracted. That is, a silhouette is extracted for the moving object.

請求項4の発明では、請求項1の発明において、対象空間に移動する対象物が存在しない状態で得られた前記距離画像から前記微分処理部で生成した背景用の距離微分画像を記憶する背景記憶部を備え、前記対象物判定部は、背景用の距離微分画像とは異なる時刻に前記微分処理部で生成された距離微分画像と背景用の距離微分画像の差分である差分画像を生成し、差分画像において画素値が規定の閾値以上になる領域を対象物として抽出することを特徴とする。   According to a fourth aspect of the present invention, in the first aspect of the invention, a background for storing a distance differential image for a background generated by the differential processing unit from the distance image obtained in a state where there is no object moving in the target space. A storage unit, wherein the object determination unit generates a difference image that is a difference between the distance differential image generated by the differential processing unit and the background distance differential image at a time different from the background distance differential image. In the difference image, a region where the pixel value is equal to or greater than a predetermined threshold is extracted as an object.

この構成によれば、背景に関する距離微分画像をあらかじめ記憶しておき、対象空間を撮像して得られた距離微分画像と背景に関する距離微分画像との差分を閾値と比較して対象物を抽出するから、背景に対して変化した領域を対象物として容易に検出することができる。   According to this configuration, the distance differential image related to the background is stored in advance, and the object is extracted by comparing the difference between the distance differential image obtained by imaging the target space and the distance differential image related to the background with the threshold value. Therefore, it is possible to easily detect a region changed with respect to the background as an object.

本発明の構成によれば、距離画像について微分強度値である距離微分値を画素値とする距離微分画像を生成するから、段差のように距離の変化率が大きい領域と距離の変化率が小さい領域とを容易に識別することが可能になるという利点があり、しかも光検出素子のダイナミックレンジの範囲内であれば外光光量の変化の影響を受けることなく同じ距離微分値を得ることができるから、対象物を正確に検出することが可能になるという利点がある。   According to the configuration of the present invention, a distance differential image having a differential distance value that is a differential intensity value as a pixel value is generated for the distance image. Therefore, an area having a large distance change rate such as a step and a small distance change rate are generated. There is an advantage that it is possible to easily distinguish the region, and the same differential distance value can be obtained without being affected by the change in the amount of external light as long as it is within the dynamic range of the light detection element. Therefore, there is an advantage that the object can be accurately detected.

本発明の実施形態を説明するにあたり、まず本実施形態で用いる距離画像センサの構成について説明する。   In describing the embodiment of the present invention, the configuration of the distance image sensor used in the present embodiment will be described first.

本実施形態で用いる距離画像センサは、図1に示すように、対象空間に光を照射する発光源2を備えるとともに、対象空間からの光を受光し受光光量を反映した出力値の電気出力が得られる光検出素子1を備える。対象空間に存在する対象物Obまでの距離は、発光源2から対象空間に光が照射されてから対象物Obでの反射光が光検出素子1に入射するまでの時間(「飛行時間」と呼ぶ)によって求める。ただし、飛行時間は非常に短いから、対象空間に照射する光の強度が一定周期で周期的に変化するように変調した強度変調光を用い、強度変調光を受光したときの位相を用いて飛行時間を求める。なお、本発明の技術思想は、距離画像センサとして、飛行時間により距離画像を生成する構成のほか、三角測量法の原理によって距離画像を生成する構成においても採用可能である。ただし、以下に説明する構成の距離画像センサは、三角測量法の原理を用いる距離画像センサに比較して短時間で(ほぼ実時間)で距離画像を生成できるから、三角測量法の原理を採用した距離画像センサよりも好ましい。   As shown in FIG. 1, the distance image sensor used in the present embodiment includes a light emitting source 2 that irradiates light to a target space, and receives an electric value of an output value that receives light from the target space and reflects a received light amount. The obtained light detection element 1 is provided. The distance to the object Ob existing in the object space is the time from when the light is emitted from the light source 2 to the object space until the reflected light from the object Ob enters the light detection element 1 (“flight time”). Call). However, since the flight time is very short, use the intensity-modulated light that is modulated so that the intensity of the light irradiating the target space changes periodically at a constant period, and use the phase when the intensity-modulated light is received. Ask for time. The technical idea of the present invention can be employed as a distance image sensor in a configuration in which a distance image is generated based on the principle of triangulation in addition to a configuration in which a distance image is generated based on a flight time. However, the distance image sensor with the configuration described below adopts the principle of triangulation because it can generate a distance image in a shorter time (almost real time) compared to the distance image sensor that uses the principle of triangulation. It is preferable to the distance image sensor.

図2(a)に示すように、発光源2から空間に放射する光の強度が曲線イのように変化し、光検出素子1で受光した受光光量が曲線ロのように変化するとすれば、位相差ψは飛行時間に相当するから、位相差ψを求めることにより対象物Obまでの距離を求めることができる。また、位相差ψは、曲線イの複数のタイミングで求めた曲線ロの受光光量を用いて計算することができる。たとえば、曲線イにおける位相が0度、90度、180度、270度の位相で求めた曲線ロの受光光量がそれぞれA0、A1、A2、A3であるとする(受光光量A0、A1、A2、A3を斜線部で示している)。ただし、各位相における受光光量A0、A1、A2、A3は、瞬時値ではなく所定の時間Twで積算した受光光量を用いる。いま、受光光量A0、A1、A2、A3を求める間に、位相差ψが変化せず(つまり、対象物Obまでの距離が変化せず)、かつ対象物Obの反射率にも変化がないものとする。また、発光源2から放射する光の強度を正弦波で変調し、時刻tにおいて光検出素子1で受光される光の強度がA・sin(ωt+δ)+Bで表されるものとする。ここに、Aは振幅、Bは外光成分、ωは角振動数、δは位相である。光検出素子1で受光する受光光量A0、A1、A2、A3を時間Twの積算値ではなく瞬時値とすれば、受光光量A0、A1、A2、A3は、次のように表すことができる。
A0=A・sin(δ)+B
A1=A・sin(π/2+δ)+B
A2=A・sin(π+δ)+B
A3=A・sin(3π/2+δ)+B
ここに、δ=−ψであるから、A0=−A・sin(ψ)+B、A1=A・cos(ψ)+B、A2=A・sin(ψ)+B、A3=−A・cos(ψ)+Bであり、結果的に、各受光光量A0、A1、A2、A3と位相差ψとの関係は、次式のようになる。
ψ=tan−1{(A2−A0)/(A1−A3)} …(1)
(1)式では受光光量A0、A1、A2、A3の瞬時値を用いているが、受光光量A0、A1、A2、A3として時間Twにおける積算値を用いても(1)式で位相差ψを求めることができる。
As shown in FIG. 2A, if the intensity of light radiated from the light source 2 into the space changes as shown by curve A, and the amount of received light received by the light detecting element 1 changes as shown by curve B, Since the phase difference ψ corresponds to the flight time, the distance to the object Ob can be obtained by obtaining the phase difference ψ. Further, the phase difference ψ can be calculated using the received light amount of the curve B obtained at a plurality of timings of the curve A. For example, it is assumed that the received light amounts of curve B obtained with the phases of curve A at 0, 90, 180, and 270 degrees are A0, A1, A2, and A3 (received light amounts A0, A1, A2,. A3 is indicated by hatching). However, the received light amount A0, A1, A2, A3 in each phase uses the received light amount integrated at a predetermined time Tw instead of the instantaneous value. Now, while obtaining the received light amounts A0, A1, A2, and A3, the phase difference ψ does not change (that is, the distance to the object Ob does not change), and the reflectance of the object Ob does not change. Shall. Further, it is assumed that the intensity of light emitted from the light emitting source 2 is modulated by a sine wave, and the intensity of light received by the light detection element 1 at time t is represented by A · sin (ωt + δ) + B. Here, A is the amplitude, B is the external light component, ω is the angular frequency, and δ is the phase. If the received light amounts A0, A1, A2, and A3 received by the light detecting element 1 are instantaneous values instead of the integrated values of the time Tw, the received light amounts A0, A1, A2, and A3 can be expressed as follows.
A0 = A · sin (δ) + B
A1 = A · sin (π / 2 + δ) + B
A2 = A · sin (π + δ) + B
A3 = A · sin (3π / 2 + δ) + B
Since δ = −ψ, A0 = −A · sin (ψ) + B, A1 = A · cos (ψ) + B, A2 = A · sin (ψ) + B, A3 = −A · cos (ψ ) + B, and as a result, the relationship between the received light amounts A0, A1, A2, A3 and the phase difference ψ is expressed as follows.
ψ = tan −1 {(A2−A0) / (A1−A3)} (1)
Although the instantaneous values of the received light amounts A0, A1, A2, and A3 are used in the equation (1), the phase difference ψ in the equation (1) even if the integrated values at the time Tw are used as the received light amounts A0, A1, A2, and A3. Can be requested.

上述のように対象空間に照射する光の強度を変調するために、発光源2としては、たとえば多数個の発光ダイオードを一平面上に配列したものや半導体レーザと発散レンズとを組み合わせたものなどを用いる。また、発光源2は、制御回路部3から出力される所定の変調周波数である変調信号によって駆動され、発光源2から放射される光は変調信号により強度が変調される。制御回路部3では、たとえば20MHzの正弦波で発光源2から放射する光の強度を変調する。なお、発光源2から放射する光の強度は正弦波で変調する以外に、三角波、鋸歯状波などで変調してもよく、要するに、一定周期で強度を変調するのであれば、どのような構成を採用してもよい。   As described above, in order to modulate the intensity of the light irradiated to the target space, the light source 2 includes, for example, a structure in which a large number of light emitting diodes are arranged on one plane, a combination of a semiconductor laser and a diverging lens, or the like. Is used. The light source 2 is driven by a modulation signal having a predetermined modulation frequency output from the control circuit unit 3, and the intensity of the light emitted from the light source 2 is modulated by the modulation signal. The control circuit unit 3 modulates the intensity of light emitted from the light source 2 with, for example, a 20 MHz sine wave. The intensity of the light emitted from the light source 2 may be modulated by a triangular wave, a sawtooth wave or the like in addition to the modulation by a sine wave. In short, any configuration is acceptable as long as the intensity is modulated at a constant period. May be adopted.

光検出素子1は、規則的に配列された複数個の感光部11を備える。また、感光部11への光の入射経路には受光光学系8が配置される。感光部11は光検出素子1において対象空間からの光が受光光学系8を通して入射する部位であって、感光部11において受光光量に応じた量の電荷を生成する。また、感光部11は、平面格子の格子点上に配置され、たとえば垂直方向(つまり、縦方向)と水平方向(つまり、横方向)とにそれぞれ等間隔で複数個ずつ並べたマトリクス状に配列される。   The light detection element 1 includes a plurality of photosensitive portions 11 regularly arranged. A light receiving optical system 8 is disposed in the light incident path to the photosensitive portion 11. The photosensitive portion 11 is a portion where light from the target space is incident through the light receiving optical system 8 in the light detection element 1, and the photosensitive portion 11 generates an amount of charge corresponding to the amount of received light. Further, the photosensitive portions 11 are arranged on the lattice points of the planar lattice, and are arranged in a matrix in which, for example, a plurality are arranged at equal intervals in the vertical direction (that is, the vertical direction) and the horizontal direction (that is, the horizontal direction). Is done.

受光光学系8は、光検出素子1から対象空間を見るときの視線方向と各感光部11とを対応付ける。すなわち、受光光学系8を通して各感光部11に光が入射する範囲を、受光光学系8の中心を頂点とし各感光部11ごとに設定された頂角の小さい円錐状の視野とみなすことができる。したがって、発光源2から放射され対象空間に存在する対象物Obで反射された反射光が感光部11に入射すれば、反射光を受光した感光部11の位置により、受光光学系8の光軸を基準方向として対象物Obの存在する方向を知ることができる。   The light receiving optical system 8 associates the line-of-sight direction when viewing the target space from the light detection element 1 with each photosensitive portion 11. That is, the range in which light enters each photosensitive portion 11 through the light receiving optical system 8 can be regarded as a conical field of view having a small apex angle set for each photosensitive portion 11 with the center of the light receiving optical system 8 as the apex. . Therefore, if the reflected light emitted from the light emitting source 2 and reflected by the object Ob existing in the target space is incident on the photosensitive portion 11, the optical axis of the light receiving optical system 8 depends on the position of the photosensitive portion 11 that has received the reflected light. Can be known as the reference direction.

受光光学系8は一般に感光部11を配列した平面に光軸を直交させるように配置されるから、受光光学系8の中心を原点とし、感光部11を配列した平面の垂直方向と水平方向と受光光学系8の光軸とを3軸の方向とする直交座標系を設定すれば、対象空間に存在する対象物Obの位置を球座標で表したときの角度(いわゆる方位角と仰角)が各感光部11に対応する。なお、受光光学系8は、感光部11を配列した平面に対して光軸が90度以外の角度で交差するように配置することも可能である。   Since the light receiving optical system 8 is generally arranged so that the optical axis is orthogonal to the plane on which the photosensitive portion 11 is arranged, the center of the light receiving optical system 8 is the origin, and the vertical and horizontal directions of the plane on which the photosensitive portion 11 is arranged If an orthogonal coordinate system is set in which the optical axis of the light receiving optical system 8 is in the direction of the three axes, the angle (so-called azimuth and elevation angle) when the position of the object Ob existing in the object space is expressed in spherical coordinates. It corresponds to each photosensitive portion 11. The light receiving optical system 8 can also be arranged so that the optical axis intersects at an angle other than 90 degrees with respect to the plane on which the photosensitive portions 11 are arranged.

本実施形態では、上述のように、対象物Obまでの距離を求めるために、発光源2から対象空間に照射される光の強度変化に同期する4点のタイミングで受光光量A0、A1、A2、A3を求めている。したがって、目的の受光光量A0、A1、A2、A3を得るためのタイミングの制御が必要である。また、発光源2から対象空間に照射される光の強度変化の1周期において感光部11で発生する電荷の量は少ないから、複数周期に亘って電荷を集積することが望ましい。そこで、図1のように各感光部11で発生した電荷をそれぞれ集積する複数個の電荷集積部13を設けるとともに、各感光部11において利用できる電荷を生成する領域の面積を変化させることにより各感光部11の感度をそれぞれ調節する複数個の感度制御部12を設けている。   In the present embodiment, as described above, in order to obtain the distance to the object Ob, the received light amounts A0, A1, and A2 are synchronized at four timings synchronized with the intensity change of the light emitted from the light source 2 to the target space. , A3. Therefore, it is necessary to control the timing to obtain the desired received light amount A0, A1, A2, A3. In addition, since the amount of charge generated in the photosensitive portion 11 is small in one cycle of intensity change of light irradiated from the light source 2 to the target space, it is desirable to accumulate the charge over a plurality of cycles. Therefore, as shown in FIG. 1, a plurality of charge accumulating units 13 for accumulating the charges generated in the respective photosensitive units 11 are provided, and the areas of the regions for generating the charges that can be used in the respective photosensitive units 11 are changed to change the respective areas. A plurality of sensitivity control units 12 for adjusting the sensitivity of the photosensitive unit 11 are provided.

各感度制御部12では、感度制御部12に対応する感光部11の感度を上述した4点のうちのいずれかのタイミングで高め、感度が高められた感光部11では当該タイミングの受光光量A0、A1、A2、A3に対応する電荷を主として生成するから、当該受光光量A0、A1、A2、A3に対応する電荷を当該感光部11に対応する電荷集積部13に集積させることができる。   In each sensitivity control unit 12, the sensitivity of the photosensitive unit 11 corresponding to the sensitivity control unit 12 is increased at any one of the four points described above, and in the photosensitive unit 11 with increased sensitivity, the received light amount A0, Since charges corresponding to A1, A2, and A3 are mainly generated, charges corresponding to the received light amounts A0, A1, A2, and A3 can be accumulated in the charge accumulating unit 13 corresponding to the photosensitive unit 11.

ところで、感度制御部12は感光部11において利用できる電荷を生成する領域の面積(実質的な受光面積)を変化させることにより各期間の電荷の生成量を変化させるものであるから、電荷集積部13に集積された電荷は必ずしも受光光量A0、A1、A2、A3が得られる期間に生成された電荷だけではなく、他の期間に生成された電荷も混入することになる。いま、感度制御部12において、受光光量A0、A1、A2、A3に対応した電荷を生成する期間の感度をα、それ以外の期間の感度をβとし、感光部11は受光光量に比例する電荷を生成するものとする。この条件では、受光光量A0に対応した電荷を集積する電荷集積部13には、αA0+β(A1+A2+A3)+βAx(Axは受光光量A0、A1、A2、A3が得られる期間以外の受光光量)に比例する電荷が蓄積され、受光光量A2に対応した電荷を集積する電荷集積部13には、αA2+β(A0+A1+A3)+βAxに比例する電荷が蓄積される。上述したように、位相差ψを求める際には(A2−A0)を求めており、A2−A0=(α−β)(A2−A0)になり、同様にしてA1−A3=(α−β)(A1−A3)になるから、(A2−A0)/(A1−A3)は電荷の混入の有無によらず理論上は同じ値になるのであって、電荷が混入しても求める位相差ψは同じ値になる。   By the way, the sensitivity control unit 12 changes the amount of charge generated in each period by changing the area (substantial light receiving area) of the region that generates the charge that can be used in the photosensitive unit 11. The charges accumulated in 13 include not only the charges generated during the period in which the received light amounts A0, A1, A2, and A3 are obtained, but also the charges generated during other periods. Now, in the sensitivity control unit 12, the sensitivity in the period for generating the charges corresponding to the received light amounts A0, A1, A2, A3 is α, the sensitivity in the other periods is β, and the photosensitive unit 11 is a charge proportional to the received light amount. Is generated. Under this condition, the charge accumulating unit 13 that accumulates charges corresponding to the received light amount A0 is proportional to αA0 + β (A1 + A2 + A3) + βAx (Ax is the received light amount other than the period during which the received light amounts A0, A1, A2, and A3 are obtained). In the charge accumulating unit 13 that accumulates charges and accumulates charges corresponding to the received light quantity A2, charges proportional to αA2 + β (A0 + A1 + A3) + βAx are accumulated. As described above, when obtaining the phase difference ψ, (A2−A0) is obtained, and A2−A0 = (α−β) (A2−A0), and similarly, A1−A3 = (α−). β) Since (A1-A3), (A2-A0) / (A1-A3) theoretically has the same value regardless of the presence or absence of charge mixing. The phase difference ψ has the same value.

感光部11と感度制御部12と電荷集積部13とを備える光検出素子1は1つの半導体装置として構成され、光検出素子1には電荷集積部13に集積された電荷を半導体装置の外部に取り出すために電荷取出部14が設けられる。電荷取出部14はCCDイメージセンサにおける垂直転送部および水平転送部と同様の構成を有する。   The photodetecting element 1 including the photosensitive unit 11, the sensitivity control unit 12, and the charge accumulating unit 13 is configured as one semiconductor device, and the photodetecting element 1 transmits charges accumulated in the charge accumulating unit 13 to the outside of the semiconductor device. A charge extraction unit 14 is provided for extraction. The charge extraction unit 14 has the same configuration as the vertical transfer unit and horizontal transfer unit in the CCD image sensor.

電荷取出部14から取り出された電荷は画像生成部4に画像信号として与えられ、画像生成部4において対象空間内の対象物Obまでの距離が上述した(1)式を用いて受光光量A0、A1、A2、A3から算出される。すなわち、画像生成部4では各感光部11に対応した各方向における対象物Obまでの距離が算出され、対象空間の三次元情報が算出される。この三次元情報を用いると、対象空間の各方向に一致する画素の画素値が距離値である距離画像を生成することができる。   The electric charge extracted from the electric charge extraction unit 14 is given to the image generation unit 4 as an image signal, and the distance to the object Ob in the target space in the image generation unit 4 is calculated based on the above-described equation (1). Calculated from A1, A2, and A3. That is, the image generation unit 4 calculates the distance to the object Ob in each direction corresponding to each photosensitive unit 11, and calculates the three-dimensional information of the target space. By using this three-dimensional information, it is possible to generate a distance image in which the pixel values of the pixels matching each direction of the target space are distance values.

以下に光検出素子1の具体的構造例を説明する。図3に示す光検出素子1は、複数個(たとえば、100×100個)の感光部11をマトリクス状に配列したものであって、たとえば1枚の半導体基板上に形成される。感光部11のうち垂直方向の各列では一体に連続する半導体層21を共用するとともに半導体層21を垂直方向への電荷(本実施形態では、電子を用いる)の転送経路として用い、さらに各列の半導体層21の一端から電荷を受け取って水平方向に電荷を転送するCCDである水平転送部Thを半導体基板に設ける構成を採用することができる。   Hereinafter, a specific structural example of the light detection element 1 will be described. The photodetecting element 1 shown in FIG. 3 includes a plurality of (for example, 100 × 100) photosensitive portions 11 arranged in a matrix, and is formed on, for example, a single semiconductor substrate. Each column in the vertical direction in the photosensitive portion 11 shares the semiconductor layer 21 that is integrally continuous, and the semiconductor layer 21 is used as a transfer path for charges in the vertical direction (electrons are used in this embodiment). It is possible to employ a configuration in which a semiconductor substrate is provided with a horizontal transfer portion Th that is a CCD that receives charges from one end of the semiconductor layer 21 and transfers the charges in the horizontal direction.

すなわち、図4に示すように、半導体層21が感光部11と電荷の転送経路とに兼用された構造であって、フレーム・トランスファ(FT)方式のCCDイメージセンサと類似した構造になる。また、FT方式のCCDイメージセンサと同様に、感光部11を配列した撮像領域Daに隣接して遮光された蓄積領域Dbを設けてあり、蓄積領域Dbに蓄積した電荷を水平転送部Thに転送する。撮像領域Daから蓄積領域Dbへの電荷の転送は垂直ブランキング期間に一気に行い、水平転送部Thでは1水平期間に1水平ライン分の電荷を転送する。図1に示した電荷取出部14は、半導体層21における垂直方向への電荷の転送経路としての機能とともに水平転送部Thを含む機能を表している。ただし、電荷集積部13は蓄積領域Dbを意味するのではなく、撮像領域Daにおいて電荷を集積する機能を表している。言い換えると、蓄積領域Dbは電荷取出部14に含まれる。   That is, as shown in FIG. 4, the semiconductor layer 21 serves as the photosensitive portion 11 and the charge transfer path, and is similar to a frame transfer (FT) type CCD image sensor. Similarly to the FT type CCD image sensor, a light-shielded accumulation region Db is provided adjacent to the imaging region Da in which the photosensitive portions 11 are arranged, and charges accumulated in the accumulation region Db are transferred to the horizontal transfer unit Th. To do. The transfer of charges from the imaging area Da to the storage area Db is performed at once in the vertical blanking period, and the horizontal transfer unit Th transfers charges for one horizontal line in one horizontal period. The charge extraction unit 14 illustrated in FIG. 1 represents a function including a horizontal transfer unit Th along with a function as a charge transfer path in the vertical direction in the semiconductor layer 21. However, the charge accumulation unit 13 does not mean the accumulation region Db, but represents a function of accumulating charges in the imaging region Da. In other words, the accumulation region Db is included in the charge extraction unit 14.

半導体層21は不純物が添加してあり、半導体層21の主表面は酸化膜からなる絶縁膜22により覆われ、半導体層21に絶縁膜22を介して複数個の制御電極23を配置している。この光検出素子1はMIS素子として知られた構造であるが、1個の光検出素子1として機能する領域に複数個(図示例では5個)の制御電極23を備える点が通常のMIS素子とは異なる。絶縁膜22および制御電極23は発光源2から対象空間に照射される光と同波長の光が透過するように材料が選択され、絶縁膜22を通して半導体層21に光が入射すると、半導体層21の内部に電荷が生成される。図示例の半導体層21の導電形はn形であり、光の照射により生成される電荷として電子eを利用する。図3は1個の感光部11に対応する領域のみを示したものであり、半導体基板(図示せず)には上述したように図3の構造を持つ領域が複数個配列されるとともに電荷取出部14となる構造が設けられる。電荷取出部14として設ける垂直転送部は、図3の左右方向に電荷を転送することを想定しているが、図3の面に直交する方向に電荷を転送する構成を採用することも可能である。また、電荷を図の左右方向に転送する場合には、制御電極23の左右方向の幅寸法を1μm程度に設定するのが望ましい。   The semiconductor layer 21 is doped with impurities, the main surface of the semiconductor layer 21 is covered with an insulating film 22 made of an oxide film, and a plurality of control electrodes 23 are arranged on the semiconductor layer 21 via the insulating film 22. . This light detection element 1 has a structure known as a MIS element, but a normal MIS element is that a plurality of (five in the illustrated example) control electrodes 23 are provided in a region functioning as one light detection element 1. Is different. A material is selected for the insulating film 22 and the control electrode 23 so that light having the same wavelength as the light emitted from the light source 2 to the target space can be transmitted. When light enters the semiconductor layer 21 through the insulating film 22, the semiconductor layer 21. A charge is generated inside the. The conductivity type of the semiconductor layer 21 in the illustrated example is n-type, and electrons e are used as charges generated by light irradiation. FIG. 3 shows only a region corresponding to one photosensitive portion 11, and a plurality of regions having the structure shown in FIG. 3 are arranged on the semiconductor substrate (not shown) and the charge extraction is performed. A structure to be part 14 is provided. The vertical transfer unit provided as the charge extraction unit 14 is assumed to transfer charges in the left-right direction in FIG. 3, but it is also possible to adopt a configuration in which charges are transferred in a direction orthogonal to the plane in FIG. is there. In addition, when transferring charges in the horizontal direction in the figure, it is desirable to set the width dimension of the control electrode 23 in the horizontal direction to about 1 μm.

この構造の光検出素子1では、制御電極23に正の制御電圧+Vを印加すると、半導体層21には制御電極23に対応する部位に電子eを集積するポテンシャル井戸(空乏層)24が形成される。つまり、半導体層21にポテンシャル井戸24を形成するように制御電極23に制御電圧を印加した状態で光が半導体層21に照射されると、ポテンシャル井戸24の近傍で生成された電子eの一部はポテンシャル井戸24に捕獲されてポテンシャル井戸24に集積され、残りの電子eは半導体層21の深部での再結合により消滅する。また、ポテンシャル井戸24から離れた場所で生成された電子eも半導体層21の深部での再結合により消滅する。   In the light detection element 1 having this structure, when a positive control voltage + V is applied to the control electrode 23, a potential well (depletion layer) 24 that accumulates electrons e in a portion corresponding to the control electrode 23 is formed in the semiconductor layer 21. The That is, when light is applied to the semiconductor layer 21 with a control voltage applied to the control electrode 23 so as to form the potential well 24 in the semiconductor layer 21, a part of the electrons e generated in the vicinity of the potential well 24. Are captured in the potential well 24 and accumulated in the potential well 24, and the remaining electrons e disappear due to recombination in the deep part of the semiconductor layer 21. Further, the electrons e generated at a location away from the potential well 24 are also extinguished by recombination in the deep part of the semiconductor layer 21.

ポテンシャル井戸24は制御電圧を印加した制御電極23に対応する部位に形成されるから、制御電圧を印加する制御電極23の個数を変化させることによって、半導体層21の主表面に沿ったポテンシャル井戸24の面積(言い換えると、受光面において利用できる電荷を生成する領域の面積)を変化させることができる。つまり、制御電圧を印加する制御電極23の個数を変化させることは感度制御部12における感度の調節を意味する。たとえば、図3(a)のように3個の制御電極23に制御電圧+Vを印加する場合と、図3(b)のように1個の制御電極23に制御電圧+Vを印加する場合とでは、ポテンシャル井戸24が受光面に占める面積が変化するのであって、図3(a)の状態のほうがポテンシャル井戸24の面積が大きいから、図3(b)の状態に比較して同光量に対して利用できる電荷の割合が多くなり、実質的に感光部11の感度を高めたことになる。このように、感光部11および感度制御部12は半導体層21と絶縁膜22と制御電極23とにより構成されていると言える。ポテンシャル井戸24は光照射により生成された電荷を保持するから電荷集積部13として機能する。   Since the potential well 24 is formed at a portion corresponding to the control electrode 23 to which the control voltage is applied, the potential well 24 along the main surface of the semiconductor layer 21 is changed by changing the number of the control electrodes 23 to which the control voltage is applied. (In other words, the area of a region that generates a charge that can be used on the light receiving surface) can be changed. That is, changing the number of control electrodes 23 to which the control voltage is applied means adjusting sensitivity in the sensitivity control unit 12. For example, when the control voltage + V is applied to three control electrodes 23 as shown in FIG. 3A and when the control voltage + V is applied to one control electrode 23 as shown in FIG. Since the area occupied by the potential well 24 on the light receiving surface changes, and the area of the potential well 24 is larger in the state of FIG. 3A, the same light quantity is obtained compared to the state of FIG. As a result, the ratio of the charge that can be used increases and the sensitivity of the photosensitive portion 11 is substantially increased. Thus, it can be said that the photosensitive portion 11 and the sensitivity control portion 12 are constituted by the semiconductor layer 21, the insulating film 22, and the control electrode 23. The potential well 24 functions as the charge accumulation unit 13 because it holds charges generated by light irradiation.

ポテンシャル井戸24から電荷を取り出すには、FT方式のCCDと同様の技術を採用すればよく、ポテンシャル井戸24に電子eが集積された後に、電荷の集積時とは異なる印加パターンの制御電圧を制御電極23に印加することによってポテンシャル井戸24に集積された電子eを一方向(たとえば、図の右方向)に転送することができる。つまり、半導体層21をCCDの垂直転送部と同様に電荷の転送経路に用いることができる。さらに、電荷は図4に示した水平転送部Thを転送され、半導体基板に設けた図示しない電極から光検出素子1の外部に取り出される。要するに、制御電極23への制御電圧の印加パターンを制御することにより、各感光部11ごとの感度を制御するとともに、光照射により生成された電荷を集積し、さらに集積された電荷を転送することができる。   In order to extract charges from the potential well 24, a technique similar to that of the FT type CCD may be employed. After the electrons e are accumulated in the potential well 24, a control voltage of an applied pattern different from that during charge accumulation is controlled. By applying the voltage to the electrode 23, the electrons e accumulated in the potential well 24 can be transferred in one direction (for example, the right direction in the figure). That is, the semiconductor layer 21 can be used as a charge transfer path in the same manner as the vertical transfer portion of the CCD. Further, the electric charge is transferred through the horizontal transfer portion Th shown in FIG. 4 and is taken out of the photodetecting element 1 from an electrode (not shown) provided on the semiconductor substrate. In short, by controlling the application pattern of the control voltage to the control electrode 23, the sensitivity of each photosensitive portion 11 is controlled, charges generated by light irradiation are integrated, and the integrated charges are transferred. Can do.

本実施形態における感度制御部12は、利用できる電荷を生成する面積を大小2段階に切り換えることにより感光部11の感度を高低2段階に切り換えるのであって、受光光量A0、A1、A2、A3のいずれかに対応する電荷を感光部11で生成しようとする期間にのみ高感度とし(電荷を生成する面積を大きくし)、他の期間には低感度にする。高感度にする期間と低感度にする期間とは、発光源2を駆動する変調信号に同期させて設定される。また、変調信号の複数周期に亘ってポテンシャル井戸24に電荷を集積した後に電荷取出部14を通して光検出素子1の外部に電荷を取り出すようにしている。変調信号の複数周期に亘って電荷を集積しているのは、変調信号の1周期内では感光部11が利用可能な電荷を生成する期間が短く(たとえば、変調信号の周波数を20MHzとすれば50nsの4分の1以下)、生成される電荷が少ないからである。つまり、変調信号の複数周期分の電荷を集積することにより、信号電荷(発光源2から照射された光に対応する電荷)と雑音電荷(外光成分および光検出素子1の内部で発生するショットノイズに対応する電荷)との比を大きくとることができ、大きなSN比が得られる。   The sensitivity control unit 12 in the present embodiment switches the sensitivity of the photosensitive unit 11 to two levels of high and low by switching the area for generating available charges into two levels of large and small, and the received light amount A0, A1, A2, A3. High sensitivity is set only during a period in which the charge corresponding to any of the photosensitive portions 11 is to be generated (the area for generating charges is increased), and low sensitivity is set in other periods. The period of high sensitivity and the period of low sensitivity are set in synchronization with the modulation signal that drives the light emitting source 2. In addition, after the charges are accumulated in the potential well 24 over a plurality of periods of the modulation signal, the charges are extracted to the outside of the light detection element 1 through the charge extraction unit 14. Charges are accumulated over a plurality of periods of the modulation signal because the period during which the photosensitive unit 11 generates usable charges within one period of the modulation signal is short (for example, if the frequency of the modulation signal is 20 MHz). This is because less than a quarter of 50 ns is generated. That is, by integrating charges for a plurality of periods of the modulation signal, signal charges (charges corresponding to light emitted from the light emission source 2) and noise charges (external light components and shots generated inside the light detection element 1). A large signal-to-noise ratio can be obtained, and a large SN ratio can be obtained.

ところで、位相差ψを求めるのに必要な4種類の受光光量A0、A1、A2、A3に対応する電荷を1個の感光部11で生成するとすれば、視線方向に関する分解能は高くなるが、各受光光量A0、A1、A2、A3に対応する電荷を求める時間差が大きくなるという問題が生じる。一方、各受光光量A0、A1、A2、A3に対応する電荷を4個の感光部11でそれぞれ生成するとすれば、各受光光量A0、A1、A2、A3に対応する電荷を求める時間差は小さくなるが、4種類の電荷を求める視線方向にずれが生じ視線方向に関する分解能は低下する。そこで、本実施形態では、2個の感光部11を用いることにより、変調信号の1周期内で受光光量A0、A1、A2、A3に対応する電荷を2種類ずつ生成する構成を採用している。つまり、2個の感光部11を組にして用い、組になる2個の感光部11に同じ視線方向からの光が入射するようにしている。   By the way, if the charges corresponding to the four kinds of received light amounts A0, A1, A2, and A3 necessary for obtaining the phase difference ψ are generated by one photosensitive portion 11, the resolution in the line-of-sight direction is increased. There arises a problem that the time difference for obtaining the charges corresponding to the received light amounts A0, A1, A2, A3 becomes large. On the other hand, if the charges corresponding to the received light amounts A0, A1, A2, A3 are generated by the four photosensitive portions 11, respectively, the time difference for obtaining the charges corresponding to the received light amounts A0, A1, A2, A3 becomes small. However, a shift occurs in the line-of-sight direction for obtaining the four types of charges, and the resolution in the line-of-sight direction decreases. Therefore, in the present embodiment, a configuration is adopted in which two types of charges corresponding to the received light amounts A0, A1, A2, and A3 are generated in one cycle of the modulation signal by using the two photosensitive portions 11. . That is, two photosensitive portions 11 are used as a set, and light from the same line-of-sight direction is incident on the two photosensitive portions 11 in the set.

上述の構成を採用することにより、視線方向の分解能を比較的高くし、かつ受光光量A0、A1、A2、A3に対応する電荷を生成する時間差を少なくすることができる。つまり、受光光量A0、A1、A2、A3に対応する電荷を生成する時間差を少なくしていることにより、対象空間の中で移動している対象物Obについても距離の検出精度を比較的高く保つことができる。なお、本実施形態の構成では、1個の感光部11で4種類の受光光量A0、A1、A2、A3に対応する電荷を生成する場合よりも視線方向の分解能が低下するが、視線方向の分解能については感光部11の小型化や受光光学系8の設計によって向上させることが可能である。   By adopting the above-described configuration, the resolution in the line-of-sight direction can be made relatively high, and the time difference for generating charges corresponding to the received light amounts A0, A1, A2, and A3 can be reduced. That is, by reducing the time difference for generating charges corresponding to the received light amounts A0, A1, A2, and A3, the distance detection accuracy is kept relatively high even for the object Ob moving in the target space. be able to. In the configuration of this embodiment, the resolution in the line-of-sight direction is lower than that in the case where charges corresponding to four types of received light amounts A0, A1, A2, and A3 are generated by one photosensitive unit 11, but the line-of-sight direction The resolution can be improved by downsizing the photosensitive unit 11 or designing the light receiving optical system 8.

以下に動作を具体的に説明する。図3に示した例では、1個の感光部11について5個の制御電極23を設けた例を示しているが、両側の2個の制御電極23は、感光部11で電荷(電子e)を生成している間に隣接する感光部11に電荷が流出するのを防止するための障壁を形成するものであって、2個の感光部11を組にして用いる場合には隣接する感光部11のポテンシャル井戸24の間には、いずれかの感光部11で障壁が形成されるから、各感光部11には3個ずつの制御電極23を設けるだけで足りることになる。この構成によって、感光部11の1個当たりの占有面積が小さくなり、2個の感光部11を組にして用いながらも視線方向の分解能の低下を抑制することが可能になる。   The operation will be specifically described below. In the example shown in FIG. 3, an example in which five control electrodes 23 are provided for one photosensitive portion 11 is shown. However, two control electrodes 23 on both sides are charged (electrons e) by the photosensitive portion 11. In the case where two photosensitive portions 11 are used as a pair, the adjacent photosensitive portions are formed. Since any one of the photosensitive portions 11 forms a barrier between the 11 potential wells 24, it is sufficient to provide three photosensitive electrodes 11 for each of the photosensitive portions 11. With this configuration, the occupation area per one photosensitive portion 11 is reduced, and it is possible to suppress a decrease in resolution in the line-of-sight direction while using the two photosensitive portions 11 as a set.

ここでは、図5に示すように、組にした2個の感光部11にそれぞれ設けた3個ずつの制御電極23を区別するために各制御電極23に(1)〜(6)の数字を付す。(1)〜(6)の数字を付与した制御電極23を有する2個の感光部11は、1つの視線方向に対応しておりイメージセンサにおける画素を構成する。なお、1画素ずつの感光部11に対応付けて、それぞれオーバフロードレインを設けるのが望ましい。   Here, as shown in FIG. 5, the numbers (1) to (6) are assigned to the control electrodes 23 in order to distinguish the three control electrodes 23 provided in the two photosensitive sections 11 respectively. Attached. The two photosensitive portions 11 having the control electrodes 23 assigned with the numbers (1) to (6) correspond to one line-of-sight direction and constitute pixels in the image sensor. In addition, it is desirable to provide an overflow drain in association with the photosensitive portion 11 for each pixel.

図5(a)(b)はそれぞれ制御電極23に異なる印加パターンで制御電圧+Vを印加した状態(半導体基板に設けた図示しない基板電極と制御電極23との間に制御電圧+Vを印加した状態)を示しており、ポテンシャル井戸24の形状からわかるように、図5(a)では1画素となる2個の感光部11のうち制御電極(1)〜(3)に正の制御電圧+Vを印加するとともに、残りの制御電極(4)〜(6)のうちの中央の制御電極(5)に正の制御電圧+Vを印加している。また、図5(b)では制御電極(1)〜(3)のうちの中央の制御電極(2)に正の制御電圧+Vを印加するとともに、残りの制御電極(4)〜(6)に正の制御電圧+Vを印加している。つまり、1画素を構成する2個の感光部11に印加する制御電圧+Vの印加パターンを交互に入れ換えている。2個の感光部11に印加する制御電圧+Vの印加パターンを入れ換えるタイミングは、変調信号における逆位相の(位相が180度異なる)タイミングになる。なお、各感光部11に設けた3個の制御電極23に同時に制御電圧+Vを印加している期間以外は、各感光部11に設けた中央部の1個の制御電極23(つまり、制御電極(2)(5))にのみ制御電圧+Vを印加し、他の制御電極23は0Vに保つ状態とする。   5A and 5B show a state in which a control voltage + V is applied to the control electrode 23 in a different application pattern (a state in which a control voltage + V is applied between a substrate electrode (not shown) provided on the semiconductor substrate and the control electrode 23). As can be seen from the shape of the potential well 24, in FIG. 5A, a positive control voltage + V is applied to the control electrodes (1) to (3) of the two photosensitive portions 11 serving as one pixel. In addition, a positive control voltage + V is applied to the central control electrode (5) among the remaining control electrodes (4) to (6). In FIG. 5B, a positive control voltage + V is applied to the central control electrode (2) among the control electrodes (1) to (3), and the remaining control electrodes (4) to (6) are applied. A positive control voltage + V is applied. In other words, the application pattern of the control voltage + V applied to the two photosensitive portions 11 constituting one pixel is alternately replaced. The timing of switching the application pattern of the control voltage + V applied to the two photosensitive portions 11 is the timing of the opposite phase (the phase is 180 degrees different) in the modulation signal. In addition, except for the period in which the control voltage + V is simultaneously applied to the three control electrodes 23 provided in each photosensitive portion 11, one central control electrode 23 (that is, the control electrode) provided in each photosensitive portion 11 is provided. (2) The control voltage + V is applied only to (5)), and the other control electrodes 23 are kept at 0V.

たとえば、1画素を構成する2個の感光部11において受光光量A0、A2に対応する電荷を交互に生成する場合は、図2のように、一方の感光部11で受光光量A0に対応する電荷を生成するために3個の制御電極(1)〜(3)に制御電圧+Vを印加している間に、他方の感光部11では受光光量A2に対応する電荷を保持するために1個の制御電極(5)にのみ制御電圧+Vを印加する。同様にして、一方の感光部11で受光光量A2に対応する電荷を生成するために3個の制御電極(4)〜(6)に制御電圧+Vを印加している間には、他方の感光部11では受光光量A0に対応する電荷を保持するために1個の制御電極(2)にのみ制御電圧+Vを印加する。また、受光光量A0、A2に対応する電荷を生成する期間以外では制御電極(2)(5)にのみ制御電圧+Vを印加する。図2(b)(c)に受光光量A0、A2に対応する電荷を蓄積する際の各制御電極(1)〜(6)に制御電圧+Vの印加のタイミングを示す。図において斜線部が制御電圧+Vを印加している状態を示し、空白部が制御電極(1)〜(6)に電圧を印加していない状態を示している。   For example, when the charges corresponding to the received light amounts A0 and A2 are alternately generated in the two photosensitive portions 11 constituting one pixel, the charges corresponding to the received light amount A0 in one photosensitive portion 11 as shown in FIG. While the control voltage + V is applied to the three control electrodes (1) to (3) in order to generate the signal, the other photosensitive portion 11 has one charge to hold the charge corresponding to the received light quantity A2. A control voltage + V is applied only to the control electrode (5). Similarly, while the control voltage + V is being applied to the three control electrodes (4) to (6) in order to generate a charge corresponding to the received light amount A2 in one photosensitive unit 11, the other photosensitive unit 11 is exposed. The unit 11 applies the control voltage + V only to one control electrode (2) in order to hold the charge corresponding to the received light quantity A0. In addition, the control voltage + V is applied only to the control electrodes (2) and (5) except for the period in which charges corresponding to the received light amounts A0 and A2 are generated. FIGS. 2B and 2C show the application timing of the control voltage + V to the control electrodes (1) to (6) when accumulating charges corresponding to the received light amounts A0 and A2. In the figure, the hatched portion indicates a state where the control voltage + V is applied, and the blank portion indicates a state where no voltage is applied to the control electrodes (1) to (6).

1画素を構成する2個の感光部11において受光光量A1、A3に対応する電荷を生成する場合も同様であって、受光光量A0、A2に対応する電荷を生成する場合とは制御電極23に制御電圧+Vを印加するタイミングが、変調信号の位相における90度異なる点が相違するだけである。また、受光光量A0、A1に対応する電荷を生成する期間と、受光光量A1、A3に対応する電荷を生成する期間との間で撮像領域から蓄積領域に電荷を転送する。つまり、受光光量A0に対応する電荷が制御電極(1)〜(3)に対応するポテンシャル井戸24に蓄積されるとともに、受光光量A2に対応する電荷が制御電極(4)〜(6)に対応するポテンシャル井戸24に蓄積されると、これらの受光光量A0、A2に対応する電荷を外部に取り出す。次に、受光光量A1に対応する電荷が制御電極(1)〜(3)に対応するポテンシャル井戸24に蓄積されるとともに、受光光量A3に対応する電荷が制御電極(4)〜(6)に対応するポテンシャル井戸24に蓄積されると、これらの受光光量A1、A3に対応する電荷を外部に取り出す。このような動作を繰り返すことによって、4区間の受光光量A0、A1、A2、A3に対応する電荷を2回の読出動作で光出力素子1の外部に取り出すことができ、取り出した電荷を用いて位相差ψを求めることが可能になる。なお、たとえば30フレーム毎秒の画像を得るためには、受光光量A0、A1に対応する電荷を生成する期間と受光光量A1、A3に対応する電荷を生成する期間とは60分の1秒よりも短い期間とする。   The same applies to the case where the charges corresponding to the received light amounts A1 and A3 are generated in the two photosensitive portions 11 constituting one pixel, and the case where the charges corresponding to the received light amounts A0 and A2 are generated is different from the control electrode 23. The only difference is that the timing at which the control voltage + V is applied differs by 90 degrees in the phase of the modulation signal. In addition, the charge is transferred from the imaging region to the accumulation region between a period for generating charges corresponding to the received light amounts A0 and A1 and a period for generating charges corresponding to the received light amounts A1 and A3. That is, charges corresponding to the received light amount A0 are accumulated in the potential well 24 corresponding to the control electrodes (1) to (3), and charges corresponding to the received light amount A2 correspond to the control electrodes (4) to (6). When accumulated in the potential well 24, the charges corresponding to the received light amounts A0 and A2 are taken out. Next, charges corresponding to the received light amount A1 are accumulated in the potential well 24 corresponding to the control electrodes (1) to (3), and charges corresponding to the received light amount A3 are applied to the control electrodes (4) to (6). When accumulated in the corresponding potential well 24, charges corresponding to these received light amounts A1 and A3 are taken out to the outside. By repeating such an operation, the charges corresponding to the received light amounts A0, A1, A2, and A3 of the four sections can be taken out of the light output element 1 by two reading operations, and the extracted charges are used. The phase difference ψ can be obtained. For example, in order to obtain an image of 30 frames per second, the period for generating charges corresponding to the received light amounts A0 and A1 and the period for generating charges corresponding to the received light amounts A1 and A3 are shorter than 1/60 second. A short period.

上述の例では3個の制御電極23((1)〜(3)または(4)〜(6))に同時に印加する制御電圧と、1個の制御電極23((2)または(5))にのみ印加する制御電圧とを等しくしているから、ポテンシャル井戸24の面積は変化するもののポテンシャル井戸24の深さは等しくなっている。この場合、制御電圧を印加していない制御電極23((1)(3)または(4)(6))において生成された電荷は、同程度の確率でポテンシャル井戸24に流れ込む。つまり、感光部11を構成する3個の制御電極23のうちの1個にのみ制御電圧+Vを印加することによって電荷集積部13として機能している領域と、3個の制御電極23のすべてに制御電圧+Vを印加している領域との両方に同程度の量の電荷が流れ込む。つまり、電荷を保持しているポテンシャル井戸24に流れ込む雑音成分が比較的多いものであるから、ダイナミックレンジを低下させる原因になる。   In the above example, the control voltage applied simultaneously to the three control electrodes 23 ((1) to (3) or (4) to (6)) and one control electrode 23 ((2) or (5)) Since the control voltage applied only to is equal, the area of the potential well 24 changes, but the depth of the potential well 24 is equal. In this case, the charges generated at the control electrode 23 ((1) (3) or (4) (6)) to which no control voltage is applied flow into the potential well 24 with a similar probability. That is, by applying the control voltage + V to only one of the three control electrodes 23 constituting the photosensitive portion 11, the region functioning as the charge accumulation portion 13 and all the three control electrodes 23 are applied. A similar amount of charge flows into both the region to which the control voltage + V is applied. That is, since the noise component flowing into the potential well 24 holding the charge is relatively large, the dynamic range is lowered.

そこで、図6のように、組になる2個の感光部11に設けた各3個の制御電極(1)〜(3)または(4)〜(6)に同時に印加する制御電圧が、1個の制御電極(2)または(5)にのみ印加する制御電圧よりも高くなるように設定し、大面積のポテンシャル井戸24を小面積のポテンシャル井戸24よりも深く設定するのが望ましい。このように、主として電荷(電子e)を生成しているポテンシャル井戸24を、主として電荷の保持を行っているポテンシャル井戸24よりも深くすることにより、制御電圧を印加していない制御電極(1)(3)または(4)(6)に対応する部位で生じた電荷は、深いほうのポテンシャル井戸24に流れ込みやすくなる。つまり、制御電極23に一定の制御電圧+Vを印加する場合に比較すると、電荷を保持するポテンシャル井戸24に流れ込む雑音成分を低減することができる。   Therefore, as shown in FIG. 6, the control voltage applied simultaneously to each of the three control electrodes (1) to (3) or (4) to (6) provided in the two photosensitive portions 11 in the set is 1 It is desirable to set the potential well 24 to be higher than the control voltage applied only to the individual control electrodes (2) or (5), and to set the large-area potential well 24 deeper than the small-area potential well 24. As described above, the potential well 24 that mainly generates charges (electrons e) is made deeper than the potential well 24 that mainly holds charges, so that the control electrode (1) to which no control voltage is applied is applied. Charges generated at the sites corresponding to (3) or (4) and (6) are likely to flow into the deeper potential well 24. That is, as compared with the case where a constant control voltage + V is applied to the control electrode 23, the noise component flowing into the potential well 24 holding the charge can be reduced.

なお、上述した距離画像センサの構成例では、受光光量A0、A1、A2、A3に対応する4期間を変調信号の1周期内で位相の間隔が90度ずつになるように設定しているが、変調信号に対する位相が既知であれば4期間は90度以外の適宜の間隔で設定することが可能である。ただし、間隔が異なれば位相差ψを求める算式は異なる。また、4期間の受光光量に対応した電荷を取り出す周期は、対象物Obの反射率および外光成分が変化せず、かつ位相差ψも変化しない時間内であれば、変調信号の1周期内で4個の信号電荷を取り出すことも必須ではない。さらに、太陽光や照明光のような外乱光の影響があるときには、発光源2から放射される光の波長のみを透過させる光学フィルタを感光部11の前に配置するのが望ましい。図5、図6を用いて説明した構成例では、感光部11ごとに3個ずつの制御電極23を対応付けているが、制御電極23を4個以上設けるようにしてもよい。また、上述の例ではFT方式のCCDイメージセンサと同様の構成を採用しているが、インターライン・トランスファ(IT)方式、フレーム・インターライン・トランスファ(FIT)方式と同様の構成を採用することも可能である。   In the configuration example of the distance image sensor described above, four periods corresponding to the received light amounts A0, A1, A2, and A3 are set so that the phase interval is 90 degrees in one cycle of the modulation signal. If the phase with respect to the modulation signal is known, the four periods can be set at appropriate intervals other than 90 degrees. However, the formula for obtaining the phase difference ψ differs if the interval is different. Also, the period of taking out the charge corresponding to the amount of received light in the four periods is within one period of the modulation signal as long as the reflectance of the object Ob and the external light component do not change and the phase difference ψ does not change. Thus, it is not essential to take out four signal charges. Furthermore, when there is an influence of disturbance light such as sunlight or illumination light, it is desirable to dispose an optical filter that transmits only the wavelength of light emitted from the light source 2 in front of the photosensitive portion 11. In the configuration example described with reference to FIGS. 5 and 6, three control electrodes 23 are associated with each photosensitive portion 11, but four or more control electrodes 23 may be provided. In the above example, the same configuration as the FT type CCD image sensor is adopted, but the same configuration as the interline transfer (IT) method and the frame interline transfer (FIT) method is adopted. Is also possible.

次に、上述した距離画像センサを用いて対象空間に存在する対象物を抽出する技術について説明する。ここでは、距離画像を生成する際の光検出素子1への外光成分の入射を低減するために、発光源2から赤外線を対象空間に照射し、光検出素子1の前方に赤外線透過フィルタを配置しているものとする。   Next, a technique for extracting an object existing in the target space using the above-described distance image sensor will be described. Here, in order to reduce the incidence of external light components on the light detection element 1 when generating a distance image, the target space is irradiated with infrared light from the light source 2 and an infrared transmission filter is provided in front of the light detection element 1. Assume that it is arranged.

図1に示すように、画像生成部4で生成された距離画像は微分処理部5に与えられ、微分処理部5では、距離画像の距離値から求められる各画素の微分強度値である距離微分値を画素値とする距離微分画像が生成される。微分強度値は、たとえば着目する画素の8近傍を用いて求められる値であって、本実施形態では、図7のような3×3平方領域の中央の画素p5を着目する画素とするときに、他の画素p1〜p4,p6〜p9の画素値B1〜B4,B6〜B9を用いることにより(2)式で表される。
(ΔX+ΔY1/2 …(2)
ただし、
ΔX=(B1+B4+B7)−(B3+B6+B9)
ΔY=(B1+B2+B3)−(B7+B8+B9)
本実施形態では、距離微分値を求めるから画素値B1〜B4,B6〜B9は距離値になる。(2)式によって求めた距離微分値を画素値に持つ距離微分画像においては距離画像における距離差の大きい部位ほど距離微分値が大きくなる。
As shown in FIG. 1, the distance image generated by the image generation unit 4 is given to the differentiation processing unit 5, and the differentiation processing unit 5 is a distance differentiation that is a differential intensity value of each pixel obtained from the distance value of the distance image. A distance differential image with the value as the pixel value is generated. The differential intensity value is a value obtained using, for example, 8 neighborhoods of the pixel of interest, and in this embodiment, when the pixel p5 in the center of the 3 × 3 square area as shown in FIG. By using the pixel values B1 to B4 and B6 to B9 of the other pixels p1 to p4 and p6 to p9, they are expressed by equation (2).
(ΔX 2 + ΔY 2 ) 1/2 (2)
However,
ΔX = (B1 + B4 + B7) − (B3 + B6 + B9)
ΔY = (B1 + B2 + B3) − (B7 + B8 + B9)
In this embodiment, since the distance differential value is obtained, the pixel values B1 to B4 and B6 to B9 are distance values. In a distance differential image having a distance differential value obtained by the equation (2) as a pixel value, the distance differential value increases as the distance difference in the distance image increases.

距離微分画像は対象物判定部6に与えられ、対象空間内に存在する対象物Obが検出される。以下では、対象物判定部6において距離微分画像から対象物Obを検出する技術について説明する。   The distance differential image is given to the object determination unit 6, and the object Ob existing in the object space is detected. Below, the technique which detects the target object Ob from a distance differential image in the target object determination part 6 is demonstrated.

一般に人のような対象物Obでは背景との境界付近において距離値の変化率が大きくなるから、距離微分画像において距離微分値が極大値になる領域を抽出すれば対象物Obの輪郭を含む1画素程度の幅の領域を抽出することができる。対象空間において抽出しようとする目的の対象物Obを除く背景の情報が既知であれば、距離微分値が極大値になる領域から既知情報を用いて背景を除去すれば、目的の対象物Obのみの領域を抽出することができる。ここに、極大値を用いているが、適宜の閾値で2値化することによっても同様の処理が可能である。外光光量が光検出素子1のダイナミックレンジの範囲内であれば、距離微分値は外光光量の変化の影響を受けないから、濃淡画像を用いる場合のように外光光量の影響を受けることなく対象物Obを正確に検出することができる。   In general, an object Ob such as a person has a large rate of change in the distance value near the boundary with the background. Therefore, if an area where the distance differential value is a maximum value is extracted from the distance differential image, the contour of the object Ob is included. A region having a width of about a pixel can be extracted. If the background information excluding the target object Ob to be extracted in the target space is known, only the target object Ob can be obtained by removing the background using the known information from the region where the distance differential value becomes the maximum value. Can be extracted. Although the maximum value is used here, the same processing can be performed by binarizing with an appropriate threshold. If the amount of external light is within the dynamic range of the light detection element 1, the distance differential value is not affected by the change in the amount of external light, and therefore is affected by the amount of external light as in the case of using a grayscale image. The object Ob can be detected accurately.

ところで、背景の情報を得るために、対象空間に移動する対象物Obが存在しない状態で得られた距離画像から微分処理部5で生成した背景用の距離微分画像をあらかじめ記憶しておくのが望ましい。そこで、対象空間に対象物Obが存在しない状態で得られた距離微分画像を記憶する背景記憶部6aを対象物判定部6に設けている。対象物判定部6は、背景用の距離微分画像とは異なる時刻に微分処理部5で生成された距離微分画像と背景記憶部6aが記憶している背景用の距離微分画像の差分である差分画像を生成し、差分画像において画素値が規定の閾値以上になる領域を対象物Obとして抽出するのである。すなわち、差分画像では、背景に対して変化した領域を抽出するから、対象物Obを背景から分離して容易に抽出することができる。   By the way, in order to obtain the background information, the distance differential image for the background generated by the differential processing unit 5 from the distance image obtained in the state where the object Ob moving in the target space does not exist is stored in advance. desirable. Therefore, the object determination unit 6 is provided with a background storage unit 6a for storing a distance differential image obtained in a state where the object Ob does not exist in the object space. The object determination unit 6 is a difference that is a difference between the distance differential image generated by the differential processing unit 5 at a time different from the background distance differential image and the background distance differential image stored in the background storage unit 6a. An image is generated, and a region where the pixel value is equal to or greater than a predetermined threshold in the difference image is extracted as the object Ob. That is, in the difference image, since the region changed with respect to the background is extracted, the object Ob can be easily extracted by separating from the background.

上述のように背景の距離微分画像を用いるには、対象物Obが存在しない状態であらかじめ対象空間の距離画像を生成しておく必要がある。一方、移動する対象物Obであれば2枚の距離微分画像の差分である差分画像を生成することにより、対象物Obを除いた静止している背景を除去できる。   As described above, in order to use the differential image of the background, it is necessary to generate a distance image of the target space in advance without the object Ob. On the other hand, in the case of a moving object Ob, a stationary background excluding the object Ob can be removed by generating a difference image that is a difference between two distance differential images.

移動する対象物Obに対応する領域を抽出する場合には、たとえばTVカメラと同様に30フレーム毎秒の距離画像を生成することができるように光検出素子1から電荷を取り出し、生成した距離画像から微分処理部5において距離微分画像を生成する。差分画像を生成する2枚のフレームは、隣接する一対のフレームと、複数フレームはなれた一対のフレームとのどちらを採用してもよい。ただし、対象空間内で対象物Obが比較的速く移動する場合には、隣接する一対のフレームを用いるのが望ましい。   When extracting the region corresponding to the moving object Ob, for example, the charge is taken out from the photodetecting element 1 so that a distance image of 30 frames per second can be generated as in the case of a TV camera, and the generated distance image is used. The differential processing unit 5 generates a distance differential image. The two frames for generating the difference image may employ either a pair of adjacent frames or a pair of frames separated from each other by a plurality of frames. However, when the object Ob moves relatively quickly in the target space, it is desirable to use a pair of adjacent frames.

距離微分画像から差分画像を生成すると、差分画像においては距離微分値に変化が生じた画素において0以外の画素値が得られるから、差分画像を適宜の閾値で2値化することにより、差分画像を生成した2枚のフレーム間で距離微分値の差が閾値以上であった領域を抽出することができる。このような領域は、対象物Obが移動したことによって発生するから、対象物Ob以外のノイズを除去して2枚の距離画像が得られた時刻間で移動した対象物の領域を抽出することができる。ここに、対象物Obがほぼ静止している場合であっても、対象物Obが人体であって微動する場合や対象物Obがカーテンであって風などで揺らぐような場合には、対象物Obの境界付近の領域を抽出することができる。   When a difference image is generated from a distance differential image, a pixel value other than 0 is obtained in a pixel in which the distance differential value has changed in the difference image. By binarizing the difference image with an appropriate threshold value, the difference image is obtained. It is possible to extract a region in which the difference in the distance differential value between the two frames that have generated is greater than or equal to the threshold value. Since such an area is generated by the movement of the object Ob, the area of the object moved between the times when two distance images are obtained by removing noise other than the object Ob is extracted. Can do. Here, even when the object Ob is almost stationary, the object Ob is a human body and moves slightly, or when the object Ob is a curtain and fluctuates in the wind or the like, the object A region near the boundary of Ob can be extracted.

差分画像を2値化した画像は、差分画像を生成する2枚の距離微分画像をそれぞれ2値化し、2値化した画像における各画素の排他的論理和を画素値とした画像とほぼ一致する。この画像内では両フレームにおける対象物Obの領域が抽出されるから、対象物Obが移動する場合には対象物Obに対応する領域は2箇所抽出される。   An image obtained by binarizing the difference image is almost identical to an image obtained by binarizing two distance differential images that generate the difference image and using the exclusive OR of each pixel in the binarized image as a pixel value. . Since the region of the object Ob in both frames is extracted in this image, two regions corresponding to the object Ob are extracted when the object Ob moves.

上述のように2枚のフレームから生成した差分画像によって対象物Obを抽出すると対象物Obが2箇所で抽出され、各フレームに含まれる対象物Obを分離することができない。特定の時刻(特定のフレーム)における対象物Obのみの領域を抽出する場合は、対象物抽出部6では3枚以上のフレームを用いて以下の処理を行う。3枚のフレームを用いる場合と4枚以上のフレームを用いる場合とでは具体的な手順は異なるが、考え方は同じであるから、以下では3枚のフレームを用いる場合について処理手順を説明する。   As described above, when the object Ob is extracted from the difference image generated from the two frames, the object Ob is extracted at two locations, and the object Ob included in each frame cannot be separated. When extracting only the area of the object Ob at a specific time (specific frame), the object extraction unit 6 performs the following process using three or more frames. The specific procedure is different between the case of using three frames and the case of using four or more frames, but since the concept is the same, the processing procedure will be described below in the case of using three frames.

いま、時刻T−ΔT、T、T+ΔTの距離画像からそれぞれ得られた3枚の距離微分画像を用いるものとする。各時刻T−ΔT、T、T+ΔTの距離微分画像はそれぞれ適宜の閾値で2値化され、図8(a)のように距離微分画像から3枚の2値画像E(T−ΔT)、E(T)、E(T+ΔT)が生成される。このような2値画像E(T−ΔT)、E(T)、E(T+ΔT)では対象物Obの輪郭を含む領域が背景とは異なる画素値になる。ここでは、対象物Obの輪郭を含む領域の画素値を「1」とする。   Now, it is assumed that three distance differential images respectively obtained from the distance images at times T−ΔT, T, and T + ΔT are used. The distance differential images at each time T−ΔT, T, and T + ΔT are binarized with appropriate threshold values, respectively, and three binary images E (T−ΔT), E from the distance differential image as shown in FIG. (T) and E (T + ΔT) are generated. In such binary images E (T−ΔT), E (T), and E (T + ΔT), the region including the contour of the object Ob has a pixel value different from the background. Here, the pixel value of the region including the contour of the object Ob is set to “1”.

対象物抽出部6では、時系列において隣り合っている各一対の2値画像(つまり、E(T−ΔT)とE(T)、E(T)とE(T+ΔT))の差分を求める。差分の演算には、各一対の2値画像について同じ位置の一対の画素ごとに排他的論理和(XOR)を求める論理演算を行う。このようにして得られた画像を以下では2値差分画像と呼ぶ。各一対の2値画像の差分として得られる2値差分画像では、図8(b)のように、それぞれ対象物Obが2回ずつ現れる。これは、2枚の微分距離画像の差分画像を生成した場合と同様である。   The object extraction unit 6 obtains a difference between each pair of binary images adjacent to each other in time series (that is, E (T−ΔT) and E (T), E (T) and E (T + ΔT)). In calculating the difference, a logical operation for obtaining an exclusive OR (XOR) for each pair of pixels at the same position for each pair of binary images is performed. The image thus obtained is hereinafter referred to as a binary difference image. In the binary difference image obtained as the difference between each pair of binary images, the object Ob appears twice each as shown in FIG. 8B. This is the same as when a differential image of two differential distance images is generated.

3枚の距離微分画像を用いているのは、特定の時刻(時刻T)における距離微分画像に含まれる対象物Obを抽出するためであるから、2値画像E(T)に含まれる対象物Obを抽出するために、2枚の2値差分画像について同じ位置の一対の画素ごとに論理積を求める論理演算を行う。すなわち、2枚の2値差分画像では背景はほぼ除去されているから、2枚の2値差分画像について論理積の演算を行うと、図8(c)のように共通部分は時刻Tにおける移動する対象物Obに対応する領域になる。このように、複数枚の2値画像を生成するとともに各2値画像における同位置の画素値を組み合わせる論理演算を適宜に行えば着目する時刻(時刻T)における対象物の領域を抽出することが可能になる。抽出された領域は背景がほぼ完全に除去されており、かつ対象物Obの境界を抽出することになるから、言わば、時刻Tにおける移動する対象物Obのシルエットを抽出したことになる。   The three distance differential images are used to extract the object Ob included in the distance differential image at a specific time (time T), and therefore the target included in the binary image E (T). In order to extract Ob, a logical operation for obtaining a logical product for each pair of pixels at the same position is performed on two binary difference images. That is, since the background is almost removed in the two binary difference images, when the logical product operation is performed on the two binary difference images, the common part moves at time T as shown in FIG. It becomes an area | region corresponding to the target object Ob to be performed. In this way, by generating a plurality of binary images and appropriately performing a logical operation that combines pixel values at the same position in each binary image, it is possible to extract the region of the object at the time of interest (time T). It becomes possible. Since the background of the extracted region is almost completely removed and the boundary of the object Ob is extracted, the silhouette of the moving object Ob at the time T is extracted.

本発明の実施形態を示すブロック図である。It is a block diagram which shows embodiment of this invention. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上に用いる光検出素子の要部の動作説明図である。It is operation | movement explanatory drawing of the principal part of the photon detection element used for the same as the above. 同上に用いる光検出素子の平面図である。It is a top view of the photon detection element used for the same as the above. 同上に用いる光検出素子の要部の動作説明図である。It is operation | movement explanatory drawing of the principal part of the photon detection element used for the same as the above. 同上に用いる光検出素子の要部の動作説明図である。It is operation | movement explanatory drawing of the principal part of the photon detection element used for the same as the above. 同上の微分処理部の動作説明図である。It is operation | movement explanatory drawing of a differentiation processing part same as the above. 同上において対象物を抽出する処理の動作説明図である。It is operation | movement explanatory drawing of the process which extracts a target object in the same as the above.

符号の説明Explanation of symbols

1 光検出素子
2 発光源
3 制御回路部
4 画像生成部
5 微分処理部
6 対象物判定部
6a 背景記憶部
11 感光部
Ob 対象物
DESCRIPTION OF SYMBOLS 1 Photodetection element 2 Light emission source 3 Control circuit part 4 Image generation part 5 Differentiation processing part 6 Object determination part 6a Background memory | storage part 11 Photosensitive part Ob Object

Claims (4)

対象空間に光を照射する発光源と、対象空間を撮像する光検出素子と、発光源から対象空間に照射され対象空間内の対象物で反射された反射光に対応する光検出素子の出力により対象物までの距離を求め画素値が距離値である距離画像を生成する画像生成部と、距離画像の距離値から求められる各画素の微分強度値である距離微分値を画素値とする距離微分画像を生成する微分処理部と、微分処理部により求めた距離微分値を用いて対象物を抽出する対象物判定部とを備えることを特徴とする画像処理装置。   A light source that emits light to the target space, a light detection element that images the target space, and an output of the light detection element that corresponds to the reflected light that is irradiated from the light source to the target space and reflected by the target in the target space. An image generation unit that calculates the distance to the object and generates a distance image whose pixel value is the distance value, and a distance differentiation that uses the distance differential value that is the differential intensity value of each pixel determined from the distance value of the distance image as the pixel value An image processing apparatus comprising: a differential processing unit that generates an image; and an object determination unit that extracts an object using a distance differential value obtained by the differential processing unit. 前記画像生成部は、時間の経過とともに対象空間を撮像した前記光検出素子の出力により距離画像を時系列で生成する構成であって、前記対象物判定部は、異なる時刻で得られた2枚の距離画像から生成した2枚の距離微分画像の差分である差分画像を生成し、差分画像において画素値が規定の閾値以上になる領域を対象物として抽出することを特徴とする請求項1記載の画像処理装置。   The image generation unit is configured to generate a distance image in time series based on an output of the light detection element that images the target space over time, and the object determination unit includes two images obtained at different times. The difference image which is the difference of the two distance differential images produced | generated from the distance image of this is produced | generated, and the area | region where a pixel value is more than a predetermined | prescribed threshold value in a difference image is extracted as a target object. Image processing apparatus. 前記画像生成部は、時間の経過とともに対象空間を撮像した前記光検出素子の出力により距離画像を時系列で生成する構成であって、前記対象物判定部は、異なる時刻で得られた3枚以上の距離画像から生成した3枚以上の距離微分画像について2枚ずつの差分である差分画像を生成し、複数枚の差分画像の画素値を規定の閾値と比較することにより複数枚の2値画像を生成するとともに各2値画像における同位置の画素値を組み合わせる論理演算により着目する時刻における移動する対象物の領域を抽出することを特徴とする請求項1記載の画像処理装置。   The image generation unit is configured to generate a distance image in time series based on an output of the light detection element that images the target space over time, and the object determination unit includes three images obtained at different times. A difference image that is a difference between two of the three or more distance differential images generated from the above distance images is generated, and a plurality of binary values are compared by comparing pixel values of the plurality of difference images with a prescribed threshold value. The image processing apparatus according to claim 1, wherein the region of the moving object at the time of interest is extracted by a logical operation that generates an image and combines pixel values at the same position in each binary image. 対象空間に移動する対象物が存在しない状態で得られた前記距離画像から前記微分処理部で生成した背景用の距離微分画像を記憶する背景記憶部を備え、前記対象物判定部は、背景用の距離微分画像とは異なる時刻に前記微分処理部で生成された距離微分画像と背景用の距離微分画像の差分である差分画像を生成し、差分画像において画素値が規定の閾値以上になる領域を対象物として抽出することを特徴とする請求項1記載の画像処理装置。   A background storage unit that stores a background differential image generated by the differential processing unit from the distance image obtained in a state where there is no target object moving in the target space, and the target determination unit A differential image that is a difference between the differential differential image generated by the differential processing unit and the differential differential image for background at a time different from the differential differential image of The image processing apparatus according to claim 1, wherein the image processing device is extracted as an object.
JP2004224481A 2004-07-30 2004-07-30 Image processor Pending JP2006048156A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004224481A JP2006048156A (en) 2004-07-30 2004-07-30 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004224481A JP2006048156A (en) 2004-07-30 2004-07-30 Image processor

Publications (1)

Publication Number Publication Date
JP2006048156A true JP2006048156A (en) 2006-02-16

Family

ID=36026665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004224481A Pending JP2006048156A (en) 2004-07-30 2004-07-30 Image processor

Country Status (1)

Country Link
JP (1) JP2006048156A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008241434A (en) * 2007-03-27 2008-10-09 Stanley Electric Co Ltd Distance image generation device
JP2009174830A (en) * 2008-01-28 2009-08-06 Sharp Corp Person position detecting device, and air conditioner
JP2012002735A (en) * 2010-06-18 2012-01-05 Panasonic Electric Works Co Ltd Spatial information detection device
WO2021106623A1 (en) * 2019-11-29 2021-06-03 ソニーセミコンダクタソリューションズ株式会社 Distance measurement sensor, distance measurement system, and electronic apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008241434A (en) * 2007-03-27 2008-10-09 Stanley Electric Co Ltd Distance image generation device
JP2009174830A (en) * 2008-01-28 2009-08-06 Sharp Corp Person position detecting device, and air conditioner
JP2012002735A (en) * 2010-06-18 2012-01-05 Panasonic Electric Works Co Ltd Spatial information detection device
WO2021106623A1 (en) * 2019-11-29 2021-06-03 ソニーセミコンダクタソリューションズ株式会社 Distance measurement sensor, distance measurement system, and electronic apparatus

Similar Documents

Publication Publication Date Title
JP4466260B2 (en) Image processing device
JP4692159B2 (en) Gesture switch
JP4363296B2 (en) Distance image sensor
KR102471540B1 (en) Method for subtracting background light from exposure values of pixels in an imaging array and pixels using the same
KR100820261B1 (en) Image processing device
WO2019217681A1 (en) Multi-photodiode pixel cell
US20180203122A1 (en) Gated structured imaging
JP3906859B2 (en) Distance image sensor
JP2018531374A (en) System and method for measuring distance to an object
JP2019529958A (en) System and method for determining distance to an object
JP2018531374A6 (en) System and method for measuring distance to an object
JP4466366B2 (en) Human body detection method and human body detection apparatus using range image
US20120154535A1 (en) Capturing gated and ungated light in the same frame on the same photosurface
JP2008209162A (en) Range image sensor
WO2006030989A1 (en) A range image sensor
JP2004309310A (en) Sensitivity control method for photo detector and detection device of space information using intensity modulation light
JP3906858B2 (en) Distance image sensor
JP4466319B2 (en) Spatial information detection device
JP2006046961A (en) Human body sensor
JP4543904B2 (en) Distance image sensor
JP2009109508A (en) Human body detection sensor
JP4259418B2 (en) Image processing device
JP2006048156A (en) Image processor
JP4432744B2 (en) Image processing device
JP4961035B2 (en) Gesture switch

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090414