JP2006048156A - Image processor - Google Patents
Image processor Download PDFInfo
- Publication number
- JP2006048156A JP2006048156A JP2004224481A JP2004224481A JP2006048156A JP 2006048156 A JP2006048156 A JP 2006048156A JP 2004224481 A JP2004224481 A JP 2004224481A JP 2004224481 A JP2004224481 A JP 2004224481A JP 2006048156 A JP2006048156 A JP 2006048156A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance
- differential
- light
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、対象空間の画像を用いて対象空間に存在する対象物を抽出する画像処理装置に関するものである。 The present invention relates to an image processing apparatus that extracts an object existing in a target space using an image of the target space.
従来から、対象空間を撮像した画像を用いて対象空間を監視したり対象空間内の対象物の外観を抽出したりする技術が種々提案されている(たとえば、特許文献1参照)。
ところで、上述した技術において用いている画像は、対象空間の明暗を反映した濃淡画像であって、外光の光量変化の影響を受けるから、光量にほとんど変化の生じない環境でしか使用できないという問題がある。 By the way, the image used in the above-described technique is a grayscale image reflecting the lightness and darkness of the target space, and is affected by a change in the amount of external light, so that it can be used only in an environment where the amount of light hardly changes. There is.
本発明は上記事由に鑑みて為されたものであり、その目的は、対象空間の光量変化の影響を受けることなく対象物を抽出できるようにした画像処理装置を提供することにある。 The present invention has been made in view of the above reasons, and an object of the present invention is to provide an image processing apparatus that can extract an object without being affected by a change in the amount of light in the object space.
請求項1の発明は、対象空間に光を照射する発光源と、対象空間を撮像する光検出素子と、発光源から対象空間に照射され対象空間内の対象物で反射された反射光に対応する光検出素子の出力により対象物までの距離を求め画素値が距離値である距離画像を生成する画像生成部と、距離画像の距離値から求められる各画素の微分強度値である距離微分値を画素値とする距離微分画像を生成する微分処理部と、微分処理部により求めた距離微分値を用いて対象物を抽出する対象物判定部とを備えることを特徴とする。
The invention of
この構成では、距離画像について微分強度値である距離微分値を画素値とする距離微分画像を生成するから、段差のように距離の変化率が大きい領域と距離の変化率が小さい領域とを容易に識別することが可能になる。たとえば、対象空間において対象物としての人体と背景との距離差が比較的大きく、かつ対象物の周囲において距離の変化率が大きい場合には、距離微分値が大きくなるから人体の輪郭などを抽出するのが容易になる。しかも、距離画像は光検出素子のダイナミックレンジの範囲内であれば外光光量の変化の影響を受けることなく同じ距離微分値を得ることができるから、対象物を正確に検出することが可能になる。 In this configuration, a distance differential image is generated with a distance differential value, which is a differential intensity value, for the distance image as a pixel value, so an area with a large distance change rate and an area with a small distance change rate such as a step can be easily obtained Can be identified. For example, when the distance difference between the human body as the target object and the background is relatively large in the target space and the rate of change of the distance around the target object is large, the distance differential value increases, so the contour of the human body is extracted. Easy to do. Moreover, if the distance image is within the dynamic range of the light detection element, the same distance differential value can be obtained without being affected by the change in the amount of external light, so that the object can be accurately detected. Become.
請求項2の発明では、請求項1の発明において、前記画像生成部は、時間の経過とともに対象空間を撮像した前記光検出素子の出力により距離画像を時系列で生成する構成であって、前記対象物判定部は、異なる時刻で得られた2枚の距離画像から生成した2枚の距離微分画像の差分である差分画像を生成し、差分画像において画素値が規定の閾値以上になる領域を対象物として抽出することを特徴とする。 According to a second aspect of the present invention, in the first aspect of the invention, the image generation unit generates a distance image in time series based on an output of the light detection element that images the target space with the passage of time. The object determination unit generates a difference image that is a difference between two distance differential images generated from two distance images obtained at different times, and an area in which the pixel value is equal to or greater than a predetermined threshold in the difference image. It is characterized by extracting as an object.
この構成によれば、2枚の距離微分画像の差分によって光検出素子の視野内で距離に変化が生じた領域のみを抽出することができ、しかも閾値によって差分の小さい領域は除去するから、主として2枚の距離画像が得られた時刻間で移動した対象物の領域を抽出することができる。また、ほぼ静止しているような対象物であっても人体のように微動する場合や風によって揺らいでいるような対象物であれば、対象物の境界付近の領域が抽出されることになる。 According to this configuration, it is possible to extract only the region in which the distance has changed within the field of view of the light detection element due to the difference between the two differential images, and the region having a small difference is removed by the threshold. It is possible to extract the region of the object that has moved between the time when the two distance images were obtained. In addition, even if the object is almost stationary, the region near the boundary of the object is extracted if the object moves slightly like a human body or if the object is fluctuated by the wind. .
請求項3の発明では、請求項1の発明において、前記画像生成部は、時間の経過とともに対象空間を撮像した前記光検出素子の出力により距離画像を時系列で生成する構成であって、前記対象物判定部は、異なる時刻で得られた3枚以上の距離画像から生成した3枚以上の距離微分画像について2枚ずつの差分である差分画像を生成し、複数枚の差分画像の画素値を規定の閾値と比較することにより複数枚の2値画像を生成するとともに各2値画像における同位置の画素値を組み合わせる論理演算により着目する時刻における移動する対象物の領域を抽出することを特徴とする。 According to a third aspect of the present invention, in the first aspect of the invention, the image generation unit generates a distance image in time series based on an output of the light detection element that images the target space as time passes. The target object determination unit generates a difference image that is a difference between each of two or more distance differential images generated from three or more distance images obtained at different times, and pixel values of the plurality of difference images And generating a plurality of binary images by extracting the region of the moving object at the time of interest by a logical operation combining pixel values at the same position in each binary image. And
この構成によれば、差分画像によって背景を除去し、さらに2値画像を生成することによってほぼ完全に背景を除去することができる。また、2値画像の画素値を組み合わせる論理演算を行うから、距離画像内に移動する対象物が含まれている場合には、着目する時刻において背景をほぼ完全に除去して対象物の境界を抽出することができる。すなわち、移動する対象物について言わばシルエットを抽出することになる。 According to this configuration, the background can be removed almost completely by removing the background using the difference image and generating a binary image. In addition, since a logical operation that combines the pixel values of the binary image is performed, when the moving object is included in the distance image, the background of the object is removed by removing the background almost completely at the time of interest. Can be extracted. That is, a silhouette is extracted for the moving object.
請求項4の発明では、請求項1の発明において、対象空間に移動する対象物が存在しない状態で得られた前記距離画像から前記微分処理部で生成した背景用の距離微分画像を記憶する背景記憶部を備え、前記対象物判定部は、背景用の距離微分画像とは異なる時刻に前記微分処理部で生成された距離微分画像と背景用の距離微分画像の差分である差分画像を生成し、差分画像において画素値が規定の閾値以上になる領域を対象物として抽出することを特徴とする。 According to a fourth aspect of the present invention, in the first aspect of the invention, a background for storing a distance differential image for a background generated by the differential processing unit from the distance image obtained in a state where there is no object moving in the target space. A storage unit, wherein the object determination unit generates a difference image that is a difference between the distance differential image generated by the differential processing unit and the background distance differential image at a time different from the background distance differential image. In the difference image, a region where the pixel value is equal to or greater than a predetermined threshold is extracted as an object.
この構成によれば、背景に関する距離微分画像をあらかじめ記憶しておき、対象空間を撮像して得られた距離微分画像と背景に関する距離微分画像との差分を閾値と比較して対象物を抽出するから、背景に対して変化した領域を対象物として容易に検出することができる。 According to this configuration, the distance differential image related to the background is stored in advance, and the object is extracted by comparing the difference between the distance differential image obtained by imaging the target space and the distance differential image related to the background with the threshold value. Therefore, it is possible to easily detect a region changed with respect to the background as an object.
本発明の構成によれば、距離画像について微分強度値である距離微分値を画素値とする距離微分画像を生成するから、段差のように距離の変化率が大きい領域と距離の変化率が小さい領域とを容易に識別することが可能になるという利点があり、しかも光検出素子のダイナミックレンジの範囲内であれば外光光量の変化の影響を受けることなく同じ距離微分値を得ることができるから、対象物を正確に検出することが可能になるという利点がある。 According to the configuration of the present invention, a distance differential image having a differential distance value that is a differential intensity value as a pixel value is generated for the distance image. Therefore, an area having a large distance change rate such as a step and a small distance change rate are generated. There is an advantage that it is possible to easily distinguish the region, and the same differential distance value can be obtained without being affected by the change in the amount of external light as long as it is within the dynamic range of the light detection element. Therefore, there is an advantage that the object can be accurately detected.
本発明の実施形態を説明するにあたり、まず本実施形態で用いる距離画像センサの構成について説明する。 In describing the embodiment of the present invention, the configuration of the distance image sensor used in the present embodiment will be described first.
本実施形態で用いる距離画像センサは、図1に示すように、対象空間に光を照射する発光源2を備えるとともに、対象空間からの光を受光し受光光量を反映した出力値の電気出力が得られる光検出素子1を備える。対象空間に存在する対象物Obまでの距離は、発光源2から対象空間に光が照射されてから対象物Obでの反射光が光検出素子1に入射するまでの時間(「飛行時間」と呼ぶ)によって求める。ただし、飛行時間は非常に短いから、対象空間に照射する光の強度が一定周期で周期的に変化するように変調した強度変調光を用い、強度変調光を受光したときの位相を用いて飛行時間を求める。なお、本発明の技術思想は、距離画像センサとして、飛行時間により距離画像を生成する構成のほか、三角測量法の原理によって距離画像を生成する構成においても採用可能である。ただし、以下に説明する構成の距離画像センサは、三角測量法の原理を用いる距離画像センサに比較して短時間で(ほぼ実時間)で距離画像を生成できるから、三角測量法の原理を採用した距離画像センサよりも好ましい。
As shown in FIG. 1, the distance image sensor used in the present embodiment includes a
図2(a)に示すように、発光源2から空間に放射する光の強度が曲線イのように変化し、光検出素子1で受光した受光光量が曲線ロのように変化するとすれば、位相差ψは飛行時間に相当するから、位相差ψを求めることにより対象物Obまでの距離を求めることができる。また、位相差ψは、曲線イの複数のタイミングで求めた曲線ロの受光光量を用いて計算することができる。たとえば、曲線イにおける位相が0度、90度、180度、270度の位相で求めた曲線ロの受光光量がそれぞれA0、A1、A2、A3であるとする(受光光量A0、A1、A2、A3を斜線部で示している)。ただし、各位相における受光光量A0、A1、A2、A3は、瞬時値ではなく所定の時間Twで積算した受光光量を用いる。いま、受光光量A0、A1、A2、A3を求める間に、位相差ψが変化せず(つまり、対象物Obまでの距離が変化せず)、かつ対象物Obの反射率にも変化がないものとする。また、発光源2から放射する光の強度を正弦波で変調し、時刻tにおいて光検出素子1で受光される光の強度がA・sin(ωt+δ)+Bで表されるものとする。ここに、Aは振幅、Bは外光成分、ωは角振動数、δは位相である。光検出素子1で受光する受光光量A0、A1、A2、A3を時間Twの積算値ではなく瞬時値とすれば、受光光量A0、A1、A2、A3は、次のように表すことができる。
A0=A・sin(δ)+B
A1=A・sin(π/2+δ)+B
A2=A・sin(π+δ)+B
A3=A・sin(3π/2+δ)+B
ここに、δ=−ψであるから、A0=−A・sin(ψ)+B、A1=A・cos(ψ)+B、A2=A・sin(ψ)+B、A3=−A・cos(ψ)+Bであり、結果的に、各受光光量A0、A1、A2、A3と位相差ψとの関係は、次式のようになる。
ψ=tan−1{(A2−A0)/(A1−A3)} …(1)
(1)式では受光光量A0、A1、A2、A3の瞬時値を用いているが、受光光量A0、A1、A2、A3として時間Twにおける積算値を用いても(1)式で位相差ψを求めることができる。
As shown in FIG. 2A, if the intensity of light radiated from the
A0 = A · sin (δ) + B
A1 = A · sin (π / 2 + δ) + B
A2 = A · sin (π + δ) + B
A3 = A · sin (3π / 2 + δ) + B
Since δ = −ψ, A0 = −A · sin (ψ) + B, A1 = A · cos (ψ) + B, A2 = A · sin (ψ) + B, A3 = −A · cos (ψ ) + B, and as a result, the relationship between the received light amounts A0, A1, A2, A3 and the phase difference ψ is expressed as follows.
ψ = tan −1 {(A2−A0) / (A1−A3)} (1)
Although the instantaneous values of the received light amounts A0, A1, A2, and A3 are used in the equation (1), the phase difference ψ in the equation (1) even if the integrated values at the time Tw are used as the received light amounts A0, A1, A2, and A3. Can be requested.
上述のように対象空間に照射する光の強度を変調するために、発光源2としては、たとえば多数個の発光ダイオードを一平面上に配列したものや半導体レーザと発散レンズとを組み合わせたものなどを用いる。また、発光源2は、制御回路部3から出力される所定の変調周波数である変調信号によって駆動され、発光源2から放射される光は変調信号により強度が変調される。制御回路部3では、たとえば20MHzの正弦波で発光源2から放射する光の強度を変調する。なお、発光源2から放射する光の強度は正弦波で変調する以外に、三角波、鋸歯状波などで変調してもよく、要するに、一定周期で強度を変調するのであれば、どのような構成を採用してもよい。
As described above, in order to modulate the intensity of the light irradiated to the target space, the
光検出素子1は、規則的に配列された複数個の感光部11を備える。また、感光部11への光の入射経路には受光光学系8が配置される。感光部11は光検出素子1において対象空間からの光が受光光学系8を通して入射する部位であって、感光部11において受光光量に応じた量の電荷を生成する。また、感光部11は、平面格子の格子点上に配置され、たとえば垂直方向(つまり、縦方向)と水平方向(つまり、横方向)とにそれぞれ等間隔で複数個ずつ並べたマトリクス状に配列される。
The
受光光学系8は、光検出素子1から対象空間を見るときの視線方向と各感光部11とを対応付ける。すなわち、受光光学系8を通して各感光部11に光が入射する範囲を、受光光学系8の中心を頂点とし各感光部11ごとに設定された頂角の小さい円錐状の視野とみなすことができる。したがって、発光源2から放射され対象空間に存在する対象物Obで反射された反射光が感光部11に入射すれば、反射光を受光した感光部11の位置により、受光光学系8の光軸を基準方向として対象物Obの存在する方向を知ることができる。
The light receiving
受光光学系8は一般に感光部11を配列した平面に光軸を直交させるように配置されるから、受光光学系8の中心を原点とし、感光部11を配列した平面の垂直方向と水平方向と受光光学系8の光軸とを3軸の方向とする直交座標系を設定すれば、対象空間に存在する対象物Obの位置を球座標で表したときの角度(いわゆる方位角と仰角)が各感光部11に対応する。なお、受光光学系8は、感光部11を配列した平面に対して光軸が90度以外の角度で交差するように配置することも可能である。
Since the light receiving
本実施形態では、上述のように、対象物Obまでの距離を求めるために、発光源2から対象空間に照射される光の強度変化に同期する4点のタイミングで受光光量A0、A1、A2、A3を求めている。したがって、目的の受光光量A0、A1、A2、A3を得るためのタイミングの制御が必要である。また、発光源2から対象空間に照射される光の強度変化の1周期において感光部11で発生する電荷の量は少ないから、複数周期に亘って電荷を集積することが望ましい。そこで、図1のように各感光部11で発生した電荷をそれぞれ集積する複数個の電荷集積部13を設けるとともに、各感光部11において利用できる電荷を生成する領域の面積を変化させることにより各感光部11の感度をそれぞれ調節する複数個の感度制御部12を設けている。
In the present embodiment, as described above, in order to obtain the distance to the object Ob, the received light amounts A0, A1, and A2 are synchronized at four timings synchronized with the intensity change of the light emitted from the
各感度制御部12では、感度制御部12に対応する感光部11の感度を上述した4点のうちのいずれかのタイミングで高め、感度が高められた感光部11では当該タイミングの受光光量A0、A1、A2、A3に対応する電荷を主として生成するから、当該受光光量A0、A1、A2、A3に対応する電荷を当該感光部11に対応する電荷集積部13に集積させることができる。
In each
ところで、感度制御部12は感光部11において利用できる電荷を生成する領域の面積(実質的な受光面積)を変化させることにより各期間の電荷の生成量を変化させるものであるから、電荷集積部13に集積された電荷は必ずしも受光光量A0、A1、A2、A3が得られる期間に生成された電荷だけではなく、他の期間に生成された電荷も混入することになる。いま、感度制御部12において、受光光量A0、A1、A2、A3に対応した電荷を生成する期間の感度をα、それ以外の期間の感度をβとし、感光部11は受光光量に比例する電荷を生成するものとする。この条件では、受光光量A0に対応した電荷を集積する電荷集積部13には、αA0+β(A1+A2+A3)+βAx(Axは受光光量A0、A1、A2、A3が得られる期間以外の受光光量)に比例する電荷が蓄積され、受光光量A2に対応した電荷を集積する電荷集積部13には、αA2+β(A0+A1+A3)+βAxに比例する電荷が蓄積される。上述したように、位相差ψを求める際には(A2−A0)を求めており、A2−A0=(α−β)(A2−A0)になり、同様にしてA1−A3=(α−β)(A1−A3)になるから、(A2−A0)/(A1−A3)は電荷の混入の有無によらず理論上は同じ値になるのであって、電荷が混入しても求める位相差ψは同じ値になる。
By the way, the
感光部11と感度制御部12と電荷集積部13とを備える光検出素子1は1つの半導体装置として構成され、光検出素子1には電荷集積部13に集積された電荷を半導体装置の外部に取り出すために電荷取出部14が設けられる。電荷取出部14はCCDイメージセンサにおける垂直転送部および水平転送部と同様の構成を有する。
The
電荷取出部14から取り出された電荷は画像生成部4に画像信号として与えられ、画像生成部4において対象空間内の対象物Obまでの距離が上述した(1)式を用いて受光光量A0、A1、A2、A3から算出される。すなわち、画像生成部4では各感光部11に対応した各方向における対象物Obまでの距離が算出され、対象空間の三次元情報が算出される。この三次元情報を用いると、対象空間の各方向に一致する画素の画素値が距離値である距離画像を生成することができる。
The electric charge extracted from the electric
以下に光検出素子1の具体的構造例を説明する。図3に示す光検出素子1は、複数個(たとえば、100×100個)の感光部11をマトリクス状に配列したものであって、たとえば1枚の半導体基板上に形成される。感光部11のうち垂直方向の各列では一体に連続する半導体層21を共用するとともに半導体層21を垂直方向への電荷(本実施形態では、電子を用いる)の転送経路として用い、さらに各列の半導体層21の一端から電荷を受け取って水平方向に電荷を転送するCCDである水平転送部Thを半導体基板に設ける構成を採用することができる。
Hereinafter, a specific structural example of the
すなわち、図4に示すように、半導体層21が感光部11と電荷の転送経路とに兼用された構造であって、フレーム・トランスファ(FT)方式のCCDイメージセンサと類似した構造になる。また、FT方式のCCDイメージセンサと同様に、感光部11を配列した撮像領域Daに隣接して遮光された蓄積領域Dbを設けてあり、蓄積領域Dbに蓄積した電荷を水平転送部Thに転送する。撮像領域Daから蓄積領域Dbへの電荷の転送は垂直ブランキング期間に一気に行い、水平転送部Thでは1水平期間に1水平ライン分の電荷を転送する。図1に示した電荷取出部14は、半導体層21における垂直方向への電荷の転送経路としての機能とともに水平転送部Thを含む機能を表している。ただし、電荷集積部13は蓄積領域Dbを意味するのではなく、撮像領域Daにおいて電荷を集積する機能を表している。言い換えると、蓄積領域Dbは電荷取出部14に含まれる。
That is, as shown in FIG. 4, the
半導体層21は不純物が添加してあり、半導体層21の主表面は酸化膜からなる絶縁膜22により覆われ、半導体層21に絶縁膜22を介して複数個の制御電極23を配置している。この光検出素子1はMIS素子として知られた構造であるが、1個の光検出素子1として機能する領域に複数個(図示例では5個)の制御電極23を備える点が通常のMIS素子とは異なる。絶縁膜22および制御電極23は発光源2から対象空間に照射される光と同波長の光が透過するように材料が選択され、絶縁膜22を通して半導体層21に光が入射すると、半導体層21の内部に電荷が生成される。図示例の半導体層21の導電形はn形であり、光の照射により生成される電荷として電子eを利用する。図3は1個の感光部11に対応する領域のみを示したものであり、半導体基板(図示せず)には上述したように図3の構造を持つ領域が複数個配列されるとともに電荷取出部14となる構造が設けられる。電荷取出部14として設ける垂直転送部は、図3の左右方向に電荷を転送することを想定しているが、図3の面に直交する方向に電荷を転送する構成を採用することも可能である。また、電荷を図の左右方向に転送する場合には、制御電極23の左右方向の幅寸法を1μm程度に設定するのが望ましい。
The
この構造の光検出素子1では、制御電極23に正の制御電圧+Vを印加すると、半導体層21には制御電極23に対応する部位に電子eを集積するポテンシャル井戸(空乏層)24が形成される。つまり、半導体層21にポテンシャル井戸24を形成するように制御電極23に制御電圧を印加した状態で光が半導体層21に照射されると、ポテンシャル井戸24の近傍で生成された電子eの一部はポテンシャル井戸24に捕獲されてポテンシャル井戸24に集積され、残りの電子eは半導体層21の深部での再結合により消滅する。また、ポテンシャル井戸24から離れた場所で生成された電子eも半導体層21の深部での再結合により消滅する。
In the
ポテンシャル井戸24は制御電圧を印加した制御電極23に対応する部位に形成されるから、制御電圧を印加する制御電極23の個数を変化させることによって、半導体層21の主表面に沿ったポテンシャル井戸24の面積(言い換えると、受光面において利用できる電荷を生成する領域の面積)を変化させることができる。つまり、制御電圧を印加する制御電極23の個数を変化させることは感度制御部12における感度の調節を意味する。たとえば、図3(a)のように3個の制御電極23に制御電圧+Vを印加する場合と、図3(b)のように1個の制御電極23に制御電圧+Vを印加する場合とでは、ポテンシャル井戸24が受光面に占める面積が変化するのであって、図3(a)の状態のほうがポテンシャル井戸24の面積が大きいから、図3(b)の状態に比較して同光量に対して利用できる電荷の割合が多くなり、実質的に感光部11の感度を高めたことになる。このように、感光部11および感度制御部12は半導体層21と絶縁膜22と制御電極23とにより構成されていると言える。ポテンシャル井戸24は光照射により生成された電荷を保持するから電荷集積部13として機能する。
Since the
ポテンシャル井戸24から電荷を取り出すには、FT方式のCCDと同様の技術を採用すればよく、ポテンシャル井戸24に電子eが集積された後に、電荷の集積時とは異なる印加パターンの制御電圧を制御電極23に印加することによってポテンシャル井戸24に集積された電子eを一方向(たとえば、図の右方向)に転送することができる。つまり、半導体層21をCCDの垂直転送部と同様に電荷の転送経路に用いることができる。さらに、電荷は図4に示した水平転送部Thを転送され、半導体基板に設けた図示しない電極から光検出素子1の外部に取り出される。要するに、制御電極23への制御電圧の印加パターンを制御することにより、各感光部11ごとの感度を制御するとともに、光照射により生成された電荷を集積し、さらに集積された電荷を転送することができる。
In order to extract charges from the
本実施形態における感度制御部12は、利用できる電荷を生成する面積を大小2段階に切り換えることにより感光部11の感度を高低2段階に切り換えるのであって、受光光量A0、A1、A2、A3のいずれかに対応する電荷を感光部11で生成しようとする期間にのみ高感度とし(電荷を生成する面積を大きくし)、他の期間には低感度にする。高感度にする期間と低感度にする期間とは、発光源2を駆動する変調信号に同期させて設定される。また、変調信号の複数周期に亘ってポテンシャル井戸24に電荷を集積した後に電荷取出部14を通して光検出素子1の外部に電荷を取り出すようにしている。変調信号の複数周期に亘って電荷を集積しているのは、変調信号の1周期内では感光部11が利用可能な電荷を生成する期間が短く(たとえば、変調信号の周波数を20MHzとすれば50nsの4分の1以下)、生成される電荷が少ないからである。つまり、変調信号の複数周期分の電荷を集積することにより、信号電荷(発光源2から照射された光に対応する電荷)と雑音電荷(外光成分および光検出素子1の内部で発生するショットノイズに対応する電荷)との比を大きくとることができ、大きなSN比が得られる。
The
ところで、位相差ψを求めるのに必要な4種類の受光光量A0、A1、A2、A3に対応する電荷を1個の感光部11で生成するとすれば、視線方向に関する分解能は高くなるが、各受光光量A0、A1、A2、A3に対応する電荷を求める時間差が大きくなるという問題が生じる。一方、各受光光量A0、A1、A2、A3に対応する電荷を4個の感光部11でそれぞれ生成するとすれば、各受光光量A0、A1、A2、A3に対応する電荷を求める時間差は小さくなるが、4種類の電荷を求める視線方向にずれが生じ視線方向に関する分解能は低下する。そこで、本実施形態では、2個の感光部11を用いることにより、変調信号の1周期内で受光光量A0、A1、A2、A3に対応する電荷を2種類ずつ生成する構成を採用している。つまり、2個の感光部11を組にして用い、組になる2個の感光部11に同じ視線方向からの光が入射するようにしている。
By the way, if the charges corresponding to the four kinds of received light amounts A0, A1, A2, and A3 necessary for obtaining the phase difference ψ are generated by one
上述の構成を採用することにより、視線方向の分解能を比較的高くし、かつ受光光量A0、A1、A2、A3に対応する電荷を生成する時間差を少なくすることができる。つまり、受光光量A0、A1、A2、A3に対応する電荷を生成する時間差を少なくしていることにより、対象空間の中で移動している対象物Obについても距離の検出精度を比較的高く保つことができる。なお、本実施形態の構成では、1個の感光部11で4種類の受光光量A0、A1、A2、A3に対応する電荷を生成する場合よりも視線方向の分解能が低下するが、視線方向の分解能については感光部11の小型化や受光光学系8の設計によって向上させることが可能である。
By adopting the above-described configuration, the resolution in the line-of-sight direction can be made relatively high, and the time difference for generating charges corresponding to the received light amounts A0, A1, A2, and A3 can be reduced. That is, by reducing the time difference for generating charges corresponding to the received light amounts A0, A1, A2, and A3, the distance detection accuracy is kept relatively high even for the object Ob moving in the target space. be able to. In the configuration of this embodiment, the resolution in the line-of-sight direction is lower than that in the case where charges corresponding to four types of received light amounts A0, A1, A2, and A3 are generated by one
以下に動作を具体的に説明する。図3に示した例では、1個の感光部11について5個の制御電極23を設けた例を示しているが、両側の2個の制御電極23は、感光部11で電荷(電子e)を生成している間に隣接する感光部11に電荷が流出するのを防止するための障壁を形成するものであって、2個の感光部11を組にして用いる場合には隣接する感光部11のポテンシャル井戸24の間には、いずれかの感光部11で障壁が形成されるから、各感光部11には3個ずつの制御電極23を設けるだけで足りることになる。この構成によって、感光部11の1個当たりの占有面積が小さくなり、2個の感光部11を組にして用いながらも視線方向の分解能の低下を抑制することが可能になる。
The operation will be specifically described below. In the example shown in FIG. 3, an example in which five
ここでは、図5に示すように、組にした2個の感光部11にそれぞれ設けた3個ずつの制御電極23を区別するために各制御電極23に(1)〜(6)の数字を付す。(1)〜(6)の数字を付与した制御電極23を有する2個の感光部11は、1つの視線方向に対応しておりイメージセンサにおける画素を構成する。なお、1画素ずつの感光部11に対応付けて、それぞれオーバフロードレインを設けるのが望ましい。
Here, as shown in FIG. 5, the numbers (1) to (6) are assigned to the
図5(a)(b)はそれぞれ制御電極23に異なる印加パターンで制御電圧+Vを印加した状態(半導体基板に設けた図示しない基板電極と制御電極23との間に制御電圧+Vを印加した状態)を示しており、ポテンシャル井戸24の形状からわかるように、図5(a)では1画素となる2個の感光部11のうち制御電極(1)〜(3)に正の制御電圧+Vを印加するとともに、残りの制御電極(4)〜(6)のうちの中央の制御電極(5)に正の制御電圧+Vを印加している。また、図5(b)では制御電極(1)〜(3)のうちの中央の制御電極(2)に正の制御電圧+Vを印加するとともに、残りの制御電極(4)〜(6)に正の制御電圧+Vを印加している。つまり、1画素を構成する2個の感光部11に印加する制御電圧+Vの印加パターンを交互に入れ換えている。2個の感光部11に印加する制御電圧+Vの印加パターンを入れ換えるタイミングは、変調信号における逆位相の(位相が180度異なる)タイミングになる。なお、各感光部11に設けた3個の制御電極23に同時に制御電圧+Vを印加している期間以外は、各感光部11に設けた中央部の1個の制御電極23(つまり、制御電極(2)(5))にのみ制御電圧+Vを印加し、他の制御電極23は0Vに保つ状態とする。
5A and 5B show a state in which a control voltage + V is applied to the
たとえば、1画素を構成する2個の感光部11において受光光量A0、A2に対応する電荷を交互に生成する場合は、図2のように、一方の感光部11で受光光量A0に対応する電荷を生成するために3個の制御電極(1)〜(3)に制御電圧+Vを印加している間に、他方の感光部11では受光光量A2に対応する電荷を保持するために1個の制御電極(5)にのみ制御電圧+Vを印加する。同様にして、一方の感光部11で受光光量A2に対応する電荷を生成するために3個の制御電極(4)〜(6)に制御電圧+Vを印加している間には、他方の感光部11では受光光量A0に対応する電荷を保持するために1個の制御電極(2)にのみ制御電圧+Vを印加する。また、受光光量A0、A2に対応する電荷を生成する期間以外では制御電極(2)(5)にのみ制御電圧+Vを印加する。図2(b)(c)に受光光量A0、A2に対応する電荷を蓄積する際の各制御電極(1)〜(6)に制御電圧+Vの印加のタイミングを示す。図において斜線部が制御電圧+Vを印加している状態を示し、空白部が制御電極(1)〜(6)に電圧を印加していない状態を示している。
For example, when the charges corresponding to the received light amounts A0 and A2 are alternately generated in the two
1画素を構成する2個の感光部11において受光光量A1、A3に対応する電荷を生成する場合も同様であって、受光光量A0、A2に対応する電荷を生成する場合とは制御電極23に制御電圧+Vを印加するタイミングが、変調信号の位相における90度異なる点が相違するだけである。また、受光光量A0、A1に対応する電荷を生成する期間と、受光光量A1、A3に対応する電荷を生成する期間との間で撮像領域から蓄積領域に電荷を転送する。つまり、受光光量A0に対応する電荷が制御電極(1)〜(3)に対応するポテンシャル井戸24に蓄積されるとともに、受光光量A2に対応する電荷が制御電極(4)〜(6)に対応するポテンシャル井戸24に蓄積されると、これらの受光光量A0、A2に対応する電荷を外部に取り出す。次に、受光光量A1に対応する電荷が制御電極(1)〜(3)に対応するポテンシャル井戸24に蓄積されるとともに、受光光量A3に対応する電荷が制御電極(4)〜(6)に対応するポテンシャル井戸24に蓄積されると、これらの受光光量A1、A3に対応する電荷を外部に取り出す。このような動作を繰り返すことによって、4区間の受光光量A0、A1、A2、A3に対応する電荷を2回の読出動作で光出力素子1の外部に取り出すことができ、取り出した電荷を用いて位相差ψを求めることが可能になる。なお、たとえば30フレーム毎秒の画像を得るためには、受光光量A0、A1に対応する電荷を生成する期間と受光光量A1、A3に対応する電荷を生成する期間とは60分の1秒よりも短い期間とする。
The same applies to the case where the charges corresponding to the received light amounts A1 and A3 are generated in the two
上述の例では3個の制御電極23((1)〜(3)または(4)〜(6))に同時に印加する制御電圧と、1個の制御電極23((2)または(5))にのみ印加する制御電圧とを等しくしているから、ポテンシャル井戸24の面積は変化するもののポテンシャル井戸24の深さは等しくなっている。この場合、制御電圧を印加していない制御電極23((1)(3)または(4)(6))において生成された電荷は、同程度の確率でポテンシャル井戸24に流れ込む。つまり、感光部11を構成する3個の制御電極23のうちの1個にのみ制御電圧+Vを印加することによって電荷集積部13として機能している領域と、3個の制御電極23のすべてに制御電圧+Vを印加している領域との両方に同程度の量の電荷が流れ込む。つまり、電荷を保持しているポテンシャル井戸24に流れ込む雑音成分が比較的多いものであるから、ダイナミックレンジを低下させる原因になる。
In the above example, the control voltage applied simultaneously to the three control electrodes 23 ((1) to (3) or (4) to (6)) and one control electrode 23 ((2) or (5)) Since the control voltage applied only to is equal, the area of the
そこで、図6のように、組になる2個の感光部11に設けた各3個の制御電極(1)〜(3)または(4)〜(6)に同時に印加する制御電圧が、1個の制御電極(2)または(5)にのみ印加する制御電圧よりも高くなるように設定し、大面積のポテンシャル井戸24を小面積のポテンシャル井戸24よりも深く設定するのが望ましい。このように、主として電荷(電子e)を生成しているポテンシャル井戸24を、主として電荷の保持を行っているポテンシャル井戸24よりも深くすることにより、制御電圧を印加していない制御電極(1)(3)または(4)(6)に対応する部位で生じた電荷は、深いほうのポテンシャル井戸24に流れ込みやすくなる。つまり、制御電極23に一定の制御電圧+Vを印加する場合に比較すると、電荷を保持するポテンシャル井戸24に流れ込む雑音成分を低減することができる。
Therefore, as shown in FIG. 6, the control voltage applied simultaneously to each of the three control electrodes (1) to (3) or (4) to (6) provided in the two
なお、上述した距離画像センサの構成例では、受光光量A0、A1、A2、A3に対応する4期間を変調信号の1周期内で位相の間隔が90度ずつになるように設定しているが、変調信号に対する位相が既知であれば4期間は90度以外の適宜の間隔で設定することが可能である。ただし、間隔が異なれば位相差ψを求める算式は異なる。また、4期間の受光光量に対応した電荷を取り出す周期は、対象物Obの反射率および外光成分が変化せず、かつ位相差ψも変化しない時間内であれば、変調信号の1周期内で4個の信号電荷を取り出すことも必須ではない。さらに、太陽光や照明光のような外乱光の影響があるときには、発光源2から放射される光の波長のみを透過させる光学フィルタを感光部11の前に配置するのが望ましい。図5、図6を用いて説明した構成例では、感光部11ごとに3個ずつの制御電極23を対応付けているが、制御電極23を4個以上設けるようにしてもよい。また、上述の例ではFT方式のCCDイメージセンサと同様の構成を採用しているが、インターライン・トランスファ(IT)方式、フレーム・インターライン・トランスファ(FIT)方式と同様の構成を採用することも可能である。
In the configuration example of the distance image sensor described above, four periods corresponding to the received light amounts A0, A1, A2, and A3 are set so that the phase interval is 90 degrees in one cycle of the modulation signal. If the phase with respect to the modulation signal is known, the four periods can be set at appropriate intervals other than 90 degrees. However, the formula for obtaining the phase difference ψ differs if the interval is different. Also, the period of taking out the charge corresponding to the amount of received light in the four periods is within one period of the modulation signal as long as the reflectance of the object Ob and the external light component do not change and the phase difference ψ does not change. Thus, it is not essential to take out four signal charges. Furthermore, when there is an influence of disturbance light such as sunlight or illumination light, it is desirable to dispose an optical filter that transmits only the wavelength of light emitted from the
次に、上述した距離画像センサを用いて対象空間に存在する対象物を抽出する技術について説明する。ここでは、距離画像を生成する際の光検出素子1への外光成分の入射を低減するために、発光源2から赤外線を対象空間に照射し、光検出素子1の前方に赤外線透過フィルタを配置しているものとする。
Next, a technique for extracting an object existing in the target space using the above-described distance image sensor will be described. Here, in order to reduce the incidence of external light components on the
図1に示すように、画像生成部4で生成された距離画像は微分処理部5に与えられ、微分処理部5では、距離画像の距離値から求められる各画素の微分強度値である距離微分値を画素値とする距離微分画像が生成される。微分強度値は、たとえば着目する画素の8近傍を用いて求められる値であって、本実施形態では、図7のような3×3平方領域の中央の画素p5を着目する画素とするときに、他の画素p1〜p4,p6〜p9の画素値B1〜B4,B6〜B9を用いることにより(2)式で表される。
(ΔX2+ΔY2)1/2 …(2)
ただし、
ΔX=(B1+B4+B7)−(B3+B6+B9)
ΔY=(B1+B2+B3)−(B7+B8+B9)
本実施形態では、距離微分値を求めるから画素値B1〜B4,B6〜B9は距離値になる。(2)式によって求めた距離微分値を画素値に持つ距離微分画像においては距離画像における距離差の大きい部位ほど距離微分値が大きくなる。
As shown in FIG. 1, the distance image generated by the
(ΔX 2 + ΔY 2 ) 1/2 (2)
However,
ΔX = (B1 + B4 + B7) − (B3 + B6 + B9)
ΔY = (B1 + B2 + B3) − (B7 + B8 + B9)
In this embodiment, since the distance differential value is obtained, the pixel values B1 to B4 and B6 to B9 are distance values. In a distance differential image having a distance differential value obtained by the equation (2) as a pixel value, the distance differential value increases as the distance difference in the distance image increases.
距離微分画像は対象物判定部6に与えられ、対象空間内に存在する対象物Obが検出される。以下では、対象物判定部6において距離微分画像から対象物Obを検出する技術について説明する。
The distance differential image is given to the
一般に人のような対象物Obでは背景との境界付近において距離値の変化率が大きくなるから、距離微分画像において距離微分値が極大値になる領域を抽出すれば対象物Obの輪郭を含む1画素程度の幅の領域を抽出することができる。対象空間において抽出しようとする目的の対象物Obを除く背景の情報が既知であれば、距離微分値が極大値になる領域から既知情報を用いて背景を除去すれば、目的の対象物Obのみの領域を抽出することができる。ここに、極大値を用いているが、適宜の閾値で2値化することによっても同様の処理が可能である。外光光量が光検出素子1のダイナミックレンジの範囲内であれば、距離微分値は外光光量の変化の影響を受けないから、濃淡画像を用いる場合のように外光光量の影響を受けることなく対象物Obを正確に検出することができる。
In general, an object Ob such as a person has a large rate of change in the distance value near the boundary with the background. Therefore, if an area where the distance differential value is a maximum value is extracted from the distance differential image, the contour of the object Ob is included. A region having a width of about a pixel can be extracted. If the background information excluding the target object Ob to be extracted in the target space is known, only the target object Ob can be obtained by removing the background using the known information from the region where the distance differential value becomes the maximum value. Can be extracted. Although the maximum value is used here, the same processing can be performed by binarizing with an appropriate threshold. If the amount of external light is within the dynamic range of the
ところで、背景の情報を得るために、対象空間に移動する対象物Obが存在しない状態で得られた距離画像から微分処理部5で生成した背景用の距離微分画像をあらかじめ記憶しておくのが望ましい。そこで、対象空間に対象物Obが存在しない状態で得られた距離微分画像を記憶する背景記憶部6aを対象物判定部6に設けている。対象物判定部6は、背景用の距離微分画像とは異なる時刻に微分処理部5で生成された距離微分画像と背景記憶部6aが記憶している背景用の距離微分画像の差分である差分画像を生成し、差分画像において画素値が規定の閾値以上になる領域を対象物Obとして抽出するのである。すなわち、差分画像では、背景に対して変化した領域を抽出するから、対象物Obを背景から分離して容易に抽出することができる。
By the way, in order to obtain the background information, the distance differential image for the background generated by the
上述のように背景の距離微分画像を用いるには、対象物Obが存在しない状態であらかじめ対象空間の距離画像を生成しておく必要がある。一方、移動する対象物Obであれば2枚の距離微分画像の差分である差分画像を生成することにより、対象物Obを除いた静止している背景を除去できる。 As described above, in order to use the differential image of the background, it is necessary to generate a distance image of the target space in advance without the object Ob. On the other hand, in the case of a moving object Ob, a stationary background excluding the object Ob can be removed by generating a difference image that is a difference between two distance differential images.
移動する対象物Obに対応する領域を抽出する場合には、たとえばTVカメラと同様に30フレーム毎秒の距離画像を生成することができるように光検出素子1から電荷を取り出し、生成した距離画像から微分処理部5において距離微分画像を生成する。差分画像を生成する2枚のフレームは、隣接する一対のフレームと、複数フレームはなれた一対のフレームとのどちらを採用してもよい。ただし、対象空間内で対象物Obが比較的速く移動する場合には、隣接する一対のフレームを用いるのが望ましい。
When extracting the region corresponding to the moving object Ob, for example, the charge is taken out from the
距離微分画像から差分画像を生成すると、差分画像においては距離微分値に変化が生じた画素において0以外の画素値が得られるから、差分画像を適宜の閾値で2値化することにより、差分画像を生成した2枚のフレーム間で距離微分値の差が閾値以上であった領域を抽出することができる。このような領域は、対象物Obが移動したことによって発生するから、対象物Ob以外のノイズを除去して2枚の距離画像が得られた時刻間で移動した対象物の領域を抽出することができる。ここに、対象物Obがほぼ静止している場合であっても、対象物Obが人体であって微動する場合や対象物Obがカーテンであって風などで揺らぐような場合には、対象物Obの境界付近の領域を抽出することができる。 When a difference image is generated from a distance differential image, a pixel value other than 0 is obtained in a pixel in which the distance differential value has changed in the difference image. By binarizing the difference image with an appropriate threshold value, the difference image is obtained. It is possible to extract a region in which the difference in the distance differential value between the two frames that have generated is greater than or equal to the threshold value. Since such an area is generated by the movement of the object Ob, the area of the object moved between the times when two distance images are obtained by removing noise other than the object Ob is extracted. Can do. Here, even when the object Ob is almost stationary, the object Ob is a human body and moves slightly, or when the object Ob is a curtain and fluctuates in the wind or the like, the object A region near the boundary of Ob can be extracted.
差分画像を2値化した画像は、差分画像を生成する2枚の距離微分画像をそれぞれ2値化し、2値化した画像における各画素の排他的論理和を画素値とした画像とほぼ一致する。この画像内では両フレームにおける対象物Obの領域が抽出されるから、対象物Obが移動する場合には対象物Obに対応する領域は2箇所抽出される。 An image obtained by binarizing the difference image is almost identical to an image obtained by binarizing two distance differential images that generate the difference image and using the exclusive OR of each pixel in the binarized image as a pixel value. . Since the region of the object Ob in both frames is extracted in this image, two regions corresponding to the object Ob are extracted when the object Ob moves.
上述のように2枚のフレームから生成した差分画像によって対象物Obを抽出すると対象物Obが2箇所で抽出され、各フレームに含まれる対象物Obを分離することができない。特定の時刻(特定のフレーム)における対象物Obのみの領域を抽出する場合は、対象物抽出部6では3枚以上のフレームを用いて以下の処理を行う。3枚のフレームを用いる場合と4枚以上のフレームを用いる場合とでは具体的な手順は異なるが、考え方は同じであるから、以下では3枚のフレームを用いる場合について処理手順を説明する。
As described above, when the object Ob is extracted from the difference image generated from the two frames, the object Ob is extracted at two locations, and the object Ob included in each frame cannot be separated. When extracting only the area of the object Ob at a specific time (specific frame), the
いま、時刻T−ΔT、T、T+ΔTの距離画像からそれぞれ得られた3枚の距離微分画像を用いるものとする。各時刻T−ΔT、T、T+ΔTの距離微分画像はそれぞれ適宜の閾値で2値化され、図8(a)のように距離微分画像から3枚の2値画像E(T−ΔT)、E(T)、E(T+ΔT)が生成される。このような2値画像E(T−ΔT)、E(T)、E(T+ΔT)では対象物Obの輪郭を含む領域が背景とは異なる画素値になる。ここでは、対象物Obの輪郭を含む領域の画素値を「1」とする。 Now, it is assumed that three distance differential images respectively obtained from the distance images at times T−ΔT, T, and T + ΔT are used. The distance differential images at each time T−ΔT, T, and T + ΔT are binarized with appropriate threshold values, respectively, and three binary images E (T−ΔT), E from the distance differential image as shown in FIG. (T) and E (T + ΔT) are generated. In such binary images E (T−ΔT), E (T), and E (T + ΔT), the region including the contour of the object Ob has a pixel value different from the background. Here, the pixel value of the region including the contour of the object Ob is set to “1”.
対象物抽出部6では、時系列において隣り合っている各一対の2値画像(つまり、E(T−ΔT)とE(T)、E(T)とE(T+ΔT))の差分を求める。差分の演算には、各一対の2値画像について同じ位置の一対の画素ごとに排他的論理和(XOR)を求める論理演算を行う。このようにして得られた画像を以下では2値差分画像と呼ぶ。各一対の2値画像の差分として得られる2値差分画像では、図8(b)のように、それぞれ対象物Obが2回ずつ現れる。これは、2枚の微分距離画像の差分画像を生成した場合と同様である。
The
3枚の距離微分画像を用いているのは、特定の時刻(時刻T)における距離微分画像に含まれる対象物Obを抽出するためであるから、2値画像E(T)に含まれる対象物Obを抽出するために、2枚の2値差分画像について同じ位置の一対の画素ごとに論理積を求める論理演算を行う。すなわち、2枚の2値差分画像では背景はほぼ除去されているから、2枚の2値差分画像について論理積の演算を行うと、図8(c)のように共通部分は時刻Tにおける移動する対象物Obに対応する領域になる。このように、複数枚の2値画像を生成するとともに各2値画像における同位置の画素値を組み合わせる論理演算を適宜に行えば着目する時刻(時刻T)における対象物の領域を抽出することが可能になる。抽出された領域は背景がほぼ完全に除去されており、かつ対象物Obの境界を抽出することになるから、言わば、時刻Tにおける移動する対象物Obのシルエットを抽出したことになる。 The three distance differential images are used to extract the object Ob included in the distance differential image at a specific time (time T), and therefore the target included in the binary image E (T). In order to extract Ob, a logical operation for obtaining a logical product for each pair of pixels at the same position is performed on two binary difference images. That is, since the background is almost removed in the two binary difference images, when the logical product operation is performed on the two binary difference images, the common part moves at time T as shown in FIG. It becomes an area | region corresponding to the target object Ob to be performed. In this way, by generating a plurality of binary images and appropriately performing a logical operation that combines pixel values at the same position in each binary image, it is possible to extract the region of the object at the time of interest (time T). It becomes possible. Since the background of the extracted region is almost completely removed and the boundary of the object Ob is extracted, the silhouette of the moving object Ob at the time T is extracted.
1 光検出素子
2 発光源
3 制御回路部
4 画像生成部
5 微分処理部
6 対象物判定部
6a 背景記憶部
11 感光部
Ob 対象物
DESCRIPTION OF
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004224481A JP2006048156A (en) | 2004-07-30 | 2004-07-30 | Image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004224481A JP2006048156A (en) | 2004-07-30 | 2004-07-30 | Image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006048156A true JP2006048156A (en) | 2006-02-16 |
Family
ID=36026665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004224481A Pending JP2006048156A (en) | 2004-07-30 | 2004-07-30 | Image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006048156A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008241434A (en) * | 2007-03-27 | 2008-10-09 | Stanley Electric Co Ltd | Distance image generation device |
JP2009174830A (en) * | 2008-01-28 | 2009-08-06 | Sharp Corp | Person position detecting device, and air conditioner |
JP2012002735A (en) * | 2010-06-18 | 2012-01-05 | Panasonic Electric Works Co Ltd | Spatial information detection device |
WO2021106623A1 (en) * | 2019-11-29 | 2021-06-03 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement sensor, distance measurement system, and electronic apparatus |
-
2004
- 2004-07-30 JP JP2004224481A patent/JP2006048156A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008241434A (en) * | 2007-03-27 | 2008-10-09 | Stanley Electric Co Ltd | Distance image generation device |
JP2009174830A (en) * | 2008-01-28 | 2009-08-06 | Sharp Corp | Person position detecting device, and air conditioner |
JP2012002735A (en) * | 2010-06-18 | 2012-01-05 | Panasonic Electric Works Co Ltd | Spatial information detection device |
WO2021106623A1 (en) * | 2019-11-29 | 2021-06-03 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement sensor, distance measurement system, and electronic apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4466260B2 (en) | Image processing device | |
JP4692159B2 (en) | Gesture switch | |
JP4363296B2 (en) | Distance image sensor | |
KR102471540B1 (en) | Method for subtracting background light from exposure values of pixels in an imaging array and pixels using the same | |
KR100820261B1 (en) | Image processing device | |
WO2019217681A1 (en) | Multi-photodiode pixel cell | |
US20180203122A1 (en) | Gated structured imaging | |
JP3906859B2 (en) | Distance image sensor | |
JP2018531374A (en) | System and method for measuring distance to an object | |
JP2019529958A (en) | System and method for determining distance to an object | |
JP2018531374A6 (en) | System and method for measuring distance to an object | |
JP4466366B2 (en) | Human body detection method and human body detection apparatus using range image | |
US20120154535A1 (en) | Capturing gated and ungated light in the same frame on the same photosurface | |
JP2008209162A (en) | Range image sensor | |
WO2006030989A1 (en) | A range image sensor | |
JP2004309310A (en) | Sensitivity control method for photo detector and detection device of space information using intensity modulation light | |
JP3906858B2 (en) | Distance image sensor | |
JP4466319B2 (en) | Spatial information detection device | |
JP2006046961A (en) | Human body sensor | |
JP4543904B2 (en) | Distance image sensor | |
JP2009109508A (en) | Human body detection sensor | |
JP4259418B2 (en) | Image processing device | |
JP2006048156A (en) | Image processor | |
JP4432744B2 (en) | Image processing device | |
JP4961035B2 (en) | Gesture switch |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081104 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090414 |