JP2014130086A - Range image sensor, processor and program - Google Patents

Range image sensor, processor and program Download PDF

Info

Publication number
JP2014130086A
JP2014130086A JP2012288367A JP2012288367A JP2014130086A JP 2014130086 A JP2014130086 A JP 2014130086A JP 2012288367 A JP2012288367 A JP 2012288367A JP 2012288367 A JP2012288367 A JP 2012288367A JP 2014130086 A JP2014130086 A JP 2014130086A
Authority
JP
Japan
Prior art keywords
pixel
image
boundary
distance
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012288367A
Other languages
Japanese (ja)
Inventor
Kenichi Murakami
憲一 村上
Yusuke Hashimoto
裕介 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2012288367A priority Critical patent/JP2014130086A/en
Publication of JP2014130086A publication Critical patent/JP2014130086A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a range image sensor capable of precisely obtaining a distance value of a pixel corresponding to a contour in a discontinuous portion of the distance value in a depth map.SOLUTION: The range image sensor comprises: a first image generation unit 10 that generates a depth map; a second image generation unit 20 that generates a high-definition image which has preciseness higher than the depth map; and a processor 30. The processor 30 includes: a boundary extraction unit 33; a pixel extraction unit 34; and a correction unit 35. The boundary extraction unit 33 extracts positions of two boundary pixels interposed by a boundary of an object of interest in a target space from a high-definition image. The pixel extraction unit 34 extracts target pixels including an object boundary and reference pixels which are positioned at the rear side of the target pixel neighboring the target pixels in the depth map based on the position of boundary pixels. The correction unit 35 corrects the distance value of the target pixels using the position of the boundary in a range of the target pixels and a correction value which is preset with respect to the density difference of the position between the target pixel and a reference pixel.

Description

本発明は、画素値が距離値である距離画像を生成する距離画像センサ、およびこの距離画像センサに用いる処理装置、コンピュータをこの処理装置として機能させるプログラムに関する。   The present invention relates to a distance image sensor that generates a distance image whose pixel value is a distance value, a processing device used for the distance image sensor, and a program that causes a computer to function as the processing device.

従来から、画素値が距離値である距離画像を生成する距離画像センサが知られている。距離画像を生成する技術としては、三角測量法の原理を用いる技術と、光の飛行時間を計測する技術とが主として用いられている。三角測量法の原理を用いる技術としては、光切断法や位相シフト法のように投受光を行うアクティブ型と、ステレオ画像法のように視差を利用したパッシブ型とが知られている。また、飛行時間を計測する技術としては、所定条件で強度が変化する強度変調光を投光し、投光時と受光時との強度変調光の位相の関係を用いて計測した飛行時間を距離に換算する技術が知られている。   Conventionally, a distance image sensor that generates a distance image whose pixel value is a distance value is known. As a technique for generating a distance image, a technique that uses the principle of triangulation and a technique that measures the time of flight of light are mainly used. As a technique using the principle of the triangulation method, an active type that performs light projection and reception like a light cutting method and a phase shift method, and a passive type that uses parallax like a stereo image method are known. In addition, as a technique for measuring the flight time, the intensity modulated light whose intensity changes under a predetermined condition is projected, and the flight time measured using the phase relationship of the intensity modulated light at the time of light projection and at the time of light reception is measured as a distance. The technology to convert to is known.

この種の距離画像センサは、濃淡画像やカラー画像と比較すると、一般に画素数が少なく低解像度になることが知られている。そのため、距離画像の画素内に物体の境界が位置していると、当該画素の画素値(距離値)は適正な値にならず、実空間に存在する物体の位置を正確に計測できないという問題が生じる。   It is known that this type of distance image sensor generally has a lower number of pixels and lower resolution than a grayscale image or a color image. Therefore, if the boundary of the object is located within the pixel of the distance image, the pixel value (distance value) of the pixel is not an appropriate value, and the position of the object existing in the real space cannot be measured accurately. Occurs.

この種の問題を解決するために、特許文献1には、距離画像に加えて距離画像よりも高解像度であるカラー画像を用いることにより、低解像度である距離画像において誤差が生じる輪郭部分の距離値を推定する技術が記載されている。特許文献1では、輪郭部分の距離値(距離情報)を推定するために、着目画素の周囲の距離値を推算し、カラー画像から抽出した輪郭情報の画素位置と距離画像の着目画素との位置関係を用いて、着目画素の周囲の距離値を補間した値を、着目画素の距離値に用いている。要するに、着目画素の四隅の距離値を線形補間した値を着目画素の距離値に用いている。   In order to solve this type of problem, Patent Document 1 uses a color image having a resolution higher than that of the distance image in addition to the distance image, so that the distance of the contour portion in which an error occurs in the distance image having a low resolution. Techniques for estimating values are described. In Patent Document 1, in order to estimate the distance value (distance information) of the contour portion, the distance value around the pixel of interest is estimated, and the pixel position of the contour information extracted from the color image and the position of the pixel of interest in the distance image A value obtained by interpolating the distance value around the pixel of interest using the relationship is used as the distance value of the pixel of interest. In short, a value obtained by linearly interpolating the distance values of the four corners of the target pixel is used as the distance value of the target pixel.

また、特許文献1には、対象物からの反射光の強度に応じて距離画像の画素ごとに距離値の信頼度を算出し、信頼度をもとに距離値を補正する技術も記載されている。この技術は、反射光の振幅が小さいほど環境光の影響を受けるから、距離値の信頼度が低下するという理由によって、反射波の振幅に基づいて信頼度が設定されている。また、着目する画素を中心とする複数画素の画素領域を定め、この画素領域について信頼度を重みとする重み付け平均を求め、この結果を、着目する画素の距離値と推定している。   Patent Document 1 also describes a technique for calculating the reliability of the distance value for each pixel of the distance image according to the intensity of the reflected light from the object, and correcting the distance value based on the reliability. Yes. Since this technology is affected by ambient light as the amplitude of reflected light is smaller, the reliability is set based on the amplitude of the reflected wave because the reliability of the distance value is lowered. Further, a pixel area of a plurality of pixels centering on the pixel of interest is determined, a weighted average with the reliability as a weight is obtained for this pixel area, and this result is estimated as the distance value of the pixel of interest.

特開2010−71976号公報JP 2010-71976 A

上述したように、特許文献1には、着目する画素の周囲の画素の距離値を用いることによって、着目する画素の距離値を補間する技術が記載されており、輪郭上の距離値が周囲の距離値と線形関係であることを想定していると考えられる。   As described above, Patent Document 1 describes a technique for interpolating the distance value of the pixel of interest by using the distance value of the pixel around the pixel of interest, and the distance value on the contour is the surrounding value. It is assumed that it is assumed to have a linear relationship with the distance value.

しかしながら、物体と背景との距離差によって輪郭が生じている場合には、輪郭を挟んで距離値が不連続になっているから、特許文献1に記載された技術のような周囲の画素の距離値を用いて補間する技術では、着目する画素の距離値を精度よく求めることはできない。   However, when the contour is generated due to the difference in distance between the object and the background, the distance value is discontinuous across the contour, so the distance between the surrounding pixels as in the technique described in Patent Document 1 With the technique of interpolating using values, the distance value of the pixel of interest cannot be obtained with high accuracy.

本発明は、距離画像において距離値が不連続になる部位の輪郭に対応した画素の距離値を精度よく求めることを可能にした距離画像センサを提供することを目的とし、さらに、この距離画像センサに用いる処理装置、コンピュータをこの処理装置として機能させるプログラムを提供することを目的とする。
する。
An object of the present invention is to provide a distance image sensor capable of accurately obtaining a distance value of a pixel corresponding to a contour of a part where the distance value is discontinuous in the distance image, and further, the distance image sensor. It is an object of the present invention to provide a processing apparatus used in the above, and a program that causes a computer to function as the processing apparatus.
To do.

本発明に係る距離画像センサは、対象空間について画素値が距離値である距離画像を生成する第1の画像生成装置と、前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と、前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、前記高精細画像から求められる対象画素の範囲での境界の位置と、前記高精細画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備えることを特徴とする。   A distance image sensor according to the present invention generates a first image generation device that generates a distance image whose pixel value is a distance value for a target space, and a high-definition image that is higher in definition than the distance image for the target space. A second image generation device; a boundary extraction unit that extracts positions of two boundary pixels that sandwich the boundary of an object of interest in the high-definition image; and a pixel that includes the boundary of the object in the distance image as a target pixel A pixel extraction unit for extracting the target pixel and the reference pixel based on the position of the boundary pixel using a pixel adjacent to the target pixel located on the background side as a reference pixel, and a target pixel obtained from the high-definition image Correction that is set in advance for the relationship between the position of the boundary in the range and the density difference at the position of the target pixel and the reference pixel obtained from the high-definition image With, characterized in that it comprises a correcting section for correcting the pixel value of the target pixel included in the pixel extracting portion is extracted.

本発明に係る他の距離画像センサは、対象空間について画素値が距離値である距離画像および濃度値である濃淡画像を生成する第1の画像生成装置と、前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と、前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、前記高精細画像から求められる対象画素の範囲での境界の位置と、前記濃淡画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備えることを特徴とする。   Another distance image sensor according to the present invention includes a first image generation device that generates a distance image whose pixel value is a distance value and a grayscale image that is a density value for the target space, and a height higher than the distance image for the target space. A second image generation device that generates a high-definition image that is fine, a boundary extraction unit that extracts positions of two boundary pixels that sandwich the boundary of the object of interest in the high-definition image, and the object in the distance image A pixel extraction unit that extracts the target pixel and the reference pixel based on the position of the boundary pixel, using the pixel including the boundary as a target pixel, the pixel adjacent to the target pixel and positioned on the background side as a reference pixel, Regarding the relationship between the position of the boundary in the range of the target pixel obtained from the high-definition image and the density difference at the position of the target pixel and the reference pixel obtained from the grayscale image Using the correction value that is Luo beforehand set, characterized by comprising a correction section for correcting the pixel value of the target pixel included in the pixel extracting portion is extracted.

この距離画像センサにおいて、前記距離画像から抽出される前記物体に対応する第1の領域と、前記高精細画像から抽出される前記物体に対応する第2の領域とを抽出する領域抽出部をさらに備え、前記画素抽出部は、前記領域抽出部が抽出した前記第1の領域と前記第2の領域とのパターンマッチングを行うことにより前記境界画素の位置を前記対象画素の位置に対応付けることが好ましい。   In the distance image sensor, an area extracting unit that extracts a first area corresponding to the object extracted from the distance image and a second area corresponding to the object extracted from the high-definition image is further provided. The pixel extraction unit preferably associates the position of the boundary pixel with the position of the target pixel by performing pattern matching between the first region and the second region extracted by the region extraction unit. .

この距離画像センサにおいて、前記画素抽出部は、前記第1の画像生成装置と前記第2の画像生成装置との前記物体に対する視差を用いることにより前記境界画素の位置を前記対象画素の位置に対応付けることが好ましい。   In the distance image sensor, the pixel extraction unit associates the position of the boundary pixel with the position of the target pixel by using a parallax with respect to the object of the first image generation device and the second image generation device. It is preferable.

この距離画像センサにおいて、前記対象空間からの入射光束を複数の経路に分岐することにより、前記対象空間に対する光軸を前記第1の画像生成装置と前記第2の画像生成装置とに共用させる光学要素をさらに備えることが好ましい。   In this distance image sensor, the first image generating device and the second image generating device share an optical axis with respect to the target space by branching the incident light beam from the target space into a plurality of paths. Preferably further elements are provided.

この距離画像センサにおいて、前記第1の画像生成装置と前記第2の画像生成装置とをそれぞれ撮像する撮像素子は、ワンチップとなるように1枚の基板に形成されていることが好ましい。   In this distance image sensor, it is preferable that the image pickup elements for picking up images of the first image generation device and the second image generation device are formed on a single substrate so as to form a single chip.

この距離画像センサにおいて、第1の画像生成装置で生成された距離画像と、前記補正部が補正した距離画像とを比較し、前記補正値の妥当性を評価する評価部をさらに備え、前記評価部は、前記距離画像において背景を除く領域であって、前記補正値を適用した領域と実質的に連結領域を形成し、かつ前記補正値が適用されていない画素から得られる距離値と、前記補正値が適用された画素の距離値との差が所定値以下である場合に、前記補正値を妥当と判断することが好ましい。   The distance image sensor further includes an evaluation unit that compares the distance image generated by the first image generation device with the distance image corrected by the correction unit and evaluates the validity of the correction value. The area is an area excluding the background in the distance image, substantially forming a connected area with the area to which the correction value is applied, and a distance value obtained from a pixel to which the correction value is not applied, It is preferable to determine that the correction value is appropriate when the difference from the distance value of the pixel to which the correction value is applied is equal to or less than a predetermined value.

この距離画像センサにおいて、前記境界抽出部は、前記距離画像において画素値が規定の抽出条件を満たす画素を含む領域において、前記高精細画像から前記対象空間における前記物体に対応する画素を抽出することが好ましい。   In the distance image sensor, the boundary extraction unit extracts pixels corresponding to the object in the target space from the high-definition image in an area including pixels in which the pixel value satisfies a predetermined extraction condition in the distance image. Is preferred.

この距離画像センサにおいて、前記対象空間に前記物体が存在しない状態で得られた前記距離画像を背景距離画像として記憶する背景記憶部をさらに備え、前記境界抽出部は、前記第1の画像生成装置が生成した前記距離画像と前記背景記憶部に記憶された前記背景距離画像との差分画像において画素値が基準値以上であることを前記抽出条件とし、前記高精細画像から前記対象空間における前記物体に対応する画素を抽出することが好ましい。   The distance image sensor further includes a background storage unit that stores the distance image obtained in a state where the object does not exist in the target space as a background distance image, and the boundary extraction unit includes the first image generation device. The extraction condition is that the pixel value is equal to or greater than a reference value in the difference image between the distance image generated by the image and the background distance image stored in the background storage unit, and the object in the target space from the high-definition image It is preferable to extract pixels corresponding to.

本発明に係る処理装置は、対象空間について画素値が距離値である距離画像を生成する第1の画像生成装置、および前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と併せて用いられ、前記対象空間において着目する物体までの距離を求める処理装置であって、前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、前記高精細画像から求められる対象画素の範囲での境界の位置と、前記高精細画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備えることを特徴とする。   A processing device according to the present invention generates a first image generation device that generates a distance image having a pixel value as a distance value for a target space, and a first image generation device that generates a high-definition image that is higher in definition than the distance image for the target space. 2 is a processing device for obtaining a distance to an object of interest in the target space and extracting the positions of two boundary pixels sandwiching the boundary of the object of interest in the high-definition image. A boundary extraction unit that performs detection, a pixel that includes the boundary of the object in the distance image as a target pixel, a pixel that is adjacent to the target pixel and is positioned on the background side as a reference pixel, and the target pixel and the reference pixel are the boundary pixel A pixel extraction unit that extracts based on the position of the target pixel, a boundary position in a range of the target pixel obtained from the high-definition image, and the target pixel obtained from the high-definition image A correction unit that corrects the pixel value of the target pixel extracted by the pixel extraction unit using a correction value set in advance with respect to the relationship with the density difference at the position with respect to the reference pixel. And

本発明に係る他の処理装置は、対象空間について画素値が距離値である距離画像および濃度値である濃淡画像を生成する第1の画像生成装置、および前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と併せて用いられ、前記対象空間において着目する物体までの距離を求める処理装置であって、前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、前記高精細画像から求められる対象画素の範囲での境界の位置と、前記濃淡画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備えることを特徴とする。   Another processing device according to the present invention includes a first image generation device that generates a distance image whose pixel value is a distance value and a grayscale image that is a density value for the target space, and a higher definition than the distance image for the target space. A processing device that is used in conjunction with a second image generation device that generates a high-definition image, and obtains the distance to the object of interest in the target space, and sandwiches the boundary of the object of interest in the high-definition image A boundary extraction unit that extracts positions of two boundary pixels; and a pixel that includes the boundary of the object in the distance image as a target pixel, and a pixel that is adjacent to the target pixel and is positioned on the background side as a reference pixel. A pixel extraction unit that extracts a pixel and the reference pixel based on a position of the boundary pixel; a boundary position in a range of a target pixel obtained from the high-definition image; and the gray image Correction for correcting the pixel value of the target pixel extracted by the pixel extraction unit using a correction value set in advance for the relationship between the density difference at the position of the target pixel and the reference pixel obtained from And a section.

本発明に係るプログラムは、コンピュータを、上述した処理装置として機能させる。   The program according to the present invention causes a computer to function as the processing device described above.

本発明の構成によれば、物体と背景との距離差などによって境界が生じている場合に、距離画像より高精細である高精細画像を用いて境界を抽出し、第1の画像生成装置が距離画像とともに生成した濃淡画像において境界を含む対象画素と対象画素に隣接する背景側の画素である基準画素との濃度差の関係に対して設定されている補正値を用いることにより、距離画像において距離値が不連続になる境界に対応した画素の距離値を補正するので、距離値が不連続である部位の距離値を精度よく求めることが可能になるという利点を有する。   According to the configuration of the present invention, when a boundary is generated due to a distance difference between the object and the background, the boundary is extracted using a high-definition image having a higher definition than the distance image, and the first image generation apparatus By using the correction value set for the relationship between the density difference between the target pixel including the boundary in the grayscale image generated together with the distance image and the reference pixel that is the background side pixel adjacent to the target pixel, Since the distance value of the pixel corresponding to the boundary where the distance value becomes discontinuous is corrected, there is an advantage that the distance value of the part where the distance value is discontinuous can be obtained with high accuracy.

実施形態を示すブロック図である。It is a block diagram which shows embodiment. 同上に用いる第1の画像生成装置の動作例を示す図である。It is a figure which shows the operation example of the 1st image generation apparatus used for the same as the above. 同上に用いる第1の画像生成装置の動作例を示す図である。It is a figure which shows the operation example of the 1st image generation apparatus used for the same as the above. 同上において第2の画像生成装置の動作例を示す図図である。It is a figure which shows the operation example of a 2nd image generation apparatus in the same as the above. 同上に用いる補正値の例を示す図である。It is a figure which shows the example of the correction value used for the same as the above. 同上における光学系の他例を示す概略構成図である。It is a schematic block diagram which shows the other examples of the optical system in the same as the above. 同上の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example same as the above. 同上において補正値を修正する場合の動作例を示す図である。It is a figure which shows the operation example in the case of correcting a correction value in the same as the above. 同上においてさらに他の構成例を示すブロック図である。It is a block diagram which shows another structural example in the same as the above.

以下に説明する距離画像センサは、画素値が距離値である距離画像および濃度値である濃淡画像を生成する第1の画像生成装置と、距離画像より高精細である高精細画像を生成する第2の画像生成装置とを備える。   The distance image sensor described below includes a first image generation device that generates a distance image whose pixel value is a distance value and a grayscale image that is a density value, and a first image generation device that generates a high-definition image that is higher in definition than the distance image. 2 image generation devices.

第1の画像生成装置は、各画素ごとに距離値および濃度値が得られる構成であって、画素ピッチが等しい距離画像と濃淡画像とを生成する。第2の画像生成装置が生成する高精細画像は、濃淡画像またはカラー画像であり、第1の画像生成装置が生成する距離画像が100×100画素程度であるのに対して、640×480画素〜1280×1024画素程度の範囲から解像度が選択される。   The first image generating apparatus is configured to obtain a distance value and a density value for each pixel, and generates a distance image and a grayscale image having the same pixel pitch. The high-definition image generated by the second image generation device is a grayscale image or a color image, and the distance image generated by the first image generation device is about 100 × 100 pixels, whereas it is 640 × 480 pixels. The resolution is selected from a range of about 1280 × 1024 pixels.

したがって、第1の画像生成装置と第2の画像生成装置との視野がほぼ等しく設定されていれば、高精細画像は、画像の水平方向および垂直方向について、距離画像に対して数倍〜十数倍程度の分解能を持つ。第1の画像生成装置および第2の画像生成装置は、それぞれ独立した撮像素子を備える。   Therefore, if the visual fields of the first image generation device and the second image generation device are set to be approximately equal, the high-definition image is several times to ten times the distance image in the horizontal direction and the vertical direction of the image. It has several times the resolution. The first image generation device and the second image generation device each include an independent image sensor.

撮像素子は、対象空間を写像する二次元格子の格子点上に画素が配置され、レンズを備えた受光光学系を通して対象空間から受光する。したがって、撮像素子の画素には、受光光学系を通して対象空間を見込む方向が対応付けられる。すなわち、第1の画像生成装置および第2の画像生成装置が生成する画像において、位置(x,y)の画素値は、位置(x,y)の画素から受光光学系を通して対象空間を見込む方向(θ,φ)に関する情報を持つ。   The imaging element has pixels arranged on lattice points of a two-dimensional lattice that maps the target space, and receives light from the target space through a light receiving optical system including a lens. Therefore, the direction of looking into the target space through the light receiving optical system is associated with the pixels of the image sensor. That is, in the images generated by the first image generation device and the second image generation device, the pixel value at the position (x, y) is the direction in which the target space is viewed from the pixel at the position (x, y) through the light receiving optical system. Contains information on (θ, φ).

ここに、xは画像の水平方向の画素の位置を表し、yは画像の垂直方向の画素の位置を表す。また、θは位置(x,y)の画素から受光光学系を通して見込む方向が受光光学系の光軸に対してなす角度を表し、φはxy平面においてx軸に対してなす角度を表す。いま、距離画像において、位置(x,y)の画素の画素値(距離値)をdとすると、x=d・sinθ・cosφ、y=d・sinθ・sinφになる。   Here, x represents the position of the pixel in the horizontal direction of the image, and y represents the position of the pixel in the vertical direction of the image. In addition, θ represents an angle formed by the direction viewed from the pixel at the position (x, y) through the light receiving optical system with respect to the optical axis of the light receiving optical system, and φ represents an angle formed with respect to the x axis in the xy plane. Now, in the distance image, if the pixel value (distance value) of the pixel at the position (x, y) is d, x = d · sin θ · cos φ and y = d · sin θ · sin φ.

第1の画像生成装置は、撮像素子が対象空間から受光した光を用いて距離画像および濃淡画像を生成する。撮像素子を用いて距離情報を抽出するために広く採用されている技術には、三角測量法の原理を用いる技術と、光の飛行時間を計測する技術とがある。   The first image generation device generates a distance image and a grayscale image using light received from the target space by the image sensor. Technologies widely used for extracting distance information using an image sensor include a technology that uses the principle of triangulation and a technology that measures the time of flight of light.

光の飛行時間を計測して距離画像を生成する場合、対象空間に投光する発光源が必須であってアクティブ型の構成になる。一方、三角測量の原理を採用して距離画像を生成する技術は、発光源を用いるアクティブ型の構成と、ステレオビジョンの技術によるパッシブ型の構成とが知られている。本実施形態で説明する第1の画像生成装置は、どの構成であってもよいが、以下では、光の飛行時間を計測することにより距離画像を生成する構成を想定する。   When a distance image is generated by measuring the time of flight of light, a light emission source that projects light into the target space is essential and an active type configuration is obtained. On the other hand, as a technique for generating a distance image using the principle of triangulation, an active configuration using a light source and a passive configuration using a stereo vision technique are known. The first image generation apparatus described in the present embodiment may have any configuration, but a configuration in which a distance image is generated by measuring the time of flight of light is assumed below.

光の飛行時間を利用して距離を計測する技術を採用する場合、第1の画像生成装置を構成する撮像素子には、発光源から対象空間に投光した信号光のほかに、自然光や照明光のような環境光が入射する。したがって、第1の画像生成装置に用いる撮像素子は、信号光と環境光とを明確に区別するために、第2の画像生成装置に用いる撮像素子よりも大きいダイナミックレンジが必要である。つまり、第1の画像生成装置に用いる撮像素子の画素の面積は、第2の画像生成装置に用いる撮像素子の画素の面積よりも大きくする必要がある。   When employing a technique for measuring distance using the time of flight of light, the image sensor that constitutes the first image generation device includes natural light or illumination in addition to the signal light projected from the light source to the target space. Ambient light such as light is incident. Therefore, the image sensor used in the first image generation device needs a larger dynamic range than the image sensor used in the second image generation device in order to clearly distinguish the signal light and the ambient light. That is, the area of the pixel of the image sensor used for the first image generation device needs to be larger than the area of the pixel of the image sensor used for the second image generation device.

上述したように、第1の画像生成装置の画素の面積は第2の画像生成装置の画素の面積よりも大きくなる。したがって、第1の画像生成装置と第2の画像生成装置とに用いる撮像素子のサイズが同程度であると、第1の画像生成装置に用いる撮像素子の解像度は、第2の画像生成装置に用いる撮像素子の解像度よりも低解像度になる。言い換えると、第1の画像生成装置で生成される距離画像および濃淡画像は、第2の画像生成装置で生成される高精細画像よりも低解像度になる。たとえば、第1の画像生成装置が生成する距離画像および濃淡画像が1万画素程度である場合、第2の画像生成装置に同程度のサイズの撮像素子を用いたとしても、第2の画像生成装置が生成する高精細画像は数十万画素以上になる。   As described above, the pixel area of the first image generating device is larger than the pixel area of the second image generating device. Therefore, when the sizes of the image sensors used for the first image generation apparatus and the second image generation apparatus are approximately the same, the resolution of the image sensor used for the first image generation apparatus is the same as that of the second image generation apparatus. The resolution is lower than the resolution of the image sensor used. In other words, the distance image and the grayscale image generated by the first image generation device have a lower resolution than the high-definition image generated by the second image generation device. For example, when the distance image and the grayscale image generated by the first image generation device are about 10,000 pixels, the second image generation is performed even if an image sensor having the same size is used for the second image generation device. A high-definition image generated by the apparatus is several hundred thousand pixels or more.

以下、本実施形態の構成を図面に基づいて具体的に説明する。図1に示すように、第1の画像生成装置10は、対象空間に投光する発光源11と、対象空間からの光を受光する撮像素子12とを備える。発光源11は投光光学系とともに用いられ、撮像素子12は受光光学系とともに用いられる。投光光学系と受光光学系とは兼用されていてもよい。   Hereinafter, the configuration of the present embodiment will be specifically described with reference to the drawings. As shown in FIG. 1, the first image generation apparatus 10 includes a light emitting source 11 that projects light into a target space, and an image sensor 12 that receives light from the target space. The light source 11 is used with a light projecting optical system, and the image sensor 12 is used with a light receiving optical system. The light projecting optical system and the light receiving optical system may be combined.

発光源11は、発光制御部13から出力される変調信号により時間経過に伴って発光量が変化するように駆動される。変調信号は、正弦波、三角波、鋸歯状波、矩形波のような周期性を有する信号を用いるほか、オン期間とオフ期間とが単位期間の整数倍でランダムに変化する矩形波信号を用いることも可能である。以下では、説明を簡単にするために、変調信号は一定周期(10−7秒程度)の正弦波ないし矩形波とする。発光源11は、発光ダイオードあるいはレーザダイオードを備え、変調信号で駆動されることにより、正弦波状に強度が変化する強度変調光を対象空間に信号光として投光する。発光源11から投光される光は、可視光領域でもよいが、通常は赤外領域が採用される。 The light emission source 11 is driven so that the light emission amount changes with time by the modulation signal output from the light emission control unit 13. As a modulation signal, a signal having periodicity such as a sine wave, a triangular wave, a sawtooth wave, or a rectangular wave is used, and a rectangular wave signal whose ON period and OFF period change at an integral multiple of a unit period is used. Is also possible. In the following, in order to simplify the explanation, the modulation signal is assumed to be a sine wave or rectangular wave having a constant period (about 10 −7 seconds). The light emitting source 11 includes a light emitting diode or a laser diode and is driven by a modulation signal to project intensity modulated light whose intensity changes sinusoidally as signal light in a target space. The light projected from the light source 11 may be in the visible light region, but usually the infrared region is employed.

いま、変調信号を正弦波とし、90度ずつの位相で正弦波の1周期を4つの区間に分割し、撮像素子12のいずれかの画素で区間ごとに受光した受光量をA0,A1,A2,A3とする。つまり、撮像素子12のいずれかの画素で受光した受光量について、変調信号の位相が0〜90度の区間の受光量をA0、90〜180度の区間の受光量をA1、180〜270度の区間の受光量をA2、270〜360度の区間の受光量をA3とする。なお、変調信号の位相を90度ずつの区間に区切ることは必須ではなく、たとえば、90度周期で一定時間ずつの区間を設けるなど、受光量A0,A1,A2,A3を求める区間は適宜に設定することが可能である。   Now, the modulation signal is a sine wave, one cycle of the sine wave is divided into four sections at a phase of 90 degrees, and the received light amount received by each pixel of the image sensor 12 for each section is A0, A1, and A2. , A3. That is, for the amount of light received by any pixel of the image sensor 12, the amount of received light in the section where the phase of the modulation signal is 0 to 90 degrees is A0, and the amount of light received in the section of 90 to 180 degrees is A1, 180 to 270 degrees. The amount of light received in the section of A2 is A2, and the amount of light received in the section of 270 to 360 degrees is A3. It is not essential to divide the phase of the modulation signal into sections of 90 degrees. For example, sections for obtaining the received light amounts A0, A1, A2, A3 are appropriately determined, for example, sections of 90 degrees are provided for each fixed time. It is possible to set.

発光源11が変調信号で駆動されてから撮像素子12で信号光の反射光を受光するまでの位相差ψは、三角関数の計算から、ψ=tan−1{(A2−A0)/(A3−A1)}として求められる。位相差ψがわかれば、変調信号の周波数と位相差ψとから、信号光の投光から受光までの飛行時間が求められ、飛行時間と光速とから光が飛行した距離が求められる。なお、発光源11が変調信号で駆動された後、発光源11が強度変調光を対象空間に投光するまでの遅延時間は無視している。 From the calculation of the trigonometric function, ψ = tan −1 {(A 2 −A 0) / (A 3) -A1)}. If the phase difference ψ is known, the flight time from signal light projection to light reception is determined from the frequency of the modulation signal and the phase difference ψ, and the distance the light has traveled is determined from the flight time and the speed of light. Note that the delay time from when the light source 11 is driven by the modulation signal until the light source 11 projects the intensity-modulated light onto the target space is ignored.

上述したように撮像素子12は、変調信号に同期して設定された区間ごとの受光量A0,A1,A2,A3を求める必要がある。そのため、撮像素子12は、変調信号に同期する復調信号を発光制御部13から受けて受光期間を制御する。TVカメラとして用いられている一般的な構成のCCDイメージセンサやCMOSイメージセンサを撮像素子12に用いる場合、復調信号を受けて電子シャッタと同様の動作により受光期間を調節することが可能である。   As described above, the image sensor 12 needs to obtain the received light amounts A0, A1, A2, and A3 for each section set in synchronization with the modulation signal. Therefore, the image sensor 12 receives a demodulated signal synchronized with the modulation signal from the light emission controller 13 and controls the light receiving period. When a CCD image sensor or a CMOS image sensor having a general configuration used as a TV camera is used for the image pickup device 12, it is possible to receive a demodulated signal and adjust the light receiving period by the same operation as the electronic shutter.

また、撮像素子12は、受光期間を調節するために専用に配置された電極を備えていてもよい。たとえば、撮像素子12は、1つの区間において対象空間から受光している期間に、他の少なくとも1つの区間に受光した受光量に相当する電荷を保持する動作を可能にする構成であってもよい。いま、撮像素子12が受光量A0と受光量A2とに相当する電荷を交互に保持する期間と、受光量A1と受光量A3とに相当する電荷を交互に保持する期間とを持つように駆動される場合を想定する。   Further, the image pickup device 12 may include an electrode arranged exclusively for adjusting the light receiving period. For example, the imaging device 12 may be configured to enable an operation of holding a charge corresponding to the amount of light received in at least one other section during a period in which light is received from the target space in one section. . Now, the imaging device 12 is driven so as to have a period in which charges corresponding to the received light quantity A0 and the received light quantity A2 are alternately held and a period in which charges corresponding to the received light quantity A1 and the received light quantity A3 are alternately held. Assuming that

この構成は、撮像素子12から電荷を読み出す動作を1回行うだけで、2区間分の電荷を読み出すことを可能にする。また、この構成の撮像素子12は、2区間の受光量に相当する電荷を交互に保持するから、変調信号の複数周期にわたって各区間の電荷を蓄積することが可能であり、比較的大きい受光出力を取り出すことが可能になる。なお、この構成は一例であって、1区間分の電荷を読み出す動作や4区間分の電荷を蓄積して読み出す動作など、撮像素子12を駆動する態様は適宜に選択される。   This configuration makes it possible to read out charges for two sections with only one operation of reading out charges from the image sensor 12. In addition, since the image pickup device 12 having this configuration alternately holds charges corresponding to the received light amounts in the two sections, it is possible to accumulate the charges in each section over a plurality of periods of the modulation signal, and a relatively large light receiving output. Can be taken out. This configuration is an example, and the mode for driving the image sensor 12 such as an operation for reading out charges for one section and an operation for accumulating and reading out charges for four sections is appropriately selected.

第1の画像生成装置10は、撮像素子12から読み出された受光出力を用いて上述した計算を行う演算部14を備える。演算部14は、受光量A0,A1,A2,A3に相当する電荷を用いて上述した計算を行い、位相差ψ、投光から受光までの飛行時間、対象空間における物体までの距離などの所望の値を求める。このように、第1の画像生成装置10は、演算部14が撮像素子12の画素ごとに対象空間における物体までの距離を算出し、画素値を距離値とした距離画像を生成する。第1の画像生成装置10の具体構成は周知であるから詳述しない。   The first image generation apparatus 10 includes a calculation unit 14 that performs the above-described calculation using the light reception output read from the image sensor 12. The calculation unit 14 performs the above-described calculation using charges corresponding to the received light amounts A0, A1, A2, and A3, and the desired values such as the phase difference ψ, the flight time from light projection to light reception, and the distance to the object in the target space. Find the value of. As described above, in the first image generation device 10, the calculation unit 14 calculates the distance to the object in the target space for each pixel of the image sensor 12, and generates a distance image with the pixel value as the distance value. The specific configuration of the first image generating apparatus 10 is well known and will not be described in detail.

第1の画像生成装置10は、画素ごとに強度変調光の受光量A0,A1,A2,A3の平均値を求める機能も備える。つまり、演算部14は、撮像素子12から読み出された受光出力の平均することにより、投光した光の強度の影響を除去した濃度値を画素ごとに算出し、この濃淡値を画素値とする濃淡画像を生成する。   The first image generation device 10 also has a function of obtaining an average value of the received amounts A0, A1, A2, and A3 of intensity-modulated light for each pixel. That is, the arithmetic unit 14 calculates a density value for each pixel by removing the influence of the intensity of the projected light by averaging the received light output read from the image sensor 12, and the gray value is set as the pixel value. A grayscale image is generated.

なお、発光制御部13は、変調信号により発光源11を駆動する動作と、発光源11を駆動しない動作とを行うようにしてもよい。この場合、演算部14は、発光源11が駆動されていない期間に求められる環境光のみの成分に対応した濃度値を用い、発光源11が駆動されている期間の濃度値に含まれる環境光の成分を除去する演算を行う。この動作により、環境光の影響が軽減され、演算部14から出力される画素値は、信号光の反射成分に対応することになる。   Note that the light emission control unit 13 may perform an operation of driving the light source 11 by a modulation signal and an operation of not driving the light source 11. In this case, the calculation unit 14 uses the density value corresponding to the component of only the ambient light required during the period when the light source 11 is not driven, and the ambient light included in the density value during the period when the light source 11 is driven. An operation for removing the component is performed. By this operation, the influence of ambient light is reduced, and the pixel value output from the calculation unit 14 corresponds to the reflection component of the signal light.

上述したように、第1の画像生成装置10は距離画像と濃淡画像とを生成し、第1の画像生成装置10の画素は、それぞれ距離値および濃度値を持つことになる。すなわち、対象空間において、第1の画像生成装置10の画素に対応する領域ごとに、距離値および濃度値が求められる。   As described above, the first image generation device 10 generates a distance image and a grayscale image, and the pixels of the first image generation device 10 have a distance value and a density value, respectively. That is, the distance value and the density value are obtained for each region corresponding to the pixel of the first image generation device 10 in the target space.

第2の画像生成装置20は、CCDイメージセンサやCMOSイメージセンサを用いた撮像素子21を備え、受光光学系(図示せず)を通して対象空間を撮像する。また、第2の画像生成装置20は、後述する処理装置30に与える高精細画像(濃淡画像)を生成するために、撮像素子21の出力をデジタル信号に変換するA/D変換部(図示せず)を備える。第1の画像生成装置10の撮像素子12と、第2の画像生成装置20の撮像素子21とは、個別のデバイスでもよいが、1枚の基板に形成してワンチップのデバイスとして構成されていることが望ましい。撮像素子12と撮像素子21とがワンチップのデバイスである場合、撮像素子12と撮像素子21との位置関係が製造時に決定され、両者の位置精度が保証されるからである。   The second image generation apparatus 20 includes an imaging element 21 using a CCD image sensor or a CMOS image sensor, and images a target space through a light receiving optical system (not shown). The second image generation device 20 also converts an output of the image sensor 21 into a digital signal (not shown) to generate a high-definition image (grayscale image) to be given to the processing device 30 described later. Prepared). The image sensor 12 of the first image generation apparatus 10 and the image sensor 21 of the second image generation apparatus 20 may be separate devices, but are formed on a single substrate and configured as a one-chip device. It is desirable. This is because when the image pickup element 12 and the image pickup element 21 are one-chip devices, the positional relationship between the image pickup element 12 and the image pickup element 21 is determined at the time of manufacture, and the positional accuracy of both is guaranteed.

第1の画像生成装置10の演算部14で生成された距離画像および濃淡画像と、第2の画像生成装置20から出力される高精細画像とは、処理装置30に入力される。処理装置30は、プログラムに従って動作するデバイスとインターフェイス部を構成するデバイスとを主なハードウェア要素として備える。プログラムに従って動作するデバイスの一例には、個別のデバイスであるマイクロプロセッサおよびメモリを組み合わせる構成、プロセッサとメモリとをワンチップに備えるマイコンなどがある。また、この種のデバイスは、DSP(Digital Signal Processor)、あるいはFPGA(Field- Programmable Gate Array)が用いられる場合もある。   The distance image and the grayscale image generated by the calculation unit 14 of the first image generation device 10 and the high-definition image output from the second image generation device 20 are input to the processing device 30. The processing apparatus 30 includes a device that operates according to a program and a device that constitutes an interface unit as main hardware elements. An example of a device that operates according to a program includes a configuration in which a microprocessor and a memory, which are individual devices, are combined, and a microcomputer that includes a processor and a memory on one chip. In addition, a DSP (Digital Signal Processor) or an FPGA (Field-Programmable Gate Array) may be used for this type of device.

ところで、第1の画像生成装置10が生成する距離画像および濃淡画像は対象空間を画素を単位として区切っているから、対象空間に存在する物体の境界が1画素内に含まれる場合、当該画素内に物体からの光と背景からの光とが同時に入射する。濃淡画像では、1画素に物体からの光と背景からの光とが同時に入射すると、当該画素の画素値は両者の受光量の平均に対応する濃度になる。   By the way, since the distance image and the grayscale image generated by the first image generation device 10 divide the target space in units of pixels, if the boundary of an object existing in the target space is included in one pixel, The light from the object and the light from the background enter simultaneously. In a grayscale image, when light from an object and light from the background are simultaneously incident on one pixel, the pixel value of the pixel has a density corresponding to the average of the amounts of light received by both pixels.

第1の画像生成装置10がアクティブ型の構成である場合、1画素に静止した物体からの光と背景からの光とが同時に入射すると、当該画素の画素値は、物体と背景との中間の距離値になる。また、第1の画像生成装置10がステレオビジョンの技術を用いたパッシブ型の構成である場合、当該画素の画素値は不定になるか、あるいは演算部14の処理に依存して決定される。   When the first image generation device 10 has an active configuration, when light from a stationary object and light from a background are simultaneously incident on one pixel, the pixel value of the pixel is intermediate between the object and the background. It becomes a distance value. Further, when the first image generation apparatus 10 has a passive configuration using the stereo vision technology, the pixel value of the pixel becomes indefinite or is determined depending on the processing of the calculation unit 14.

なお、1フレームの画像が得られる間に物体が移動すると、距離画像において物体の境界が通過した画素の画素値は異常値になる可能性があるが、ここでは、実質的に静止している物体の距離画像が生成される場合を想定する。   Note that if the object moves while an image of one frame is obtained, the pixel value of the pixel that has passed through the boundary of the object in the distance image may become an abnormal value, but here it is substantially stationary. Assume that a distance image of an object is generated.

本実施形態は、第1の画像生成装置10が飛行時間の計測によって物体までの距離値を求める技術を採用しているから、静止した物体の境界と背景とを含む画素の画素値は、物体と背景との中間の距離値になる。また、受光量の関係を用いて距離値を算出しているから、第1の画像生成装置10は、撮像素子12が受光する強度変調光(信号光)の光量が環境光の光量に対して相対的に多いほうが、画素値は物体の実際の距離値に近付くと考えられる。   In the present embodiment, since the first image generation apparatus 10 employs a technique for obtaining the distance value to the object by measuring the time of flight, the pixel value of the pixel including the boundary of the stationary object and the background is determined by the object. The distance between the background and the background. Further, since the distance value is calculated using the relationship between the amounts of received light, the first image generation apparatus 10 has a light amount of intensity-modulated light (signal light) received by the image sensor 12 with respect to the amount of ambient light. It is considered that the pixel value approaches the actual distance value of the object when the number is relatively large.

そこで、距離画像の生成時に生じる可能性がある事象を想定し、背景からの光量を変化させるために背景の反射率を3段階に変化させ、距離を計測する物体の幅を4段階に変化させて距離画像と濃淡画像とを生成する実験を行った。距離を計測した4個の物体は、受光光学系から等距離の位置に配置し、距離画像において2〜5画素の範囲を占めるように選定した。具体的には、それぞれの物体の幅は、7.5mm、10.5mm、14.0mm、17.5mmの4種類とし、物体までの距離は2mとした。幅が7.5mm、10.5mm、14.0mmの3種類の物体については、距離画像の水平方向において、隣接する画素の中心と各物体の中心とが一致するように位置を調整した。また、幅が17.5mmの物体は、距離画像の水平方向において、1つの画素の中心と物体の中心とが一致するように位置を調整した。背景の反射率は、60%、20%、5%から選択した。   Therefore, assuming an event that may occur at the time of distance image generation, change the reflectance of the background in three steps to change the amount of light from the background, and change the width of the object whose distance is measured in four steps. Experiments were performed to generate a distance image and a grayscale image. The four objects whose distances were measured were arranged at equidistant positions from the light receiving optical system, and were selected so as to occupy a range of 2 to 5 pixels in the distance image. Specifically, the width of each object was four types of 7.5 mm, 10.5 mm, 14.0 mm, and 17.5 mm, and the distance to the object was 2 m. The positions of three types of objects having a width of 7.5 mm, 10.5 mm, and 14.0 mm were adjusted so that the centers of adjacent pixels coincided with the centers of the objects in the horizontal direction of the distance image. Further, the position of an object having a width of 17.5 mm was adjusted so that the center of one pixel coincides with the center of the object in the horizontal direction of the distance image. The background reflectance was selected from 60%, 20%, and 5%.

図2、図3には値が比較的大きく変化している領域が4個ずつ存在している。これらの領域は、右から順に上述した幅の物体に対する計測結果を示している。図2は第1の画像生成装置10から出力された距離値を示し、図3は第1の画像生成装置10から出力された濃度値を示している。さらに、図4は第2の画像生成装置20から出力された高精細画像の画素値を示している。各図において、特性(1)は背景の反射率が60%の場合、特性(2)は背景の反射率が20%の場合、特性(3)は背景の反射率が5%の場合を示している。上述した説明から明らかなように、図2に示す距離画像と図3に示す濃淡画像とは同じ解像度であり、図4に示す高精細画像は図2、図3に示す画像よりも高解像度である。なお、図示例において、高精細画像は、画像の水平方向において、距離画像および濃淡画像に対して約4倍の個数の画素を備えている。   In FIG. 2 and FIG. 3, there are four regions where the values change relatively large. These areas indicate measurement results for the above-mentioned width object in order from the right. FIG. 2 shows the distance value output from the first image generation apparatus 10, and FIG. 3 shows the density value output from the first image generation apparatus 10. Further, FIG. 4 shows pixel values of a high-definition image output from the second image generation device 20. In each figure, the characteristic (1) indicates that the background reflectance is 60%, the characteristic (2) indicates that the background reflectance is 20%, and the characteristic (3) indicates that the background reflectance is 5%. ing. As is clear from the above description, the distance image shown in FIG. 2 and the grayscale image shown in FIG. 3 have the same resolution, and the high-definition image shown in FIG. 4 has a higher resolution than the images shown in FIGS. is there. In the illustrated example, the high-definition image includes approximately four times as many pixels as the distance image and the grayscale image in the horizontal direction of the image.

図3からわかるように、背景の反射率が高くなると、濃淡画像内において物体と背景との濃度差が現れにくくなるが、背景の反射率が比較的低いと、物体と背景との濃度差が明確に現れる。一方、図2からわかるように、物体の境界付近の距離値は、背景の反射率の影響を受け、反射率が高くなると、距離値が実際よりも大きくなる傾向が見られる。そのため、距離画像において物体が占める画素数が少なく、かつ背景の反射率が高いと、物体が実際の距離よりも遠方に位置するように誤認されることになる。   As can be seen from FIG. 3, when the reflectance of the background is high, the density difference between the object and the background is less likely to appear in the grayscale image. However, when the reflectance of the background is relatively low, the density difference between the object and the background is small. Appear clearly. On the other hand, as can be seen from FIG. 2, the distance value near the boundary of the object is influenced by the reflectance of the background, and when the reflectance increases, the distance value tends to become larger than the actual value. For this reason, if the number of pixels occupied by the object in the distance image is small and the reflectance of the background is high, the object is erroneously recognized as being located farther than the actual distance.

以上のことから、距離画像において1つの画素に物体からの光と背景からの光とが混入すると距離値に誤差が生じ、背景からの光量が物体からの光量に対して相対的に多くなるほど距離画像の画素値の誤差が大きくなると言える。ここで、1画素に物体からの光と背景からの光とが混入するのは、主として物体の境界付近に対応する画素である。したがって、距離画像において物体の境界に対応する画素を抽出し、当該画素の画素値に適宜の補正を行えば、距離画像の画素値を真値に近付けられると考えられる。   From the above, if light from the object and light from the background are mixed in one pixel in the distance image, an error occurs in the distance value, and the distance increases as the light quantity from the background increases relative to the light quantity from the object. It can be said that the error of the pixel value of the image becomes large. Here, light from the object and light from the background are mixed into one pixel mainly in the vicinity of the boundary of the object. Therefore, it is considered that the pixel value of the distance image can be brought close to the true value by extracting the pixel corresponding to the boundary of the object in the distance image and appropriately correcting the pixel value of the pixel.

処理装置30は、対象空間において着目する物体の境界に相当する画素を距離画像から抽出し、当該画素の画素値に適切な補正を施すことにより、真値に近い画素値を求める機能を有する。そのため、処理装置30は、第1の画像生成装置10が生成した距離画像に加えて、第2の画像生成装置20が生成した高精細画像から得られる情報を用いる。   The processing device 30 has a function of obtaining a pixel value close to a true value by extracting a pixel corresponding to the boundary of the object of interest in the target space from the distance image and appropriately correcting the pixel value of the pixel. Therefore, the processing device 30 uses information obtained from the high-definition image generated by the second image generation device 20 in addition to the distance image generated by the first image generation device 10.

処理装置30は、図1に示すように、第1の画像生成装置10が接続されるインターフェイス部(以下、「I/F部」という)31と、第2の画像生成装置20が接続されるI/F部32とを備える。   As shown in FIG. 1, the processing device 30 is connected to an interface unit (hereinafter referred to as “I / F unit”) 31 to which the first image generation device 10 is connected and the second image generation device 20. And an I / F unit 32.

処理装置30は、第2の画像生成装置20から出力される高精細画像から得られる情報を用いて距離画像において物体の境界を含む画素を抽出するために、物体の境界を挟む2個の境界画素を濃淡画像から抽出する境界抽出部33を備える。境界抽出部33は、物体の境界に交差する方向において、境界を挟む2個の画素を境界画素として高精細画像から抽出する。高精細画像の画素値が濃度値である場合、境界抽出部33は、濃淡画像の2値化あるいは微分により境界画素を抽出する。高精細画像がカラー画像である場合、色によって境界画素を抽出することも可能である。   The processing device 30 uses the information obtained from the high-definition image output from the second image generation device 20 to extract pixels including the object boundary in the distance image, so that the two boundaries sandwiching the object boundary A boundary extraction unit 33 that extracts pixels from the grayscale image is provided. The boundary extraction unit 33 extracts, from the high-definition image, two pixels sandwiching the boundary as boundary pixels in the direction intersecting the boundary of the object. When the pixel value of the high-definition image is a density value, the boundary extraction unit 33 extracts boundary pixels by binarization or differentiation of the grayscale image. When the high-definition image is a color image, boundary pixels can be extracted by color.

物体の境界は、物体の外形を表す輪郭線を想定している。物体の境界に交差する方向としては、直交する方向が望ましい。2個の境界画素は境界を挟んでいるから、一方の境界画素の画素値は物体からの光量に相当し、他方の境界画素の画素値は背景からの光量に相当する。境界抽出部33が抽出した境界画素の位置に関する情報は画素抽出部34に引き渡される。画素抽出部34は、境界画素の位置に基づいて、距離画像において物体の境界を含む画素を対象画素として抽出し、対象画素に隣接し背景側に位置する画素を基準画素として抽出する。境界画素は、物体の境界線に沿って複数個が抽出される。したがって、対象画素および基準画素は、境界画素と同様に複数個ずつ抽出される。   The boundary of the object is assumed to be a contour line representing the outer shape of the object. The direction that intersects the boundary of the object is preferably an orthogonal direction. Since the two boundary pixels sandwich the boundary, the pixel value of one boundary pixel corresponds to the amount of light from the object, and the pixel value of the other boundary pixel corresponds to the amount of light from the background. Information regarding the position of the boundary pixel extracted by the boundary extraction unit 33 is transferred to the pixel extraction unit 34. Based on the position of the boundary pixel, the pixel extraction unit 34 extracts a pixel including the boundary of the object in the distance image as a target pixel, and extracts a pixel adjacent to the target pixel and positioned on the background side as a reference pixel. A plurality of boundary pixels are extracted along the boundary line of the object. Therefore, a plurality of target pixels and reference pixels are extracted in the same manner as the boundary pixels.

処理装置30は、対象画素の画素値を補正する補正部35を備える。補正部35は、第1の画像生成装置10が生成した濃淡画像における画素値(濃度値)の関係に応じて設定されている補正値を、基準画素の画素値(距離値)と対象画素の画素値(距離値)との関係に適用することにより、対象画素の画素値を補正する。補正部35による補正演算は、図5に示す関係で設定された補正値を用いて行われる。   The processing device 30 includes a correction unit 35 that corrects the pixel value of the target pixel. The correction unit 35 uses the correction value set according to the relationship between the pixel values (density values) in the grayscale image generated by the first image generation device 10 as the reference pixel value (distance value) and the target pixel. The pixel value of the target pixel is corrected by applying to the relationship with the pixel value (distance value). The correction calculation by the correction unit 35 is performed using the correction value set in the relationship shown in FIG.

図示例は、第1の画像生成装置10から出力される距離画像の画素値(距離値)をD1(=Db−d1)とし、距離値の真値をD0(=Db−d0)とするとき、補正値をαとして、d0=α・d1という関係が得られると仮定している。ここに、Dbは背景(壁など)までの距離である。また、d0は距離D0に物体が存在するときの壁から物体までの距離であり、d1は距離画像の画素値D1に物体が存在すると仮定したときの壁から物体までの距離である。上述した基準画素は画素値がDbである画素に相当し、対象画素は画素値がD1である画素に相当する。   In the illustrated example, the pixel value (distance value) of the distance image output from the first image generation device 10 is D1 (= Db-d1), and the true value of the distance value is D0 (= Db-d0). Assuming that the correction value is α, the relationship d0 = α · d1 is obtained. Here, Db is the distance to the background (such as a wall). Further, d0 is the distance from the wall to the object when the object exists at the distance D0, and d1 is the distance from the wall to the object when it is assumed that the object exists in the pixel value D1 of the distance image. The reference pixel described above corresponds to a pixel having a pixel value Db, and the target pixel corresponds to a pixel having a pixel value D1.

図5の横軸は基準画素と対象画素との位置の濃度差であり、縦軸は補正値αを表している。言い換えると、図5は、第1の画像生成装置10が生成した濃淡画像において、物体の境界を含む対象画素と物体の境界を含まずに背景となる基準画素とに相当する位置の画素の濃度差に対する補正値αの関係を表している。対象画素と基準画素との画素ピッチは一定であるから、図5の横軸は、対象画素と基準画素との位置における濃度勾配と言い換えてもよい。   The horizontal axis in FIG. 5 represents the density difference between the reference pixel and the target pixel, and the vertical axis represents the correction value α. In other words, FIG. 5 shows the density of the pixel at the position corresponding to the target pixel including the boundary of the object and the reference pixel which does not include the boundary of the object and is the background in the grayscale image generated by the first image generation apparatus 10. The relationship between the correction value α and the difference is shown. Since the pixel pitch between the target pixel and the reference pixel is constant, the horizontal axis in FIG. 5 may be paraphrased as a density gradient at the position between the target pixel and the reference pixel.

図5の特性(A)〜(D)は、濃淡画像において物体が占める領域の水平方向の幅の違いに対応している。特性(A)は最小の幅(7.5mm)に対応し、特性(D)は最大の幅(17.5mm)に対応する。   The characteristics (A) to (D) in FIG. 5 correspond to the difference in the horizontal width of the region occupied by the object in the grayscale image. Characteristic (A) corresponds to the minimum width (7.5 mm) and characteristic (D) corresponds to the maximum width (17.5 mm).

上述したように、各物体は、距離画像の水平方向において画素に対して対称になるように配置されている。そのため、図3に示す例は、すべての幅の物体について、物体に対応する部位が左右対称になっている。ここで、物体を距離画像の水平方向において移動させるとすれば、移動の過程において、物体の境界を含む対象画素の範囲で物体の境界の位置が変化し、対象画素の中で背景と物体とが占める割合が変化する。そのため、図3に示す特性は左右非対称になり、対象画素に占める背景と物体との割合の変化に伴って対象画素の位置の濃度値が変化する。このことから、特性(A)〜(D)に対応する物体の幅は、距離画像において物体の境界を含む対象画素に入射する光に関して、背景からの光と物体からの光との比率を反映していると言える。   As described above, each object is arranged so as to be symmetric with respect to the pixel in the horizontal direction of the distance image. Therefore, in the example shown in FIG. 3, the parts corresponding to the objects are symmetrical with respect to the objects of all widths. Here, if the object is moved in the horizontal direction of the distance image, the position of the boundary of the object changes in the range of the target pixel including the boundary of the object in the process of movement, and the background and the object in the target pixel are changed. The proportion of occupies changes. Therefore, the characteristic shown in FIG. 3 is asymmetrical, and the density value at the position of the target pixel changes with a change in the ratio of the background to the object in the target pixel. From this, the width of the object corresponding to the characteristics (A) to (D) reflects the ratio of the light from the background and the light from the object with respect to the light incident on the target pixel including the boundary of the object in the distance image. I can say that.

図5によれば、対象画素において物体が占める割合が少ないほど(背景からの光量が多いほど)補正値αが大きくなることがわかる。また、図5によれば、対象画素と基準画素との位置の濃度差が小さいほど(濃度勾配が小さいほど)補正値αが大きくなることがわかる。この知見により、補正値αは、対象画素の範囲内での境界の位置Pと、対象画素と基準画素との位置の濃度差aとを用いて、α=f(P,a)と表されると言える。濃度差aが大きいことは、背景の反射率が相対的に低いことを意味するから、図2に示した距離画像において、背景の反射率が低い場合に画素値が真値に近付いていることと合致する。   As can be seen from FIG. 5, the correction value α increases as the proportion of the object in the target pixel decreases (as the amount of light from the background increases). Further, according to FIG. 5, it can be seen that the correction value α increases as the density difference between the target pixel and the reference pixel is smaller (the density gradient is smaller). With this knowledge, the correction value α is expressed as α = f (P, a) using the boundary position P within the range of the target pixel and the density difference a between the target pixel and the reference pixel. I can say. A large density difference a means that the reflectance of the background is relatively low. Therefore, in the distance image shown in FIG. 2, when the reflectance of the background is low, the pixel value approaches the true value. Matches.

図5の関係に基づいて補正値αを決定するには、対象画素と基準画素との位置の濃度差aに加えて、対象画素の範囲内での境界の位置Pを求める必要がある。上述したように、画素抽出部34は距離画像において対象画素と基準画素とを抽出しており、距離画像の画素と高精細画像の画素との位置関係は既知である。このことを利用し、画素抽出部34は、対象画素と視野が重なる高精細画像の複数個の画素と、境界画素との位置関係に基づいて、対象画素において物体の境界の位置Pを求める。また、画素抽出部34は、対象画素と基準画素との濃度差aを、第1の画像生成装置10が出力した濃淡画像から求める。   In order to determine the correction value α based on the relationship shown in FIG. 5, in addition to the density difference “a” between the target pixel and the reference pixel, it is necessary to obtain the boundary position P within the range of the target pixel. As described above, the pixel extraction unit 34 extracts the target pixel and the reference pixel in the distance image, and the positional relationship between the pixel of the distance image and the pixel of the high-definition image is known. Using this, the pixel extraction unit 34 obtains the position P of the boundary of the object in the target pixel based on the positional relationship between the plurality of pixels of the high-definition image whose field of view overlaps with the target pixel and the boundary pixel. In addition, the pixel extraction unit 34 obtains the density difference a between the target pixel and the reference pixel from the grayscale image output from the first image generation device 10.

画素抽出部34は、求めた位置Pと濃度差aとを補正部35に与え、補正部35は、図5に示した補正値αと位置Pと濃度差aとの関係に基づいて、補正値αを決定する。さらに、補正部35は、求めた補正値αを用いて距離値を補正し、対象画素における距離値の真値を求める。   The pixel extraction unit 34 gives the obtained position P and density difference a to the correction unit 35, and the correction unit 35 corrects based on the relationship between the correction value α, the position P, and the density difference a shown in FIG. Determine the value α. Further, the correction unit 35 corrects the distance value using the obtained correction value α, and obtains the true value of the distance value in the target pixel.

なお、本実施形態において、画素値の補正演算は、d0=α・d1という関係を用いて行っているが、他の関係を用いて行うことが可能であり、たとえば、d0=α1・d1+α2(α1,α2は補正値)という形式であってもよい。あるいはまた、D1=α3・D1(α3は補正値)という形式を採用することも可能である。   In this embodiment, the pixel value correction calculation is performed using the relationship d0 = α · d1, but can be performed using other relationships, for example, d0 = α1 · d1 + α2 ( α1 and α2 may be in the form of correction values. Alternatively, it is possible to adopt a format of D1 = α3 · D1 (α3 is a correction value).

以上説明したように、画素抽出部34は、第1の画像生成装置10が出力した距離画像および濃淡画像と第2の画像生成装置20が出力した高精細画像とを用いて、対象画素と基準画素との位置の濃度差aと、対象画素における物体の境界の位置Pとを求める。さらに、補正部35は、図5のような関係から補正値αを決定し、この補正値αを適用することにより、対象画素の画素値(距離値)を補正し、着目する物体について真値に近い距離値を出力することが可能になる。   As described above, the pixel extraction unit 34 uses the distance image and the grayscale image output from the first image generation device 10 and the high-definition image output from the second image generation device 20 to use the target pixel and the reference image. The density difference “a” of the position with respect to the pixel and the position P of the boundary of the object in the target pixel are obtained. Furthermore, the correction unit 35 determines the correction value α from the relationship as shown in FIG. 5 and corrects the pixel value (distance value) of the target pixel by applying the correction value α, so that the true value of the object of interest is obtained. It is possible to output a distance value close to.

ところで、境界画素は高精細画像から抽出され、対象画素および基準画素は境界画素の位置に基づいて距離画像から抽出される。したがって、高精細画像と距離画像との画素の位置を対応付けることが必要である。この対応付けは画素抽出部34が行う。画素抽出部34は、以下に説明する技術を単独または組み合わせて用いることにより、高精細画像と距離画像との画素の位置の対応付けを行う。   By the way, the boundary pixel is extracted from the high-definition image, and the target pixel and the reference pixel are extracted from the distance image based on the position of the boundary pixel. Therefore, it is necessary to associate pixel positions of the high-definition image and the distance image. This association is performed by the pixel extraction unit 34. The pixel extraction unit 34 associates the pixel positions of the high-definition image and the distance image by using techniques described below alone or in combination.

第1の技術は、対象空間において着目する物体の境界の情報は、高精細画像と距離画像とにおいて共通しているという仮定に基づいている。処理装置30は、高精細画像と距離画像とから物体の位置を抽出するために領域抽出部36を備える。   The first technique is based on the assumption that information on the boundary of the object of interest in the target space is common to the high-definition image and the distance image. The processing device 30 includes a region extraction unit 36 for extracting the position of the object from the high-definition image and the distance image.

領域抽出部36は、距離画像から抽出される物体に対応する第1の領域と、高精細画像から抽出される物体に対応する第2の領域とを抽出する。第1の領域および第2の領域の抽出には、二値化処理、微分処理のいずれかを用いる。二値化処理は、画素値を適宜の閾値で二値化することを意味し、微分処理は、着目する画素に隣接する画素(たとえば、8近傍の画素)を用いて画素値の勾配の大きさ求める演算処理を意味する。なお、微分処理は、Sobelフィルタなどを適用するエッジ強調処理であってもよい。   The region extraction unit 36 extracts a first region corresponding to the object extracted from the distance image and a second region corresponding to the object extracted from the high-definition image. For extraction of the first region and the second region, either binarization processing or differentiation processing is used. The binarization process means that the pixel value is binarized with an appropriate threshold, and the differentiation process uses a pixel adjacent to the pixel of interest (for example, 8 neighboring pixels) to increase the gradient of the pixel value. This means the calculation processing to be obtained. The differentiation process may be an edge enhancement process using a Sobel filter or the like.

画素抽出部34は、領域抽出部36が抽出した物体の境界(輪郭線、区画線など)を用いて、第1の領域と第2の領域との境界の形状についてパターンマッチングを行う。つまり、第1の領域と第2の領域との一致度を評価し、一致度が最大になるように、第1の領域と第2の領域と座標値の対応付けを行う。第1の領域と第2の領域との一致度の評価には、第1の領域の境界上の画素と第2の領域の境界上の画素との距離を用いる。画素抽出部34は、第1の領域と第2の領域とのそれぞれの境界上の画素について水平方向の差分と垂直方向の差分との二乗和の平方根を、第1の領域と第2の領域との距離として算出する。さらに、画素抽出部34は、求めた距離が最小になるように、第1の領域と第2の領域との座標値を対応付ける。   The pixel extraction unit 34 performs pattern matching on the shape of the boundary between the first region and the second region, using the boundary (contour line, partition line, etc.) of the object extracted by the region extraction unit 36. That is, the degree of coincidence between the first area and the second area is evaluated, and the first area and the second area are associated with the coordinate values so that the degree of coincidence is maximized. For the evaluation of the degree of coincidence between the first region and the second region, the distance between the pixel on the boundary of the first region and the pixel on the boundary of the second region is used. The pixel extraction unit 34 calculates the square root of the sum of squares of the difference in the horizontal direction and the difference in the vertical direction for the pixels on the respective boundaries between the first region and the second region. It is calculated as the distance. Furthermore, the pixel extraction unit 34 associates the coordinate values of the first region and the second region so that the obtained distance is minimized.

高精細画像と距離画像との画素の位置を対応付けるために、第1の技術はパターンマッチングを用いているが、第2の技術は、第1の画像生成装置10と第2の画像生成装置20との視差を用いて画素の対応付けを行う。この技術は、着目する物体の近傍に、当該物体と同程度の距離であることが保証されている他の物体が存在する場合に適用される。このような関係の物体としては、後述するように、着目する物体が人の指であって、他の物体が手の平である場合などが該当する。   In order to associate the pixel positions of the high-definition image and the distance image, the first technique uses pattern matching, but the second technique uses the first image generation apparatus 10 and the second image generation apparatus 20. Pixels are associated using the parallax between This technique is applied when there is another object in the vicinity of the object of interest, which is guaranteed to be the same distance as the object. Such an object corresponds to a case where the object of interest is a human finger and the other object is a palm, as will be described later.

たとえば、タッチパネルに接触させる指の動きに操作内容を対応付けたジェスチャ操作と同様の操作を、タッチパネルに対する指の接触位置の時間変化ではなく、対象空間における指の位置の時間変化に対応付ける場合を想定する。この場合、距離画像により指の位置を検出する必要がある。しかしながら、指は幅方向において距離画像に占める画素数が比較的少ないから、第1の画像生成装置10から指までの距離が比較的大きい場合には、距離画像において指に対応する領域の画素値は大きな誤差を生じる可能性がある。すなわち、距離画像において指に対応する領域は、画素値の補正が必要になると考えられる。一方、対象空間において指は単独で存在しているわけではなく、手の平のように距離画像に占める画素数が比較的大きい領域と一体に移動する。   For example, assume that the same operation as a gesture operation in which operation content is associated with the movement of a finger touching the touch panel is associated with the time change of the finger position in the target space instead of the time change of the finger contact position with respect to the touch panel. To do. In this case, it is necessary to detect the position of the finger from the distance image. However, since the finger occupies a relatively small number of pixels in the distance image in the width direction, if the distance from the first image generation device 10 to the finger is relatively large, the pixel value of the region corresponding to the finger in the distance image Can cause large errors. That is, it is considered that the pixel value needs to be corrected in the area corresponding to the finger in the distance image. On the other hand, the finger does not exist alone in the target space, but moves integrally with an area having a relatively large number of pixels in the distance image, such as a palm.

上述した第2の技術を採用する場合は、このことを利用し、距離画像から手の平と認識される領域について、濃淡画像と距離画像との視差を求め、この視差を距離画像において指と認識される領域に適用する。すなわち、画素抽出部34は、濃淡画像と距離画像とにおいて、手の平に相当する部位の視差と、指に相当する部位の視差とが等しいとみなし、手の平に対して得られた視差を指に適用する。   When the second technique described above is employed, this is used to obtain the parallax between the grayscale image and the distance image for the area recognized as a palm from the distance image, and this parallax is recognized as a finger in the distance image. Applies to the area That is, the pixel extraction unit 34 considers that the parallax of the part corresponding to the palm is equal to the parallax of the part corresponding to the finger in the grayscale image and the distance image, and applies the parallax obtained for the palm to the finger. To do.

ここに、画素抽出部34は、手の平を認識するにあたり、たとえば、距離画像において背景を除いて3×3画素以上を含むブロックを設定し、ブロック内の画素値のばらつきが1%以内である場合に、当該ブロックを手の平に対応するとみなす。このようなブロックが得られると、当該ブロックと実質的に連結領域を形成している画素は、視差が等しいとみなし、画素抽出部34は、距離画像において連結領域に含まれる画素の画素値を補正する。実質的な連結領域は、距離画像においてブロック内の画素から始めて隣接する画素との画素値の差が所定値以下である範囲の画素群、距離画像において背景である画素を除去する二値化を行った後、背景以外として残された連結領域の画素群のいずれかのことである。   Here, when the pixel extracting unit 34 recognizes the palm, for example, a block including 3 × 3 pixels or more except for the background is set in the distance image, and the variation of the pixel value in the block is within 1%. The block is considered to correspond to the palm. When such a block is obtained, the pixels that substantially form the connected area with the block are considered to have the same parallax, and the pixel extraction unit 34 determines the pixel values of the pixels included in the connected area in the distance image. to correct. Substantial connected regions are binarized to remove pixel groups in the range where the difference in pixel value from the pixels in the block in the distance image is equal to or less than a predetermined value, and pixels that are the background in the distance image. This is one of the pixel groups in the connected region that is left as a background other than the background.

上述のようにして視差がわかれば、距離画像と高精細画像との画素の位置合わせを正確に行うことが可能になり、パターンマッチングを行うことなく、距離画像と高精細画像とにおける物体の位置の座標を対応付けることが可能になる。つまり、パターンマッチングを行う場合よりも計算量を低減できる可能性がある。   If the parallax is known as described above, it is possible to accurately perform the pixel alignment of the distance image and the high-definition image, and the position of the object in the distance image and the high-definition image without performing pattern matching. Can be associated with each other. That is, there is a possibility that the amount of calculation can be reduced as compared with the case of performing pattern matching.

第2の技術は、視差の演算が必要になっているが、距離画像と高精細画像との視野が一致していれば、視差の計算が不要である。したがって、図6に示すように、対象空間からの入射光束を複数の経路に分岐する光学要素40を付加することが望ましい。この種の光学要素40は、ハーフミラーを用いたビームスプリッタが代表例であるが、ダイクロイックミラーを用いて波長により経路を分岐させるなどを採用してもよい。   The second technique requires calculation of parallax, but if the field of view of the distance image and the high-definition image match, calculation of parallax is not necessary. Therefore, as shown in FIG. 6, it is desirable to add an optical element 40 that branches the incident light flux from the target space into a plurality of paths. A typical example of this type of optical element 40 is a beam splitter using a half mirror, but a dichroic mirror may be used to branch the path depending on the wavelength.

光学要素40は、第1の画像生成装置10と第2の画像生成装置20とが対象空間に対する光軸を共用するように配置される。つまり、第1の画像生成装置10と第2の画像生成装置20とは、光学要素40を介して、対象空間の同じ視野を見込むから、距離画像と濃淡画像との画素の対応付けが不要になる。   The optical element 40 is arranged so that the first image generation device 10 and the second image generation device 20 share the optical axis with respect to the target space. That is, since the first image generation device 10 and the second image generation device 20 expect the same field of view in the target space via the optical element 40, it is not necessary to associate pixels between the distance image and the grayscale image. Become.

ところで、上述した動作例において、補正部35は、対象画素の範囲での物体の境界の位置Pと、対象画素と基準画素との位置の濃度差aとを用いて補正値αを決定しているから、決定した補正値αの妥当性は検証されていない。もちろん、補正部35は、図5に示した関係に基づいて補正値αを決定しているから、距離画像の画素値の誤差が改善されるが、さらに画素値の精度を高めるには、補正値αの検証が必要になる。   Incidentally, in the above-described operation example, the correction unit 35 determines the correction value α using the position P of the boundary of the object in the range of the target pixel and the density difference a between the position of the target pixel and the reference pixel. Therefore, the validity of the determined correction value α has not been verified. Of course, since the correction unit 35 determines the correction value α based on the relationship shown in FIG. 5, the error in the pixel value of the distance image is improved. The value α needs to be verified.

そこで、図7に示すように、第1の画像生成装置10の演算部14から出力された距離画像と、処理装置30の補正部35が補正した後の距離画像とを比較し、補正値αの妥当性を評価する評価部37を備えることが望ましい。評価部37は、距離画像において背景を除く領域であって、補正値αを適用した領域と実質的に連結領域を形成しかつ補正値αが適用されていない画素の有無を判断し、そのような画素があれば、当該画素の距離値と補正値αが適用された距離値とを比較する。   Therefore, as shown in FIG. 7, the distance image output from the calculation unit 14 of the first image generation device 10 is compared with the distance image corrected by the correction unit 35 of the processing device 30, and the correction value α It is desirable to include an evaluation unit 37 that evaluates the validity of. The evaluation unit 37 determines whether or not there is a pixel that is a region excluding the background in the distance image and that substantially forms a connected region with the region to which the correction value α is applied and to which the correction value α is not applied. If there is a correct pixel, the distance value of the pixel is compared with the distance value to which the correction value α is applied.

評価部37は、比較結果が、予定された誤差範囲内であれば補正値αを妥当と判定し、誤差範囲を超える場合は誤差範囲内となるように補正値αを修正する。ここに、実質的な連結領域は、距離画像において補正値αが適用された画素から始めて隣接する画素との画素値の差が所定値以下である範囲の画素群、距離画像において背景である画素を除去する二値化を行った後、背景以外として残された連結領域の画素群のいずれかのことである。   The evaluation unit 37 determines that the correction value α is valid if the comparison result is within the expected error range, and corrects the correction value α so that the correction value α is within the error range if the comparison result exceeds the error range. Here, the substantial connected region is a pixel group in a range in which a difference in pixel value from an adjacent pixel starting from a pixel to which the correction value α is applied in the distance image is equal to or less than a predetermined value, and a pixel that is the background in the distance image After binarization is performed to remove any of the pixels in the connected region that is left as other than the background.

なお、補正値αを適用しない画素は、たとえば、背景を除いた3×3画素以上のブロックに含まれる画素の画素値のばらつきが1%以内となる領域に含まれる画素などである。上述のように、ジェスチャ操作を行う場合に、着目する物体を指とすれば、指に連続する物体としての手の平には補正値αを適用せず、指に対しては補正値αを適用することになる。したがって、評価部37において指の領域に適用した補正値αを評価し、適正な補正値αを用いて指までの距離を精度よく求めることが可能になる。   Note that the pixels to which the correction value α is not applied are, for example, pixels included in a region where variations in pixel values of pixels included in a block of 3 × 3 pixels or more excluding the background are within 1%. As described above, when performing a gesture operation, if the object of interest is a finger, the correction value α is not applied to the palm as an object continuous to the finger, and the correction value α is applied to the finger. It will be. Therefore, the evaluation unit 37 can evaluate the correction value α applied to the finger area, and accurately obtain the distance to the finger using the appropriate correction value α.

以上説明したように、本実施形態では、水平方向と垂直方向とのいずれかの方向において、着目する物体が距離画像に占める画素数が少ない場合に、補正部35は着目する物体における対象画素の画素値を補正する。ここで、着目する物体が指である場合について、距離画像から抽出した対象画素の補正を行った場合と行わなかった場合とについて画素値を比較したところ、図8に示す結果が得られた。図8の横軸は距離であり、縦軸は垂直方向の画素数を表す。ここで、垂直方向の40〜45、60〜65の画素領域は背景(壁など)を表す。また、垂直方向の45〜50の画素領域は腕、50〜55の画素領域は手の平、55〜60の画素領域は指を表している。腕と手の平との画素領域は、補正が行われなかった領域であり、指に対応する画素領域についてのみ補正が行われた。つまり、補正がなければ、垂直方向55〜60の画素領域のうち指先に相当する画素領域は、手の平の画素領域に対して15cm程度遠ざかっているが(特性(A)参照)、補正後にはほぼ手の平の距離に一致する結果が得られている(特性(B)参照)。   As described above, in the present embodiment, when the number of pixels that the object of interest occupies in the distance image is small in either the horizontal direction or the vertical direction, the correction unit 35 determines the target pixel of the object of interest. Correct the pixel value. Here, when the object of interest is a finger, pixel values are compared between when the target pixel extracted from the distance image is corrected and when it is not corrected, and the result shown in FIG. 8 is obtained. In FIG. 8, the horizontal axis represents distance, and the vertical axis represents the number of pixels in the vertical direction. Here, the vertical pixel regions 40 to 45 and 60 to 65 represent the background (walls and the like). Further, the vertical pixel region of 45-50 represents the arm, the pixel region of 50-55 represents the palm, and the pixel region of 55-60 represents the finger. The pixel area of the arm and the palm is an area where correction is not performed, and correction is performed only for the pixel area corresponding to the finger. That is, if there is no correction, the pixel area corresponding to the fingertip among the vertical 55 to 60 pixel areas is about 15 cm away from the palm pixel area (see characteristic (A)), but after correction, the pixel area is almost the same. A result corresponding to the palm distance is obtained (see characteristic (B)).

以上から、手の平については、実質的に距離の誤差が発生せず、指については、距離の誤差が生じるが、補正値αを適用することによって、距離の誤差が解消されるという結果が得られた。すなわち、本実施形態の有効性が検証された。   From the above, it is found that a distance error does not substantially occur for the palm and a distance error occurs for the finger, but the distance error is eliminated by applying the correction value α. It was. That is, the effectiveness of this embodiment was verified.

上述した動作例では、距離値を用いて着目する物体を背景と分離しているが、あらかじめ着目する物体を背景と分離しておけば、以後の計算量が低減されると考えられる。着目する物体を背景と分離するには、着目する物体の特性を利用した抽出条件を用いる技術と、背景の特性を利用した抽出条件を用いる技術とが単独または組み合わせて用いられる。距離画像において着目する物体を背景から分離する処理は、処理装置30において最前段に設けられた境界抽出部33が行う。   In the operation example described above, the object of interest is separated from the background using the distance value. However, if the object of interest is separated from the background in advance, it is considered that the amount of calculation thereafter is reduced. In order to separate the object of interest from the background, a technique using an extraction condition using the characteristics of the object of interest and a technique using an extraction condition using the characteristics of the background are used alone or in combination. The processing for separating the object of interest from the background in the distance image is performed by the boundary extraction unit 33 provided in the foremost stage in the processing device 30.

いま、着目する物体が手であり、手は胴体の前方に突き出されている場合を想定する。このような状態では、境界抽出部33は、着目する物体の特性を利用する場合、第1の画像生成装置10からの距離範囲と、胴体から手までの距離とを抽出条件に用いればよい。たとえば、着目する物体の距離範囲は1.5m以内、胴体から手までの距離は30cm以上という抽出条件を用い、距離画像において規定した面積以上を示す連結領域を胴体と判断するというルールを適用すると、距離画像において手の領域を抽出できる。着目する物体が異なれば、抽出条件を変えることにより、着目する物体が抽出される。   It is assumed that the object of interest is a hand and the hand is projected forward of the torso. In such a state, the boundary extraction unit 33 may use the distance range from the first image generation device 10 and the distance from the body to the hand as extraction conditions when using the characteristics of the object of interest. For example, when using the extraction condition that the distance range of the object of interest is within 1.5 m and the distance from the torso to the hand is 30 cm or more, and applying the rule that the connected region showing the area specified in the distance image is determined to be the torso The hand region can be extracted from the distance image. If the target object is different, the target object is extracted by changing the extraction condition.

一方、背景の特性を利用して着目する物体を抽出する場合、処理装置30には、図9に示すように、対象空間に物体が存在しない状態で得られた距離画像を背景距離画像として記憶する背景記憶部38が設けられる。境界抽出部33は、第1の画像生成装置10から出力される距離画像と、背景記憶部38に記憶された背景距離画像との差分画像を生成する機能を有し、差分画像において画素値が基準値以上であることを抽出条件として、着目する物体を背景から分離できる。   On the other hand, when an object of interest is extracted using the characteristics of the background, the processing device 30 stores a distance image obtained when no object exists in the target space as a background distance image, as shown in FIG. A background storage unit 38 is provided. The boundary extraction unit 33 has a function of generating a difference image between the distance image output from the first image generation device 10 and the background distance image stored in the background storage unit 38, and the pixel value in the difference image is An object of interest can be separated from the background using an extraction condition that is equal to or greater than a reference value.

上述したように、境界抽出部33は、距離画像において着目する物体に相当する画素が含まれる領域を背景から分離する。その結果、以後の処理において対象となる画素数が低減されることになり、計算量の低減が可能になる。   As described above, the boundary extraction unit 33 separates an area including pixels corresponding to the object of interest in the distance image from the background. As a result, the number of target pixels in the subsequent processing is reduced, and the amount of calculation can be reduced.

なお、高精細画像が濃淡画像である場合に濃度値に対する閾値を用いる技術は、カラー画像に対して色あるいは輝度を用いる技術で置換可能である。高精細画像としてカラー画像を採用すると、物体に対する境界画素を色で分離可能になるから、距離画像における対象画素と基準画像とを容易に決定できる場合がある。   It should be noted that when the high-definition image is a grayscale image, the technique that uses the threshold value for the density value can be replaced with a technique that uses color or luminance for the color image. When a color image is adopted as a high-definition image, boundary pixels with respect to an object can be separated by color, so that the target pixel and the reference image in the distance image may be easily determined.

また、上述したように、補正値αを求めるには、対象画素と基準画素との位置の濃度差aが必要であるが、濃度差aは、第1の画像生成装置10から濃淡画像を出力せずに求めることが可能である。すなわち、第2の画像生成装置20が出力する高精細画像から、対象画素と基準画素との位置に相当する画素の画素値を求め、対象画素と基準画素とにそれぞれ対応する画素値の平均値の差を、濃度差として用いることが可能である。   Further, as described above, in order to obtain the correction value α, the density difference a between the target pixel and the reference pixel is necessary, and the density difference a is output from the first image generation apparatus 10 as a grayscale image. It is possible to ask without. That is, the pixel value of the pixel corresponding to the position of the target pixel and the reference pixel is obtained from the high-definition image output by the second image generation device 20, and the average value of the pixel values respectively corresponding to the target pixel and the reference pixel Can be used as the density difference.

10 第1の画像生成装置
12 撮像素子
20 第2の画像生成装置
21 撮像素子
30 処理装置
33 境界抽出部
34 画素抽出部
35 補正部
36 領域抽出部
37 評価部
38 背景記憶部
40 光学要素
DESCRIPTION OF SYMBOLS 10 1st image generation apparatus 12 Image pick-up element 20 2nd image generation apparatus 21 Image pick-up element 30 Processing apparatus 33 Boundary extraction part 34 Pixel extraction part 35 Correction | amendment part 36 Area extraction part 37 Evaluation part 38 Background memory | storage part 40 Optical element

Claims (12)

対象空間について画素値が距離値である距離画像を生成する第1の画像生成装置と、
前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と、
前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、
前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、
前記高精細画像から求められる対象画素の範囲での境界の位置と、前記高精細画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備える
ことを特徴とする距離画像センサ。
A first image generation device that generates a distance image in which a pixel value is a distance value for a target space;
A second image generation device that generates a high-definition image that is higher-definition than the distance image for the target space;
A boundary extraction unit that extracts the positions of two boundary pixels that sandwich the boundary of the object of interest in the high-definition image;
Extracting the target pixel and the reference pixel based on the position of the boundary pixel using the pixel including the boundary of the object in the distance image as a target pixel, a pixel adjacent to the target pixel and positioned on the background side as a reference pixel A pixel extraction unit to
Correction set in advance for the relationship between the position of the boundary in the range of the target pixel obtained from the high-definition image and the density difference between the target pixel and the reference pixel obtained from the high-definition image A distance image sensor comprising: a correction unit that corrects a pixel value of the target pixel extracted by the pixel extraction unit using a value.
対象空間について画素値が距離値である距離画像および濃度値である濃淡画像を生成する第1の画像生成装置と、
前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と、
前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、
前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、
前記高精細画像から求められる対象画素の範囲での境界の位置と、前記濃淡画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備える
ことを特徴とする距離画像センサ。
A first image generating device that generates a distance image whose pixel value is a distance value and a grayscale image that is a density value for a target space;
A second image generation device that generates a high-definition image that is higher-definition than the distance image for the target space;
A boundary extraction unit that extracts the positions of two boundary pixels that sandwich the boundary of the object of interest in the high-definition image;
Extracting the target pixel and the reference pixel based on the position of the boundary pixel using the pixel including the boundary of the object in the distance image as a target pixel, a pixel adjacent to the target pixel and positioned on the background side as a reference pixel A pixel extraction unit to
Correction value set in advance for the relationship between the position of the boundary within the range of the target pixel obtained from the high-definition image and the density difference at the position of the target pixel and the reference pixel obtained from the grayscale image A distance image sensor, comprising: a correction unit that corrects a pixel value of the target pixel extracted by the pixel extraction unit.
前記距離画像から抽出される前記物体に対応する第1の領域と、前記高精細画像から抽出される前記物体に対応する第2の領域とを抽出する領域抽出部をさらに備え、
前記画素抽出部は、前記領域抽出部が抽出した前記第1の領域と前記第2の領域とのパターンマッチングを行うことにより前記境界画素の位置を前記対象画素の位置に対応付ける
ことを特徴とする請求項1又は2記載の距離画像センサ。
An area extracting unit that extracts a first area corresponding to the object extracted from the distance image and a second area corresponding to the object extracted from the high-definition image;
The pixel extracting unit associates the position of the boundary pixel with the position of the target pixel by performing pattern matching between the first region and the second region extracted by the region extracting unit. The distance image sensor according to claim 1 or 2.
前記画素抽出部は、前記第1の画像生成装置と前記第2の画像生成装置との前記物体に対する視差を用いることにより前記境界画素の位置を前記対象画素の位置に対応付ける
ことを特徴とする請求項1又は2記載の距離画像センサ。
The pixel extraction unit associates the position of the boundary pixel with the position of the target pixel by using a parallax with respect to the object of the first image generation device and the second image generation device. Item 3. The distance image sensor according to item 1 or 2.
前記対象空間からの入射光束を複数の経路に分岐することにより、前記対象空間に対する光軸を前記第1の画像生成装置と前記第2の画像生成装置とに共用させる光学要素をさらに備える
ことを特徴とする請求項1又は2記載の距離画像センサ。
An optical element for sharing the optical axis with respect to the target space by the first image generation device and the second image generation device by branching the incident light flux from the target space into a plurality of paths; The distance image sensor according to claim 1 or 2, characterized in that
前記第1の画像生成装置と前記第2の画像生成装置とをそれぞれ撮像する撮像素子は、ワンチップとなるように1枚の基板に形成されている
ことを特徴とする請求項1〜5のいずれか1項に記載の距離画像センサ。
6. The imaging device for imaging each of the first image generation device and the second image generation device is formed on a single substrate so as to be a single chip. The distance image sensor according to any one of the preceding claims.
第1の画像生成装置で生成された距離画像と、前記補正部が補正した距離画像とを比較し、前記補正値の妥当性を評価する評価部をさらに備え、
前記評価部は、前記距離画像において背景を除く領域であって、前記補正値を適用した領域と実質的に連結領域を形成し、かつ前記補正値が適用されていない画素から得られる距離値と、前記補正値が適用された画素の距離値との差が所定値以下である場合に、前記補正値を妥当と判断する
ことを特徴とする請求項1〜6のいずれか1項に記載の距離画像センサ。
An evaluation unit that compares the distance image generated by the first image generation device with the distance image corrected by the correction unit and evaluates the validity of the correction value;
The evaluation unit is an area excluding the background in the distance image, and substantially forms a connected area with an area to which the correction value is applied, and a distance value obtained from a pixel to which the correction value is not applied. 7. The correction value is determined to be valid when a difference from a distance value of a pixel to which the correction value is applied is equal to or less than a predetermined value. Distance image sensor.
前記境界抽出部は、前記距離画像において画素値が規定の抽出条件を満たす画素を含む領域において、前記高精細画像から前記対象空間における前記物体に対応する画素を抽出する
ことを特徴とする請求項1〜7のいずれか1項に記載の距離画像センサ。
The boundary extraction unit extracts pixels corresponding to the object in the target space from the high-definition image in a region including pixels whose pixel values satisfy a predetermined extraction condition in the distance image. The distance image sensor according to any one of 1 to 7.
前記対象空間に前記物体が存在しない状態で得られた前記距離画像を背景距離画像として記憶する背景記憶部をさらに備え、
前記境界抽出部は、前記第1の画像生成装置が生成した前記距離画像と前記背景記憶部に記憶された前記背景距離画像との差分画像において画素値が基準値以上であることを前記抽出条件とし、前記高精細画像から前記対象空間における前記物体に対応する画素を抽出する
ことを特徴とする請求項8記載の距離画像センサ。
A background storage unit that stores the distance image obtained in a state where the object does not exist in the target space as a background distance image;
The extraction condition is that the boundary extraction unit has a pixel value greater than or equal to a reference value in a difference image between the distance image generated by the first image generation device and the background distance image stored in the background storage unit. The distance image sensor according to claim 8, wherein a pixel corresponding to the object in the target space is extracted from the high-definition image.
対象空間について画素値が距離値である距離画像を生成する第1の画像生成装置、および前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と併せて用いられ、前記対象空間において着目する物体までの距離を求める処理装置であって、前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、
前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、
前記高精細画像から求められる対象画素の範囲での境界の位置と、前記高精細画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備える
ことを特徴とする処理装置。
In combination with a first image generation device that generates a distance image having a pixel value that is a distance value for the target space, and a second image generation device that generates a high-definition image that is higher in definition than the distance image for the target space. A boundary extraction unit for extracting a position of two boundary pixels sandwiching a boundary of an object of interest in the high-definition image, and a processing device for obtaining a distance to the object of interest in the target space;
Extracting the target pixel and the reference pixel based on the position of the boundary pixel using the pixel including the boundary of the object in the distance image as a target pixel, a pixel adjacent to the target pixel and positioned on the background side as a reference pixel A pixel extraction unit to
Correction set in advance for the relationship between the position of the boundary in the range of the target pixel obtained from the high-definition image and the density difference between the target pixel and the reference pixel obtained from the high-definition image A correction unit that corrects a pixel value of the target pixel extracted by the pixel extraction unit using a value.
対象空間について画素値が距離値である距離画像および濃度値である濃淡画像を生成する第1の画像生成装置、および前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と併せて用いられ、前記対象空間において着目する物体までの距離を求める処理装置であって、前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、
前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、
前記高精細画像から求められる対象画素の範囲での境界の位置と、対象画素の範囲での境界の位置と、前記濃淡画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備える
ことを特徴とする処理装置。
A first image generation device that generates a distance image whose pixel value is a distance value and a grayscale image that is a density value for a target space, and a second that generates a high-definition image that is higher in definition than the distance image for the target space A processing device for obtaining a distance to a target object in the target space, and extracting positions of two boundary pixels sandwiching a boundary of the target object in the high-definition image. A boundary extraction unit;
Extracting the target pixel and the reference pixel based on the position of the boundary pixel using the pixel including the boundary of the object in the distance image as a target pixel, a pixel adjacent to the target pixel and positioned on the background side as a reference pixel A pixel extraction unit to
The position of the boundary in the range of the target pixel determined from the high-definition image, the position of the boundary in the range of the target pixel, and the density difference at the position of the target pixel and the reference pixel determined from the grayscale image A correction unit that corrects the pixel value of the target pixel extracted by the pixel extraction unit using a correction value set in advance for the relationship.
コンピュータを、請求項10又は11記載の処理装置として機能させるためのプログラム。   The program for functioning a computer as a processing apparatus of Claim 10 or 11.
JP2012288367A 2012-12-28 2012-12-28 Range image sensor, processor and program Pending JP2014130086A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012288367A JP2014130086A (en) 2012-12-28 2012-12-28 Range image sensor, processor and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012288367A JP2014130086A (en) 2012-12-28 2012-12-28 Range image sensor, processor and program

Publications (1)

Publication Number Publication Date
JP2014130086A true JP2014130086A (en) 2014-07-10

Family

ID=51408589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012288367A Pending JP2014130086A (en) 2012-12-28 2012-12-28 Range image sensor, processor and program

Country Status (1)

Country Link
JP (1) JP2014130086A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016170076A (en) * 2015-03-13 2016-09-23 オムロン株式会社 Object detector, method for detecting object, and object detection program
JP2018066571A (en) * 2016-10-17 2018-04-26 株式会社トプコン Laser scanner
CN110716210A (en) * 2018-07-12 2020-01-21 发那科株式会社 Distance measuring device with distance correction function
US20220067768A1 (en) * 2020-08-28 2022-03-03 Telenav, Inc. Navigation system with high definition mapping mechanism and method of operation thereof
WO2023106129A1 (en) * 2021-12-06 2023-06-15 ソニーグループ株式会社 Information processing device and information processing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016170076A (en) * 2015-03-13 2016-09-23 オムロン株式会社 Object detector, method for detecting object, and object detection program
JP2018066571A (en) * 2016-10-17 2018-04-26 株式会社トプコン Laser scanner
CN110716210A (en) * 2018-07-12 2020-01-21 发那科株式会社 Distance measuring device with distance correction function
CN110716210B (en) * 2018-07-12 2024-01-30 发那科株式会社 Distance measuring device with distance correction function
US20220067768A1 (en) * 2020-08-28 2022-03-03 Telenav, Inc. Navigation system with high definition mapping mechanism and method of operation thereof
WO2023106129A1 (en) * 2021-12-06 2023-06-15 ソニーグループ株式会社 Information processing device and information processing method

Similar Documents

Publication Publication Date Title
EP3517997B1 (en) Method and system for detecting obstacles by autonomous vehicles in real-time
US9041588B2 (en) Object detection device and object detection method
JP5472538B2 (en) Distance measuring device and environmental map generating device
US8917929B2 (en) Image processing apparatus, method, program, and recording medium
US10275857B2 (en) Depth image enhancement method
WO2014073322A1 (en) Object detection device and object detection method
JP6707022B2 (en) Stereo camera
US10643343B2 (en) Structured light matching of a set of curves from three cameras
WO2012175731A1 (en) Depth measurement quality enhancement
JP2015075800A (en) Object detection device and vehicle using object detection device
WO2011104706A1 (en) A system and method for providing 3d imaging
JPWO2014006832A1 (en) Size measuring apparatus and size measuring method
US11099009B2 (en) Imaging apparatus and imaging method
JP2014130086A (en) Range image sensor, processor and program
JP2016136321A (en) Object detection device and object detection method
US11803982B2 (en) Image processing device and three-dimensional measuring system
JP2018085059A (en) Information processing device, imaging apparatus, device control system, information processing method and program
WO2022050279A1 (en) Three-dimensional measurement device
US20220292703A1 (en) Image processing device, three-dimensional measurement system, and image processing method
US20130241882A1 (en) Optical touch system and optical touch position detecting method
JP2007233487A (en) Pedestrian detection method, device, and program
JP7152506B2 (en) Imaging device
JP2018146495A (en) Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system
CN113189601B (en) Hybrid depth estimation system
JP2013142668A (en) Position estimation device and position estimation method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150312