JP2013024653A - Distance measuring apparatus and program - Google Patents

Distance measuring apparatus and program Download PDF

Info

Publication number
JP2013024653A
JP2013024653A JP2011158050A JP2011158050A JP2013024653A JP 2013024653 A JP2013024653 A JP 2013024653A JP 2011158050 A JP2011158050 A JP 2011158050A JP 2011158050 A JP2011158050 A JP 2011158050A JP 2013024653 A JP2013024653 A JP 2013024653A
Authority
JP
Japan
Prior art keywords
region
area
extracted
parallax amount
specific object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011158050A
Other languages
Japanese (ja)
Inventor
Yusuke Kanzawa
佑介 寒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2011158050A priority Critical patent/JP2013024653A/en
Publication of JP2013024653A publication Critical patent/JP2013024653A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable the distance to a specific object to be accurately measured by using a plurality of image pickup means differing from each other in wavelength characteristics.SOLUTION: A prescribed area is photographed from different viewpoints with a first image pickup device 12 and a second image pickup device 14 differing from each other in the wavelength band of sensitivity. A human skin area is extracted with an object extracting unit 32 from each of the photographed images on the basis of pre-determined conditions regarding the reflection intensity of each of optical wavelength bands regarding human skins. Human skin areas extracted from the photographed images are aligned in position by an aligning unit 34 to calculate the parallax quantities in the human skin areas. The distance to the person is measured by a distance measuring unit 36 on the basis of the calculated parallax quantities, and spectroscopic data of the human skin areas are generated by a spectroscopic data generating unit 38.

Description

本発明は、距離測定装置及びプログラムに係り、特に、複数の撮像手段によって撮像した画像から、特定の対象物までの距離を測定する距離測定装置及びプログラムに関する。   The present invention relates to a distance measuring device and a program, and more particularly, to a distance measuring device and a program for measuring a distance from an image captured by a plurality of imaging means to a specific object.

従来より、複雑な3次元対象の位置・姿勢検出および認識を目的としたシステムが開発されており、例えば、両眼視による濃淡画像から抽出されたエッジを基本要素として対象の3次元形状を復元する3次元ビジョンシステムが知られている(非特許文献1)。この3次元ビジョンシステムでは、視差が出るように配置された2台の同一のカメラにより取得した画像に対してエッジ検出処理を行い、検出されたエッジの類似度を測ることで対象の3次元形状を復元している。   Conventionally, systems aimed at detecting and recognizing the position and orientation of complex three-dimensional objects have been developed. For example, the three-dimensional shape of an object is restored using edges extracted from grayscale images obtained by binocular vision as basic elements. A three-dimensional vision system is known (Non-Patent Document 1). In this three-dimensional vision system, an edge detection process is performed on images acquired by two identical cameras arranged so that parallax appears, and the similarity of the detected edges is measured to measure the three-dimensional shape of the target. Is restoring.

また、多くのバンド数を測定可能で、各バンドの分光画像の位置ずれがない分光測定方法が知られている(特許文献1)。この分光測定方法では、基準カメラと参照カメラとを用いて被測定物を撮影し、参照カメラにより作成された参照画像データを、基準カメラの位置から撮影したように射影変換し、画像中の被測定物上の任意の点を示す座標が、基準カメラで撮影された基準画像データの被測定物上の同一点上の座標を示すような変換画像データを作成し、基準カメラで撮影された基準画像データと変換画像データとの座標を共有化して、当該座標上における被測定物上の任意の点の分光データを作成している。   Further, a spectroscopic measurement method that can measure a large number of bands and does not cause a positional shift of spectral images of each band is known (Patent Document 1). In this spectroscopic measurement method, an object to be measured is photographed using a standard camera and a reference camera, and the reference image data created by the reference camera is projectively converted as if photographed from the position of the standard camera, and the object in the image is then converted. Create converted image data in which the coordinates indicating an arbitrary point on the measured object indicate the coordinates on the same point on the measured object of the reference image data captured by the reference camera, and the reference captured by the reference camera By sharing the coordinates of the image data and the converted image data, spectral data of an arbitrary point on the measurement object on the coordinates is created.

内藤貴志、木村好克、「ステレオビジョンシステムの開発」、豊田中央研究所 R&D レビュー、Vol.31、No.2、1996年6月Takashi Naito, Yoshikatsu Kimura, “Development of Stereo Vision System”, Toyota Central R & D R & D Review, Vol. 31, no. 2, June 1996

特開2007−147507号公報JP 2007-147507 A

しかしながら、上記の非特許文献1に記載の技術では、異なる波長特性を有する2台のカメラを用いた場合、両者のエッジ画像が異なるため、正確に類似度を算出することができなくなり、3次元形状を精度良く求めることができない、という問題がある。これは、感度を有する波長がカメラの間で異なるという理由から、取得する画像に差が出るためであり、輝度を用いて類似度を算出する他のステレオカメラの技術でも同様となる。   However, in the technique described in Non-Patent Document 1, when two cameras having different wavelength characteristics are used, since the edge images of the two cameras are different, it is impossible to accurately calculate the degree of similarity. There is a problem that the shape cannot be obtained with high accuracy. This is because there is a difference in images to be acquired because the wavelength having sensitivity differs among cameras, and the same applies to other stereo camera techniques that calculate the degree of similarity using luminance.

また、上記で述べたように、異なる波長特性を有するカメラで撮像する場合、それらの画像の位置合わせが困難となるが、上記の特許文献1に記載の技術では、被測定物表面に基準点を投光することで、複数台のカメラの位置合わせを実現している。しかしながら、上記の特許文献1に記載の技術では、投光された基準点を表面に持つ対象物の領域しか位置合わせを行うことができず、投光の範囲外に存在する対象物の領域の位置合わせを行うことは不可能である、という問題がある。   Further, as described above, when images are taken with cameras having different wavelength characteristics, it is difficult to align the images. However, in the technique described in Patent Document 1, a reference point is provided on the surface of the object to be measured. Aligning multiple cameras is realized. However, in the technique described in Patent Document 1 described above, only the area of the object having the projected reference point on the surface can be aligned, and the area of the object existing outside the range of the light projection can be detected. There is a problem that it is impossible to perform alignment.

本発明は、上記の問題点を解決するためになされたもので、異なる波長特性を有する複数の撮像手段を用いて、特定の対象物までの距離を精度よく測定することができる距離測定装置及びプログラムを提供することを目的とする。   The present invention has been made in order to solve the above problems, and a distance measuring device capable of accurately measuring a distance to a specific object using a plurality of imaging means having different wavelength characteristics and The purpose is to provide a program.

上記の目的を達成するために本発明に係る距離測定装置は、各々感度を有する光の波長帯が異なり、かつ、各々異なる視点から所定領域を撮像する複数の撮像手段と、前記複数の撮像手段によって撮像された撮像画像の各々から、特定の対象物についての光の波長帯の各々の反射強度に関する予め定められた条件に基づいて、前記特定の対象物を表わす領域を抽出する領域抽出手段と、前記領域抽出手段によって前記撮影画像の各々から抽出された前記領域の位置合わせを行って、前記領域における視差量を算出する視差量算出手段と、前記視差量算出手段によって算出された前記視差量に基づいて、前記特定の対象物までの距離を測定する距離測定手段と、を含んで構成されている。   In order to achieve the above object, a distance measuring device according to the present invention includes a plurality of imaging means for imaging a predetermined region from different viewpoints, each having a different wavelength range of light having sensitivity, and the plurality of imaging means. A region extracting means for extracting a region representing the specific object from each of the captured images picked up by the method based on a predetermined condition regarding the reflection intensity of each of the light wavelength bands of the specific object; A parallax amount calculating unit that calculates a parallax amount in the region by aligning the regions extracted from each of the captured images by the region extracting unit; and the parallax amount calculated by the parallax amount calculating unit. And a distance measuring means for measuring the distance to the specific object.

本発明に係るプログラムは、コンピュータを、各々感度を有する光の波長帯が異なり、かつ、各々異なる視点から所定領域を撮像する複数の撮像手段によって撮像された撮像画像の各々から、特定の対象物についての光の波長帯の各々の反射強度に関する予め定められた条件に基づいて、前記特定の対象物を表わす領域を抽出する領域抽出手段、前記領域抽出手段によって前記撮影画像の各々から抽出された前記領域の位置合わせを行って、前記領域における視差量を算出する視差量算出手段、及び前記視差量算出手段によって算出された前記視差量に基づいて、前記特定の対象物までの距離を測定する距離測定手段として機能させるためのプログラムである。   The program according to the present invention allows a computer to specify a specific object from each of captured images captured by a plurality of imaging units that capture different areas from different viewpoints and have different sensitivity wavelength bands. Based on a predetermined condition relating to the reflection intensity of each of the light wavelength bands, region extraction means for extracting a region representing the specific object, the region extraction unit extracted from each of the photographed images A parallax amount calculating unit that calculates a parallax amount in the region by performing alignment of the region, and a distance to the specific object is measured based on the parallax amount calculated by the parallax amount calculating unit. It is a program for functioning as a distance measuring means.

本発明によれば、複数の撮像手段によって、各々異なる視点から所定領域を撮像する。領域抽出手段によって、前記複数の撮像手段によって撮像された撮像画像の各々から、特定の対象物についての光の波長帯の各々の反射強度に関する予め定められた条件に基づいて、前記特定の対象物を表わす領域を抽出する。   According to the present invention, the predetermined area is imaged from different viewpoints by the plurality of imaging means. The specific object based on a predetermined condition relating to the reflection intensity of each of the wavelength bands of light for the specific object from each of the captured images captured by the plurality of image capturing means by the region extracting unit. An area representing is extracted.

そして、視差量算出手段によって、前記領域抽出手段によって前記撮影画像の各々から抽出された前記領域の位置合わせを行って、前記領域における視差量を算出する。距離測定手段によって、前記視差量算出手段によって算出された前記視差量に基づいて、前記特定の対象物までの距離を測定する。   Then, the parallax amount calculation means performs alignment of the areas extracted from each of the captured images by the area extraction means, and calculates the parallax amount in the areas. A distance measuring unit measures a distance to the specific object based on the parallax amount calculated by the parallax amount calculating unit.

このように、特定の対象物についての光の波長帯の各々の反射強度に関する条件に基づいて、撮像画像の各々から特定の対象物を表わす領域を抽出し、当該領域の位置合わせを行って、視差量を算出することにより、異なる波長特性を有する複数の撮像手段を用いて、特定の対象物までの距離を精度よく測定することができる。   In this way, based on the conditions relating to the reflection intensity of each of the wavelength bands of light for a specific object, an area representing the specific object is extracted from each of the captured images, and the area is aligned, By calculating the amount of parallax, it is possible to accurately measure the distance to a specific object using a plurality of imaging means having different wavelength characteristics.

本発明に係る距離測定装置は、前記領域抽出手段によって前記撮影画像の各々から抽出された前記領域に基づいて、前記特定の対象物を表わす領域における、光の波長帯の各々の反射強度を表わす分光データを生成する分光データ生成手段を更に含むようにすることができる。   The distance measuring device according to the present invention represents the reflection intensity of each of the wavelength bands of light in the region representing the specific object based on the region extracted from each of the captured images by the region extraction means. It is possible to further include spectral data generating means for generating spectral data.

本発明に係る撮像手段の各々は、複数の光の波長帯に感度を有するようにすることができる。   Each of the imaging means according to the present invention can be sensitive to a plurality of light wavelength bands.

本発明に係る視差量算出手段は、前記領域抽出手段によって前記撮影画像の各々から抽出された前記領域を重ね合わせたときの重なる面積が最大となるように、前記領域の位置合わせを行い、前記領域の位置合わせ結果に基づいて、前記領域における視差量を算出するようにすることができる。   The parallax amount calculation means according to the present invention aligns the regions so that the overlapping area when the regions extracted from each of the captured images are overlapped by the region extraction unit is maximized, The amount of parallax in the region can be calculated based on the region alignment result.

以上説明したように、本発明の距離測定装置及びプログラムによれば、特定の対象物についての光の波長帯の各々の反射強度に関する条件に基づいて、撮像画像の各々から特定の対象物を表わす領域を抽出し、当該領域の位置合わせを行って、視差量を算出することにより、異なる波長特性を有する複数の撮像手段を用いて、特定の対象物までの距離を精度よく測定することができる、という効果が得られる。   As described above, according to the distance measuring device and the program of the present invention, a specific object is represented from each of the captured images based on the conditions regarding the reflection intensity of each of the light wavelength bands for the specific object. By extracting a region, aligning the region, and calculating the amount of parallax, it is possible to accurately measure the distance to a specific object using a plurality of imaging units having different wavelength characteristics. The effect of is obtained.

本発明の第1の実施の形態に係る距離測定装置の構成を示す概略図である。It is the schematic which shows the structure of the distance measuring device which concerns on the 1st Embodiment of this invention. 撮像装置の構成を示す図である。It is a figure which shows the structure of an imaging device. 第1撮像装置が感度を有する波長帯を示す図である。It is a figure which shows the wavelength range which a 1st imaging device has a sensitivity. 第2撮像装置が感度を有する波長帯を示す図である。It is a figure which shows the wavelength band which a 2nd imaging device has a sensitivity. 第1撮像装置及び第2撮像装置を配置した様子を示す図である。It is a figure which shows a mode that the 1st imaging device and the 2nd imaging device have been arrange | positioned. 可視光画像の例を示す図である。It is a figure which shows the example of a visible light image. 近赤外画像の例を示す図である。It is a figure which shows the example of a near-infrared image. 可視光画像から人間の肌領域を抽出した結果を示す図である。It is a figure which shows the result of having extracted the human skin area | region from the visible light image. 近赤外画像から人間の肌領域を抽出した結果を示す図である。It is a figure which shows the result of having extracted the human skin area | region from the near-infrared image. 可視光画像から検出されるエッジ情報を示す図である。It is a figure which shows the edge information detected from a visible light image. 近赤外画像から検出されるエッジ情報を示す図である。It is a figure which shows the edge information detected from a near-infrared image. 可視光画像から抽出された人間の肌領域と、近赤外画像から抽出された人間の肌領域とを重ね合わせた結果を示す図である。It is a figure which shows the result of having superimposed the human skin area | region extracted from the visible light image, and the human skin area | region extracted from the near-infrared image. 画像の並行移動量と、重ね合わされた人間の肌領域との関係を示すグラフである。It is a graph which shows the relationship between the amount of parallel movement of an image, and the human skin area | region superimposed. 可視光画像から抽出された人間の肌領域と、近赤外画像から抽出された人間の肌領域とを位置合わせした結果における重ね合わせ領域を示す図である。It is a figure which shows the superimposition area | region in the result of having aligned the human skin area | region extracted from the visible light image, and the human skin area | region extracted from the near-infrared image. (A)人間の肌の分光反射特性を示すグラフ、及び(B)分光データを示すグラフである。(A) A graph showing spectral reflection characteristics of human skin, and (B) a graph showing spectral data. 本発明の第1の実施の形態に係る距離測定装置のコンピュータにおける距離測定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the distance measurement process routine in the computer of the distance measurement apparatus which concerns on the 1st Embodiment of this invention.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、車両に搭載され、対象物としての人物までの距離を測定すると共に、人間の肌領域の分光データを出力する距離測定装置に本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. An example will be described in which the present invention is applied to a distance measuring device mounted on a vehicle and measuring the distance to a person as an object and outputting spectral data of a human skin region.

図1に示すように、第1の実施の形態に係る距離測定装置10は、車両(図示省略)に取り付けられ、かつ、車両の前方を撮像して画像を生成する第1撮像装置12及び第2撮像装置14と、第1撮像装置12及び第2撮像装置14の各々から得られる撮像画像に基づいて、人物までの距離を測定すると共に、人物の領域の分光データを出力するコンピュータ16と、コンピュータ16での処理結果を出力する出力装置18とを備えている。   As shown in FIG. 1, the distance measuring device 10 according to the first embodiment is attached to a vehicle (not shown) and captures the front of the vehicle and generates an image. A computer 16 that measures the distance to the person and outputs spectral data of the area of the person based on the captured images obtained from each of the two imaging devices 14 and the first imaging device 12 and the second imaging device 14; And an output device 18 for outputting a processing result in the computer 16.

第1撮像装置12及び第2撮像装置14の各々は、異なる視点から、車両前方の対象領域を撮像するように設置されている。図2に示すように、第1撮像装置12及び第2撮像装置14の各々は、レンズ20を透過した入射光をプリズム22で分光する。プリズム22には狭帯域のバンドパスフィルタ24A、24B、24Cが蒸着されており、所定の波長の光がバンドパスフィルタ24A、24B、24Cを透過して3つの高感度撮像部26A、26B、26Cに入射する。つまり、3つの高感度撮像部26A、26B、26Cは、同一の光軸の画像を取得可能である。   Each of the first imaging device 12 and the second imaging device 14 is installed so as to image a target area in front of the vehicle from different viewpoints. As shown in FIG. 2, each of the first imaging device 12 and the second imaging device 14 separates incident light transmitted through the lens 20 with a prism 22. Narrow band-pass filters 24A, 24B, and 24C are deposited on the prism 22, and light of a predetermined wavelength passes through the band-pass filters 24A, 24B, and 24C, and three high-sensitivity imaging units 26A, 26B, and 26C. Is incident on. That is, the three high-sensitivity imaging units 26A, 26B, and 26C can acquire images with the same optical axis.

高感度撮像部26A、26B、26Cの各々は、画素を構成する撮像素子が配列されて構成されており、画像信号を生成する。   Each of the high-sensitivity imaging units 26A, 26B, and 26C is configured by arranging imaging elements that constitute pixels, and generates an image signal.

第1撮像装置12のバンドパスフィルタ24A、24B、24Cは、図3に示すような可視領域の3波長帯R,G,Bを透過するように構成され、第1撮像装置12は、可視領域の3波長帯R,G,Bの画像信号から生成される撮像画像(可視光画像)を出力する。   The band-pass filters 24A, 24B, and 24C of the first imaging device 12 are configured to transmit the three wavelength bands R, G, and B in the visible region as shown in FIG. 3, and the first imaging device 12 has the visible region. The picked-up image (visible light image) produced | generated from the image signal of these 3 wavelength bands R, G, B is output.

第2撮像装置14のバンドパスフィルタ24A、24B、24Cは、図4に示すような近赤外領域の3波長帯IR1、IR2、IR3(IR1<IR2<IR3)を透過するように構成され、第2撮像装置14は、近赤外領域の3波長帯IR1、IR2、IR3の画像信号から生成される撮像画像(近赤外画像)を出力する。   The band-pass filters 24A, 24B, 24C of the second imaging device 14 are configured to transmit the near-infrared three-wavelength bands IR1, IR2, IR3 (IR1 <IR2 <IR3) as shown in FIG. The second imaging device 14 outputs a captured image (near infrared image) generated from the image signals of the three wavelength bands IR1, IR2, and IR3 in the near infrared region.

また、第1撮像装置12及び第2撮像装置14の各々は、更に、高感度撮像部26A、26B、26Cで生成されたアナログ信号である画像信号をデジタル信号に変換するA/D変換部(図示省略)、及びA/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)を備えている。   In addition, each of the first imaging device 12 and the second imaging device 14 further includes an A / D converter (A / D converter) that converts an image signal that is an analog signal generated by the high-sensitivity imaging units 26A, 26B, and 26C into a digital signal. And an image memory (not shown) for temporarily storing the A / D converted image signal.

図5に示すように、第1撮像装置12及び第2撮像装置14は横に並行に設置され、可視光画像及び近赤外画像が同時に取得される。例えば、第1撮像装置12によって、図6に示すような可視光画像が取得され、第2撮像装置14によって、図7に示すような近赤外画像が取得される。なお、図7の近赤外画像では、IR1フィルタをB成分、IR2フィルタをG成分、IR3フィルタをR成分として、擬似カラーを用いて表現している。   As shown in FIG. 5, the first imaging device 12 and the second imaging device 14 are installed side by side, and a visible light image and a near-infrared image are acquired simultaneously. For example, a visible light image as shown in FIG. 6 is acquired by the first imaging device 12, and a near-infrared image as shown in FIG. 7 is acquired by the second imaging device 14. In the near-infrared image of FIG. 7, the IR1 filter is expressed using a pseudo color with the B component, the IR2 filter as the G component, and the IR3 filter as the R component.

コンピュータ16は、距離測定装置10全体の制御を司るCPU、後述する距離測定処理ルーチンのプログラム等を記憶した記憶媒体としてのROM、ワークエリアとしてデータを一時格納するRAM、及びこれらを接続するバスを含んで構成されている。このような構成の場合には、各構成要素の機能を実現するためのプログラムをROMに記憶しておき、これをCPUが実行することによって、各機能が実現されるようにする。   The computer 16 includes a CPU that controls the entire distance measuring apparatus 10, a ROM as a storage medium that stores a program for a distance measurement processing routine that will be described later, a RAM that temporarily stores data as a work area, and a bus that connects these. It is configured to include. In the case of such a configuration, a program for realizing the function of each component is stored in the ROM, and the CPU executes the program so that each function is realized.

このコンピュータ16をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、上記図1に示すように、第1撮像装置12によって撮像された可視光画像及び第2撮像装置14によって撮像された近赤外画像を取得する画像取得部30と、可視光画像及び近赤外画像の各々から人間の肌を表わす領域を抽出する対象物抽出部32と、抽出された肌領域の位置合わせを行って、肌領域における視差量を算出する位置合わせ部34と、視差量に基づいて、人物までの距離を測定する距離測定部36と、肌領域の分光データを生成する分光データ生成部38とを備えている。なお、対象物抽出部32は、領域抽出手段の一例であり、位置合わせ部34は、視差量算出手段の一例である。   When the computer 16 is described with function blocks divided for each function realizing means determined based on hardware and software, as shown in FIG. 1, the visible light image captured by the first imaging device 12 and the second image An image acquisition unit 30 that acquires a near-infrared image captured by the imaging device 14, an object extraction unit 32 that extracts a region representing human skin from each of the visible light image and the near-infrared image, and the extracted Alignment of the skin area to calculate the parallax amount in the skin area, a distance measurement section 36 that measures the distance to the person based on the parallax amount, and spectral data of the skin area are generated And a spectral data generation unit 38. The object extraction unit 32 is an example of a region extraction unit, and the alignment unit 34 is an example of a parallax amount calculation unit.

対象物抽出部32は、取得した可視光画像から、肌色領域を抽出する手法を用いて、以下の(1)式に示す条件式に従って、YCrCb色空間における肌色空間の画素を抜き出して、図8に示すように人間の肌領域を抽出する。なお、図8では、白色の領域が人間の肌として判定された領域としている。   The object extraction unit 32 extracts the skin color space pixels in the YCrCb color space according to the conditional expression shown in the following expression (1) using the method of extracting the skin color region from the acquired visible light image, and FIG. The human skin region is extracted as shown in FIG. In FIG. 8, the white area is an area determined as human skin.

なお、Rは、対象画素のR成分であり、Gは、対象画素のG成分であり、Bは、対象画素のB成分である。   Note that R is the R component of the target pixel, G is the G component of the target pixel, and B is the B component of the target pixel.

また、対象物抽出部32は、取得した近赤外画像から、人間の肌が970nmの光を吸収する特性を用いて、以下の(2)式に示す条件式に従って、870nmおよび1050nmの光に対して970nmの光の反射強度が小さい画素を抜き出して、図9に示すように人間の肌領域を抽出する。なお、図9では白色の領域が人間の肌として判定された領域としている。   Further, the object extraction unit 32 converts the acquired near-infrared image into light of 870 nm and 1050 nm according to the conditional expression shown in the following equation (2) using the characteristic that human skin absorbs light of 970 nm. On the other hand, a pixel having a low reflection intensity of 970 nm light is extracted, and a human skin region is extracted as shown in FIG. In FIG. 9, the white area is an area determined as human skin.

ただし、IR1は、対象画素のIR1成分であり、IR2は、対象画素のIR2成分であり、IR3は、対象画素のIR3成分である。   However, IR1 is the IR1 component of the target pixel, IR2 is the IR2 component of the target pixel, and IR3 is the IR3 component of the target pixel.

次に、領域の位置合わせを行う原理について説明する。   Next, the principle of performing region alignment will be described.

2台のカメラの画像に表された対象物の位置を合わせて対象物までの距離データを得る方法をステレオマッチング技術と呼び、通常それぞれの画像の輝度やエッジ情報の類似度を算出して2台のカメラ中の対象物の対応を求める。しかしながら、本実施の形態に係る撮像装置の構成では、それぞれの撮像装置において感度を有する光の波長帯が異なるため、上記図6および図7のように輝度の異なる画像が取得される。このような輝度の異なる画像において、輝度を用いて類似度を求めることは困難である。また、上記図6および図7に示す画像からエッジ情報を抜き出した画像を図10および図11に示す。こちらも、輝度の場合と同様に、2台の撮像装置において異なるエッジ情報が取得されるため、エッジ情報を用いても類似度を算出することは困難である。   The method of obtaining the distance data to the object by matching the positions of the objects represented by the images of the two cameras is called a stereo matching technique, and usually calculates the brightness of each image and the similarity of the edge information to 2 Find the correspondence of the object in one camera. However, in the configuration of the imaging device according to the present embodiment, the wavelength band of light having sensitivity differs in each imaging device, and thus images with different luminances are acquired as shown in FIGS. In such images with different luminances, it is difficult to obtain the similarity using luminance. 10 and 11 show images obtained by extracting edge information from the images shown in FIGS. Here, as in the case of luminance, since different edge information is acquired by the two imaging devices, it is difficult to calculate the degree of similarity using the edge information.

そこで、本実施の形態では、対象物抽出部32によって、得られた可視光画像及び近赤外画像に対して、分光スペクトル特性(波長に対する反射強度の特性)を利用した材質判定技術を適用して、人間の肌領域を抽出し、位置合わせ部34によって、対象物抽出部32により抽出された人間の肌領域の重ね合わせ領域が最大となる位置に、可視光画像及び近赤外画像のそれぞれを移動させることで、取得した可視光画像及び近赤外画像における肌領域の位置合わせを行う。   Therefore, in the present embodiment, a material determination technique using spectral spectrum characteristics (reflection intensity characteristics with respect to wavelength) is applied to the visible light image and near-infrared image obtained by the object extraction unit 32. Then, the human skin region is extracted, and each of the visible light image and the near-infrared image is placed at a position where the overlapping region of the human skin region extracted by the object extraction unit 32 is maximized by the alignment unit 34. Is moved to align the skin region in the obtained visible light image and near-infrared image.

ここで、上記図8および図9における画像から人間の肌と抽出された領域を重ね合わせた画像を図12に示す。2台の撮像装置は並行に設置されているため、撮像装置の光軸が異なっており、上記図12に示すように正しく人間の肌の領域として重ね合わせて表現することはできない。しかしながら、事前に2台の撮像装置のキャリブレーションを行い、水平方向に片方の画像を移動させるのみで画像中の対象物の位置合わせが可能な状態にしてある場合、水平方向に数画素移動させることで、いずれかの位置で、重ね合わせた画像においても正しく人間の肌の領域を表現することができる。   Here, FIG. 12 shows an image obtained by superimposing the human skin and the extracted region from the images in FIGS. Since the two image pickup devices are installed in parallel, the optical axes of the image pickup devices are different from each other, and as shown in FIG. However, if the two imaging devices are calibrated in advance and only one image is moved in the horizontal direction so that the object can be aligned in the horizontal direction, several pixels are moved in the horizontal direction. Thus, the human skin region can be correctly expressed in the superimposed image at any position.

本実施の形態では、正しい重ね合わせの位置であると判断するために、重ね合わせ画像における人間の肌の重ね合わせ領域の面積を用いる。水平方向への画像移動量と重ね合わせ画像における人間の肌の重ね合わせ領域の面積の関係を表したグラフを図13に示す。   In this embodiment, in order to determine that the position is the correct overlay position, the area of the human skin overlay region in the overlay image is used. FIG. 13 is a graph showing the relationship between the image movement amount in the horizontal direction and the area of the overlapping area of human skin in the superimposed image.

上記図13に示すように、人間の肌の重ね合わせ領域の面積が最大となる位置が最良の重ね合わせ位置となる。つまり、水平方向へ対象画像をずらしながら、人間の肌の重ね合わせ領域の面積を解析することで、画像中の対象物(人物)の位置合わせが可能となる。   As shown in FIG. 13 described above, the position where the area of the human skin overlapping area is maximized is the best overlapping position. In other words, the object (person) in the image can be aligned by analyzing the area of the human skin overlapping region while shifting the target image in the horizontal direction.

上記図8および図9に示す人間の肌領域を重ね合わせた領域の面積が最大となる位置において、画像を重ね合わせた結果を、図14に示す。   FIG. 14 shows the result of superimposing images at a position where the area of the superposed region of human skin shown in FIGS. 8 and 9 is maximized.

以上説明したように、位置合わせ部34は、対象物抽出部32によって抽出された人間の肌領域を重ね合わせた領域が最大となる位置に、可視光画像及び近赤外画像を並行移動させて、位置合わせを行ない、位置合わせを行なった結果に基づいて、人間の肌領域における視差量を算出する。   As described above, the alignment unit 34 moves the visible light image and the near-infrared image in parallel to the position where the region obtained by superimposing the human skin regions extracted by the object extraction unit 32 is maximized. Then, alignment is performed, and the amount of parallax in the human skin region is calculated based on the result of the alignment.

距離測定部36は、算出された人間の肌領域における視差量dに基づいて、以下の(3)式に従って、人物までの距離Zpを算出し、距離の測定結果として、出力装置18によって出力させる。   The distance measuring unit 36 calculates the distance Zp to the person according to the following equation (3) based on the calculated parallax amount d in the human skin region, and outputs the distance measurement result by the output device 18 as a distance measurement result. .

ただし、Bは、第1撮像装置12及び第2撮像装置14間の距離(ベース長さ)であり、fは、第1撮像装置12及び第2撮像装置14の焦点距離である。   Here, B is the distance (base length) between the first imaging device 12 and the second imaging device 14, and f is the focal length of the first imaging device 12 and the second imaging device 14.

分光データ生成部38は、算出された視差量と、可視光画像及び近赤外画像の各々から抽出された人間の肌領域とに基づいて、重ね合わされた人間の肌領域における分光データを生成する。例えば、図15(A)に示すような分光反射特性をもっている人間の肌に対して、図15(B)に示すような分光データが生成される。なお、分光データとは、対象物の分光反射特性を表すデータであり、上記図15(B)の各点は、各波長帯における反射強度を示している。   The spectral data generation unit 38 generates spectral data in the superimposed human skin region based on the calculated amount of parallax and the human skin region extracted from each of the visible light image and the near-infrared image. . For example, spectral data as shown in FIG. 15B is generated for human skin having spectral reflection characteristics as shown in FIG. The spectral data is data representing the spectral reflection characteristics of the object, and each point in FIG. 15B indicates the reflection intensity in each wavelength band.

また、分光データ生成部38は、生成した分光データを、出力装置18によって出力させる。   Further, the spectral data generation unit 38 causes the output device 18 to output the generated spectral data.

次に、本実施の形態に係る距離測定装置10の作用について説明する。距離測定装置10を搭載した車両の走行中に、第1撮像装置12及び第2撮像装置14によって車両の前方の所定領域が撮像されると、コンピュータ16において、図16に示す距離測定処理ルーチンが実行される。   Next, the operation of the distance measuring apparatus 10 according to the present embodiment will be described. When a predetermined area in front of the vehicle is imaged by the first imaging device 12 and the second imaging device 14 while the vehicle equipped with the distance measuring device 10 is traveling, a distance measurement processing routine shown in FIG. Executed.

ステップ100で、第1撮像装置12で撮像された可視光画像及び第2撮像装置14で撮像された近赤外画像を取得する。次のステップ102において、上記ステップ100で取得した可視光画像から、上記(1)式の条件を満たす画素を抜き出して、人間の肌領域を抽出し、ステップ104において、上記ステップ100で取得した近赤外画像から、上記(2)式の条件を満たす画素を抜き出して、人間の肌領域を抽出する。   In step 100, a visible light image captured by the first imaging device 12 and a near-infrared image captured by the second imaging device 14 are acquired. In the next step 102, pixels that satisfy the condition of the above expression (1) are extracted from the visible light image acquired in step 100 to extract a human skin region, and in step 104, the proximity image acquired in step 100 is extracted. From the infrared image, pixels satisfying the condition (2) are extracted to extract a human skin region.

そして、ステップ106において、上記ステップ102、104で抽出された人間の肌領域を重ね合わせた領域が最大となるように、可視光画像及び近赤外画像を並行移動させて、位置合わせを行い、位置合わせの結果に基づいて、人間の肌領域における視差量を算出する。   In step 106, the visible light image and the near-infrared image are translated in parallel so that the region obtained by superimposing the human skin regions extracted in steps 102 and 104 is maximized. Based on the result of the alignment, the amount of parallax in the human skin region is calculated.

次のステップ108では、上記ステップ106で算出された視差量に基づいて、上記(3)式に従って、測定対象となる人物までの距離を測定する。ステップ110では、上記ステップ106で算出された視差量と、上記ステップ102、104で抽出された人間の肌領域とに基づいて、重ねあわされた人間の肌領域の分光データを生成する。   In the next step 108, based on the parallax amount calculated in step 106, the distance to the person to be measured is measured according to the above equation (3). In step 110, based on the parallax amount calculated in step 106 and the human skin area extracted in steps 102 and 104, spectral data of the human skin area superimposed is generated.

そして、ステップ112において、上記ステップ108で測定された対象の人物までの距離、及び上記ステップ110で生成された分光データを出力装置18により出力して、距離測定処理ルーチンを終了する。   In step 112, the distance to the target person measured in step 108 and the spectral data generated in step 110 are output by the output device 18, and the distance measurement processing routine ends.

以上説明したように、第1の実施の形態に係る距離測定装置によれば、人間の肌についての光の波長帯の各々の反射強度に関する条件に基づいて、異なる視点から撮像された2つの撮像画像の各々から、人間の肌領域を抽出し、人間の肌領域の位置合わせを行って、人間の肌領域における視差量を算出することにより、異なる波長特性を有する複数の撮像装置を用いて、人物までの距離を精度よく測定することができる。   As described above, according to the distance measuring apparatus according to the first embodiment, two images captured from different viewpoints based on the conditions relating to the reflection intensity of each of the light wavelength bands of human skin. By extracting a human skin region from each of the images, aligning the human skin region, and calculating a parallax amount in the human skin region, using a plurality of imaging devices having different wavelength characteristics, The distance to the person can be measured with high accuracy.

また、異なる位置に設置された複数の撮像装置における視差量を算出することで、距離データを取得すると共に、異なる波長帯に感度を有する複数の撮像装置を用いることで、対象の分光データを取得することにより、対象の距離データと分光データを同時に取得できる。   In addition, distance data is obtained by calculating the amount of parallax in a plurality of imaging devices installed at different positions, and target spectral data is obtained by using a plurality of imaging devices having sensitivity in different wavelength bands. By doing so, the target distance data and spectral data can be acquired simultaneously.

また、基準点を用いずに、複数の画像における対象物の位置合わせを実現するため、基準点の投光など、撮像装置以外の追加の装置を伴わずに、対象の距離データと分光データを同時に取得できる。   Moreover, in order to achieve the alignment of the target object in a plurality of images without using the reference point, the target distance data and the spectral data can be obtained without additional devices other than the imaging device, such as projection of the reference point. Can be acquired at the same time.

次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。   Next, a second embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第2の実施の形態では、各撮像装置が、1つの波長帯に感度を有するように構成されている点が、第1の実施の形態と異なっている。   The second embodiment is different from the first embodiment in that each imaging device is configured to have sensitivity in one wavelength band.

第2の実施の形態に係る距離測定装置は、各々異なる1つの波長帯に感度を有する複数の撮像装置を備えている。例えば、複数の撮像装置として、Rの波長帯を透過するバンドパスフィルタを持ち、R成分の画像を撮像する撮像装置と、Gの波長帯を透過するバンドパスフィルタを持ち、G成分の画像を撮像する撮像装置、Bの波長帯を透過するバンドパスフィルタを持ち、G成分の画像を撮像する撮像装置と、IR1の波長帯を透過するバンドパスフィルタを持ち、IR1成分の画像を撮像する撮像装置と、IR2の波長帯を透過するバンドパスフィルタを持ち、IR2成分の画像を撮像する撮像装置と、IR3の波長帯を透過するバンドパスフィルタを持ち、IR3成分の画像を撮像する撮像装置とが設けられている。   The distance measuring device according to the second embodiment includes a plurality of imaging devices each having sensitivity in one different wavelength band. For example, as a plurality of imaging devices, there are bandpass filters that transmit an R wavelength band, an imaging device that captures an R component image, and a bandpass filter that transmits a G wavelength band, and an image of a G component An imaging device that picks up an image, an image pickup device that has a bandpass filter that transmits the B wavelength band, and that picks up an image of the G component, and an image pickup device that picks up an image of the IR1 component An imaging device that has a bandpass filter that transmits the IR2 wavelength band and captures an IR2 component image, and an imaging device that has a bandpass filter that transmits the IR3 wavelength band and captures an IR3 component image Is provided.

また、人間の肌はそれぞれのフィルタ領域で取り得る値の範囲が決まっている。そこで、距離測定装置の対象物抽出部32では、各撮像装置によって撮像された画像の各々について、輝度に関する単純な閾値処理を行って、人間の肌領域を抽出する。なお、ホワイトバランスは調整されている事を前提としている。   Further, the range of values that human skin can take in each filter region is determined. Therefore, the object extraction unit 32 of the distance measurement device extracts a human skin region by performing simple threshold processing on luminance for each of the images captured by each imaging device. It is assumed that the white balance has been adjusted.

位置合わせ部34は、各撮像画像から抽出された肌領域を重ね合わせて、重ね合わされた領域の面積が最大となるように、各撮像画像を並行移動させて、位置合わせを行い、人間の肌領域について、撮像画像間の視差量を算出する。   The alignment unit 34 superimposes the skin regions extracted from the captured images, moves the captured images in parallel so that the area of the superimposed region is maximized, performs alignment, and performs human skin. For a region, the amount of parallax between captured images is calculated.

距離測定部36は、算出された視差量に基づいて、上記(3)式に従って、人物までの距離を測定する。分光データ生成部38は、重ね合わされた肌領域について分光データを生成する。   The distance measuring unit 36 measures the distance to the person based on the calculated amount of parallax according to the above equation (3). The spectroscopic data generation unit 38 generates spectroscopic data for the superimposed skin regions.

なお、第2の実施の形態に係る距離測定装置の他の構成及び作用については、第1の実施の形態と同様のであるため、説明を省略する。   In addition, about the other structure and effect | action of the distance measuring apparatus which concern on 2nd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

このように、第2の実施の形態に係る距離測定装置によれば、異なる1つの波長帯に感度を有する複数の撮像装置を用いて、人物までの距離を精度よく測定すると共に、人間の肌領域の分光データを取得することができる。   As described above, according to the distance measuring device according to the second embodiment, the distance to a person is accurately measured using a plurality of imaging devices having sensitivity in one different wavelength band, and the human skin is also measured. Spectral data of the area can be acquired.

なお、上記の第1の実施の形態及び第2の実施の形態では、人間の肌領域を重ね合わせた領域が最大となる位置まで画像を移動させて視差量を求める場合を例に説明したが、これに限定されるものではない。例えば、人間の肌らしさを一つのエネルギー関数として定義し、そのエネルギー関数の値が最大となる位置まで画像を移動させて視差量を求めるようにしてもよい。ここで、人間の肌には、上記Crの値が高く、Cbの値が低く、さらに、(IR1−IR2)の値と(IR3−IR1)の値とが高い傾向にあることが分かる。そのような傾向から、以下の(4)式に示すようなエネルギー関数Eを定義し、当該エネルギー関数Eが最大となる位置まで画像を移動させて、人間の肌領域における視差量を求めるようにしてもよい。   In the first embodiment and the second embodiment described above, the case where the parallax amount is obtained by moving the image to the position where the region where the human skin region is superimposed is maximized has been described. However, the present invention is not limited to this. For example, human skinness may be defined as one energy function, and the parallax amount may be obtained by moving the image to a position where the value of the energy function is maximized. Here, it can be seen that human skin has a high Cr value, a low Cb value, and a high value of (IR1-IR2) and (IR3-IR1). From such a tendency, an energy function E as shown in the following equation (4) is defined, and the image is moved to a position where the energy function E is maximized to obtain the amount of parallax in the human skin region. May be.

また、特定の対象物が人間の肌である場合を例に説明したが、これに限定されるものではない。例えば、特定の対象物を樹木とした場合には、樹木は青や赤の波長帯よりも緑の波長帯の光の反射強度が強く、赤の波長帯よりも近赤外(800nm程度)の光の反射強度が非常に強いという特徴がある。そのため、第1撮像装置を、青と緑の光に感度を有する撮像装置とし、第2撮像装置を、赤と近赤外の光に感度を有する撮像装置として、ステレオカメラを構築するようにすればよい。また、第1撮像装置の撮像画像から、緑から青の光を引いた強度が大きい画素を抜き出して樹木の領域を抽出し、第2撮像画像の撮像画像から、近赤外から赤の光を引いた強度が非常に大きい画素を抜き出して、特定の対象物である樹木の領域を抽出して、位置合わせを行うようにすればよい。   Moreover, although the case where the specific target object is human skin has been described as an example, the present invention is not limited to this. For example, when a specific object is a tree, the tree has a stronger reflection intensity of light in the green wavelength band than in the blue or red wavelength band, and a near infrared (about 800 nm) in the red wavelength band. There is a feature that the reflection intensity of light is very strong. Therefore, a stereo camera is constructed with the first imaging device as an imaging device having sensitivity to blue and green light and the second imaging device as an imaging device having sensitivity to red and near-infrared light. That's fine. In addition, a region of a tree is extracted by extracting a pixel having a high intensity obtained by subtracting blue light from green from the captured image of the first imaging device, and red light from near infrared is extracted from the captured image of the second captured image. It is only necessary to extract a pixel having a very large intensity and extract a region of a tree that is a specific object to perform alignment.

また、特定の対象物が複数存在する場合には、特定の対象物毎に、材質判定技術を適用した領域抽出、および抽出された領域の位置合わせを行うことで、特定の対象物別に距離データと分光データを取得するようにしてもよい。   In addition, when there are multiple specific objects, distance data for each specific object is obtained by performing region extraction using material determination technology and alignment of the extracted regions for each specific object. And spectral data may be acquired.

また、本実施の形態の画像信号処理装置の各部をコンピュータで実現した場合を例に説明したが、これに限定されるものではなく、各部の機能を実現する複数のコンピュータ、または1つまたは複数の電子回路で構成するようにしてもよい。   Further, the case where each unit of the image signal processing apparatus according to the present embodiment is realized by a computer has been described as an example. However, the present invention is not limited to this, and a plurality of computers that realize the function of each unit, or one or more The electronic circuit may be configured as follows.

なお、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムをCDROM等の記憶媒体に格納して提供することも可能である。   In the specification of the present application, the embodiment has been described in which the program is installed in advance. However, the program may be provided by being stored in a storage medium such as a CDROM.

10 距離測定装置
12 第1撮像装置
14 第2撮像装置
16 コンピュータ
32 対象物抽出部
34 位置合わせ部
36 距離測定部
38 分光データ生成部
DESCRIPTION OF SYMBOLS 10 Distance measuring device 12 1st imaging device 14 2nd imaging device 16 Computer 32 Object extraction part 34 Positioning part 36 Distance measuring part 38 Spectral data generation part

Claims (5)

各々感度を有する光の波長帯が異なり、かつ、各々異なる視点から所定領域を撮像する複数の撮像手段と、
前記複数の撮像手段によって撮像された撮像画像の各々から、特定の対象物についての光の波長帯の各々の反射強度に関する予め定められた条件に基づいて、前記特定の対象物を表わす領域を抽出する領域抽出手段と、
前記領域抽出手段によって前記撮影画像の各々から抽出された前記領域の位置合わせを行って、前記領域における視差量を算出する視差量算出手段と、
前記視差量算出手段によって算出された前記視差量に基づいて、前記特定の対象物までの距離を測定する距離測定手段と、
を含む距離測定装置。
A plurality of imaging means for imaging a predetermined region from different viewpoints, each having a different wavelength band of light having sensitivity;
An area representing the specific object is extracted from each of the picked-up images picked up by the plurality of image pickup means on the basis of a predetermined condition relating to the reflection intensity of each light wavelength band of the specific object. Region extracting means to perform,
Parallax amount calculating means for calculating the amount of parallax in the region by aligning the regions extracted from each of the captured images by the region extracting unit;
A distance measuring unit that measures a distance to the specific object based on the parallax amount calculated by the parallax amount calculating unit;
Distance measuring device including
前記領域抽出手段によって前記撮影画像の各々から抽出された前記領域に基づいて、前記特定の対象物を表わす領域における、光の波長帯の各々の反射強度を表わす分光データを生成する分光データ生成手段を更に含む請求項1記載の距離測定装置。   Spectral data generation means for generating spectral data representing the reflection intensity of each of the wavelength bands of light in the area representing the specific object based on the area extracted from each of the photographed images by the area extraction means. The distance measuring device according to claim 1, further comprising: 前記撮像手段の各々は、複数の光の波長帯に感度を有することを特徴とする請求項1又は2記載の距離測定装置。   The distance measuring apparatus according to claim 1, wherein each of the imaging units has sensitivity in a plurality of light wavelength bands. 前記視差量算出手段は、前記領域抽出手段によって前記撮影画像の各々から抽出された前記領域を重ね合わせたときの重なる面積が最大となるように、前記領域の位置合わせを行い、前記領域の位置合わせ結果に基づいて、前記領域における視差量を算出する請求項1〜請求項3の何れか1項記載の距離測定装置。   The parallax amount calculating means aligns the areas so that the overlapping area is maximized when the areas extracted from each of the captured images by the area extracting means are overlapped, and the position of the areas The distance measuring device according to any one of claims 1 to 3, wherein a parallax amount in the region is calculated based on a matching result. コンピュータを、
各々感度を有する光の波長帯が異なり、かつ、各々異なる視点から所定領域を撮像する複数の撮像手段によって撮像された撮像画像の各々から、特定の対象物についての光の波長帯の各々の反射強度に関する予め定められた条件に基づいて、前記特定の対象物を表わす領域を抽出する領域抽出手段、
前記領域抽出手段によって前記撮影画像の各々から抽出された前記領域の位置合わせを行って、前記領域における視差量を算出する視差量算出手段、及び
前記視差量算出手段によって算出された前記視差量に基づいて、前記特定の対象物までの距離を測定する距離測定手段
として機能させるためのプログラム。
Computer
Reflection of each of the wavelength bands of light for a specific object from each of the picked-up images picked up by a plurality of image pickup means for picking up a predetermined area from different viewpoints, each having a different light wavelength band having sensitivity. An area extracting means for extracting an area representing the specific object based on a predetermined condition relating to strength;
The regions extracted from each of the captured images by the region extraction unit are aligned, and a parallax amount calculation unit that calculates a parallax amount in the region, and the parallax amount calculated by the parallax amount calculation unit A program for functioning as a distance measuring means for measuring a distance to the specific object based on the program.
JP2011158050A 2011-07-19 2011-07-19 Distance measuring apparatus and program Withdrawn JP2013024653A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011158050A JP2013024653A (en) 2011-07-19 2011-07-19 Distance measuring apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011158050A JP2013024653A (en) 2011-07-19 2011-07-19 Distance measuring apparatus and program

Publications (1)

Publication Number Publication Date
JP2013024653A true JP2013024653A (en) 2013-02-04

Family

ID=47783187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011158050A Withdrawn JP2013024653A (en) 2011-07-19 2011-07-19 Distance measuring apparatus and program

Country Status (1)

Country Link
JP (1) JP2013024653A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014174779A1 (en) * 2013-04-26 2014-10-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Motion sensor apparatus having a plurality of light sources
JP2017515111A (en) * 2014-04-22 2017-06-08 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Detector for optically detecting at least one object
JP6216842B1 (en) * 2016-07-08 2017-10-18 Idein株式会社 Image processing apparatus, image processing method, program, and system
JP2021076552A (en) * 2019-11-13 2021-05-20 マルハニチロ株式会社 Device and method for inspection
US11030767B2 (en) 2018-09-21 2021-06-08 Fanuc Corporation Imaging apparatus and imaging system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014174779A1 (en) * 2013-04-26 2014-10-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Motion sensor apparatus having a plurality of light sources
JPWO2014174779A1 (en) * 2013-04-26 2017-02-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Motion sensor device having a plurality of light sources
US9978148B2 (en) 2013-04-26 2018-05-22 Panasonic Intellectual Property Corporation Of America Motion sensor apparatus having a plurality of light sources
JP2017515111A (en) * 2014-04-22 2017-06-08 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Detector for optically detecting at least one object
JP6216842B1 (en) * 2016-07-08 2017-10-18 Idein株式会社 Image processing apparatus, image processing method, program, and system
US11030767B2 (en) 2018-09-21 2021-06-08 Fanuc Corporation Imaging apparatus and imaging system
JP2021076552A (en) * 2019-11-13 2021-05-20 マルハニチロ株式会社 Device and method for inspection

Similar Documents

Publication Publication Date Title
US11100661B2 (en) Multi-modal depth mapping
CN108052878B (en) Face recognition device and method
CN107483774B (en) Imaging device and vehicle
JP6045417B2 (en) Image processing apparatus, electronic apparatus, endoscope apparatus, program, and operation method of image processing apparatus
US20150278996A1 (en) Image processing apparatus, method, and medium for generating color image data
US20110234759A1 (en) 3d modeling apparatus, 3d modeling method, and computer readable medium
JP2012021968A (en) Distance measurement module, display device including the same, method for measuring distance of display device
JP5156601B2 (en) Shape measuring apparatus and program
JP6091318B2 (en) Ranging device and control method thereof
JP6182396B2 (en) Imaging device
JP5229489B2 (en) Biometric authentication device
JP2019009511A (en) Distance information generating apparatus, imaging apparatus, distance information generating method, and program
JP2013024653A (en) Distance measuring apparatus and program
US20210150744A1 (en) System and method for hybrid depth estimation
JP5297779B2 (en) Shape measuring apparatus and program
US20160301855A1 (en) Imaging device and phase difference detection method
JP6042146B2 (en) Object detection apparatus and object detection method
CN116806304A (en) Data processing device, data processing method, data processing program, optical element, photographing optical system, and photographing apparatus
US20210256729A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
JP5777031B2 (en) Image processing apparatus, method, and program
JP2013044597A (en) Image processing device and method, and program
JP5587852B2 (en) Image processing apparatus and image processing method
KR20190134426A (en) Photovoltaic module thermal imaging system with trio imaging device
JP5686376B2 (en) Image processing apparatus, method, and program
JP7450668B2 (en) Facial recognition methods, devices, systems, electronic devices and readable storage media

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007