JP2006177937A - Distance measuring device and distance measurement method - Google Patents

Distance measuring device and distance measurement method Download PDF

Info

Publication number
JP2006177937A
JP2006177937A JP2005339235A JP2005339235A JP2006177937A JP 2006177937 A JP2006177937 A JP 2006177937A JP 2005339235 A JP2005339235 A JP 2005339235A JP 2005339235 A JP2005339235 A JP 2005339235A JP 2006177937 A JP2006177937 A JP 2006177937A
Authority
JP
Japan
Prior art keywords
image
distance measuring
photographing
unit
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005339235A
Other languages
Japanese (ja)
Other versions
JP4771797B2 (en
Inventor
Uidodo Ari
アリ・ウィドド
Atsushi Ogata
淳 緒方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2005339235A priority Critical patent/JP4771797B2/en
Publication of JP2006177937A publication Critical patent/JP2006177937A/en
Application granted granted Critical
Publication of JP4771797B2 publication Critical patent/JP4771797B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device for measuring distance, capable of quickly and accurately measuring distance, while suppressing the cost, and to provide a method therefor. <P>SOLUTION: The distance measuring device comprises a photographic means 104 for photographing an object of photography (object) with two cameras; an image quality improvement means 106 for improving the quality of image; a detection means 107 for detecting the positional information of the object on the image, based on the quality improved image; a correction processing means 108 for conducting enhancement of the change of luminance with respect to two images photographed with the two cameras, while restricting an image region on the processing object image, based on the positional information of the detected object; a parallax image information generating means 109 for generating the parallax image information, by searching the corresponding points between two correction processed images on the restricted image region; and a distance calculation means 110 for calculating the distance between the photographic means and the object, by obtaining the parallax value based on the generated parallax image information. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像中の撮影対象物の距離を測定する距離計測装置及び距離計測方法に関する。   The present invention relates to a distance measuring device and a distance measuring method for measuring the distance of an object to be photographed in an image.

近年、特定の装置(以下、単に装置とも言う)から撮影対象物(人物)までの距離を取得する技術が開発されている。以下、説明を分かりやすくするため、撮影対象物を人物として説明をする。このような技術は、エアバッグ制御やロボット制御などへ応用されている。ここで、装置から人物までの距離を取得する方法として、超音波、レーザレーダ、カメラが用いられている。しかし、コストや人体への影響などを考えると、カメラがより適している。カメラにも様々なものがあるが、複眼カメラを用いることにより高精度な距離測定を行うことが可能となる。複眼カメラを用いた距離測定方法として、ステレオマッチングが挙げられる。ステレオマッチングとは、立体を構成する左右の画像から面積相関などにより自動的に写された立体物の同一場所を探索し、距離情報に変換する技術を言う。しかし、ステレオマッチングにおける処理コストは高い。なお、実環境下においては、光源の位置によってカメラごとで写される物体からの反射光量の違いなどが生じ、ステレオマッチングでの対応点を正しく探索することができない場合があり、これにより、求めた距離精度が低下する。さらに、実環境下においては、障害物による光の遮蔽(影)などによる照明条件の変化により、人物(顔)の表面上に輝度のムラが生じることで人物検出が困難になる。さらに、装置に対して正面に向いている人物の顔でも、無意識に顔がカメラに対してカメラ光軸のまわりに回転する(面内回転)場合があり、人物検出が困難になる。   In recent years, a technique for acquiring a distance from a specific device (hereinafter, also simply referred to as a device) to a photographing object (person) has been developed. Hereinafter, in order to make the explanation easy to understand, the subject to be photographed is explained as a person. Such technology is applied to airbag control, robot control, and the like. Here, ultrasonic waves, laser radars, and cameras are used as methods for acquiring the distance from the apparatus to the person. However, the camera is more suitable considering the cost and the effect on the human body. There are various types of cameras, but using a compound eye camera enables highly accurate distance measurement. Stereo matching is an example of a distance measuring method using a compound eye camera. Stereo matching refers to a technique of searching for the same place of a three-dimensional object automatically copied by area correlation or the like from left and right images constituting a solid and converting it into distance information. However, the processing cost in stereo matching is high. In the actual environment, the amount of reflected light from the object captured by each camera may vary depending on the position of the light source, and it may not be possible to correctly search for corresponding points in stereo matching. The distance accuracy is reduced. Furthermore, in an actual environment, it is difficult to detect a person due to uneven brightness on the surface of a person (face) due to a change in illumination conditions due to light shielding (shadows) by an obstacle. Furthermore, even a human face facing the front of the apparatus may unintentionally rotate around the camera optical axis (in-plane rotation) with respect to the camera, making it difficult to detect the person.

このような問題を解決する技術を以下に示す。まず、ステレオマッチングにおける処理コストが高いという問題に対しては、ステレオマッチングで濃淡エッジなどの特徴を用いる。このような技術は、下記の特許文献1に開示されている。特許文献1に開示されている技術では、画像を微分し、得られたエッジ画像を用いてステレオマッチングを実施している。また、実環境下において、障害物による光の遮蔽(影)などによる照明条件の変化により、人物(顔)の表面上に輝度のムラが生じることで人物検出が困難になるという問題に対しては、超音波などの対面距離センサを用いた人物検出を導入する。このような技術は、下記の特許文献2に開示されている。特許文献2に開示されている技術では、人物の頭部を検出する頭部検出追従手段に対面距離センサを用いている。また、装置に対して正面に向いている人物の顔でも、無意識に顔がカメラに対してカメラ光軸のまわりに回転する(面内回転)場合があり、人物検出が困難になるという問題に対しては、顔の特徴である目、鼻、口の位置関係を用いて顔の向きを補正する技術を用いる。このような技術は、下記の特許文献3に開示されている。特許文献3に開示されている技術では、まず、顔の特徴である目の位置を抽出し、その情報を用いて口の位置を求めてから目と口の位置関係を用いて顔の向き(面内回転)を補正している。
特開2003−15816号公報(段落0035) 特開2002−56388号公報(段落0019) 特開2000−163592号公報(段落0010)
Techniques for solving such problems are shown below. First, for the problem of high processing cost in stereo matching, features such as light and shade edges are used in stereo matching. Such a technique is disclosed in Patent Document 1 below. In the technique disclosed in Patent Document 1, the image is differentiated, and stereo matching is performed using the obtained edge image. Also, in a real environment, it is difficult to detect a person due to uneven brightness on the surface of the person (face) due to a change in illumination conditions due to light shielding (shadows) by an obstacle. Introduces human detection using face-to-face distance sensors such as ultrasound. Such a technique is disclosed in Patent Document 2 below. In the technique disclosed in Patent Document 2, a face-to-face distance sensor is used as a head detection tracking unit that detects the head of a person. In addition, even with the face of a person facing the front of the device, the face may unintentionally rotate around the camera optical axis (in-plane rotation) with respect to the camera, making it difficult to detect the person. On the other hand, a technique for correcting the orientation of the face using the positional relationship between the eyes, nose, and mouth, which is a feature of the face, is used. Such a technique is disclosed in Patent Document 3 below. In the technique disclosed in Patent Document 3, first, the position of the eye, which is a feature of the face, is extracted, the position of the mouth is obtained using the information, and then the face orientation ( (In-plane rotation) is corrected.
JP2003-15816 (paragraph 0035) JP 2002-56388 A (paragraph 0019) JP 2000-163592 A (paragraph 0010)

しかしながら、特許文献1に開示された技術では、エッジに対してのみ距離情報が求められるため、疎な距離情報になってしまうという問題がある。また、特許文献2に開示された技術では、対面距離センサによってコストが増加してしまうという問題がある。また、特許文献3に開示された技術では、目の位置の抽出精度に大きく依存しており、また顔の向きを補正するための計算量も多いという問題がある。   However, in the technique disclosed in Patent Document 1, since distance information is obtained only for edges, there is a problem that the distance information becomes sparse. Moreover, in the technique disclosed in Patent Document 2, there is a problem that the cost increases due to the facing distance sensor. Further, the technique disclosed in Patent Document 3 has a problem that it greatly depends on the extraction accuracy of the eye position and the amount of calculation for correcting the orientation of the face is large.

本発明は、上記問題を解決するためのものであり、コストを抑え、高速、かつ高精度な距離計測を行うことができる距離計測装置及び距離計測方法を提供することを目的とする。   The present invention has been made to solve the above problems, and an object of the present invention is to provide a distance measuring apparatus and a distance measuring method capable of performing distance measurement with high speed and high accuracy while suppressing cost.

上記目的を達成するために、本発明によれば、所定間隔を保って配置された2つのカメラによって撮影対象物を撮影する撮影手段と、前記撮影手段の前記2つのカメラによって撮影された前記撮影対象物の画像のうち、一方の画像に対して、所定の画像領域下において、撮影時の照明環境の影響を除去して前記画像の画質改善処理を行う画質改善手段と、前記画質改善手段によって画質改善された前記画像に基づいて、前記画像上における前記撮影対象物の位置情報を検出する検出手段と、前記検出手段によって検出された前記画像上における前記撮影対象物の前記位置情報に基づいて、処理対象となる前記画像上の画像領域を限定し、限定された前記画像領域において、前記撮影手段の前記2つのカメラによって撮影された2つの画像に対して輝度変化を強調する処理を行う補正処理手段と、限定された前記画像領域において、前記補正処理手段によって処理された2つの前記画像間の対応点を探索し、探索した前記対応点の位置のずれに基づいて、視差画像情報を生成する視差画像情報生成手段と、前記視差画像情報生成手段によって生成された前記視差画像情報に基づいて、視差値を求め、前記視差値に基づいて、前記撮像手段と前記撮影対象物との間の距離を算出する距離算出手段とを備える距離計測装置が提供される。この構成により、コストを抑え、高速、かつ高精度な距離計測を行うことができる。   In order to achieve the above object, according to the present invention, a photographing unit that photographs a subject to be photographed by two cameras arranged at a predetermined interval, and the photographing that is photographed by the two cameras of the photographing unit. Among the images of the object, an image quality improvement means for removing the influence of the lighting environment at the time of shooting and performing image quality improvement processing of the image under a predetermined image area, and the image quality improvement means Based on the image whose image quality has been improved, detection means for detecting position information of the photographing object on the image, and based on the position information of the photographing object on the image detected by the detection means The image area on the image to be processed is limited, and in the limited image area, the two images captured by the two cameras of the imaging unit are compared. Correction processing means for emphasizing the luminance change and searching for corresponding points between the two images processed by the correction processing means in the limited image area, and the position of the searched corresponding point A parallax image information generating unit that generates parallax image information based on the shift, a parallax value obtained based on the parallax image information generated by the parallax image information generating unit, and the imaging based on the parallax value There is provided a distance measuring device including a distance calculating means for calculating a distance between the means and the object to be photographed. With this configuration, cost can be reduced, and high-speed and high-precision distance measurement can be performed.

また、本発明において、前記撮影対象物が人物の顔であることは、本発明の好ましい態様である。この構成により、人物の顔の特徴を用いることができる。   In the present invention, it is a preferable aspect of the present invention that the photographing object is a human face. With this configuration, the characteristics of a person's face can be used.

また、本発明において、前記撮影手段によって前記撮影対象物を撮影する際、24時間撮影を可能とするために、近赤外光を前記撮影対象物に投光する近赤外光投光手段を備えることは、本発明の好ましい態様である。この構成により、距離計測装置を24時間動作させることができる。   In the present invention, when photographing the photographing object by the photographing means, a near-infrared light projecting means for projecting near-infrared light onto the photographing object in order to enable photographing for 24 hours. Providing is a preferred aspect of the present invention. With this configuration, the distance measuring device can be operated for 24 hours.

また、本発明において、前記2つのカメラの少なくとも一方に、前記撮影手段によって前記撮影対象物を撮影する際、可視光を含む外乱光の影響を低減させ、安定した画像を撮影可能とするために、前記近赤外光投光手段から投光される前記近赤外光の反射光のみを受光する特定波長透過フィルタを備えることは、本発明の好ましい態様である。この構成により、外乱光に対して安定した距離計測ができる。   Further, in the present invention, when photographing the object to be photographed by the photographing means on at least one of the two cameras, in order to reduce the influence of disturbance light including visible light, and to enable stable images to be photographed. It is a preferable aspect of the present invention to include a specific wavelength transmission filter that receives only the reflected light of the near infrared light projected from the near infrared light projecting means. With this configuration, a stable distance measurement can be performed against disturbance light.

また、本発明において、前記視差画像情報生成手段が高精度な前記対応点を探索するために動的計画法を用いることは、本発明の好ましい態様である。この構成により、高精度な距離計測ができる。   In the present invention, it is a preferable aspect of the present invention that the parallax image information generating unit uses dynamic programming to search for the corresponding points with high accuracy. With this configuration, distance measurement with high accuracy can be performed.

また、本発明において、前記補正処理手段が、光源位置による前記カメラごとで写される前記撮影対象物からの反射光の違いによる位置測定精度の低下を低減させ、実環境下において高精度な距離計測を可能とするために、LoGフィルタによる処理を行うことは、本発明の好ましい態様である。この構成により、実環境下において高精度な距離計測ができる。   Further, in the present invention, the correction processing means reduces a decrease in position measurement accuracy due to a difference in reflected light from the object to be photographed for each camera according to a light source position, and a highly accurate distance in an actual environment. In order to enable measurement, it is a preferred aspect of the present invention to perform processing using a LoG filter. With this configuration, highly accurate distance measurement can be performed in an actual environment.

また、本発明において、前記画質改善手段が、撮影時の照明環境の影響を吸収する対数変換フィルタと、前記対数変換フィルタを介した前記画像のコントラストの低下を軽減させるハイパスフィルタとを備えることは、本発明の好ましい態様である。この構成により、実環境下における照明条件の変化による影響が低減でき、照明変化に頑健な撮影対象物検出をすることができる。   Further, in the present invention, the image quality improvement means includes a logarithmic conversion filter that absorbs an influence of an illumination environment at the time of shooting, and a high-pass filter that reduces a decrease in contrast of the image via the logarithmic conversion filter. This is a preferred embodiment of the present invention. With this configuration, it is possible to reduce the influence due to the change in the illumination condition in the actual environment, and it is possible to detect the photographing target that is robust against the illumination change.

また、本発明において、前記検出手段が、前記画像上の前記撮影対象物における輝度のムラの影響を低減させる反転・平滑化処理をして前記画像上における前記撮影対象物の前記位置情報を検出することは、本発明の好ましい態様である。この構成により、照明条件の変化などで発生している輝度のムラに対して安定した撮影対象物検出をすることができる。   Also, in the present invention, the detection means detects the position information of the photographic subject on the image by performing a reversal / smoothing process to reduce the influence of uneven brightness on the photographic subject on the image. This is a preferred embodiment of the present invention. With this configuration, it is possible to stably detect an object to be photographed against uneven brightness that occurs due to a change in illumination conditions.

また、本発明において、前記検出手段がニューラルネットワークを用いて前記画像上における前記撮影対象物の前記位置情報を検出することは、本発明の好ましい態様である。この構成により、対象物に適した識別を用いることができる。   In the present invention, it is a preferred aspect of the present invention that the detection means detects the position information of the object to be photographed on the image using a neural network. With this configuration, identification suitable for the object can be used.

また、本発明において、前記検出手段が、前記カメラの光軸まわりに回転する前記撮影対象物の検出を可能にするため、複数の検出器によって構成され、前記検出器によって前記画像上における前記撮影対象物の前記位置情報を検出することは、本発明の好ましい態様である。この構成により、カメラの光軸まわりに回転(面内回転)する撮影対象物も検出することができる。   Further, in the present invention, the detection means is configured by a plurality of detectors in order to enable detection of the photographing object rotating around the optical axis of the camera, and the photographing on the image by the detector. It is a preferable aspect of the present invention to detect the position information of the object. With this configuration, it is possible to detect an object to be photographed that rotates around the optical axis of the camera (in-plane rotation).

また、本発明において、前記検出手段が、前記反転・平滑化処理された画像上における前記撮影対象物の前記位置情報の検出を前記複数の検出器のうちの所定の検出器によって行い、前記反転・平滑化処理されていない画像上における前記撮影対象物の前記位置情報の検出を前記複数の検出器のうちの所定の検出器以外の検出器によって行うことは、本発明の好ましい態様である。この構成により、顔表面上の輝度ムラが軽減されるとともに、顔が左方向又は右方向に傾いている際でも顔表面上に擬似影が発生せず、顔を正しく検出することができる。   Further, in the present invention, the detection means performs detection of the position information of the object to be photographed on the image that has been subjected to the inversion / smoothing process by a predetermined detector of the plurality of detectors, and the inversion -It is a preferable aspect of the present invention that the position information of the object to be photographed is detected on a non-smoothed image by a detector other than the predetermined detector among the plurality of detectors. With this configuration, luminance unevenness on the face surface is reduced, and even when the face is tilted leftward or rightward, a pseudo shadow is not generated on the face surface, and the face can be detected correctly.

また、本発明において、前記検出手段が過去の検出結果に基づいて、用いる前記検出器を選択することは、本発明の好ましい態様である。この構成により、処理の高速化を実現することができる。   In the present invention, it is a preferred aspect of the present invention that the detection means selects the detector to be used based on past detection results. With this configuration, the processing speed can be increased.

また、本発明によれば、所定間隔を保って配置された2つのカメラによって撮影対象物を撮影するステップと、前記2つのカメラによって撮影された前記撮影対象物の画像のうち、一方の画像に対して、所定の画像領域下において、撮影時の照明環境の影響を除去して前記画像の画質改善処理を行うステップと、画質改善された前記画像に基づいて、前記画像上における前記撮影対象物の位置情報を検出するステップと、検出された前記画像上における前記撮影対象物の前記位置情報に基づいて、処理対象となる前記画像上の画像領域を限定し、限定された前記画像領域において、前記2つのカメラによって撮影された2つの画像に対して輝度変化を強調する処理を行うステップと、限定された前記画像領域において、前記処理された2つの前記画像間の対応点を探索し、探索された前記対応点の位置のずれに基づいて、視差画像情報を生成するステップと、生成された前記視差画像情報に基づいて、視差値を求め、前記視差値に基づいて、前記2つのカメラを含む撮像手段と前記撮影対象物との間の距離を算出するステップとを有する距離計測方法が提供される。この構成により、コストを抑え、高速、かつ高精度な距離計測を行うことができる。   In addition, according to the present invention, one of the step of photographing the photographing object with two cameras arranged at a predetermined interval and the image of the photographing object photographed with the two cameras is selected. On the other hand, under the predetermined image region, the step of removing the influence of the illumination environment at the time of shooting and performing the image quality improvement processing of the image, and the shooting object on the image based on the image with improved image quality Detecting the position information, and based on the position information of the object to be photographed on the detected image, limiting the image area on the image to be processed, and in the limited image area, Performing a process of emphasizing a luminance change on two images captured by the two cameras, and the two processed images in the limited image area. Searching for corresponding points between the recorded images, generating parallax image information based on a position shift of the searched corresponding points, obtaining a parallax value based on the generated parallax image information, There is provided a distance measuring method including a step of calculating a distance between an imaging unit including the two cameras and the photographing object based on a parallax value. With this configuration, cost can be reduced, and high-speed and high-precision distance measurement can be performed.

また、本発明において、前記撮影対象物が人物の顔であることは、本発明の好ましい態様である。この構成により、人物の顔の特徴を用いることができる。   In the present invention, it is a preferable aspect of the present invention that the photographing object is a human face. With this configuration, the characteristics of a person's face can be used.

また、本発明において、前記撮影対象物を撮影する際、24時間撮影を可能とするために、近赤外光を前記撮影対象物に投光するステップを更に有することは、本発明の好ましい態様である。この構成により、距離計測装置を24時間動作させることができる。   In addition, in the present invention, it is preferable that the method further includes a step of projecting near-infrared light onto the imaging object in order to enable 24-hour imaging when imaging the imaging object. It is. With this configuration, the distance measuring device can be operated for 24 hours.

また、本発明において、前記撮影対象物を撮影する際、可視光を含む外乱光の影響を低減させ、安定した画像を撮影可能とするために、投光される前記近赤外光の反射光のみを受光するステップを更に有することは、本発明の好ましい態様である。この構成により、外乱光に対して安定した距離計測ができる。   Further, in the present invention, when photographing the object, the reflected light of the near infrared light that is projected in order to reduce the influence of disturbance light including visible light and enable a stable image to be photographed. It is a preferable aspect of the present invention to further include a step of receiving only light. With this configuration, a stable distance measurement can be performed against disturbance light.

また、本発明において、高精度な前記対応点を探索するために動的計画法を用いることは、本発明の好ましい態様である。この構成により、高精度な距離計測ができる。   Moreover, in this invention, it is a preferable aspect of this invention to use a dynamic programming in order to search the said corresponding point with high precision. With this configuration, distance measurement with high accuracy can be performed.

また、本発明において、光源位置による前記カメラごとで写される前記撮影対象物からの反射光の違いによる位置測定精度の低下を低減させ、実環境下において高精度な距離計測を可能とするために、LoGフィルタによる処理を行うことは、本発明の好ましい態様である。この構成により、実環境において高精度な距離計測ができる。   Further, in the present invention, in order to reduce a decrease in position measurement accuracy due to a difference in reflected light from the object to be photographed captured by each camera according to a light source position, and to enable highly accurate distance measurement in an actual environment. In addition, it is a preferable aspect of the present invention to perform processing by the LoG filter. With this configuration, highly accurate distance measurement can be performed in an actual environment.

また、本発明において、撮影時の照明環境の影響を吸収し、吸収された前記画像のコントラストの低下を軽減させることは、本発明の好ましい態様である。この構成により、実環境下における照明条件の変化による影響が低減でき、照明変化に頑健な撮影対象物検出をすることができる。   Further, in the present invention, it is a preferable aspect of the present invention to absorb the influence of the illumination environment at the time of photographing and reduce the decrease in contrast of the absorbed image. With this configuration, it is possible to reduce the influence due to the change in the illumination condition in the actual environment, and it is possible to detect the photographing target that is robust against the illumination change.

また、本発明において、前記画像上の前記撮影対象物における輝度のムラの影響を低減させる反転・平滑化処理をして前記画像上における前記撮影対象物の前記位置情報を検出することは、本発明の好ましい態様である。この構成により、照明条件の変化などで発生している輝度のムラに対して安定した撮影対象物検出をすることができる。   Further, in the present invention, detecting the position information of the photographing object on the image by performing a reversal / smoothing process for reducing the influence of luminance unevenness on the photographing object on the image includes: This is a preferred embodiment of the invention. With this configuration, it is possible to stably detect an object to be photographed against uneven brightness that occurs due to a change in illumination conditions.

また、本発明において、ニューラルネットワークを用いて前記画像上における前記撮影対象物の前記位置情報を検出することは、本発明の好ましい態様である。この構成により、対象物に適した識別を用いることができる。   In the present invention, it is a preferred aspect of the present invention to detect the position information of the photographing object on the image using a neural network. With this configuration, identification suitable for the object can be used.

また、本発明において、前記カメラの光軸まわりに回転する前記撮影対象物の検出を可能にするため、複数の検出器によって前記画像上における前記撮影対象物の前記位置情報を検出することは、本発明の好ましい態様である。この構成により、カメラの光軸まわりに回転(面内回転)する撮影対象物も検出することができる。   Further, in the present invention, in order to enable detection of the photographing object rotating around the optical axis of the camera, detecting the position information of the photographing object on the image by a plurality of detectors, This is a preferred embodiment of the present invention. With this configuration, it is possible to detect an object to be photographed that rotates around the optical axis of the camera (in-plane rotation).

また、本発明において、前記反転・平滑化処理された画像上における前記撮影対象物の前記位置情報の検出を前記複数の検出器のうちの所定の検出器によって行い、前記反転・平滑化処理されていない画像上における前記撮影対象物の前記位置情報の検出を前記複数の検出器のうちの所定の検出器以外の検出器によって行うことは、本発明の好ましい態様である。この構成により、顔表面上の輝度ムラが軽減されるとともに、顔が左方向又は右方向に傾いている際でも顔表面上に擬似影が発生せず、顔を正しく検出することができる。   In the present invention, the position information of the object to be photographed on the inverted / smoothed image is detected by a predetermined detector of the plurality of detectors, and the inverted / smoothed process is performed. It is a preferable aspect of the present invention that the position information of the object to be photographed on an image that is not detected is detected by a detector other than the predetermined detector among the plurality of detectors. With this configuration, luminance unevenness on the face surface is reduced, and even when the face is tilted leftward or rightward, a pseudo shadow is not generated on the face surface, and the face can be detected correctly.

また、本発明において、過去の検出結果に基づいて、用いる前記検出器を選択することは、本発明の好ましい態様である。この構成により、処理の高速化を実現することができる。   In the present invention, it is a preferred aspect of the present invention to select the detector to be used based on past detection results. With this configuration, the processing speed can be increased.

本発明の距離計測装置及び距離計測方法は、上記構成を有し、コストを抑え、高速、かつ高精度な距離計測を行うことができる。   The distance measuring device and the distance measuring method of the present invention have the above-described configuration, can reduce the cost, and can perform distance measurement with high speed and high accuracy.

<第1の実施の形態>
以下、本発明の第1の実施の形態について、図1から図16を用いて説明する。図1は本発明の第1の実施の形態に係る距離計測装置の構成を示す構成図である。図2は本発明の第1の実施の形態に係る距離計測装置における領域限定画質改善部の構成を示す構成図である。図3は本発明の第1の実施の形態に係る距離計測装置における顔検出部の構成を示す構成図である。図4は本発明の第1の実施の形態に係る距離計測装置における反転・平滑化処理について説明するための図である。図4(a)は反転前の画像を示す図である。図4(b)は反転後の画像を示す図である。図4(c)は平滑化された画像を示す図である。
<First Embodiment>
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a configuration diagram showing the configuration of the distance measuring apparatus according to the first embodiment of the present invention. FIG. 2 is a block diagram showing the configuration of the area limited image quality improving unit in the distance measuring apparatus according to the first embodiment of the present invention. FIG. 3 is a block diagram showing the configuration of the face detection unit in the distance measuring apparatus according to the first embodiment of the present invention. FIG. 4 is a diagram for explaining the inversion / smoothing process in the distance measuring apparatus according to the first embodiment of the present invention. FIG. 4A shows an image before inversion. FIG. 4B is a diagram showing the image after inversion. FIG. 4C shows a smoothed image.

図5は本発明の第1の実施の形態に係る距離計測装置における濃淡情報正規化の正規化について説明するための図である。図5(a)は入力画像の輝度値分布を示す図である。図5(b)は出力画像の輝度値分布を示す図である。図6は本発明の第1の実施の形態に係る距離計測装置における顔識別部の入力画像の背景部分にかけられたマスクについて説明するための図である。図7は本発明の第1の実施の形態に係る距離計測装置における後処理部から出力される位置情報について説明するための図である。図8は本発明の第1の実施の形態に係る距離計測装置における過去の顔検出結果を示す図である。図9は本発明の第1の実施の形態に係る距離計測装置における領域限定明暗補正部の構成を示す構成図である。図10は本発明の第1の実施の形態に係る距離計測装置における明暗補正処理の対象となる処理対象領域を示す図である。   FIG. 5 is a diagram for explaining normalization of density information normalization in the distance measuring apparatus according to the first embodiment of the present invention. FIG. 5A is a diagram showing the luminance value distribution of the input image. FIG. 5B shows a luminance value distribution of the output image. FIG. 6 is a diagram for explaining a mask applied to the background portion of the input image of the face identification unit in the distance measuring apparatus according to the first embodiment of the present invention. FIG. 7 is a diagram for explaining position information output from the post-processing unit in the distance measuring apparatus according to the first embodiment of the present invention. FIG. 8 is a diagram showing past face detection results in the distance measuring apparatus according to the first embodiment of the present invention. FIG. 9 is a configuration diagram showing the configuration of the area limited brightness correction unit in the distance measuring apparatus according to the first embodiment of the present invention. FIG. 10 is a diagram showing a processing target area that is a target of the brightness correction process in the distance measuring apparatus according to the first embodiment of the present invention.

図11は本発明の第1の実施の形態に係る距離計測装置におけるLoGフィルタ処理後の画素値を変換した画素値を示す図である。図12は本発明の第1の実施の形態に係る距離計測装置における領域限定ステレオマッチング部の構成を示す構成図である。図13は本発明の第1の実施の形態に係る距離計測装置における視差値について説明するための図である。図13(a)は視差値の概念を説明するための図である。図13(b)は動的計画法における視差値の算出について説明するための図である。図14は本発明の第1の実施の形態に係る距離計測装置における人物距離算出部の構成を示す構成図である。図15は本発明の第1の実施の形態に係る距離計測装置における最大視差値について説明するための図である。図15(a)は顔表面における視差画像情報の視差値を示す図である。図15(b)は視差値の大小関係を示す図である。図16は本発明の第1の実施の形態に係る距離計測装置における処理フローを説明するためのフローチャートである。   FIG. 11 is a diagram showing pixel values obtained by converting pixel values after LoG filter processing in the distance measuring apparatus according to the first embodiment of the present invention. FIG. 12 is a configuration diagram showing the configuration of the region-limited stereo matching unit in the distance measuring apparatus according to the first embodiment of the present invention. FIG. 13 is a diagram for explaining the parallax value in the distance measuring apparatus according to the first embodiment of the present invention. FIG. 13A is a diagram for explaining the concept of the parallax value. FIG. 13B is a diagram for explaining the calculation of the parallax value in the dynamic programming. FIG. 14 is a configuration diagram showing the configuration of the person distance calculation unit in the distance measuring apparatus according to the first embodiment of the present invention. FIG. 15 is a diagram for explaining the maximum parallax value in the distance measuring apparatus according to the first embodiment of the present invention. FIG. 15A is a diagram illustrating the parallax value of the parallax image information on the face surface. FIG. 15B is a diagram illustrating the magnitude relationship between the parallax values. FIG. 16 is a flowchart for explaining a processing flow in the distance measuring apparatus according to the first embodiment of the present invention.

まず、本発明の第1の実施の形態に係る距離計測装置の構成について図1を用いて説明する。図1に示すように、距離計測装置100は、ステレオ画像取得部104、近赤外光投光器105、領域限定画質改善部106、顔検出部107、領域限定明暗補正部108、領域限定ステレオマッチング部109、人物距離算出部110、履歴情報111から構成されている。ここで、以下に示す第1及び第2の実施の形態では、距離計測装置100を特に人物との距離を計測する人物距離計測装置100として説明する。本発明は様々な分野において用いることができる。ここでは、ロボット制御用、ゲーム制御用、エアバック制御用として説明する。まず、ロボット制御用の人物距離計測装置として説明する。人物距離計測装置100では、人物距離算出部110で算出された距離情報を、不図示の知識・判断制御装置に送信する。この送信された距離情報に基づいて、知識・判断制御装置は、移動用のモーターを制御する。例えば、人間までの距離が遠ければ人間に近づくようにモーターを制御する。次に、ゲーム制御用の人物距離計測装置として説明する。人物距離計測装置100では、人物距離算出部110で算出された距離情報を、不図示の操作制御装置に送信する。この送信された距離情報に基づいて、操作制御装置は、ゲームを操作する。最後に、エアバック制御用の人物距離計測装置として説明する。人物距離計測装置100では、人物距離算出部110で算出された距離情報を不図示のエアバック制御装置に送信する。この送信された距離情報に基づいて、エアバック制御装置は、エアバックの展開方法や展開パワーなどを制御する。例えば、乗員の顔とエアバックとの距離に応じて、エアバックの展開パワーを数段階で制御する。   First, the configuration of the distance measuring apparatus according to the first embodiment of the present invention will be described with reference to FIG. As shown in FIG. 1, the distance measuring apparatus 100 includes a stereo image acquisition unit 104, a near-infrared light projector 105, a region limited image quality improvement unit 106, a face detection unit 107, a region limited light / dark correction unit 108, and a region limited stereo matching unit. 109, a person distance calculation unit 110, and history information 111. Here, in the following first and second embodiments, the distance measuring device 100 will be described as a person distance measuring device 100 that measures a distance from a person in particular. The present invention can be used in various fields. Here, description will be given for robot control, game control, and airbag control. First, it will be described as a human distance measuring device for robot control. The person distance measuring apparatus 100 transmits the distance information calculated by the person distance calculating unit 110 to a knowledge / judgment control apparatus (not shown). Based on the transmitted distance information, the knowledge / judgment control device controls the motor for movement. For example, the motor is controlled to approach a human if the distance to the human is far. Next, a human distance measuring device for game control will be described. The person distance measuring device 100 transmits the distance information calculated by the person distance calculating unit 110 to an operation control device (not shown). Based on the transmitted distance information, the operation control device operates the game. Finally, it will be described as a person distance measuring device for air bag control. The person distance measuring device 100 transmits the distance information calculated by the person distance calculating unit 110 to an airbag control device (not shown). Based on the transmitted distance information, the airbag control device controls an airbag deployment method, deployment power, and the like. For example, the deployment power of the airbag is controlled in several steps according to the distance between the passenger's face and the airbag.

ステレオ画像取得部104は、さらに、特定波長透過フィルタ101aを備えた右カメラ102a及び特定波長透過フィルタ101bを備えた左カメラ102b、カメラ制御部103から構成されている。ここで、右カメラ102a及び左カメラ102bは、例えばCCD(Charge Coupled Device)カメラなどである。右カメラ102a及び左カメラ102bを設置する際、所定の間隔を保って配置させ、右カメラ102a及び左カメラ102bの光軸は、互いに平行で、かつ互いの光軸が同一の基準面にあることが望ましい。また、カメラ制御部103は、ステレオ画像取得部104全体の制御を行うものであり、例えば右カメラ102a及び左カメラ102b、近赤外光投光器105に対して、撮影するための同期信号を送信する。この同期信号に基づいて、右カメラ102a及び左カメラ102bは撮影対象を撮影し、近赤外光投光器105は撮影対象に光を発する。   The stereo image acquisition unit 104 further includes a right camera 102a having a specific wavelength transmission filter 101a, a left camera 102b having a specific wavelength transmission filter 101b, and a camera control unit 103. Here, the right camera 102a and the left camera 102b are, for example, a CCD (Charge Coupled Device) camera or the like. When installing the right camera 102a and the left camera 102b, the right camera 102a and the left camera 102b are arranged at a predetermined interval, the optical axes of the right camera 102a and the left camera 102b are parallel to each other, and the optical axes of each other are on the same reference plane. Is desirable. The camera control unit 103 controls the stereo image acquisition unit 104 as a whole. For example, the camera control unit 103 transmits a synchronization signal for photographing to the right camera 102a, the left camera 102b, and the near-infrared light projector 105. . Based on this synchronization signal, the right camera 102a and the left camera 102b capture an object to be imaged, and the near-infrared light projector 105 emits light to the object to be imaged.

これにより、24時間撮影を可能とする。なお、右カメラ102a及び左カメラ102bは、安定した画像を撮影するために、近赤外光投光器105が発光した光の反射光以外の光を受光しないことが必要である。そこで、近赤外光投光器105が発光した光の反射光のみを受光するように、右カメラ102a及び左カメラ102bに特定の波長の光だけを透過させる特定波長透過フィルタ101a及び101bを設けている。近赤外光投光器105は、上述したように、光を発光するものであるが、発光される光は、近赤外光である。発光される光が近赤外光であるため、特に人物を撮影対象とした場合、その視界に影響を与えない。   As a result, it is possible to shoot for 24 hours. The right camera 102a and the left camera 102b need not receive light other than the reflected light of the light emitted by the near-infrared light projector 105 in order to capture a stable image. Therefore, the right camera 102a and the left camera 102b are provided with specific wavelength transmission filters 101a and 101b that transmit only light of a specific wavelength so that only the reflected light of the light emitted by the near-infrared light projector 105 is received. . As described above, the near-infrared light projector 105 emits light, but the emitted light is near-infrared light. Since the emitted light is near-infrared light, it does not affect the field of view, especially when a person is taken as an object.

領域限定画質改善部106は、図2に示すように、注目領域設定部200、ハイパスフィルタ201、対数変換フィルタ202を備えている。ここで、対数変換フィルタ202は、撮影時の照明環境(照明条件)の影響を吸収するためのフィルタである。対数変換後の輝度値は、下記の式(1)によって求めることができる。ここで、Iin(x、y)は対数変換前の画像の輝度値、Iout(x、y)は対数変換後の画像の輝度値であり、a、b、cは所定のパラメータ値である。   As shown in FIG. 2, the area limited image quality improving unit 106 includes an attention area setting unit 200, a high-pass filter 201, and a logarithmic conversion filter 202. Here, the logarithmic conversion filter 202 is a filter for absorbing the influence of the illumination environment (illumination conditions) at the time of photographing. The luminance value after logarithmic conversion can be obtained by the following equation (1). Here, Iin (x, y) is the luminance value of the image before logarithmic conversion, Iout (x, y) is the luminance value of the image after logarithmic conversion, and a, b, and c are predetermined parameter values.

Figure 2006177937
Figure 2006177937

しかし、対数変換フィルタ202を介した後の画像は、コントラストが低下するため、顔の器官(目、鼻、口など)も見えにくくなるという問題がある。ここで、顔の器官の画像は、高周波成分であるため、顔の器官の特徴を保つためにハイパスフィルタ201を導入することにより、撮影時の照明条件の影響を低減させながら高いコントラスト画像が得られる。ハイパスフィルタ201のフィルタマスクHP(i、j)を下記の式(2)に示す。マスクサイズは、例えば3×3画素である。このように、フィルタマスクHPの中心を強調させることにより、高いコントラスト画像を得ることができる。   However, the image after passing through the logarithmic conversion filter 202 has a problem that the contrast of the image is lowered, and it is difficult to see facial organs (eyes, nose, mouth, etc.). Here, since the facial organ image is a high-frequency component, a high-contrast image can be obtained while reducing the influence of illumination conditions at the time of photographing by introducing the high-pass filter 201 in order to maintain the facial organ characteristics. It is done. The filter mask HP (i, j) of the high-pass filter 201 is represented by the following formula (2). The mask size is 3 × 3 pixels, for example. In this way, a high contrast image can be obtained by enhancing the center of the filter mask HP.

Figure 2006177937
Figure 2006177937

なお、上述したハイパスフィルタ201及び対数変換フィルタ202における処理において、無駄な処理を削減し、処理の高速化を実現するために、注目領域設定部200は、履歴情報111に基づいて処理する領域を設定する。ハイパスフィルタ201及び対数変換フィルタ202は、設定された領域のみ処理を行えばよい。また、領域限定画質改善部106は、ステレオ画像取得部104から右カメラ102aによって撮影された画像のみを受け取っているが、これについて説明する。高速な処理を実現するためには、まず測定したい対象物の位置を見つける必要がある。その対象物の位置を見つけるために右カメラ102aのみの画像を用いている。なお、ここでは、右カメラ102aの画像を用いているが、これに限られることはなく、左カメラ102bの画像を用いてもよい。また、履歴情報111には、過去に検出された人物の顔の、後述する位置情報などが蓄積されている。   Note that, in the processing in the high-pass filter 201 and the logarithmic conversion filter 202 described above, the attention area setting unit 200 selects an area to be processed based on the history information 111 in order to reduce useless processing and increase the processing speed. Set. The high-pass filter 201 and the logarithmic conversion filter 202 need only perform processing for the set region. The area-limited image quality improvement unit 106 receives only the image captured by the right camera 102a from the stereo image acquisition unit 104, which will be described. In order to realize high-speed processing, it is first necessary to find the position of an object to be measured. In order to find the position of the object, an image of only the right camera 102a is used. Although the image of the right camera 102a is used here, the present invention is not limited to this, and the image of the left camera 102b may be used. Further, in the history information 111, position information and the like of a person's face detected in the past are stored.

顔検出部107は、図3に示すように、前処理部300、顔識別部306〜308、後処理部316から構成されている。前処理部300は、さらに、雑音除去部301、画像縮小部302、画像領域取得部303、反転・平滑化処理部304、濃淡情報正規化部305から構成されている。雑音除去部301では、領域限定画質改善部106から入力された画像に対して、不図示のローパスフィルタが適用され、雑音の除去が行われる。画像縮小部302では、右カメラ102a及び左カメラ102bから撮影対象の人物の顔までの距離の変化による顔の大きさの変化に対応するために、入力された画像が複数の大きさに変換される。   As shown in FIG. 3, the face detection unit 107 includes a preprocessing unit 300, face identification units 306 to 308, and a postprocessing unit 316. The pre-processing unit 300 further includes a noise removal unit 301, an image reduction unit 302, an image area acquisition unit 303, an inversion / smoothing processing unit 304, and a density information normalization unit 305. In the noise removing unit 301, a low-pass filter (not shown) is applied to the image input from the area-limited image quality improving unit 106, and noise is removed. In the image reduction unit 302, the input image is converted into a plurality of sizes in order to cope with a change in the size of the face due to a change in the distance from the right camera 102a and the left camera 102b to the face of the person to be photographed. The

画像領域取得部303では、画像縮小部302で変換された複数の画像が所定の大きさ、例えばh(縦)×w(幅)画素で切り出される。ここで、切り出された画像を切り出し画像と言う。反転・平滑化処理部304では、画像領域取得部303で切り出されたすべての切り出し画像に対して、偏った照明などにより顔の表面上に生じる輝度ムラの低減の処理がなされる。ここで、輝度ムラの低減の処理は、下記の式(3)及び(4)によって行われる。ここで、I’(x、y)は反転後の輝度値、I(x、y)は反転前の輝度値であり、wは上述した切り出し画像の幅である。また、I’’(x、y)は平滑化された輝度値である。ただし、xとyの変域はそれぞれ0〜w−1、0〜h−1である。   In the image area acquisition unit 303, a plurality of images converted by the image reduction unit 302 are cut out with a predetermined size, for example, h (vertical) × w (width) pixels. Here, the clipped image is referred to as a clipped image. In the inversion / smoothing processing unit 304, all of the cutout images cut out by the image area acquisition unit 303 are subjected to a process of reducing luminance unevenness generated on the face surface due to biased illumination or the like. Here, the process of reducing luminance unevenness is performed by the following equations (3) and (4). Here, I ′ (x, y) is the luminance value after inversion, I (x, y) is the luminance value before inversion, and w is the width of the above-described clipped image. I ″ (x, y) is a smoothed luminance value. However, the domains of x and y are 0 to w−1 and 0 to h−1, respectively.

Figure 2006177937
Figure 2006177937

Figure 2006177937
Figure 2006177937

反転・平滑化処理部304における処理の説明を分かりやすくするため、切り出し画像として顔全体が映し出された画像を用いて説明する。反転前の画像を図4(a)に、反転後の画像を図4(b)に、平滑化後の画像を図4(c)にそれぞれ示す。図4(a)は、反転前の画像を示しており、輝度の濃い(高い)部分400が存在する。図4(a)の画像を反転させることにより、輝度の濃い部分400が反転され、図4(b)のような輝度の濃い部分401が得られる。この図4(a)及び(b)を平滑化することによって図4(c)のような平滑化画像が得られ、切り出し画像全体の輝度ムラが軽減される。   In order to make the explanation of the processing in the inversion / smoothing processing unit 304 easy to understand, an explanation is given using an image in which the entire face is projected as a cut-out image. The image before inversion is shown in FIG. 4A, the image after inversion is shown in FIG. 4B, and the image after smoothing is shown in FIG. 4C. FIG. 4A shows an image before inversion, where a dark (high) portion 400 exists. By inverting the image of FIG. 4A, the dark portion 400 is reversed, and the dark portion 401 as shown in FIG. 4B is obtained. By smoothing FIGS. 4 (a) and 4 (b), a smoothed image as shown in FIG. 4 (c) is obtained, and luminance unevenness of the entire cut-out image is reduced.

濃淡情報正規化部305では、反転・平滑化処理部304で処理された画像に対して、下記の式(5)を用いて切り出し画像全体の明るさの変動、例えば屋外での夜間と昼間などに対応するため、切り出し画像の濃淡情報を正規化する。h(x)は輝度値xの相対出現頻度、f(g)はヒストグラム平滑化後の輝度値である。また、Round[ ]は、小数点第1位以下を四捨五入することを意味する。この変換により、輝度値の累積出現割合に比例して0〜255までの輝度値に収まるように新たな輝度値が割り当てられる。図5(a)に入力画像の輝度値の分布が示されており、図5(b)に出力画像の輝度値の分布が示されている。図5(a)に示す入力画像の輝度値の相対的な出現頻度を式(5)に代入することにより、図5(b)に示すように画像の濃淡が正規化される。   The tone information normalization unit 305 uses the following equation (5) for the image processed by the inversion / smoothing processing unit 304 to change the brightness of the entire clipped image, for example, outdoors at night and daytime. In order to cope with this, the shading information of the cut-out image is normalized. h (x) is the relative appearance frequency of the luminance value x, and f (g) is the luminance value after smoothing the histogram. Round [] means rounding off the first decimal place. By this conversion, a new luminance value is assigned so as to fall within the luminance value from 0 to 255 in proportion to the cumulative appearance ratio of the luminance value. FIG. 5A shows the distribution of luminance values of the input image, and FIG. 5B shows the distribution of luminance values of the output image. By substituting the relative appearance frequency of the luminance value of the input image shown in FIG. 5A into Expression (5), the shading of the image is normalized as shown in FIG. 5B.

Figure 2006177937
Figure 2006177937

濃淡情報正規化部305からの出力は、顔識別部306〜308へ入力される。本発明の第1の実施の形態では、右カメラ102a及び左カメラ102bの光軸のまわりに回転する顔の検出(顔の傾きの検出)を可能にするため、顔識別部307及び308を設けている。顔識別部307及び308の詳細については後述する。まず、顔識別部306について説明する。顔識別部306は、右カメラ102a及び左カメラ102bの光軸のまわりに回転しない顔の検出(正面に向いている顔の検出)をする識別部である。   The output from the density information normalization unit 305 is input to the face identification units 306 to 308. In the first embodiment of the present invention, face identification units 307 and 308 are provided to enable detection of faces rotating around the optical axes of the right camera 102a and the left camera 102b (detection of face inclination). ing. Details of the face identification units 307 and 308 will be described later. First, the face identification unit 306 will be described. The face identification unit 306 is an identification unit that detects a face that does not rotate around the optical axes of the right camera 102a and the left camera 102b (detection of a face facing the front).

顔識別部306は、階層型ニューラルネットワーク309を有している。階層型ニューラルネットワーク309は、入力層、隠れ層、出力層から構成されている。出力層からの出力値は、0から1までの数値であり、出力値が1に近いほど入力された画像は顔らしく、出力値が0に近いほど入力された画像は顔らしくないということを示す。なお、階層型ニューラルネットワークについては公知の技術であるため、詳細な説明については省略する。   The face identification unit 306 has a hierarchical neural network 309. The hierarchical neural network 309 includes an input layer, a hidden layer, and an output layer. The output value from the output layer is a numerical value from 0 to 1, and the closer the output value is to 1, the more the input image looks like a face, and the closer the output value is to 0, the less the face looks like the face. Show. Since the hierarchical neural network is a known technique, detailed description thereof is omitted.

顔識別部307及び308に関しては、双方とも同様の構成であるため、顔識別部307のみについて説明する。顔識別部307は、階層型ニューラルネットワーク310、マスク312、左右反転部313を有している。ここで、階層型ニューラルネットワーク310は、上述した階層型ニューラルネットワーク309と同様であるため、説明を省略する。左右反転部313は、撮影対象の人物が正面に向かって左右に傾いたときの顔の検出を可能にするため、入力された画像を正面(人物が左右に傾いていない)を対称軸にして反転させる。すなわち、左右反転部313は、例えば撮影対象の人物が正面に向かって右にα°傾いている(カメラの光軸に対して回転している)画像が自身に入力された場合、入力された画像を反転させて、左にα°傾いている画像を取得する。顔識別部308の左右反転部315でも同様であり、例えば撮影対象の人物が正面に向かって右にβ°傾いている画像が自身に入力された場合、入力された画像を反転させて、左にβ°傾いている画像を取得する。   Since the face identification units 307 and 308 have the same configuration, only the face identification unit 307 will be described. The face identification unit 307 includes a hierarchical neural network 310, a mask 312, and a left / right reversing unit 313. Here, since the hierarchical neural network 310 is the same as the above-described hierarchical neural network 309, description thereof is omitted. The left / right reversing unit 313 is configured to detect the face when the person to be photographed is tilted left and right toward the front, with the input image as the axis of symmetry (the person is not tilted to the left and right). Invert. That is, the left / right reversing unit 313 is input when, for example, an image in which a person to be photographed is inclined to the right by α ° toward the front (rotating with respect to the optical axis of the camera) is input to itself. Invert the image to obtain an image tilted α ° to the left. The same applies to the left / right inversion unit 315 of the face identification unit 308. For example, when an image in which a person to be photographed is tilted β ° to the right toward the front is input to itself, the input image is inverted and left Acquire an image that is tilted by β °.

ここで、撮影対象の人物が左右に傾いている画像には背景の部分も含まれ、精度の高い顔検出ができなくなるため、背景部分を排除する。背景部分を排除するものがマスク312である。マスク312について図6を用いて説明する。図6に示すように、マスク312は、入力画像に対して背景部分にマスクをかける。マスクをかけることにより、背景部分を排除することができ、より精度が高い顔検出ができる。   Here, the background portion is included in the image in which the person to be photographed is tilted to the left and right, and the face portion cannot be detected with high accuracy. It is the mask 312 that excludes the background portion. The mask 312 will be described with reference to FIG. As shown in FIG. 6, the mask 312 masks the background portion of the input image. By applying the mask, the background portion can be eliminated, and more accurate face detection can be performed.

以上説明したように、顔識別部306〜308は、入力される画像に対して顔の類似度(入力された画像が学習された顔画像に対してどのくらい似ているかを表すもの)を求め、その結果を後処理部316へ出力する。後処理部316は、入力された顔の類似度に対して、所定の閾値などを用いて顔候補を選別し、選別後の複数の顔候補が同じ顔であるか調べ、候補を絞り込む。後処理部316は、絞り込まれた顔に対して、画像上での顔の位置情報、例えば検出された顔の中心座標、顔の大きさなどを出力する。位置情報について図7を用いて説明する。絞り込まれた画像上の顔700には、h×wで切り出された切り出し画像を拡大させた、顔の中心座標がOcで、Hc×Wcの検出窓701がかけられる。   As described above, the face identification units 306 to 308 obtain the degree of similarity of the face (which indicates how similar the input image is to the learned face image) with respect to the input image, The result is output to the post-processing unit 316. The post-processing unit 316 selects face candidates using a predetermined threshold or the like for the input face similarity, checks whether the plurality of face candidates after selection are the same face, and narrows down the candidates. The post-processing unit 316 outputs the position information of the face on the image, for example, the center coordinates of the detected face, the size of the face, etc., for the narrowed face. The position information will be described with reference to FIG. The face 700 on the narrowed-down image is subjected to a detection window 701 of Hc × Wc with the center coordinate of the face obtained by enlarging the cut-out image cut out by h × w being Oc.

なお、顔検出の処理の高速化のために、図8に示す過去の顔検出結果を用いて顔識別部306〜308における処理範囲を限定することも可能である。この過去の顔検出結果は、履歴情報111に格納されていてもよく、また、不図示の所定の記憶領域に格納されていてもよい。ここで、図8について説明する。例えば、過去の時刻において、撮影対象の人物が左にα°傾いていた場合(図8の2行目の顔識別部307(左方向)において顔識別がされた場合)、次の時刻(現時刻)では、撮影対象の人物はさらに左にα°以上傾くか、若しくは正面方向に戻るかの2つの状態が考えられる。これは、短時間の間に、左にα°傾いていた状態から右にα°以上傾くということは考えにくいためである。よって、過去の時刻において、撮影対象の人物が左にα°傾いていた場合(図8の2行目の顔識別部307(左方向)において顔識別がされた場合)、次の時刻(現時刻)で想定される顔識別部308(左方向)、顔識別部307(左方向)、顔識別部306(正面)のみをそれぞれの顔識別部で処理すればよい。これにより、処理の高速化を図ることができる。   Note that in order to speed up the face detection process, it is possible to limit the processing range in the face identification units 306 to 308 using the past face detection results shown in FIG. The past face detection result may be stored in the history information 111 or may be stored in a predetermined storage area (not shown). Here, FIG. 8 will be described. For example, in the past time, when the person to be imaged is inclined α ° to the left (when face identification is performed in the face identification unit 307 (left direction) in the second row in FIG. 8), the next time (current At (time), there are two possible states: the person to be imaged further tilts to the left by α ° or more or returns to the front direction. This is because it is difficult to think that it is inclined more than α ° to the right from a state where it is inclined α ° to the left in a short time. Therefore, at the past time, if the person to be imaged is inclined α ° to the left (when face identification is performed in the face identification unit 307 (left direction) in the second row in FIG. 8), the next time (current Only the face identifying unit 308 (left direction), the face identifying unit 307 (left direction), and the face identifying unit 306 (front) that are assumed at (time) may be processed by each face identifying unit. As a result, the processing speed can be increased.

領域限定明暗補正部108は、図9に示すように、領域限定設定部900と明暗補正処理部901とから構成されている。領域限定設定部900は、顔検出部107から入力された画像上の顔の位置情報に基づいて、後述する明暗補正処理(輝度変化を強調する処理)の対象となる図10に示すような処理対象領域1000を設定し、その領域情報(座標)を出力する。明暗補正処理部901は、領域限定設定部900からの領域情報に基づいて、ステレオ画像取得部104から右カメラ102a及び左カメラ102bの画像を取得し、取得した画像に対してLoG(Laplacian of Gaussian)フィルタによる明暗補正処理を行い、補正後の左右カメラの画像を出力する。なお、LoGフィルタについては公知の技術であるため、詳細については説明を省略する。LoGフィルタを下記の式(6)に示す。ここでは、G(x、y)、I(x、y)はそれぞれ入力画素値とLoGフィルタ処理後の画素値である。LoGフィルタの性能はσ(周辺画素との輝度変化を強調する度合いを表す数値)の値に依存する。ここではσ=1とした。また、σ=1の場合に生成されたフィルタマスクLoG(i、j)の係数を下記の式(7)に示す。このマスクサイズは7×7画素である。   As shown in FIG. 9, the area limited brightness correction unit 108 includes an area limitation setting unit 900 and a brightness correction processing unit 901. The area limitation setting unit 900 is a process as shown in FIG. 10 that is a target of a light / dark correction process (a process for emphasizing a change in luminance), which will be described later, based on the position information of the face on the image input from the face detection unit 107. The target area 1000 is set, and the area information (coordinates) is output. The brightness correction processing unit 901 acquires images of the right camera 102a and the left camera 102b from the stereo image acquisition unit 104 based on the region information from the region limitation setting unit 900, and applies LoG (Laplacian of Gaussian to the acquired image. ) Brightness / darkness correction processing using a filter is performed, and the corrected left and right camera images are output. Since the LoG filter is a known technique, a detailed description thereof will be omitted. The LoG filter is shown in the following formula (6). Here, G (x, y) and I (x, y) are an input pixel value and a pixel value after LoG filter processing, respectively. The performance of the LoG filter depends on the value of σ (a numerical value representing the degree of emphasizing the luminance change with surrounding pixels). Here, σ = 1. The coefficient of the filter mask LoG (i, j) generated when σ = 1 is shown in the following formula (7). This mask size is 7 × 7 pixels.

Figure 2006177937
Figure 2006177937

Figure 2006177937
Figure 2006177937

LoGフィルタ処理後の輝度値は実数値であるが、画素(の輝度)値は離散値である。そのため、実数値から離散値に変換する必要がある。ここでは、下記の式(8)を用いて実数値から離散値に変換する。ここで、J(x、y)、I(x、y)はそれぞれ離散化した画素値とLoGフィルタ処理後の画素値である。また、sは変換に用いられる標本間隔で、既定のパラメータ値である。なお、式(8)による変換後の画素値を図11に示す。   The luminance value after LoG filter processing is a real value, but the pixel (luminance) value is a discrete value. Therefore, it is necessary to convert from a real value to a discrete value. Here, the real value is converted to the discrete value using the following equation (8). Here, J (x, y) and I (x, y) are a discrete pixel value and a pixel value after LoG filter processing, respectively. Further, s is a sample interval used for conversion, and is a predetermined parameter value. In addition, the pixel value after conversion by Formula (8) is shown in FIG.

Figure 2006177937
Figure 2006177937

領域限定ステレオマッチング部109は、図12に示すように、領域限定設定部1200と対応点探索部1201とから構成されている。領域限定設定部1200は、顔検出部107から入力された画像上の顔の位置情報に基づいて、後述する対応点探索の対象となる探索対象領域を設定し、その領域情報(座標)を出力する。対応点探索部1201は、領域限定設定部1200からの領域情報に基づいて、領域限定明暗補正部108から入力された補正後の右カメラ102a、左カメラ102bの画像に対して画像間における対応点探索を行い、視差画像情報を出力する。なお、本発明の第1の実施の形態では、より正確な対応点を求めるために、画素単位での対応点検索を可能とする動的計画法による手法を用いる。この技術に関しては公知の技術であるため、詳細な説明は省略する。   As shown in FIG. 12, the area limited stereo matching unit 109 includes an area limited setting unit 1200 and a corresponding point search unit 1201. Based on the face position information on the image input from the face detection unit 107, the region limitation setting unit 1200 sets a search target region to be a corresponding point search target described later, and outputs the region information (coordinates). To do. The corresponding point search unit 1201 is based on the region information from the region limitation setting unit 1200, and the corresponding points between the images for the corrected right camera 102a and left camera 102b input from the region limitation light / darkness correction unit 108. A search is performed and parallax image information is output. In the first embodiment of the present invention, in order to obtain a more accurate corresponding point, a technique based on dynamic programming that enables a corresponding point search in pixel units is used. Since this technique is a known technique, detailed description thereof is omitted.

視差値について図13を用いて説明する。図13(a)には、右カメラ102aで撮影した画像1300と左カメラ102bで撮影した画像1301とが示されている。視差値は、左右の画像の対応点間のx座標の差である。すなわち、この場合、ある頂点における視差値はXl−Xrである。視差画像情報は、視差値を輝度値として表したものである。一方、図13(b)は、動的計画法における視差値の算出について説明するための図である。右画像1300及び左画像1301を除く図(以下、領域の位置を示す図とも言う)の横軸は右カメラ102aで撮影した画像1300(右画像1300)におけるある走査線上の各領域の位置、縦軸は左カメラ102bで撮影した画像1301(左画像1301)におけるある走査線上の各領域の位置を示している。各画像の向かって左側から走査していくと、右画像1300では物体1302の面1303の領域に入り、その後目的点1304に達する。一方、左画像1301では物体1302の面1305の領域に入り、その後物体1302の面1303に入り、その後目的点1304に達する。このことを示す図13(b)の領域の位置を示す図では、対応する点(対応する領域)では傾きのある直線、対応しない点(対応しない領域)では傾きのない直線が示される。この場合の目的点1304における視差値はXl−Xrである。   The parallax value will be described with reference to FIG. FIG. 13A shows an image 1300 captured by the right camera 102a and an image 1301 captured by the left camera 102b. The parallax value is the difference in x-coordinate between corresponding points in the left and right images. That is, in this case, the parallax value at a certain vertex is X1-Xr. The parallax image information represents parallax values as luminance values. On the other hand, FIG.13 (b) is a figure for demonstrating calculation of the parallax value in a dynamic programming. The horizontal axis of the figure excluding the right image 1300 and the left image 1301 (hereinafter also referred to as a figure showing the position of the area) indicates the position of each area on a certain scanning line in the image 1300 (right image 1300) photographed by the right camera 102a. The axis indicates the position of each region on a certain scanning line in the image 1301 (left image 1301) photographed by the left camera 102b. As each image is scanned from the left side, the right image 1300 enters the area 1303 of the object 1302 and then reaches the target point 1304. On the other hand, the left image 1301 enters the area of the surface 1305 of the object 1302, then enters the surface 1303 of the object 1302, and then reaches the destination point 1304. In the diagram showing the position of the region in FIG. 13B indicating this, a straight line having an inclination is shown at a corresponding point (corresponding region), and a straight line having no inclination is shown at a non-corresponding point (non-corresponding region). In this case, the parallax value at the target point 1304 is X1-Xr.

人物距離算出部110は、図14に示すように、特定の視差値探索部1400と距離算出部1401とから構成されている。特定の視差値探索部1400は、領域限定ステレオマッチング部109から入力された視差画像情報に基づいて、測定対象の視差値を求める。この機能はアプリケーションによって異なる。安全性が要求されるロボット制御用やエアバック制御用などでは、人間との距離として最近距離が求められ、特定の視差値検索部1400は最大視差値を求める。最大視差値を求めることは、左右のカメラから最も近い撮影対象の人物の顔の座標を求めるということである。最大視差値を求めることにより、ロボットが人間に衝突しないことや、エアバックを展開するか否かを判断することができる。ここで、視差画像情報から最大視差値を求める概念について図15を用いて説明する。図15(a)は、顔表面における視差画像情報の視差値を示す図である。図15(a)に示すように、顔表面において、鼻部分が他の目や口に比べ突出している。この鼻部分に対応する視差値は他の目や口に対応する視差値より大きい。視差値の大小関係が図15(b)に示されている。図15(b)に示すように、カメラまで最も近い距離にあるのは鼻部分であり、その視差値はcである。上述する2つのカメラはエアバック付近に設置されていることが前提となる。なお、精度が要求されないゲーム制御用では、特定の視差値検索部1400は平均視差値を求めることも可能である。   The person distance calculation unit 110 includes a specific parallax value search unit 1400 and a distance calculation unit 1401 as shown in FIG. The specific parallax value search unit 1400 obtains a parallax value to be measured based on the parallax image information input from the region-limited stereo matching unit 109. This function depends on the application. In robot control, airbag control, and the like that require safety, the nearest distance is obtained as the distance to the human, and the specific parallax value search unit 1400 obtains the maximum parallax value. Obtaining the maximum parallax value means obtaining the coordinates of the face of the person to be imaged closest to the left and right cameras. By obtaining the maximum parallax value, it is possible to determine whether the robot does not collide with a human or whether to deploy an airbag. Here, the concept of obtaining the maximum parallax value from the parallax image information will be described with reference to FIG. FIG. 15A is a diagram illustrating the parallax value of the parallax image information on the face surface. As shown in FIG. 15A, the nose portion protrudes from the face surface as compared to other eyes and mouth. The parallax value corresponding to the nose portion is larger than the parallax values corresponding to other eyes and mouths. The magnitude relationship between the parallax values is shown in FIG. As shown in FIG. 15B, it is the nose that is closest to the camera, and its parallax value is c. It is assumed that the two cameras described above are installed near the airbag. For game control that does not require accuracy, the specific parallax value search unit 1400 can also obtain an average parallax value.

距離算出部1401は、三角測量の原理に基づいて、特定視差値を用いて顔表面からステレオ画像取得部104までの距離を算出し、算出された距離情報を不図示のロボット制御装置やエアバック制御装置1402などに出力する。ここで、顔表面からステレオ画像取得部104までの距離を算出するとあるが、これに限られるものではない。すなわち、顔表面から2つのカメラの少なくとも一方までの距離であってもよく、また、顔表面からステレオ画像取得部104の所定の基準点までの距離であってもよく、また、顔表面からステレオ画像取得部104以外の所定の基準点までの距離であってもよい。具体的には、ロボット制御装置やエアバック制御装置1402などの場合、距離算出部1401は、下記の式(9)によって顔表面からカメラまでの最も近い距離を算出している。Dmin[mm]はカメラと顔表面との間の最も近い距離、zは顔表面上での最大視差値(図15の例では視差値cに相当)を示す。また、f、h、sはそれぞれステレオカメラの焦点距離[mm]、2つのカメラ間の距離[mm]、ピクセルサイズ[mm/pixel]を示す。なお、それぞれのカメラについてDminを算出し、算出された一方のDminを用いるようにしてもよい。   The distance calculation unit 1401 calculates a distance from the face surface to the stereo image acquisition unit 104 using a specific parallax value based on the principle of triangulation, and the calculated distance information is transmitted to a robot control device (not shown) or an airbag. The data is output to the control device 1402 or the like. Here, the distance from the face surface to the stereo image acquisition unit 104 is calculated, but the present invention is not limited to this. That is, it may be a distance from the face surface to at least one of the two cameras, may be a distance from the face surface to a predetermined reference point of the stereo image acquisition unit 104, or may be a stereo from the face surface. The distance to a predetermined reference point other than the image acquisition unit 104 may be used. Specifically, in the case of a robot control device, an air bag control device 1402 or the like, the distance calculation unit 1401 calculates the closest distance from the face surface to the camera by the following equation (9). Dmin [mm] is the closest distance between the camera and the face surface, and z is the maximum parallax value on the face surface (corresponding to the parallax value c in the example of FIG. 15). F, h, and s indicate the focal length [mm] of the stereo camera, the distance [mm] between the two cameras, and the pixel size [mm / pixel], respectively. Note that Dmin may be calculated for each camera, and one of the calculated Dmins may be used.

Figure 2006177937
Figure 2006177937

三角測量については公知の技術であるため説明を省略する。この距離情報Dminに基づいて、エアバック制御装置1402はエアバックの制御をする。なお、ここでは、エアバック制御装置に本発明の第1の実施の形態に係る人物距離計測装置100を用いているが、エアバック制御装置に限られるものではなく、ロボット制御やゲーム制御などさまざまな分野において応用可能である。また、上述した本発明の第1の実施の形態において、各構成要素の内部構成に関しては一例を示したものであって、処理が可能であれば、ある構成要素の内部構成の一部を他の構成要素内に移動させたものであってもよい。   Since triangulation is a known technique, the description thereof is omitted. Based on this distance information Dmin, the airbag control device 1402 controls the airbag. Here, although the person distance measuring device 100 according to the first embodiment of the present invention is used as the airbag control device, the airbag control device is not limited to the airbag control device, and includes various types such as robot control and game control. It can be applied in various fields. In the first embodiment of the present invention described above, an example of the internal configuration of each component is shown. If processing is possible, a part of the internal configuration of a certain component may be changed. It may be moved into the components.

次に、本発明の第1の実施の形態に係る人物距離計測装置における人物距離計測方法について図16を用いて説明する。図16に示すように、ステレオ画像取得部104のカメラ制御部103は、右カメラ102a及び左カメラ102bを介して撮影対象の人物の顔を撮影する(ステップS1601)。領域限定画質改善部106は、ステレオ画像取得部104から入力された右カメラ102aによる画像をハイパスフィルタ201及び対数変換フィルタ202にかけ、撮影時の照明条件の影響を低減させながら高いコントラスト画像を取得する(ステップS1602)。このとき、履歴情報111に蓄積された過去に検出された人物の顔の位置情報に基づいて、処理する領域を限定することも可能である。   Next, a person distance measuring method in the person distance measuring apparatus according to the first embodiment of the present invention will be described with reference to FIG. As shown in FIG. 16, the camera control unit 103 of the stereo image acquisition unit 104 captures the face of the person to be imaged via the right camera 102a and the left camera 102b (step S1601). The area-limited image quality improvement unit 106 applies the image from the right camera 102a input from the stereo image acquisition unit 104 to the high-pass filter 201 and the logarithmic conversion filter 202, and acquires a high contrast image while reducing the influence of illumination conditions at the time of shooting. (Step S1602). At this time, it is possible to limit the area to be processed based on the position information of the face of the person detected in the past accumulated in the history information 111.

顔検出部107は、領域限定画質改善部106から入力された画像と、履歴情報111に蓄積された過去に検出された人物の顔の位置情報とに基づいて、画像上での顔の位置情報を出力する(ステップS1603)。領域限定明暗補正部108は、顔検出部107から入力された画像上の顔の位置情報に基づいて、明暗補正処理の処理対象領域を設定し、その処理対象領域に基づいて、ステレオ画像取得部104から右カメラ102a及び左カメラ102bの画像を取得し、取得した画像に対してLoGフィルタによる明暗補正処理を行う(ステップS1604)。領域限定ステレオマッチング部109は、顔検出部107から入力された画像上の顔の位置情報に基づいて、対応点探索の対象となる探索対象領域を設定し、その探索対象領域に基づいて、領域限定明暗補正部108から入力された補正後の左右カメラの画像に対して画像間における対応点探索を行い、視差画像情報を出力する(ステップS1605)。人物距離算出部110は、領域限定ステレオマッチング部109から入力された視差画像情報に基づいて特定視差値を求め、三角測量の原理に基づいて、特定視差値を用いて顔表面からカメラまでの距離を算出する(ステップS1606)。   The face detection unit 107 detects the position information of the face on the image based on the image input from the area-limited image quality improvement unit 106 and the position information of the face of the person detected in the past accumulated in the history information 111. Is output (step S1603). The area limited brightness correction unit 108 sets a processing target area for the brightness correction process based on the position information of the face on the image input from the face detection unit 107, and based on the processing target area, the stereo image acquisition unit Images of the right camera 102a and the left camera 102b are acquired from 104, and brightness correction processing using a LoG filter is performed on the acquired images (step S1604). The area-limited stereo matching unit 109 sets a search target area to be searched for corresponding points based on the position information of the face on the image input from the face detection unit 107, and based on the search target area, Corresponding point search between images is performed on the corrected left and right camera images input from the limited brightness correction unit 108, and parallax image information is output (step S1605). The person distance calculation unit 110 obtains a specific parallax value based on the parallax image information input from the region-limited stereo matching unit 109, and based on the principle of triangulation, the distance from the face surface to the camera using the specific parallax value Is calculated (step S1606).

<第2の実施の形態>
以下、本発明の第2の実施の形態に係る距離計測装置及び距離計測方法について図17から図19を用いて説明する。本発明の第2の実施の形態に係る距離計測装置の構成は第1の実施の形態に係る距離計測装置の構成と基本的には同様であり、相違する点は顔検出部の構成である。以下では、本発明の第2の実施の形態における顔検出部の構成及び本発明の第2の実施の形態に係る距離計測装置における人物距離計測方法について説明する。なお、第2の実施の形態に係る距離計測装置の構成要素であって、第1の実施の形態に係る距離計測装置の構成要素と同様のものについて説明する際、第1の実施の形態に係る距離計測装置の構成要素の符号を用いて説明する。
<Second Embodiment>
Hereinafter, a distance measuring device and a distance measuring method according to the second embodiment of the present invention will be described with reference to FIGS. The configuration of the distance measuring device according to the second embodiment of the present invention is basically the same as the configuration of the distance measuring device according to the first embodiment, and the difference is the configuration of the face detection unit. . In the following, the configuration of the face detection unit in the second embodiment of the present invention and the person distance measurement method in the distance measurement apparatus according to the second embodiment of the present invention will be described. It should be noted that when the same components as those of the distance measuring device according to the first embodiment, which are the same as those of the distance measuring device according to the first embodiment, are described. It demonstrates using the code | symbol of the component of the distance measuring device which concerns.

顔検出部1071は、図17に示すように、前処理部1700、顔識別部1707〜1709、後処理部1717から構成されている。前処理部1700は、さらに、雑音除去部1701、画像縮小部1702、画像領域取得部1703、反転・平滑化処理部1704、濃淡情報正規化部1705、1706から構成されている。雑音除去部1701では、領域限定画質改善部106から入力された画像に対して、不図示のローパスフィルタが適用され、雑音の除去が行われる。画像縮小部1702では、右カメラ102a及び左カメラ102bから撮影対象の人物の顔までの距離の変化による顔の大きさの変化に対応するために、入力された画像が複数の大きさに変換される。   As shown in FIG. 17, the face detection unit 1071 includes a preprocessing unit 1700, face identification units 1707 to 1709, and a postprocessing unit 1717. The pre-processing unit 1700 further includes a noise removal unit 1701, an image reduction unit 1702, an image region acquisition unit 1703, an inversion / smoothing processing unit 1704, and density information normalization units 1705 and 1706. In the noise removing unit 1701, a low-pass filter (not shown) is applied to the image input from the region-limited image quality improving unit 106, and noise is removed. In the image reduction unit 1702, the input image is converted into a plurality of sizes in order to cope with a change in the size of the face due to a change in the distance from the right camera 102a and the left camera 102b to the face of the person to be photographed. The

画像領域取得部1703では、画像縮小部1702で変換された複数の画像が所定の大きさ、例えばh(縦)×w(幅)画素で切り出される。ここで、切り出された画像を切り出し画像と言う。反転・平滑化処理部1704では、画像領域取得部1703で切り出されたすべての切り出し画像に対して、偏った照明などにより顔の表面上に生じる輝度ムラの低減の処理がなされる。ここで、輝度ムラの低減の処理は、第1の実施の形態で説明した式(3)及び(4)によって行われる。   In the image area acquisition unit 1703, a plurality of images converted by the image reduction unit 1702 are cut out with a predetermined size, for example, h (vertical) × w (width) pixels. Here, the clipped image is referred to as a clipped image. The inversion / smoothing processing unit 1704 performs a process of reducing luminance unevenness generated on the face surface due to biased illumination or the like with respect to all the cut-out images cut out by the image region acquisition unit 1703. Here, the process of reducing luminance unevenness is performed by the equations (3) and (4) described in the first embodiment.

反転・平滑化処理部1704における処理の説明を分かりやすくするため、切り出し画像として顔全体が映し出された画像を用いて説明する。反転前の画像を第1の実施の形態で説明した図4(a)に、反転後の画像を第1の実施の形態で説明した図4(b)に、平滑化後の画像を第1の実施の形態で説明した図4(c)にそれぞれ示す。図4(a)は、反転前の画像を示しており、輝度の濃い部分400が存在する。図4(a)の画像を反転させることにより、輝度の濃い部分400が反転され、図4(b)に示すような輝度の濃い部分401が得られる。この図4(a)及び図4(b)を平滑化することによって図4(c)に示すような平滑化画像が得られ、切り出し画像全体の輝度ムラが軽減される。   In order to make the description of the processing in the inversion / smoothing processing unit 1704 easier to understand, description will be made using an image in which the entire face is projected as a cut-out image. The image before inversion is shown in FIG. 4A described in the first embodiment, the image after inversion is shown in FIG. 4B described in the first embodiment, and the image after smoothing is shown in FIG. FIG. 4C described in the embodiment of FIG. FIG. 4A shows an image before inversion, and a dark portion 400 exists. By reversing the image of FIG. 4A, the dark portion 400 is reversed, and a dark portion 401 as shown in FIG. 4B is obtained. By smoothing FIGS. 4 (a) and 4 (b), a smoothed image as shown in FIG. 4 (c) is obtained, and luminance unevenness of the entire cut-out image is reduced.

濃淡情報正規化部1705、1706は、反転・平滑化処理部1704で処理された画像と画像領域取得部1703で切り出された切り出し画像に対して、第1の実施の形態で説明した式(5)を用いて切り出し画像全体の明るさの変動、例えば屋外での夜間と昼間などに対応するため、切り出し画像の濃淡情報を正規化する。この変換により、輝度値の累積出現割合に比例して0〜255までの輝度値に収まるように新たな輝度値が割り当てられる。図5(a)に入力画像の輝度値の分布が示されており、図5(b)に出力画像の輝度値の分布が示されている。図5(a)に示す入力画像の輝度値の相対的な出現頻度を式(5)に代入することにより、図5(b)に示すように画像の濃淡が正規化される。   The density information normalization units 1705 and 1706 apply the expression (5) described in the first embodiment to the image processed by the inversion / smoothing processing unit 1704 and the cut-out image cut out by the image area acquisition unit 1703. ) Is used to normalize the grayscale information of the clipped image in order to deal with the brightness variation of the entire clipped image, for example, night and daytime outdoors. By this conversion, a new luminance value is assigned so as to fall within the luminance value from 0 to 255 in proportion to the cumulative appearance ratio of the luminance value. FIG. 5A shows the distribution of luminance values of the input image, and FIG. 5B shows the distribution of luminance values of the output image. By substituting the relative appearance frequency of the luminance value of the input image shown in FIG. 5A into Expression (5), the shading of the image is normalized as shown in FIG. 5B.

濃淡情報正規化部1705からの出力は、顔識別部1707へ入力される。また、濃淡情報正規化部1706からの出力は、顔識別部1708、1709へ入力される。このように出力を分けることについて以下に説明する。正面の顔に対しては直射日光や隠蔽物などによる顔表面上の輝度ムラは軽減されるが、顔が左方向又は右方向に傾いている際に反転・平滑化処理を行うと顔表面上に擬似影が生じる可能性があり、顔が正しく検出されない可能性がある。そこで、上述したように出力を分けることにより、顔表面上の輝度ムラが軽減されるとともに、顔が左方向又は右方向に傾いている際でも顔表面上に擬似影が発生せず、顔を正しく検出することができる。本発明の第2の実施の形態では、右カメラ102a及び左カメラ102bの光軸のまわりに回転する顔の検出(顔の傾きの検出)を可能にするため、顔識別部1708、1709を設けている。顔識別部1708、1709の詳細については後述する。まず、顔識別部1707について説明する。顔識別部1707は、右カメラ102a及び左カメラ102bの光軸のまわりに回転しない顔の検出(正面に向いている顔の検出)をする識別部である。   An output from the density information normalization unit 1705 is input to the face identification unit 1707. The output from the shading information normalization unit 1706 is input to the face identification units 1708 and 1709. The separation of outputs in this way will be described below. For the front face, uneven brightness on the face surface due to direct sunlight, concealment, etc. is reduced, but if the inversion / smoothing process is performed when the face is tilted leftward or rightward, There is a possibility that a pseudo shadow may occur in the face and the face may not be detected correctly. Therefore, by dividing the output as described above, luminance unevenness on the face surface is reduced, and even when the face is tilted leftward or rightward, a pseudo shadow does not occur on the face surface, It can be detected correctly. In the second embodiment of the present invention, face identification units 1708 and 1709 are provided to enable detection of faces rotating around the optical axes of the right camera 102a and the left camera 102b (detection of face inclination). ing. Details of the face identification units 1708 and 1709 will be described later. First, the face identification unit 1707 will be described. The face identification unit 1707 is an identification unit that detects a face that does not rotate around the optical axes of the right camera 102a and the left camera 102b (detection of a face facing the front).

顔識別部1707は、階層型ニューラルネットワーク1710を有している。階層型ニューラルネットワーク1710は、入力層、隠れ層、出力層から構成されている。出力層からの出力値は、0から1までの数値であり、出力値が1に近いほど入力された画像は顔らしく、出力値が0に近いほど入力された画像は顔らしくないということを示す。なお、階層型ニューラルネットワークについては公知の技術であるため、詳細な説明については省略する。   The face identification unit 1707 has a hierarchical neural network 1710. The hierarchical neural network 1710 includes an input layer, a hidden layer, and an output layer. The output value from the output layer is a numerical value from 0 to 1, and the closer the output value is to 1, the more the input image looks like a face, and the closer the output value is to 0, the less the face looks like the face. Show. Since the hierarchical neural network is a known technique, detailed description thereof is omitted.

顔識別部1708、1709に関しては、双方とも同様の構成であるため、顔識別部1708のみについて説明する。顔識別部1708は、階層型ニューラルネットワーク1711、マスク1712、左右反転部1713を有している。ここで、階層型ニューラルネットワーク1711は、上述した階層型ニューラルネットワーク1710と同様であるため、説明を省略する。左右反転部1713は、撮影対象の人物が正面に向かって左右に傾いたときの顔の検出を可能にするため、入力された画像を正面(人物が左右に傾いていない)を対称軸にして反転させる。すなわち、左右反転部1713は、例えば撮影対象の人物が正面に向かって右にα°傾いている(カメラの光軸に対して回転している)画像が自身に入力された場合、入力された画像を反転させて、左にα°傾いている画像を取得する。顔識別部1709の左右反転部1716でも同様であり、例えば撮影対象の人物が正面に向かって右にβ°傾いている画像が自身に入力された場合、入力された画像を反転させて、左にβ°傾いている画像を取得する。   Since both the face identification units 1708 and 1709 have the same configuration, only the face identification unit 1708 will be described. The face identification unit 1708 includes a hierarchical neural network 1711, a mask 1712, and a left / right reversing unit 1713. Here, since the hierarchical neural network 1711 is the same as the above-described hierarchical neural network 1710, description thereof is omitted. The left / right reversing unit 1713 uses the input image as a symmetry axis with the input image (the person is not tilted to the left and right) to enable detection of the face when the person to be photographed is tilted to the left and right. Invert. That is, the left / right reversing unit 1713 is input when an image of the person to be imaged is inclined to the right by α ° toward the front (rotated with respect to the optical axis of the camera) is input to itself. Invert the image to obtain an image tilted α ° to the left. The same applies to the left / right reversing unit 1716 of the face identifying unit 1709. For example, when an image in which a person to be photographed is tilted β ° to the right toward the front is input to itself, the input image is inverted and left Acquire an image that is tilted by β °.

ここで、撮影対象の人物が左右に傾いている画像には背景の部分も含まれ、精度の高い顔検出ができなくなるため、背景部分を排除する。背景部分を排除するものがマスク1712である。マスク1712については第1の実施の形態で説明した図6を参照する。図6に示すように、マスク1712は、入力画像に対して背景部分にマスクをかける。マスクをかけることにより、背景部分を排除することができ、より精度が高い顔検出ができる。   Here, the background portion is included in the image in which the person to be photographed is tilted to the left and right, and the face portion cannot be detected with high accuracy. A mask 1712 excludes the background portion. For the mask 1712, refer to FIG. 6 described in the first embodiment. As shown in FIG. 6, the mask 1712 masks the background portion of the input image. By applying the mask, the background portion can be eliminated, and more accurate face detection can be performed.

以上説明したように、顔識別部1707〜1709は、入力される画像に対して顔の類似度(入力された画像は学習された顔画像に対してどのくらい似ているかを表すもの)を求め、その結果を後処理部1717へ出力する。後処理部1717は、入力された顔の類似度に対して、所定の閾値などを用いて顔候補を選別し、選別後の複数の顔候補が同じ顔であるか否かを調べ、候補を絞り込む。後処理部1717は、絞り込まれた顔に対して、画像上での顔の位置情報、例えば検出された顔の中心座標、顔の大きさなどを出力する。位置情報については第1の実施の形態で説明した図7を用いて説明する。絞り込まれた画像上の顔700には、h×wで切り出された切り出し画像を拡大させた、顔の中心座標がOcで、2Hc×2Wcの検出窓701がかけられる。   As described above, the face identification units 1707 to 1709 obtain the degree of similarity of the face with respect to the input image (which indicates how similar the input image is to the learned face image) The result is output to the post-processing unit 1717. The post-processing unit 1717 selects a face candidate using a predetermined threshold or the like for the input face similarity, checks whether or not the plurality of face candidates after selection are the same face, and selects a candidate. Narrow down. The post-processing unit 1717 outputs the position information of the face on the image, for example, the center coordinates of the detected face, the size of the face, etc., for the narrowed face. The position information will be described with reference to FIG. 7 described in the first embodiment. The face 700 on the narrowed-down image is covered with a detection window 701 of 2Hc × 2Wc with the center coordinate of the face obtained by enlarging the cut-out image cut out by h × w being Oc.

なお、顔検出の処理の高速化のために、図18に示す過去顔検出結果を用いて顔識別部1707〜1709における処理範囲を限定することも可能である。この過去顔検出結果は、履歴情報111に格納されていてもよく、また、不図示の所定の記憶領域に格納されていてもよい。ここで、図18について説明する。例えば、過去の時刻において、撮影対象の人物が左にα°傾いていた場合(図18の2行目の顔識別部1708(左方向)において顔識別がされた場合)、次の時刻(現時刻)では、撮影対象の人物はさらに左にα°以上傾くか、若しくは正面方向に戻るかの2つの状態が考えられる。これは、短時間の間に、左にα°傾いていた状態から右にα°以上傾くということは考えにくいためである。よって、過去の時刻において、撮影対象の人物が左にα°傾いていた場合(図18の2行目の顔識別部1708(左方向)において顔識別がされた場合)、次の時刻(現時刻)では想定される顔識別部1709(左方向)、顔識別部1708(左方向)、顔識別部1707(正面)のみをそれぞれの顔識別部で処理すればよい。これにより、処理の高速化を図ることができる。なお、第2の実施の形態に係る距離計測装置の顔識別部以外の他の構成要素については第1の実施の形態の構成要素と同様であるため説明を省略する。   Note that in order to speed up the face detection process, it is possible to limit the processing range in the face identification units 1707 to 1709 using the past face detection results shown in FIG. The past face detection result may be stored in the history information 111 or may be stored in a predetermined storage area (not shown). Here, FIG. 18 will be described. For example, in the past time, when the person to be imaged is inclined α ° to the left (when face identification is performed in the face identification unit 1708 (left direction) in the second row in FIG. 18), the next time (current At (time), there are two possible states: the person to be imaged further tilts to the left by α ° or more or returns to the front direction. This is because it is difficult to think that it is inclined more than α ° to the right from a state where it is inclined α ° to the left in a short time. Therefore, at the past time, if the person to be imaged is inclined α ° to the left (when face identification is performed in the face identification unit 1708 (left direction) in FIG. 18), the next time (current For the (time), only the face identification unit 1709 (left direction), the face identification unit 1708 (left direction), and the face identification unit 1707 (front) may be processed by each face identification unit. As a result, the processing speed can be increased. In addition, since it is the same as that of the component of 1st Embodiment about other components other than the face identification part of the distance measuring device which concerns on 2nd Embodiment, description is abbreviate | omitted.

次に、本発明の第2の実施の形態に係る人物距離計測装置における人物距離計測方法について図19を用いて説明する。図19に示すように、ステレオ画像取得部104のカメラ制御部103は、右カメラ102a及び左カメラ102bを介して撮影対象の人物の顔を撮影する(ステップS1901)。領域限定画質改善部106は、ステレオ画像取得部104から入力された右カメラ102aによる画像をハイパスフィルタ201及び対数変換フィルタ202にかけ、撮影時の照明条件の影響を低減させながら高いコントラスト画像を取得する(ステップS1902)。このとき、履歴情報111に蓄積された過去に検出された人物の顔の位置情報に基づいて、処理する領域を限定することも可能である。   Next, a person distance measuring method in the person distance measuring apparatus according to the second embodiment of the present invention will be described with reference to FIG. As shown in FIG. 19, the camera control unit 103 of the stereo image acquisition unit 104 captures the face of the person to be imaged via the right camera 102a and the left camera 102b (step S1901). The area-limited image quality improvement unit 106 applies the image from the right camera 102a input from the stereo image acquisition unit 104 to the high-pass filter 201 and the logarithmic conversion filter 202, and acquires a high contrast image while reducing the influence of illumination conditions at the time of shooting. (Step S1902). At this time, it is possible to limit the area to be processed based on the position information of the face of the person detected in the past accumulated in the history information 111.

顔検出部1071は、領域限定画質改善部106から入力された画像と、履歴情報111に蓄積された過去に検出された人物の顔の位置情報とに基づいて、画像上での顔の位置情報を出力する(ステップS1903)。領域限定明暗補正部108は、顔検出部1071から入力された画像上の顔の位置情報に基づいて、明暗補正処理の処理対象領域を設定し、その処理対象領域に基づいて、ステレオ画像取得部104から右カメラ102a及び左カメラ102bの画像を取得し、取得した画像に対してLoGフィルタによる明暗補正処理を行う(ステップS1904)。領域限定ステレオマッチング部109は、顔検出部1071から入力された画像上の顔の位置情報に基づいて、対応点探索の対象となる探索対象領域を設定し、その探索対象領域に基づいて、領域限定明暗補正部108から入力された補正後の左右カメラの画像に対して画像間における対応点探索を行い、視差画像情報を出力する(ステップS1905)。人物距離算出部110は、領域限定ステレオマッチング部109から入力された視差画像情報に基づいて特定視差値を求め、三角測量の原理に基づいて、特定視差値を用いて顔表面からカメラまでの距離を算出する(ステップS1906)。   The face detection unit 1071 is based on the image input from the area-limited image quality improvement unit 106 and the position information of the face of the person detected in the past accumulated in the history information 111, and the position information of the face on the image. Is output (step S1903). The area limited brightness correction unit 108 sets a processing target area for the brightness correction process based on the position information of the face on the image input from the face detection unit 1071, and based on the processing target area, the stereo image acquisition unit The images of the right camera 102a and the left camera 102b are acquired from 104, and brightness correction processing using the LoG filter is performed on the acquired images (step S1904). The region-limited stereo matching unit 109 sets a search target region to be searched for corresponding points based on the position information of the face on the image input from the face detection unit 1071, and based on the search target region, A corresponding point search between images is performed on the corrected left and right camera images input from the limited brightness correction unit 108, and parallax image information is output (step S1905). The person distance calculation unit 110 obtains a specific parallax value based on the parallax image information input from the region-limited stereo matching unit 109, and based on the principle of triangulation, the distance from the face surface to the camera using the specific parallax value Is calculated (step S1906).

本発明に係る距離計測装置及び距離計測方法は、コストを抑え、高速、かつ高精度な距離計測を行うことができるため、画像中の撮影対象物の距離を測定する距離計測装置及び距離計測方法などに有用である。   The distance measuring apparatus and the distance measuring method according to the present invention can perform cost measurement at high speed and with high accuracy, and therefore the distance measuring apparatus and the distance measuring method for measuring the distance of the object to be photographed in the image. It is useful for such as.

本発明の第1の実施の形態に係る距離計測装置の構成を示す構成図である。It is a block diagram which shows the structure of the distance measuring device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る距離計測装置における領域限定画質改善部の構成を示す構成図である。It is a block diagram which shows the structure of the area | region limited image quality improvement part in the distance measuring device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る距離計測装置における顔検出部の構成を示す構成図である。It is a block diagram which shows the structure of the face detection part in the distance measuring device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る距離計測装置における反転・平滑化処理について説明するための図である。(a)反転前の画像を示す図である。(b)反転後の画像を示す図である。(c)平滑化された画像を示す図である。It is a figure for demonstrating the inversion and smoothing process in the distance measuring device which concerns on the 1st Embodiment of this invention. (A) It is a figure which shows the image before inversion. (B) It is a figure which shows the image after inversion. (C) It is a figure which shows the smoothed image. 本発明の第1の実施の形態に係る距離計測装置における濃淡情報正規化の正規化について説明するための図である。(a)入力画像の輝度値分布を示す図である。(b)出力画像の輝度値分布を示す図である。It is a figure for demonstrating normalization of the shading information normalization in the distance measuring device which concerns on the 1st Embodiment of this invention. (A) It is a figure which shows luminance value distribution of an input image. (B) It is a figure which shows the luminance value distribution of an output image. 本発明の第1の実施の形態に係る距離計測装置における顔識別部の入力画像の背景部分にかけられたマスクについて説明するための図である。It is a figure for demonstrating the mask put on the background part of the input image of the face identification part in the distance measuring device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る距離計測装置における後処理部から出力される位置情報について説明するための図である。It is a figure for demonstrating the positional information output from the post-processing part in the distance measuring device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る距離計測装置における過去の顔検出結果を示す図である。It is a figure which shows the past face detection result in the distance measuring device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る距離計測装置における領域限定明暗補正部の構成を示す構成図である。It is a block diagram which shows the structure of the area | region limited brightness correction part in the distance measuring device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る距離計測装置における明暗補正処理の対象となる処理対象領域を示す図である。It is a figure which shows the process target area | region used as the object of the brightness correction process in the distance measuring device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る距離計測装置におけるLoGフィルタ処理後の画素値を変換した画素値を示す図である。It is a figure which shows the pixel value which converted the pixel value after the LoG filter process in the distance measuring device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る距離計測装置における領域限定ステレオマッチング部の構成を示す構成図である。It is a block diagram which shows the structure of the area | region limited stereo matching part in the distance measuring device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る距離計測装置における視差値について説明するための図である。(a)視差値の概念を説明するための図である。(b)動的計画法における視差値の算出について説明するための図である。It is a figure for demonstrating the parallax value in the distance measuring device which concerns on the 1st Embodiment of this invention. (A) It is a figure for demonstrating the concept of a parallax value. (B) It is a figure for demonstrating calculation of the parallax value in a dynamic programming. 本発明の第1の実施の形態に係る距離計測装置における人物距離算出部の構成を示す構成図である。It is a block diagram which shows the structure of the person distance calculation part in the distance measuring device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る距離計測装置における最大視差値について説明するための図である。(a)顔表面における視差画像情報の視差値を示す図である。(b)視差値の大小関係を示す図である。It is a figure for demonstrating the maximum parallax value in the distance measuring device which concerns on the 1st Embodiment of this invention. (A) It is a figure which shows the parallax value of the parallax image information in the face surface. (B) It is a figure which shows the magnitude relationship of a parallax value. 本発明の第1の実施の形態に係る距離計測装置における処理フローを説明するためのフローチャートである。It is a flowchart for demonstrating the processing flow in the distance measuring device which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係る距離計測装置における顔検出部の構成を示す構成図である。It is a block diagram which shows the structure of the face detection part in the distance measuring device which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る距離計測装置における過去の顔検出結果を示す図である。It is a figure which shows the past face detection result in the distance measuring device which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る距離計測装置における処理フローを説明するためのフローチャートである。It is a flowchart for demonstrating the processing flow in the distance measuring device which concerns on the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

100 人物距離計測装置(距離計測装置)
101a 右カメラの特定波長透過フィルタ
101b 左カメラの特定波長透過フィルタ
102a 右カメラ
102b 左カメラ
103 カメラ制御部
104 ステレオ画像取得部(撮影手段)
105 近赤外光投光器
106 領域限定画質改善部(画質改善手段)
107、1071 顔検出部(検出手段)
108 領域限定明暗補正部(補正処理手段)
109 領域限定ステレオマッチング部(視差画像情報生成手段)
110 人物距離算出部(距離算出手段)
111 履歴情報
200 注目領域設定部
201 ハイパスフィルタ
202 対数変換フィルタ
300、1700 前処理部
301、1701 雑音除去部
302、1702 画像縮小部
303、1703 画像領域取得部
304、1704 反転・平滑化処理部
305、1705、1706 濃淡情報正規化部
306、307、308、1707、1708、1709 顔識別部
309、310、311、1710、1711、1714 階層型ニューラルネットワーク
312、314、1712、1715 マスク
313、315、1713、1716 左右反転部
316、1717 後処理部
400 反転前の画像の輝度の濃い部分
401 反転後の画像の輝度の濃い部分
700 画像上の顔
701 検出窓
900、1200 領域限定設定部
901 明暗補正処理部
1000 処理対象領域
1201 対応点探索部
1300 右カメラで撮影した画像(右画像)
1301 左カメラで撮影した画像(左画像)
1302 物体
1303、1305 物体の面
1304 目的点
1400 特定の視差値探索部
1401 距離算出部
1402 エアバック制御装置
100 person distance measuring device (distance measuring device)
101a Specific wavelength transmission filter of right camera 101b Specific wavelength transmission filter of left camera 102a Right camera 102b Left camera 103 Camera control unit 104 Stereo image acquisition unit (imaging means)
105 Near-infrared light projector 106 Area-limited image quality improvement unit (image quality improvement means)
107, 1071 Face detection unit (detection means)
108 Area limited brightness correction section (correction processing means)
109 Region-limited stereo matching unit (parallax image information generating means)
110 Person distance calculation unit (distance calculation means)
111 history information 200 attention area setting section 201 high pass filter 202 logarithmic transformation filter 300, 1700 preprocessing section 301, 1701 noise removal section 302, 1702 image reduction section 303, 1703 image area acquisition section 304, 1704 inversion / smoothing processing section 305 , 1705, 1706 Gray information normalization unit 306, 307, 308, 1707, 1708, 1709 Face identification unit 309, 310, 311, 1710, 1711, 1714 Hierarchical neural network 312, 314, 1712, 1715 Mask 313, 315, 1713, 1716 Left-right inversion unit 316, 1717 Post-processing unit 400 High-intensity portion of image before inversion 401 High-intensity portion of image after inversion 700 Face on image 701 Detection window 900, 1200 Area limitation setting unit 901 Brightness correction processing unit 1000 Processing target region 1201 Corresponding point search unit 1300 Image captured by right camera (right image)
1301 Image taken with left camera (left image)
1302 Object 1303, 1305 Object surface 1304 Target point 1400 Specific parallax value search unit 1401 Distance calculation unit 1402 Airbag control device

Claims (24)

所定間隔を保って配置された2つのカメラによって撮影対象物を撮影する撮影手段と、
前記撮影手段の前記2つのカメラによって撮影された前記撮影対象物の画像のうち、一方の画像に対して、所定の画像領域下において、撮影時の照明環境の影響を除去して前記画像の画質改善処理を行う画質改善手段と、
前記画質改善手段によって画質改善された前記画像に基づいて、前記画像上における前記撮影対象物の位置情報を検出する検出手段と、
前記検出手段によって検出された前記画像上における前記撮影対象物の前記位置情報に基づいて、処理対象となる前記画像上の画像領域を限定し、限定された前記画像領域において、前記撮影手段の前記2つのカメラによって撮影された2つの画像に対して輝度変化を強調する処理を行う補正処理手段と、
限定された前記画像領域において、前記補正処理手段によって処理された2つの前記画像間の対応点を探索し、探索した前記対応点の位置のずれに基づいて、視差画像情報を生成する視差画像情報生成手段と、
前記視差画像情報生成手段によって生成された前記視差画像情報に基づいて、視差値を求め、前記視差値に基づいて、前記撮像手段と前記撮影対象物との間の距離を算出する距離算出手段とを、
備える距離計測装置。
Photographing means for photographing an object to be photographed by two cameras arranged at a predetermined interval;
The image quality of the image is obtained by removing the influence of the illumination environment at the time of shooting, with respect to one of the images of the shooting target image shot by the two cameras of the shooting unit, under a predetermined image area. Image quality improvement means for performing improvement processing,
Detecting means for detecting position information of the object to be photographed on the image based on the image improved in image quality by the image quality improving means;
Based on the position information of the object to be photographed on the image detected by the detecting means, the image area on the image to be processed is limited, and in the limited image area, the photographing means Correction processing means for performing processing for emphasizing a change in luminance with respect to two images taken by two cameras;
Parallax image information for searching for corresponding points between the two images processed by the correction processing means in the limited image area, and generating parallax image information based on a positional shift of the searched corresponding points Generating means;
A distance calculation unit that obtains a parallax value based on the parallax image information generated by the parallax image information generation unit, and calculates a distance between the imaging unit and the photographing object based on the parallax value; The
A distance measuring device provided.
前記撮影対象物が人物の顔である請求項1に記載の距離計測装置。   The distance measuring device according to claim 1, wherein the photographing object is a human face. 前記撮影手段によって前記撮影対象物を撮影する際、24時間撮影を可能とするために、近赤外光を前記撮影対象物に投光する近赤外光投光手段を備える請求項1又は2に記載の距離計測装置。   3. A near-infrared light projecting unit that projects near-infrared light onto the object to be photographed in order to enable 24-hour imaging when the imaging object is imaged by the imaging unit. The distance measuring device described in 1. 前記2つのカメラの少なくとも一方に、前記撮影手段によって前記撮影対象物を撮影する際、可視光を含む外乱光の影響を低減させ、安定した画像を撮影可能とするために、前記近赤外光投光手段から投光される前記近赤外光の反射光のみを受光する特定波長透過フィルタを備える請求項3に記載の距離計測装置。   In order to reduce the influence of disturbance light including visible light when photographing the object to be photographed by the photographing means on at least one of the two cameras, the near-infrared light can be captured. The distance measuring device according to claim 3, further comprising a specific wavelength transmission filter that receives only the reflected light of the near infrared light projected from the light projecting unit. 前記視差画像情報生成手段は、高精度な前記対応点を探索するために、動的計画法を用いる請求項1から4のいずれか1つに記載の距離計測装置。   The distance measurement apparatus according to claim 1, wherein the parallax image information generation unit uses dynamic programming to search for the corresponding points with high accuracy. 前記補正処理手段は、光源位置による前記カメラごとで写される前記撮影対象物からの反射光の違いによる位置測定精度の低下を低減させ、実環境下において高精度な距離計測を可能とするために、LoGフィルタによる処理を行う請求項1から5のいずれか1つに記載の距離計測装置。   The correction processing means reduces a decrease in position measurement accuracy due to a difference in reflected light from the object to be photographed for each camera depending on a light source position, and enables highly accurate distance measurement in an actual environment. The distance measuring device according to claim 1, wherein processing by a LoG filter is performed. 前記画質改善手段は、撮影時の照明環境の影響を吸収する対数変換フィルタと、前記対数変換フィルタを介した前記画像のコントラストの低下を軽減させるハイパスフィルタとを備える請求項1から6のいずれか1つに記載の距離計測装置。   The said image quality improvement means is provided with the logarithmic conversion filter which absorbs the influence of the illumination environment at the time of imaging | photography, and the high-pass filter which reduces the fall of the contrast of the said image through the said logarithmic conversion filter. The distance measuring device according to one. 前記検出手段は、前記画像上の前記撮影対象物における輝度のムラの影響を低減させる反転・平滑化処理をして前記画像上における前記撮影対象物の前記位置情報を検出する請求項1から7のいずれか1つに記載の距離計測装置。   The detection unit detects the position information of the shooting object on the image by performing a reversal / smoothing process that reduces an influence of luminance unevenness on the shooting object on the image. The distance measuring device according to any one of the above. 前記検出手段は、ニューラルネットワークを用いて前記画像上における前記撮影対象物の前記位置情報を検出する請求項1から8のいずれか1つに記載の距離計測装置。   The distance measuring device according to claim 1, wherein the detection unit detects the position information of the photographing object on the image using a neural network. 前記検出手段は、前記カメラの光軸まわりに回転する前記撮影対象物の検出を可能にするため、複数の検出器によって構成され、前記検出器によって前記画像上における前記撮影対象物の前記位置情報を検出する請求項1から9のいずれか1つに記載の距離計測装置。   The detection means is configured by a plurality of detectors in order to enable detection of the photographing object rotating around the optical axis of the camera, and the position information of the photographing object on the image by the detector. The distance measuring device according to any one of claims 1 to 9, wherein the distance is detected. 前記検出手段は、前記反転・平滑化処理された画像上における前記撮影対象物の前記位置情報の検出を前記複数の検出器のうちの所定の検出器によって行い、前記反転・平滑化処理されていない画像上における前記撮影対象物の前記位置情報の検出を前記複数の検出器のうちの所定の検出器以外の検出器によって行う請求項10に記載の距離計測装置。   The detection means performs detection of the position information of the object to be photographed on the inverted / smoothed image by a predetermined detector of the plurality of detectors, and the inverted / smoothed process is performed. The distance measuring device according to claim 10, wherein the position information of the object to be photographed on a non-existing image is detected by a detector other than a predetermined detector among the plurality of detectors. 前記検出手段は、過去の検出結果に基づいて、用いる前記検出器を選択する請求項10又は11に記載の距離計測装置。   The distance measuring device according to claim 10 or 11, wherein the detection unit selects the detector to be used based on a past detection result. 所定間隔を保って配置された2つのカメラによって撮影対象物を撮影するステップと、
前記2つのカメラによって撮影された前記撮影対象物の画像のうち、一方の画像に対して、所定の画像領域下において、撮影時の照明環境の影響を除去して前記画像の画質改善処理を行うステップと、
画質改善された前記画像に基づいて、前記画像上における前記撮影対象物の位置情報を検出するステップと、
検出された前記画像上における前記撮影対象物の前記位置情報に基づいて、処理対象となる前記画像上の画像領域を限定し、限定された前記画像領域において、前記2つのカメラによって撮影された2つの画像に対して輝度変化を強調する処理を行うステップと、
限定された前記画像領域において、前記処理された2つの前記画像間の対応点を探索し、探索された前記対応点の位置のずれに基づいて、視差画像情報を生成するステップと、
生成された前記視差画像情報に基づいて、視差値を求め、前記視差値に基づいて、前記2つのカメラを含む撮像手段と前記撮影対象物との間の距離を算出するステップとを、
有する距離計測方法。
Photographing an object to be photographed by two cameras arranged at a predetermined interval;
Of the images of the object to be photographed photographed by the two cameras, the effect of the illumination environment at the time of photographing is removed under a predetermined image area and the image quality improvement processing of the image is performed. Steps,
Detecting position information of the photographing object on the image based on the image with improved image quality;
Based on the position information of the object to be photographed on the detected image, the image area on the image to be processed is limited, and the two images captured by the two cameras in the limited image area. Performing a process of emphasizing a change in luminance for one image;
Searching for corresponding points between the processed two images in the limited image region, and generating parallax image information based on a shift in the position of the searched corresponding points;
Obtaining a parallax value based on the generated parallax image information, and calculating a distance between the imaging unit including the two cameras and the photographing object based on the parallax value;
A distance measuring method.
前記撮影対象物が人物の顔である請求項13に記載の距離計測方法。   The distance measuring method according to claim 13, wherein the photographing object is a human face. 前記撮影対象物を撮影する際、24時間撮影を可能とするために、近赤外光を前記撮影対象物に投光するステップを更に有する請求項13又は14に記載の距離計測方法。   The distance measuring method according to claim 13 or 14, further comprising a step of projecting near-infrared light onto the imaging object in order to enable 24-hour imaging when imaging the imaging object. 前記撮影対象物を撮影する際、可視光を含む外乱光の影響を低減させ、安定した画像を撮影可能とするために、投光される前記近赤外光の反射光のみを受光するステップを更に有する請求項15に記載の距離計測方法。   A step of receiving only the reflected light of the near-infrared light to be projected in order to reduce the influence of disturbance light including visible light and to capture a stable image when photographing the object to be photographed; The distance measuring method according to claim 15, further comprising: 高精度な前記対応点を探索するために、動的計画法を用いる請求項13から16のいずれか1つに記載の距離計測方法。   The distance measuring method according to claim 13, wherein dynamic programming is used to search for the corresponding points with high accuracy. 光源位置による前記カメラごとで写される前記撮影対象物からの反射光の違いによる位置測定精度の低下を低減させ、実環境下において高精度な距離計測を可能とするために、LoGフィルタによる処理を行う請求項13から17のいずれか1つに記載の距離計測方法。   Processing by LoG filter in order to reduce the degradation of position measurement accuracy due to the difference in reflected light from the object to be photographed for each camera depending on the light source position, and to enable highly accurate distance measurement under real environment The distance measuring method according to any one of claims 13 to 17, wherein: 撮影時の照明環境の影響を吸収し、吸収された前記画像のコントラストの低下を軽減させる請求項13から18のいずれか1つに記載の距離計測方法。   The distance measuring method according to any one of claims 13 to 18, wherein an influence of an illumination environment at the time of photographing is absorbed to reduce a decrease in contrast of the absorbed image. 前記画像上の前記撮影対象物における輝度のムラの影響を低減させる反転・平滑化処理をして前記画像上における前記撮影対象物の前記位置情報を検出する請求項13から19のいずれか1つに記載の距離計測方法。   20. The position information of the shooting object on the image is detected by performing reversal / smoothing processing to reduce the influence of luminance unevenness on the shooting object on the image. The distance measuring method described in 1. ニューラルネットワークを用いて前記画像上における前記撮影対象物の前記位置情報を検出する請求項13から20のいずれか1つに記載の距離計測方法。   The distance measuring method according to any one of claims 13 to 20, wherein the position information of the object to be photographed on the image is detected using a neural network. 前記カメラの光軸まわりに回転する前記撮影対象物の検出を可能にするため、複数の検出器によって前記画像上における前記撮影対象物の前記位置情報を検出する請求項13から21のいずれか1つに記載の距離計測方法。   The position information of the photographing object on the image is detected by a plurality of detectors to enable detection of the photographing object rotating around the optical axis of the camera. The distance measurement method described in one. 前記反転・平滑化処理された画像上における前記撮影対象物の前記位置情報の検出を前記複数の検出器のうちの所定の検出器によって行い、前記反転・平滑化処理されていない画像上における前記撮影対象物の前記位置情報の検出を前記複数の検出器のうちの所定の検出器以外の検出器によって行う請求項22に記載の距離計測方法。   Detection of the position information of the object to be photographed on the image that has been subjected to the inversion / smoothing process is performed by a predetermined detector among the plurality of detectors, and the image on the image that has not been subjected to the inversion / smoothing process. 23. The distance measuring method according to claim 22, wherein the position information of the photographing object is detected by a detector other than the predetermined detector among the plurality of detectors. 過去の検出結果に基づいて、用いる前記検出器を選択する請求項22又は23に記載の距離計測方法。
The distance measuring method according to claim 22 or 23, wherein the detector to be used is selected based on past detection results.
JP2005339235A 2004-11-26 2005-11-24 Distance measuring device and distance measuring method Expired - Fee Related JP4771797B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005339235A JP4771797B2 (en) 2004-11-26 2005-11-24 Distance measuring device and distance measuring method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004342621 2004-11-26
JP2004342621 2004-11-26
JP2005339235A JP4771797B2 (en) 2004-11-26 2005-11-24 Distance measuring device and distance measuring method

Publications (2)

Publication Number Publication Date
JP2006177937A true JP2006177937A (en) 2006-07-06
JP4771797B2 JP4771797B2 (en) 2011-09-14

Family

ID=36732161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005339235A Expired - Fee Related JP4771797B2 (en) 2004-11-26 2005-11-24 Distance measuring device and distance measuring method

Country Status (1)

Country Link
JP (1) JP4771797B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009047495A (en) * 2007-08-17 2009-03-05 Fujifilm Corp Stereoscopic imaging device, control method of stereoscopic imaging device, and program
JP2009047497A (en) * 2007-08-17 2009-03-05 Fujifilm Corp Stereoscopic imaging device, control method of stereoscopic imaging device, and program
JP2012039479A (en) * 2010-08-09 2012-02-23 Canon Inc Display device and control method of the same
KR20130059813A (en) * 2011-11-29 2013-06-07 엘지이노텍 주식회사 Apparatus and system for measuring distance
JP2017102642A (en) * 2015-12-01 2017-06-08 カシオ計算機株式会社 Image processor, image processing method and program
WO2020121594A1 (en) * 2018-12-14 2020-06-18 株式会社堀場製作所 Surface characteristics inspection device and machine learning device for surface characteristics inspection

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04313014A (en) * 1991-04-09 1992-11-05 Mitsubishi Electric Corp Car interval inspecting device
JPH08210847A (en) * 1995-02-06 1996-08-20 Ikegami Tsushinki Co Ltd Image processing method
JPH0933249A (en) * 1995-07-25 1997-02-07 Olympus Optical Co Ltd Three-dimensional image measuring device
JPH1183530A (en) * 1997-09-11 1999-03-26 Fuji Heavy Ind Ltd Optical flow detector for image and self-position recognizing system for mobile body
JPH11230745A (en) * 1998-02-18 1999-08-27 Fuji Heavy Ind Ltd Altitude measurement device
JPH11252585A (en) * 1998-03-05 1999-09-17 Nippon Hoso Kyokai <Nhk> Parallax amount estimate device
JP2000003448A (en) * 1998-06-16 2000-01-07 Sony Corp Luminance value correction circuit, method therefor and distance image generating device
JP2000251078A (en) * 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab Method and device for estimating three-dimensional posture of person, and method and device for estimating position of elbow of person
JP2000331160A (en) * 1999-05-24 2000-11-30 Nec Corp Device and method for matching and recording medium stored with matching program
JP2003015816A (en) * 2001-06-29 2003-01-17 Honda Motor Co Ltd Face/visual line recognizing device using stereo camera
JP2004303219A (en) * 2003-03-20 2004-10-28 Honda Motor Co Ltd Vehicle surrounding monitoring device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04313014A (en) * 1991-04-09 1992-11-05 Mitsubishi Electric Corp Car interval inspecting device
JPH08210847A (en) * 1995-02-06 1996-08-20 Ikegami Tsushinki Co Ltd Image processing method
JPH0933249A (en) * 1995-07-25 1997-02-07 Olympus Optical Co Ltd Three-dimensional image measuring device
JPH1183530A (en) * 1997-09-11 1999-03-26 Fuji Heavy Ind Ltd Optical flow detector for image and self-position recognizing system for mobile body
JPH11230745A (en) * 1998-02-18 1999-08-27 Fuji Heavy Ind Ltd Altitude measurement device
JPH11252585A (en) * 1998-03-05 1999-09-17 Nippon Hoso Kyokai <Nhk> Parallax amount estimate device
JP2000003448A (en) * 1998-06-16 2000-01-07 Sony Corp Luminance value correction circuit, method therefor and distance image generating device
JP2000251078A (en) * 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab Method and device for estimating three-dimensional posture of person, and method and device for estimating position of elbow of person
JP2000331160A (en) * 1999-05-24 2000-11-30 Nec Corp Device and method for matching and recording medium stored with matching program
JP2003015816A (en) * 2001-06-29 2003-01-17 Honda Motor Co Ltd Face/visual line recognizing device using stereo camera
JP2004303219A (en) * 2003-03-20 2004-10-28 Honda Motor Co Ltd Vehicle surrounding monitoring device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009047495A (en) * 2007-08-17 2009-03-05 Fujifilm Corp Stereoscopic imaging device, control method of stereoscopic imaging device, and program
JP2009047497A (en) * 2007-08-17 2009-03-05 Fujifilm Corp Stereoscopic imaging device, control method of stereoscopic imaging device, and program
JP2012039479A (en) * 2010-08-09 2012-02-23 Canon Inc Display device and control method of the same
KR20130059813A (en) * 2011-11-29 2013-06-07 엘지이노텍 주식회사 Apparatus and system for measuring distance
KR101982650B1 (en) * 2011-11-29 2019-05-28 엘지이노텍 주식회사 Apparatus and system for measuring distance
JP2017102642A (en) * 2015-12-01 2017-06-08 カシオ計算機株式会社 Image processor, image processing method and program
CN106815812A (en) * 2015-12-01 2017-06-09 卡西欧计算机株式会社 IMAGE PROCESSING APPARATUS and image processing method
WO2020121594A1 (en) * 2018-12-14 2020-06-18 株式会社堀場製作所 Surface characteristics inspection device and machine learning device for surface characteristics inspection
JPWO2020121594A1 (en) * 2018-12-14 2021-10-21 株式会社堀場製作所 Surface property inspection device and machine learning device for surface property inspection

Also Published As

Publication number Publication date
JP4771797B2 (en) 2011-09-14

Similar Documents

Publication Publication Date Title
US10608002B2 (en) Method and system for object reconstruction
Reynolds et al. Capturing time-of-flight data with confidence
US8059870B2 (en) Time-of-flight sensor-assisted iris capture system and method
JP5041458B2 (en) Device for detecting three-dimensional objects
JPWO2020121973A1 (en) Learning methods for object identification systems, arithmetic processing devices, automobiles, lamps for vehicles, and classifiers
JP4771797B2 (en) Distance measuring device and distance measuring method
JP2013089252A (en) Video processing method and device
JP6467776B2 (en) Ranging system, information processing apparatus, information processing method, and program
EP1958158B1 (en) Method for detecting streaks in digital images
JP2004117078A (en) Obstacle detection device and method
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
JP6435661B2 (en) Object identification system, information processing apparatus, information processing method, and program
JP2007241402A (en) Pretense decision device in face authentication and face authentication device using it
Babbar et al. Comparative study of image matching algorithms
JP2006343859A (en) Image processing system and image processing method
JP7387261B2 (en) Information processing device, information processing method and program
JP4792214B2 (en) Image processing method and system for structured light profile of parts
JPH04130587A (en) Three-dimensional picture evaluation device
CN111684458A (en) Target detection method, target detection device and unmanned aerial vehicle
JP2004062519A (en) Lane mark detector
JP2004145592A (en) Motion vector extraction device, method and program, and its recording medium
CN116843690B (en) Image quality evaluation method, device and system
JP2005309991A (en) Image processor and image processing method
CN115170593A (en) Image preprocessing method for laser vector distance measurement
JP2022087851A (en) Inspection method and inspection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110603

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4771797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees