JP2013024662A - Three-dimensional range measurement system, three-dimensional range measurement program and recording medium - Google Patents

Three-dimensional range measurement system, three-dimensional range measurement program and recording medium Download PDF

Info

Publication number
JP2013024662A
JP2013024662A JP2011158420A JP2011158420A JP2013024662A JP 2013024662 A JP2013024662 A JP 2013024662A JP 2011158420 A JP2011158420 A JP 2011158420A JP 2011158420 A JP2011158420 A JP 2011158420A JP 2013024662 A JP2013024662 A JP 2013024662A
Authority
JP
Japan
Prior art keywords
vehicle
dimensional
driver
coordinates
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011158420A
Other languages
Japanese (ja)
Inventor
Mikio Danno
幹男 段野
Koji Oguri
宏次 小栗
Haruki Kawanaka
治樹 河中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oguri Koji
Toyota InfoTechnology Center Co Ltd
Original Assignee
Oguri Koji
Toyota InfoTechnology Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oguri Koji, Toyota InfoTechnology Center Co Ltd filed Critical Oguri Koji
Priority to JP2011158420A priority Critical patent/JP2013024662A/en
Publication of JP2013024662A publication Critical patent/JP2013024662A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional range measurement system, etc. capable of measuring expansion of a three-dimensional recognition area of a driver of an automobile, etc.SOLUTION: A three-dimensional range measurement system 1 is constituted of: an exterior camera 20 having two wide-angle lens cameras which perform stereo measurement of exterior environment of a vehicle 10; an interior camera 30 which measures a visual line direction of a driver 12; and a PC 40 connected to the exterior camera 20 and the interior camera 30. An equidistance projection type fisheye lens camera is used for the exterior camera 20, and a twin-lens stereo method which does not perform conversion into a perspective projection model is devised. A coordinate system XwYwZw of the interior camera 30 is considered as a world coordinate system, and a coordinate system XcYcZc of the exterior camera 20 is matched to the coordinate system of the interior camera 30. Triangular patches are constituted for every three adjacent pixels on an image of exterior environment obtained from measurement of the exterior camera 20. Intersections between the triangular patches and a visual straight line of the driver obtained from measurement of the interior camera 30 are considered as three-dimensional coordinates of a fixation point of the driver 12.

Description

本発明は、車両の運転者から見える3次元空間の範囲を計測する3次元範囲計測システム等に関する。   The present invention relates to a three-dimensional range measurement system that measures a range of a three-dimensional space that is visible to a driver of a vehicle.

一般に、人の視野とは目を動かさずに見える範囲とされている。目を向けている点(注視点)方向の角度を0°とすると、注視点から左右13°(視角26°。中心視)の範囲では視力は約1.2と良好であるが、視野の周辺部の範囲(周辺視野)では視力は約0.1と急に低くなっている。周辺視野で物体を認知することができる範囲を有効視野と呼ぶ。言い換えれば、有効視野とは周辺視野の内、認知に寄与する部分のことを言う。有効視野は年齢、性別等により異なると言われている。自動車等の運転者のように、動いている状態で車外を見る場合、有効視野が重要となる。この場合、有効視野は年齢、性別等に加えて、走行状況、道路状況、心理状態、個人差により異なると言われている。   In general, the human field of view is the range that can be seen without moving the eyes. Assuming that the angle in the direction of the point of interest (gaze point) is 0 °, the visual acuity is good at about 1.2 in the range of 13 ° left and right (view angle 26 °, central vision) from the gaze point. In the peripheral area (peripheral visual field), the visual acuity suddenly decreases to about 0.1. A range in which an object can be recognized in the peripheral visual field is called an effective visual field. In other words, the effective visual field is a part of the peripheral visual field that contributes to cognition. It is said that the effective visual field varies depending on age, sex and the like. The effective field of view is important when looking outside the vehicle in a moving state, such as a driver of an automobile or the like. In this case, it is said that the effective visual field varies depending on the driving condition, road condition, psychological condition, and individual differences in addition to age, sex, and the like.

一般に人の有効視野を計測するためには、被験者にスクリーン中の固視点を注視してもらいながら、視野内のスクリーンに映る様々な視覚刺激の中からターゲット刺激を検出することにより測定される(非特許文献1参照)。自由な眼球運動下での有効視野計測として制限視野法(非特許文献2参照)があり、その自動車運転時の計測への応用(非特許文献3参照)も提案されている。例えば、Seeing Machines(登録商標)社製のfaceLAB等の車内ステレオカメラ装置を用いて自動車の運転者の眼球回転角度(縦方向回転のピッチ角成分および横方向回転のヨー角成分)の測定が行われていた。   In general, in order to measure the effective visual field of a person, it is measured by detecting a target stimulus from various visual stimuli reflected on the screen within the visual field while having the subject gaze at a fixed viewpoint in the screen ( Non-patent document 1). As an effective visual field measurement under free eye movement, there is a limited visual field method (see Non-Patent Document 2), and its application to measurement during automobile driving (see Non-Patent Document 3) has also been proposed. For example, an in-vehicle stereo camera device such as faceLAB manufactured by Seeing Machines (registered trademark) is used to measure the eyeball rotation angle (pitch angle component of vertical rotation and yaw angle component of horizontal rotation) of the driver. It was broken.

上述した非特許文献1および2に記載された有効視野を測定する方法では、スクリーンといった平面内または円筒上での注視方向のみを対象としていた。このため、その奥行きを一切考慮していなかった。運転者が注視する対象物と自動車との間の距離は様々に変化し一定ではないため、遠近を含む距離を測定する必要がある。しかし、上述した車内ステレオカメラ装置を用いた方法では運転者の視線方向(直線)を2次元的にしか測定できず、奥行きを含めた3次元的な認知領域の広がりを計測することができないという問題があった。   In the method for measuring the effective visual field described in Non-Patent Documents 1 and 2 described above, only the gaze direction in a plane such as a screen or on a cylinder is targeted. For this reason, the depth was not considered at all. Since the distance between the object to be watched by the driver and the vehicle varies and is not constant, it is necessary to measure the distance including the perspective. However, the method using the in-vehicle stereo camera device described above can measure the driver's line-of-sight direction (straight line) only two-dimensionally, and cannot measure the spread of the three-dimensional recognition area including the depth. There was a problem.

そこで、本発明の目的は上記問題を解決するためになされたものであり、自動車等の運転者の3次元的な認知領域の広がりを計測することができる3次元範囲計測システム等を提供することにある。   Accordingly, an object of the present invention has been made to solve the above-described problem, and provides a three-dimensional range measurement system and the like that can measure the spread of a three-dimensional recognition area of a driver such as an automobile. It is in.

本発明の第2の目的は、心理状態等の心的要因によって変化する3次元的な有効視野の時間的変化を測定することができる3次元範囲計測システム等を提供することにある。   A second object of the present invention is to provide a three-dimensional range measurement system and the like that can measure a temporal change of a three-dimensional effective visual field that changes depending on a mental factor such as a psychological state.

本発明の第3の目的は、車外の物体(ハザード)を運転者が注視したのか否かを特定することができると共に所定の警告を発することができ、有効視野を表示する等の運転支援を行うことができる3次元範囲計測システム等を提供することにある。   The third object of the present invention is to determine whether or not the driver has watched an object (hazard) outside the vehicle, to issue a predetermined warning, and to provide driving assistance such as displaying an effective field of view. The object is to provide a three-dimensional range measurement system and the like that can be performed.

この発明の3次元範囲計測システムは、車両の運転者から見える3次元空間の範囲を計測する3次元範囲計測システムであって、車外環境をステレオ計測する2台の広角レンズカメラを有する車外撮像器と、運転者の視線方向を計測する車内撮像器と、該車外撮像器及び該車内撮像器に接続されたコンピュータとを備え、コンピュータが、前記車内撮像器の座標系を世界座標系とし前記車外撮像器の座標系を該車内撮像器の座標系に合わせ、該車内撮像器の計測から得られた運転者の視直線と該車外撮像器の計測から得られた車外環境の画像上の隣接する3つの画素毎に設定された三角形パッチとの交点を運転者の注視点の3次元座標とすることにより、運転者から見える3次元空間の範囲を測定することを特徴とする。   A three-dimensional range measurement system of the present invention is a three-dimensional range measurement system that measures a range of a three-dimensional space that can be seen by a driver of a vehicle, and has an outside vehicle imager having two wide-angle lens cameras that measure the outside environment in stereo. An in-vehicle imager that measures the driver's line-of-sight direction, and an external imager and a computer connected to the in-vehicle imager, wherein the computer uses the coordinate system of the in-vehicle imager as a world coordinate system and the external vehicle The coordinate system of the image pickup device is matched with the coordinate system of the vehicle image pickup device, and the driver's line of sight obtained from the measurement of the vehicle image pickup device is adjacent to the image of the environment outside the vehicle obtained from the measurement of the vehicle image pickup device. The intersection of the triangular patch set for each of the three pixels is set as the three-dimensional coordinates of the driver's gazing point to measure the range of the three-dimensional space visible to the driver.

ここで、この発明の3次元範囲計測システムにおいて、前記車外撮像器は車外に設置された等距離射影方式の左右の魚眼レンズカメラを広角レンズカメラとして用い、前記車内撮像器は車内に設置されたイメージセンサを用いて運転者の両眼球の回転角度及び位置座標を取得することができる。   Here, in the three-dimensional range measurement system of the present invention, the outside imager uses an equidistant projection left and right fisheye lens camera installed outside the vehicle as a wide-angle lens camera, and the inside imager is installed inside the vehicle. The rotation angle and position coordinates of the driver's eyes can be acquired using the sensor.

ここで、この発明の3次元範囲計測システムにおいて、前記コンピュータは、前記車外撮像器を用いて撮像された左右の魚眼レンズカメラによる左右の車外画像を記録した車外画像記録部と、前記車内撮像器を用いて取得された、世界座標系における所定の点を注視する際の運転者の両眼球の回転角度及び位置座標と該所定の点の座標とを対応させて記録した視線情報記録部と、前記車外画像記録部に記録された左右の車外画像に対して所定の条件を満たす画素の集合としてエピポーラ線を求め、該エピポーラ線上を探索することにより左右の車外画像における対応点を求める対応点マッチング手段と、前記対応点マッチング手段により対応点が求められた画素については該画素に投影される車外の3次元空間における点の位置座標を求めると共に、対応点が求められなかった画素については該画素の周辺画素から補間を行うことにより該画素に投影される車外の3次元空間における点の座標を求める3次元座標算出手段と、前記3次元座標算出手段により求められた車外の3次元空間における点の座標をユークリッド変換して前記視線情報記録部に記録された世界座標系における所定の点の座標とする際の変換パラメータを求める変換パラメータ算出手段と、前記変換パラメータ算出手段により求められた変換パラメータを用いて、前記車外画像記録部に記録された左右の車外画像上の全ての画素につき世界座標系における座標を計算して画素座標情報記録部に記録する画素座標算出手段と、前記画素座標情報記録部に記録された隣り合う3つの画素毎に所定の方式で三角形パッチを構成し、該三角形パッチに関する情報を三角形パッチ情報記録部に記録する三角形パッチ構成手段と、前記視線情報記録部に記録された世界座標系における所定の点を注視する際の運転者の両眼球の回転角度及び位置座標と該所定の点の座標とから得られる運転者の視直線と、前記三角形パッチ情報記録部に記録された三角形パッチとの交点を有する三角形パッチを所定の方法により求め、該交点を運転者の注視点の3次元座標とし、該注視点の位置座標を時間の経過と共に注視点位置座標記録部に記録する交点算出手段とを備えることができる。   Here, in the three-dimensional range measurement system according to the present invention, the computer includes a vehicle exterior image recording unit that records left and right exterior vehicle images captured by the left and right fisheye lens cameras captured using the vehicle exterior imager, and the vehicle interior imager. The line-of-sight information recording unit that records the rotation angle and position coordinates of the driver's eyes when watching a predetermined point in the world coordinate system and the coordinates of the predetermined point, acquired using the Corresponding point matching means for obtaining an epipolar line as a set of pixels satisfying a predetermined condition with respect to the left and right outside images recorded in the outside image recording unit and finding corresponding points in the left and right outside images by searching on the epipolar line And for the pixel for which the corresponding point is obtained by the corresponding point matching means, the position coordinates of the point in the three-dimensional space outside the vehicle projected onto the pixel are obtained. Both of the three-dimensional coordinate calculation means for obtaining the coordinates of the point in the three-dimensional space outside the vehicle projected onto the pixel by interpolating from the surrounding pixels of the pixel for which the corresponding point has not been obtained; Conversion parameter calculation for obtaining a conversion parameter when the coordinates of the point in the three-dimensional space outside the vehicle obtained by the coordinate calculation means are converted to the coordinates of the predetermined point in the world coordinate system recorded in the line-of-sight information recording unit. Pixel coordinate information recording by calculating coordinates in the world coordinate system for all the pixels on the left and right outside images recorded in the outside image recording unit using the conversion parameters obtained by the means and the conversion parameter calculating means A pixel coordinate calculation means for recording in the unit and a triangular pattern in a predetermined manner for each of the three adjacent pixels recorded in the pixel coordinate information recording unit. A triangular patch forming means for recording information relating to the triangular patch in a triangular patch information recording unit, and a driver's binocular when the predetermined point in the world coordinate system recorded in the line-of-sight information recording unit is watched A triangular patch having a point of intersection between the driver's line of sight obtained from the rotation angle and position coordinates and the coordinates of the predetermined point and the triangular patch recorded in the triangular patch information recording unit by a predetermined method, The intersection point may be a three-dimensional coordinate of the driver's gazing point, and the intersection point calculating unit may record the position coordinate of the gazing point in a gazing point position coordinate recording unit as time passes.

ここで、この発明の3次元範囲計測システムにおいて、前記注視点位置座標記録部に記録された所定の時間分の注視点座標から構成される3次元凸包を運転手の有効視空間として求める有効視空間算出手段をさらに備えることができる。   Here, in the three-dimensional range measurement system of the present invention, the three-dimensional convex hull composed of the gaze point coordinates for a predetermined time recorded in the gaze point position coordinate recording unit is effectively obtained as the driver's effective visual space. Visual space calculation means can be further provided.

ここで、この発明の3次元範囲計測システムにおいて、前記有効視空間算出手段により算出された有効視空間の路面上への正射影像を求め、前記コンピュータに接続された表示装置に該正射影像を所定の方式で表示する有効視空間表示手段をさらに備えることができる。   Here, in the three-dimensional range measurement system of the present invention, an orthographic image on the road surface of the effective visual space calculated by the effective visual space calculating means is obtained, and the orthographic image is displayed on a display device connected to the computer. It is possible to further include effective visual space display means for displaying the image in a predetermined manner.

ここで、この発明の3次元範囲計測システムにおいて、車両の運転者から見える3次元空間の範囲内に存在するハザードの座標を検出するハザード座標検出手段と、前記ハザード座標検出手段により検出されたハザードの座標と前記注視点位置座標記録部に記録された所定の時間分の注視点座標とに基づき、所定の警告を発する警告手段とをさらに備えることができる。   Here, in the three-dimensional range measurement system of the present invention, hazard coordinate detection means for detecting hazard coordinates existing within the range of the three-dimensional space visible to the driver of the vehicle, and the hazard detected by the hazard coordinate detection means And a warning means for issuing a predetermined warning based on the coordinates of the gazing point and the gazing point coordinates for a predetermined time recorded in the gazing point position coordinate recording unit.

この発明の3次元範囲計測プログラムは、車両の運転者から見える3次元空間の範囲を計測する3次元範囲計測プログラムであって、車外環境をステレオ計測する2台の広角レンズカメラを有する車外撮像器と、運転者の視線方向を計測する車内撮像器と、該車外撮像器及び該車内撮像器に接続されたコンピュータとを用いるものであり、コンピュータに、前記車内撮像器の座標系を世界座標系とし前記車外撮像器の座標系を該車内撮像器の座標系に合わせ、該車内撮像器の計測から得られた運転者の視直線と該車外撮像器の計測から得られた車外環境の画像上の隣接する3つの画素毎に設定された三角形パッチとの交点を運転者の注視点の3次元座標とすることにより、運転者から見える3次元空間の範囲の測定を実行させるための3次元範囲計測プログラムである。   A three-dimensional range measurement program of the present invention is a three-dimensional range measurement program for measuring a range of a three-dimensional space that can be seen by a driver of a vehicle, and is an outside-vehicle imager having two wide-angle lens cameras that measure the outside environment in stereo. And an in-vehicle imager that measures the driver's line-of-sight direction, and an external imager and a computer connected to the in-vehicle imager. The coordinate system of the vehicle exterior imager is aligned with the coordinate system of the vehicle interior imager, and the driver's line of sight obtained from the measurement of the vehicle interior imager and the image of the environment outside the vehicle obtained from the measurement of the vehicle exterior imager 3D for measuring the range of the three-dimensional space visible to the driver by using the intersection point with the triangular patch set for every three adjacent pixels as the three-dimensional coordinates of the driver's gazing point Is a circumference measurement program.

ここで、この発明の3次元範囲計測プログラムにおいて、前記車外撮像器は車外に設置された等距離射影方式の左右の魚眼レンズカメラを広角レンズカメラとして用い、前記車内撮像器は車内に設置されたイメージセンサを用いて運転者の両眼球の回転角度及び位置座標を取得することができる。   Here, in the three-dimensional range measurement program of the present invention, the outside imager uses an equidistant projection left and right fisheye lens camera installed outside the vehicle as a wide-angle lens camera, and the inside imager is installed inside the vehicle. The rotation angle and position coordinates of the driver's eyes can be acquired using the sensor.

ここで、この発明の3次元範囲計測プログラムにおいて、前記コンピュータは、前記車外撮像器を用いて撮像された左右の魚眼レンズカメラによる左右の車外画像を記録した車外画像記録部と、前記車内撮像器を用いて取得された、世界座標系における所定の点を注視する際の運転者の両眼球の回転角度及び位置座標と該所定の点の座標とを対応させて記録した視線情報記録部とをさらに用い、コンピュータに、前記車外画像記録部に記録された左右の車外画像に対して所定の条件を満たす画素の集合としてエピポーラ線を求め、該エピポーラ線上を探索することにより左右の車外画像における対応点を求める対応点マッチングステップ、前記対応点マッチングステップで対応点が求められた画素については該画素に投影される車外の3次元空間における点の位置座標を求めると共に、対応点が求められなかった画素については該画素の周辺画素から補間を行うことにより該画素に投影される車外の3次元空間における点の座標を求める3次元座標算出ステップ、前記3次元座標算出ステップで求められた車外の3次元空間における点の座標をユークリッド変換して前記視線情報記録部に記録された世界座標系における所定の点の座標とする際の変換パラメータを求める変換パラメータ算出ステップ、前記変換パラメータ算出ステップで求められた変換パラメータを用いて、前記車外画像記録部に記録された左右の車外画像上の全ての画素につき世界座標系における座標を計算して画素座標情報記録部に記録する画素座標算出ステップ、前記画素座標情報記録部に記録された隣り合う3つの画素毎に所定の方式で三角形パッチを構成し、該三角形パッチに関する情報を三角形パッチ情報記録部に記録する三角形パッチ構成ステップ、前記視線情報記録部に記録された世界座標系における所定の点を注視する際の運転者の両眼球の回転角度及び位置座標と該所定の点の座標とから得られる運転者の視直線と、前記三角形パッチ情報記録部に記録された三角形パッチとの交点を有する三角形パッチを所定の方法により求め、該交点を運転者の注視点の3次元座標とし、該注視点の位置座標を時間の経過と共に注視点位置座標記録部に記録する交点算出ステップを実行させることができる。   Here, in the three-dimensional range measurement program according to the present invention, the computer includes a vehicle exterior image recording unit that records left and right exterior images captured by the left and right fisheye lens cameras imaged using the exterior vehicle imager, and the in-vehicle imager. A line-of-sight information recording unit that records the rotation angle and position coordinates of the driver's eyes when the user focuses on a predetermined point in the world coordinate system, and the coordinates of the predetermined point recorded in correspondence with each other. Use the computer to obtain an epipolar line as a set of pixels that satisfy a predetermined condition for the left and right outside images recorded in the outside image recording unit, and search the epipolar line to correspond points in the left and right outside images Corresponding point matching step for obtaining a pixel, and for a pixel for which a corresponding point is obtained in the corresponding point matching step, three-dimensional outside the vehicle projected on the pixel 3D to obtain the coordinates of the point in the three-dimensional space outside the vehicle projected on the pixel by interpolating from the surrounding pixels of the pixel for which the corresponding point is not obtained A coordinate calculation step, when the coordinates of a point in the three-dimensional space outside the vehicle obtained in the three-dimensional coordinate calculation step are Euclidean transformed into the coordinates of a predetermined point in the world coordinate system recorded in the line-of-sight information recording unit A conversion parameter calculation step for obtaining a conversion parameter, and using the conversion parameter obtained in the conversion parameter calculation step, coordinates in the world coordinate system are calculated for all the pixels on the left and right outside images recorded in the outside image recording unit. The pixel coordinate calculation step for recording in the pixel coordinate information recording unit, and the adjacent coordinates recorded in the pixel coordinate information recording unit A triangular patch forming step for forming a triangular patch by a predetermined method for every three pixels, and recording information about the triangular patch in the triangular patch information recording unit, a predetermined point in the world coordinate system recorded in the line-of-sight information recording unit The intersection of the driver's line of sight obtained from the rotation angle and position coordinates of the driver's eyes and the coordinates of the predetermined point and the triangle patch recorded in the triangle patch information recording unit A triangular patch is obtained by a predetermined method, the intersection is set as a three-dimensional coordinate of the driver's gazing point, and an intersection point calculating step is executed in which the position coordinate of the gazing point is recorded in the gazing point position coordinate recording unit over time. be able to.

ここで、この発明の3次元範囲計測プログラムにおいて、前記注視点位置座標記録部に記録された所定の時間分の注視点座標から構成される3次元凸包を運転手の有効視空間として求める有効視空間算出ステップをさらに備えることができる。   Here, in the three-dimensional range measurement program according to the present invention, the three-dimensional convex hull composed of the gaze point coordinates for a predetermined time recorded in the gaze point position coordinate recording unit is effectively obtained as the driver's effective visual space. A visual space calculation step may be further provided.

ここで、この発明の3次元範囲計測プログラムにおいて、前記有効視空間算出ステップにより算出された有効視空間の路面上への正射影像を求め、前記コンピュータに接続された表示装置に該正射影像を所定の方式で表示する有効視空間表示ステップをさらに備えることができる。   Here, in the three-dimensional range measurement program of the present invention, an orthographic image on the road surface of the effective visual space calculated by the effective visual space calculation step is obtained, and the orthographic image is displayed on a display device connected to the computer. Can be further provided with an effective visual space display step of displaying the image in a predetermined manner.

ここで、この発明の3次元範囲計測プログラムにおいて、車両の運転者から見える3次元空間の範囲内に存在するハザードの座標を検出するハザード座標検出ステップと、前記ハザード座標検出ステップにより検出されたハザードの座標と前記注視点位置座標記録部に記録された所定の時間分の注視点座標とに基づき、所定の警告を発する警告ステップとをさらに備えることができる。   Here, in the three-dimensional range measurement program of the present invention, a hazard coordinate detection step for detecting hazard coordinates existing in the range of the three-dimensional space visible to the driver of the vehicle, and the hazard detected by the hazard coordinate detection step And a warning step for issuing a predetermined warning based on the coordinates of the gazing point and the gazing point coordinates for a predetermined time recorded in the gazing point position coordinate recording unit.

この発明の記録媒体は、本発明のいずれかの3次元範囲計測プログラムを記録したコンピュータ読取り可能な記録媒体である。   The recording medium of the present invention is a computer-readable recording medium on which any of the three-dimensional range measurement programs of the present invention is recorded.

本発明の3次元範囲計測システム等によれば、車内カメラにより運転者の顔画像が撮像されて視線計測処理が行われ、運転者の眼球位置座標および眼球回転角が求められる。並行して車外カメラにより車外画像が撮像されて車外ステレオ処理が実行される。車内カメラの座標系と車外カメラの座標系とは異なるため、車内カメラの座標系XwYwZwを世界座標系とし車外カメラの座標系XcYcZcを車内カメラ30の座標系に合わせた。本発明で用いる二組の魚眼ステレオカメラ(車内用、車外用)には共通する撮影領域がないため、予め運転者が車両の座席に座った状態で所定の位置においたマーカーを注目してもらい、その時に車内カメラから取得できる運転者の視線方向の情報と上記マーカーの魚眼カメラ座標系における3次元座標とから、カメラ座標系を統合する校正用パラメータを求める手法を考案した。車外カメラの計測から得られた車外環境の画像上の隣接する3つの画素毎に三角形パッチを構成する。次に、車内カメラの計測から得られた運転者の視直線と三角形パッチとの交点を運転者の注視点の3次元座標とする。本発明では、等距離射影式の魚眼レンズカメラによる、透視投影モデルに変換しない二眼ステレオ法を考案した。車外画像DBに記録された左右の車外画像上の全ての画素につき世界座標系における座標を計算して画素座標情報DBに記録する。画素座標情報DBに記録された隣り合う3つの画素毎に所定の方式で三角形パッチを構成し、当該三角形パッチに関する情報を三角形パッチ情報DBに記録する。視線情報DBに記録された世界座標系における所定の点を注視する際の運転者の両眼球の眼球回転角度および眼球位置座標と当該所定の点の座標とから得られる運転者の視直線と、三角形パッチ情報DBに記録された三角形パッチとの交点を有する三角形パッチを所定の方法により求め、当該交点を運転者の注視点の3次元座標とした。以上のようにして、本発明の3次元範囲計測システム等によれば、車両の運転者の3次元的な認知領域の広がりを計測することができる3次元範囲計測システム等を提供することができるという効果がある。   According to the three-dimensional range measurement system and the like of the present invention, the driver's face image is captured by the in-vehicle camera, and the line-of-sight measurement process is performed to obtain the driver's eyeball position coordinates and the eyeball rotation angle. In parallel, a vehicle outside image is captured by the vehicle outside camera and stereo processing outside the vehicle is executed. Since the coordinate system of the in-vehicle camera is different from the coordinate system of the in-vehicle camera, the coordinate system XwYwZw of the in-vehicle camera is the world coordinate system, and the coordinate system XcYcZc of the out-of-vehicle camera is matched to the coordinate system of the in-vehicle camera 30. Since the two sets of fisheye stereo cameras (for in-car use and for outside the car) used in the present invention do not have a common shooting area, pay attention to the marker placed in a predetermined position while the driver is sitting on the vehicle seat in advance. And then devised a method for obtaining a calibration parameter that integrates the camera coordinate system from information on the driver's line-of-sight direction that can be obtained from the in-vehicle camera and the three-dimensional coordinates of the marker in the fish-eye camera coordinate system. A triangular patch is formed for every three adjacent pixels on the image of the environment outside the vehicle obtained from the measurement by the camera outside the vehicle. Next, the intersection of the driver's line of sight obtained from the measurement by the in-vehicle camera and the triangular patch is set as the three-dimensional coordinates of the driver's point of interest. The present invention has devised a binocular stereo method that does not convert to a perspective projection model using a fisheye lens camera of equidistant projection. Coordinates in the world coordinate system are calculated and recorded in the pixel coordinate information DB for all pixels on the left and right outside images recorded in the outside image DB. A triangular patch is formed by a predetermined method for every three adjacent pixels recorded in the pixel coordinate information DB, and information related to the triangular patch is recorded in the triangular patch information DB. The driver's line of sight obtained from the eyeball rotation angle and eyeball position coordinates of the driver's eyes when gazing at a predetermined point in the world coordinate system recorded in the line-of-sight information DB, and the coordinates of the predetermined point; A triangular patch having an intersection with the triangular patch recorded in the triangular patch information DB was obtained by a predetermined method, and the intersection was set as the three-dimensional coordinates of the driver's point of sight. As described above, according to the three-dimensional range measurement system and the like of the present invention, it is possible to provide a three-dimensional range measurement system and the like that can measure the spread of the three-dimensional recognition area of the driver of the vehicle. There is an effect.

本発明の3次元範囲計測システム等によれば、時系列の注視点群から3次元凸包を生成することにより、その領域を有効視空間とする。3次元凸包は逐次添加法によって求めることができる。この結果、運転者12の心理状態等の心的要因によって変化する3次元的な有効視野(有効視空間)の時間的変化を測定することができる3次元範囲計測システム等を提供することができるという効果がある。   According to the three-dimensional range measurement system and the like of the present invention, by generating a three-dimensional convex hull from a time-series gaze point group, the region is made an effective visual space. The three-dimensional convex hull can be obtained by the sequential addition method. As a result, it is possible to provide a three-dimensional range measurement system and the like that can measure a temporal change in a three-dimensional effective visual field (effective visual space) that changes depending on mental factors such as the psychological state of the driver 12. There is an effect.

本発明の3次元範囲計測システム等によれば、有効視空間算出部により算出された有効視空間の路面上への正射影像を求め、コンピュータに接続された表示装置に当該正射影像を所定の方式で表示する。この結果、水平視野角、垂直視野角、奥行きを映像で表示し、色による有効視空間の大きさ表現、見落としハザードの表示を行うことができるという効果がある。   According to the three-dimensional range measurement system and the like of the present invention, an orthographic image on the road surface of the effective visual space calculated by the effective visual space calculation unit is obtained, and the orthographic image is predetermined on a display device connected to the computer. Display in the method. As a result, it is possible to display the horizontal viewing angle, the vertical viewing angle, and the depth as images, and to express the size of the effective viewing space by color and display an oversight hazard.

本発明の3次元範囲計測システム等によれば、ハザード座標検出部により検出されたハザードの座標と注視点位置座標DBに記録された所定の時間分の注視点座標とを用いることにより、種々の正確な警告を発することができる。このため、本発明の3次元範囲計測システムを車両に搭載することにより、より安全性が高く且つ安価な車両を提供することが可能となる。   According to the three-dimensional range measurement system and the like of the present invention, by using the hazard coordinates detected by the hazard coordinate detection unit and the gaze point coordinates for a predetermined time recorded in the gaze point position coordinate DB, a variety of An accurate warning can be issued. For this reason, by mounting the three-dimensional range measurement system of the present invention on a vehicle, it is possible to provide a vehicle with higher safety and lower cost.

本発明の実施例1および他の実施例における3次元範囲計測システム1の概要を示す図である。It is a figure which shows the outline | summary of the three-dimensional range measurement system 1 in Example 1 of this invention and another Example. 本発明の3次元範囲計測プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the three-dimensional range measurement program of this invention. 本発明の3次元範囲計測プログラムの動作環境を示す図である。It is a figure which shows the operating environment of the three-dimensional range measurement program of this invention. 本発明の3次元範囲計測プログラムを構成する二眼ステレオ法で用いる魚眼ステレオの投影モデルを示す図である。It is a figure which shows the projection model of the fish-eye stereo used with the binocular stereo method which comprises the three-dimensional range measurement program of this invention. 魚眼レンズカメラ25Lおよび25Rを車両10の屋根に設置した一例を示す図である。2 is a diagram showing an example in which fisheye lens cameras 25L and 25R are installed on the roof of a vehicle 10. FIG. 車内カメラ器30の設置例を示す図である。It is a figure which shows the example of installation of the camera apparatus 30 in a vehicle. 車内カメラ30と車外カメラ20との位置関係を示す図である。It is a figure which shows the positional relationship of the camera 30 inside a vehicle and the camera 20 outside a vehicle. 視線計測カメラ30により運転者12の視線方向を計測する状況を示す図である。It is a figure which shows the condition which measures the gaze direction of the driver | operator 12 with the gaze measurement camera 30. FIG. 運転者12の視直線Sと車外三角形パッチとの交点の導出を説明するための図である。It is a figure for demonstrating derivation | leading-out of the intersection of the visual line S of the driver | operator 12, and a vehicle exterior triangle patch. 本発明の3次元範囲計測プログラムを構成する二眼ステレオ法の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the binocular stereo method which comprises the three-dimensional range measurement program of this invention. 本発明の実施例2における有効視空間を説明するための図である。It is a figure for demonstrating the effective visual space in Example 2 of this invention. 逐次添加法によって3次元凸包を求めるアルゴリズム(非特許文献7参照)を示すフローチャートである。It is a flowchart which shows the algorithm (refer nonpatent literature 7) which calculates | requires a three-dimensional convex hull by the sequential addition method. 逐次追加の様子を例示する図である。It is a figure which illustrates the mode of sequential addition. 本発明の実施例3における有効視空間の表示例を示す図である。It is a figure which shows the example of a display of the effective visual space in Example 3 of this invention. 本発明のプログラムを実行するコンピュータ10の内部回路180を示すブロック図である。It is a block diagram which shows the internal circuit 180 of the computer 10 which executes the program of this invention.

以下、実施例について図面を参照して詳細に説明する。   Hereinafter, embodiments will be described in detail with reference to the drawings.

図1は、本発明の実施例1および他の実施例における3次元範囲計測システム1の概要を示す。図1において、符号10は自動車等の車両、12は車両10を運転する運転者、20は車両10の車外環境をステレオ計測する2台の広角レンズカメラを有する車外カメラ(車外撮像器。座標は車両10の進行方向がZc軸、Zc軸に垂直にXc軸およびYc軸)、30は運転者12の視線方向を計測する車内カメラ(車内撮像器。座標は運転者方向がZw軸、Zw軸に垂直にXw軸およびYw軸)、40は車外カメラ20および車内カメラ30に接続されたパーソナルコンピュータ(PC)等のコンピュータである。3次元範囲計測システム1は車両10の運転者12から見える3次元空間の範囲を計測する。   FIG. 1 shows an outline of a three-dimensional range measurement system 1 in Embodiment 1 of the present invention and other embodiments. In FIG. 1, reference numeral 10 denotes a vehicle such as an automobile, 12 denotes a driver driving the vehicle 10, and 20 denotes an outside camera (an outside image pickup device, coordinates having two wide-angle lens cameras for stereo measurement of the outside environment of the vehicle 10. The traveling direction of the vehicle 10 is the Zc axis, the Xc axis and the Yc axis perpendicular to the Zc axis, and 30 is an in-vehicle camera (in-vehicle imager. The coordinates are the Zw axis and Zw axis for the driver direction). 40 is a computer such as a personal computer (PC) connected to the outside camera 20 and the inside camera 30. The three-dimensional range measurement system 1 measures the range of a three-dimensional space that can be seen from the driver 12 of the vehicle 10.

図1に示されるように車両10の屋根の上に設置された車外カメラ20の広角レンズカメラは魚眼レンズカメラであることが好適である。以下では車外カメラ20のカメラは魚眼レンズカメラであるものとして説明していくが、魚眼レンズカメラに限定されるものではなく、車外の対象物と車両10との間の距離が遠い(30m以上の)場合は、むしろ広角レンズカメラの方がよい場合もある。図1に示される車内カメラ20は、車内に設置されたCCD等のイメージセンサを用いて運転者12の両眼球(不図示)の回転角および位置座標を取得する。   As shown in FIG. 1, the wide-angle lens camera of the outside camera 20 installed on the roof of the vehicle 10 is preferably a fish-eye lens camera. Hereinafter, the camera of the outside camera 20 will be described as being a fisheye lens camera, but is not limited to the fisheye lens camera, and the distance between the object outside the vehicle and the vehicle 10 is long (30 m or more). In some cases, a wide-angle lens camera is preferable. The in-vehicle camera 20 shown in FIG. 1 acquires the rotation angle and position coordinates of both eyes (not shown) of the driver 12 using an image sensor such as a CCD installed in the vehicle.

図2は、本発明の3次元範囲計測プログラムの処理の流れをフローチャートで示す。図2で図1と同じ符号を付した個所は同じ要素を示すため、説明は省略する。図2において、符号42はPC40と接続され3次元範囲計測プログラムが使用する種々のデータが記録された記録装置である。図3は、本発明の3次元範囲計測プログラムの動作環境を示す。図3において、符号50はPC40上で実行される3次元範囲計測プログラムの機能を示す機能ブロック、42は図2で説明した記録装置である。機能ブロック50内の諸機能はソフトウェアにより実現されているが、一部はハードウェアにより実現してもよい。以下、図1ないし図3の内容を適宜引用しながら本発明の3次元範囲計測プログラムの動作を説明していく。   FIG. 2 is a flowchart showing the processing flow of the three-dimensional range measurement program of the present invention. In FIG. 2, the parts denoted by the same reference numerals as those in FIG. In FIG. 2, reference numeral 42 denotes a recording device that is connected to the PC 40 and records various data used by the three-dimensional range measurement program. FIG. 3 shows the operating environment of the three-dimensional range measurement program of the present invention. In FIG. 3, reference numeral 50 denotes a functional block indicating the function of a three-dimensional range measurement program executed on the PC 40, and 42 denotes the recording apparatus described with reference to FIG. Various functions in the functional block 50 are realized by software, but some may be realized by hardware. The operation of the three-dimensional range measurement program of the present invention will be described below with reference to the contents of FIGS.

まず、本発明の3次元範囲計測プログラムの概要について説明する。図2に示されるように、車内カメラ30により運転者12の顔画像が撮像されて視線計測処理が行われ、運転者12の眼球位置座標および眼球回転角が求められる(ステップS30)。並行して車外カメラ20により車外画像が撮像されて車外ステレオ処理が実行される(ステップS20)。ここで、図1に示されるように車内カメラ30は座標系XwYwZwを有しており、一方車外カメラ20は別の座標系XcYcZcを有している。そこで、運転者12の視線方向の情報と車外の3次元環境の情報とを統合するためには、左右の各魚眼ステレオカメラの座標系を世界座標系に統一させる必要がある。本発明の3次元範囲計測プログラム等では、車内カメラ30の座標系XwYwZwを世界座標系とし車外カメラ20の座標系XcYcZcを車内カメラ30の座標系に合わせた(ステップS22)。   First, an outline of the three-dimensional range measurement program of the present invention will be described. As shown in FIG. 2, the face image of the driver 12 is captured by the in-vehicle camera 30 and the line-of-sight measurement process is performed, and the eyeball position coordinates and the eyeball rotation angle of the driver 12 are obtained (step S30). At the same time, a vehicle exterior image is taken by the vehicle exterior camera 20 and a vehicle exterior stereo process is executed (step S20). Here, as shown in FIG. 1, the in-vehicle camera 30 has a coordinate system XwYwZw, while the in-vehicle camera 20 has another coordinate system XcYcZc. Therefore, in order to integrate the information on the line-of-sight direction of the driver 12 and the information on the three-dimensional environment outside the vehicle, it is necessary to unify the coordinate systems of the left and right fisheye stereo cameras into the world coordinate system. In the three-dimensional range measurement program of the present invention, the coordinate system XwYwZw of the in-vehicle camera 30 is the world coordinate system, and the coordinate system XcYcZc of the in-vehicle camera 20 is set to the coordinate system of the in-vehicle camera 30 (step S22).

本発明で用いる二組の魚眼ステレオカメラ(車内用、車外用)には共通する撮影領域がないため、一般的な校正器具を用いたカメラ校正は不可能である。そこで、予め運転者12が車両10の座席に座った状態で所定の位置においたマーカーを注目してもらい、その時に車内カメラ30(faceLAB) から取得できる運転者12の視線方向の情報と上記マーカーの魚眼カメラ座標系における3次元座標とから、カメラ座標系を統合する校正用パラメータを求める手法を考案した。詳細は後述する。図2に示されるように、車外カメラ20の計測から得られた車外環境の画像上の隣接する3つの画素毎に三角形パッチを構成する(ステップS24)。次に、車内カメラ30の計測から得られた運転者の視直線と三角形パッチとの交点を運転者12の注視点の3次元座標とする(ステップS40)。3次元的な有効視野の時間的変化を示す3次元凸包(詳細は後述)を計算し(ステップS42)、有効視空間(詳細は後述)情報を記録装置42に記録(ステップS44)した後、上述した処理を繰返す。   Since the two sets of fish-eye stereo cameras (in-vehicle use and external-use use) used in the present invention do not have a common photographing area, camera calibration using a general calibration instrument is impossible. Therefore, the driver 12 pays attention to the marker placed in a predetermined position while sitting on the seat of the vehicle 10, and information on the driver's line-of-sight direction and the marker that can be obtained from the in-vehicle camera 30 (faceLAB) at that time Devised a method for obtaining calibration parameters that integrate the camera coordinate system from the three-dimensional coordinates in the fish-eye camera coordinate system. Details will be described later. As shown in FIG. 2, a triangular patch is formed for every three adjacent pixels on the image of the outside environment obtained from the measurement by the outside camera 20 (step S24). Next, the intersection of the driver's line of sight obtained from the measurement by the in-vehicle camera 30 and the triangular patch is set as the three-dimensional coordinates of the driver's gazing point (step S40). After calculating a three-dimensional convex hull (details will be described later) indicating the temporal change of the three-dimensional effective visual field (step S42), and recording effective visual space (details will be described later) information in the recording device 42 (step S44). The above-described processing is repeated.

次に、本発明の3次元範囲計測プログラムの詳細について説明する。上述した車外ステレオ処理(ステップS20)は車外環境の魚眼ステレオカメラによる計測である。魚眼ステレオカメラで撮影された画像を透視投影モデルの画像に変換する研究はいくつかなされており(非特許文献4、5参照)、魚眼モデルの画像を透視投影モデルの画像に変換することでステレオ計測を行っている(非特許文献6)。しかし、非特許文献4〜6に記載された方法では画像を変換することで魚眼モデルの画像の周辺部が欠落してしまうといった問題があった。そこで、等距離射影式の魚眼レンズカメラによる、透視投影モデルに変換しない二眼ステレオ法(主としてステップ22からS40に対応)を考案した。   Next, the details of the three-dimensional range measurement program of the present invention will be described. The above-described vehicle exterior stereo process (step S20) is measurement by a fisheye stereo camera in the vehicle exterior environment. There have been some studies on converting images captured by a fisheye stereo camera into images of perspective projection models (see Non-Patent Documents 4 and 5), and converting fisheye model images into images of perspective projection models. The stereo measurement is performed in (Non-patent Document 6). However, the methods described in Non-Patent Documents 4 to 6 have a problem that the peripheral portion of the fisheye model image is lost by converting the image. Therefore, a binocular stereo method (mainly corresponding to steps S22 to S40) that does not convert to a perspective projection model using an equidistant projection type fisheye lens camera was devised.

図4は、本発明の3次元範囲計測プログラムを構成する二眼ステレオ法で用いる魚眼ステレオの投影モデルを示す。以下では、「魚眼レンズ」は「魚眼レンズカメラ」を含む意味で用いる。図4に示されるように、車外カメラ20の左側魚眼レンズ25L(中心O、座標XYZ)と右側魚眼レンズ25R(中心O’、座標X’Y’Z‘)とについて、図4(A)は俯瞰図、図4(B)は魚眼レンズ25Lおよび26Rを上から見た平面図、図4(C)は魚眼レンズ25Lおよび26Rを下(カメラの中)から見た平面図である。図4(D)は図4(C)の説明用の図である。図4(A)、(B)において、3次元空間中の任意の点をPw とし、各魚眼レンズ25Lおよび25Rにその点を投影した点をそれぞれP、P’とする。θ とθ’とは各々左右の魚眼レンズ25Lおよび25Rに対する天頂角を示し、φとφ’とは方位角を示す。fとf’と各々左右の魚眼レンズ25Lおよび25Rのは焦点距離であり、球面モデルの半径を表す。図4(C)左側図で右方向が正方向のul軸は左画像の光軸を原点とする横方向の画像座標軸であり、下方向が正方向のvl軸は左画像の光軸を原点とする縦方向の画像座標軸である。同様に、図4(C)右側図で右方向が正方向のur軸は右画像の光軸を原点とする横方向の画像座標軸であり、下方向が正方向のvr軸は右画像の光軸を原点とする縦方向の画像座標軸である。   FIG. 4 shows a fish-eye stereo projection model used in the binocular stereo method constituting the three-dimensional range measurement program of the present invention. Hereinafter, “fisheye lens” is used to include “fisheye lens camera”. As shown in FIG. 4, FIG. 4A is an overhead view of the left fisheye lens 25L (center O, coordinates XYZ) and the right fisheye lens 25R (center O ′, coordinates X′Y′Z ′) of the camera 20 outside the vehicle. 4B is a plan view of the fisheye lenses 25L and 26R viewed from above, and FIG. 4C is a plan view of the fisheye lenses 25L and 26R viewed from below (in the camera). FIG. 4D is a diagram for explaining FIG. 4A and 4B, let Pw be an arbitrary point in the three-dimensional space, and let P and P ′ be points that are projected on the fisheye lenses 25L and 25R, respectively. θ and θ ′ represent zenith angles with respect to the left and right fisheye lenses 25L and 25R, respectively, and φ and φ ′ represent azimuth angles. The left and right fisheye lenses 25L and 25R, f and f ', are focal lengths and represent the radius of the spherical model. In FIG. 4C, the ul axis whose right direction is the positive direction is the horizontal image coordinate axis with the optical axis of the left image as the origin, and the vl axis whose downward direction is the positive direction is the optical axis of the left image as the origin. Is the vertical image coordinate axis. Similarly, in the right side of FIG. 4C, the ur axis whose right direction is the positive direction is a horizontal image coordinate axis whose origin is the optical axis of the right image, and the vr axis whose downward direction is the positive direction is the light of the right image. This is an image coordinate axis in the vertical direction with the axis as the origin.

図4(C)でvl軸が画像の下向きになっているのは、本発明の3次元範囲計測プログラム中で画像のデータが収まっている配列に起因する。一般的に画像はラスター操作の順に配列に収まっており、左上角から水平方向に右へ1行いったら、1マス下の一番左から水平方向に右へ1行き、さらに1マス下の一番左から水平方向に右へ1行というように、データを保持する。そのため、ul軸は右向き、vl軸は下向きにされることが多い。さらに、座標の原点を画像の左上角ではなく、画像の中心に持つと魚眼レンズの3次元座標(上記のXYZ等)のXYと画像のulvlが同じz軸上に原点があることになり、計算がしやすくなるため、その分だけ原点をシフトしている。   In FIG. 4C, the vl axis is downward in the image because of the arrangement in which the image data is stored in the three-dimensional range measurement program of the present invention. In general, images are arranged in the order of raster operation. If you move 1 from the upper left corner to the right in the horizontal direction, you go 1 from the left of the lower left corner to the right in the horizontal direction, and then move down one square. Data is held so that one row is from the left to the right in the horizontal direction. Therefore, the ul axis is often directed to the right and the vl axis is directed downward. Furthermore, if the origin of the coordinates is at the center of the image instead of the upper left corner of the image, the origin of the three-dimensional coordinates of the fisheye lens (such as XYZ above) and the ulvl of the image are on the same z-axis. To make it easier to remove, the origin is shifted accordingly.

上述したように、図4(B)のY軸と図4(C)のvl軸とは軸の向きが異なっている。このため、その方位角φの場所もXY平面とulvl平面とでは変わってくる。方位角φは右手座標系における横軸(ul軸、X軸)からの正の回転角を表している。XY平面であれば図4(B)に示されるようにX軸の正の位置からY軸の正の位置へ向かってとった角度になる。ulvl平面においても図4(C)に示されるようにul軸の正の位置からvl軸の正の位置へ向かってとった角度になる。ulvl平面においてもφはul軸との正の回転角度を意味するため、本来は図4(C)に示されるφは曲線の引き方が180度分だけ足らない。正規の方位角では図4(D)に示されるように、左図のφlは320度位、右図のφrは210度位になる。しかし、φは後述するようにarctan(vl/ul)によって求めている。arctanの周期はπ(=180度)であるため、φlの第3象限から第4象限までの角度をαとすると、tanφl=tan(π+α)=tanαとなる。このため、第3象限および第4象限の場合はul軸の負の部分からの正の回転角度だけとしても計算結果は180度多い方位角と同じ値になる。このため、図4(C)中のφの場所は180度分だけ短く書かれている。図4(C)の右図も同様であるため、説明は省略する。   As described above, the Y-axis in FIG. 4B and the vl-axis in FIG. 4C have different axis directions. For this reason, the location of the azimuth angle φ also varies between the XY plane and the ulvl plane. The azimuth angle φ represents a positive rotation angle from the horizontal axis (ul axis, X axis) in the right-handed coordinate system. In the XY plane, as shown in FIG. 4B, the angle is taken from the positive position of the X axis toward the positive position of the Y axis. Also in the ulvl plane, as shown in FIG. 4C, the angle is from the positive position of the ul axis toward the positive position of the vl axis. Even in the ulvl plane, φ means a positive rotation angle with respect to the ul axis, so that φ shown in FIG. 4C is originally not enough to draw a curve by 180 degrees. In the normal azimuth angle, as shown in FIG. 4D, φl in the left figure is about 320 degrees and φr in the right figure is about 210 degrees. However, φ is obtained by arctan (vl / ul) as described later. Since the period of arctan is π (= 180 degrees), assuming that the angle from the third quadrant to the fourth quadrant of φl is α, tanφl = tan (π + α) = tanα. For this reason, in the third quadrant and the fourth quadrant, even if only the positive rotation angle from the negative part of the ul axis is used, the calculation result is the same value as the azimuth angle that is 180 degrees more. For this reason, the location of φ in FIG. 4C is written shorter by 180 degrees. The same is true for the right diagram in FIG.

以上の準備に基づき、天頂角と方位角は式1のように得られる。   Based on the above preparation, the zenith angle and azimuth angle are obtained as shown in Equation 1.

左右の魚眼レンズカメラ25Lおよび25Rによる投影点PおよびP’の位置ベクトルをp、p’としたとき、それぞれを天頂角θ、θ’と方位角φ、φ’とを用いて表すと式2のようになる。   When the position vectors of the projection points P and P ′ by the left and right fisheye lens cameras 25L and 25R are p and p ′, respectively, when expressed using the zenith angles θ and θ ′ and the azimuth angles φ and φ ′, Expression 2 It becomes like this.

3次元空間中の点Pwは左右の投影点の位置ベクトルを定数倍した所にあり、その位置ベクトルをPwは式3のように表すことができる。   The point Pw in the three-dimensional space is at a position obtained by multiplying the position vector of the left and right projection points by a constant, and the position vector Pw can be expressed as in Expression 3.

但し、klとkrとは任意の正の実数とする。また本発明では左右の魚眼レンズカメラ25Lおよび25Rの向きおよび高さを平行と仮定するため、両カメラ間距離をX軸方向にtxだけ離れているものとし、次の条件(式4)を与える。   However, kl and kr are arbitrary positive real numbers. In the present invention, since the directions and heights of the left and right fisheye lens cameras 25L and 25R are assumed to be parallel, the distance between the two cameras is assumed to be separated by tx in the X-axis direction, and the following condition (formula 4) is given.

従って、3次元空間中の点Pwは式5のようにして求まる。   Therefore, the point Pw in the three-dimensional space is obtained as shown in Equation 5.

魚眼投影画像でステレオマッチングするにあたり、問題となってくるのが対応点マッチングを行なう際のエピポーラ線である。図4(A)で中心O−点Pw−中心O’を結ぶ平面がエピポーラ平面であり、エピポーラ平面と魚眼レンズ25L、25Rとの交点P、P’がエピポールとなり、魚眼レンズ25L、25R上で各エピポールP、P’を結んだ曲線がエピポーラ線となる。つまり、魚眼画像のエピポーラ線は非直線であると共にその方程式は画素毎に異なる。エピポーラ線は次の条件式を満たす画素の集合として求める。   When stereo matching is performed with a fisheye projection image, an epipolar line when matching corresponding points is a problem. In FIG. 4A, the plane connecting the center O-point Pw-center O 'is an epipolar plane, and the intersections P, P' between the epipolar plane and the fisheye lenses 25L, 25R become epipoles, and each epipole on the fisheye lenses 25L, 25R. A curve connecting P and P ′ is an epipolar line. That is, the epipolar line of the fisheye image is non-linear and the equation is different for each pixel. The epipolar line is obtained as a set of pixels satisfying the following conditional expression.

このエピポーラ線上を探索して対応点マッチングを行う。図3に戻り、符号70は車外カメラ20を用いて撮像された左右の魚眼レンズカメラ25Lおよび25Rによる左右の車外画像を記録した車外画像データべースDB(車外画像記録部)である。図3の機能ブロック50に示される対応点マッチング部51(対応点マッチング手段)は、車外画像DB70に記録された左右の車外画像に対して式6(所定の条件)を満たす画素の集合としてエピポーラ線を求め、当該エピポーラ線上を探索することにより左右の車外画像における対応点を求める。   The epipolar line is searched to perform corresponding point matching. Returning to FIG. 3, reference numeral 70 denotes an out-of-vehicle image database DB (outside image recording unit) that records left and right outside images taken by the left and right fisheye lens cameras 25 </ b> L and 25 </ b> R captured using the outside camera 20. The corresponding point matching unit 51 (corresponding point matching means) shown in the functional block 50 of FIG. 3 is epipolar as a set of pixels that satisfy Expression 6 (predetermined condition) for the left and right outside images recorded in the outside image DB 70. A line is obtained, and corresponding points in the left and right outside images are obtained by searching on the epipolar line.

以上の処理によって左右の魚眼画像で対応点が得られた画素(ul、vl) についてそこに投影される点の3次元座標Pwを式5を用いて求めることができる。エッジやテクスチャのあるところはこのようにして3次元座標を得られる。しかし、対応点が得られない画素(例えば道路など他の画素と区別がつかない画素)については、その周辺の画素から補間をして、画像上の全ての画素について投影される点の3次元座標を計算する。図3の機能ブロック50に示される3次元座標算出部52(3次元座標算出手段)は、対応点マッチング部51により対応点が求められた画素については当該画素に投影される車外の3次元空間における点の位置座標を求めると共に、対応点が求められなかった画素については当該画素の周辺画素から補間を行うことにより当該画素に投影される車外の3次元空間における点の座標を求める。   The three-dimensional coordinate Pw of the point projected onto the pixel (ul, vl) for which the corresponding point is obtained in the left and right fish-eye images by the above processing can be obtained using Equation 5. Where there is an edge or texture, three-dimensional coordinates can be obtained in this way. However, for pixels for which corresponding points cannot be obtained (for example, pixels that are indistinguishable from other pixels such as roads), the three-dimensional points projected for all pixels on the image are interpolated from the surrounding pixels. Calculate the coordinates. The three-dimensional coordinate calculation unit 52 (three-dimensional coordinate calculation means) shown in the functional block 50 of FIG. 3 is a three-dimensional space outside the vehicle that is projected onto the pixel for which the corresponding point is obtained by the corresponding point matching unit 51. The coordinates of the point in the three-dimensional space outside the vehicle projected on the pixel are obtained by interpolating from the surrounding pixels of the pixel for which the corresponding point has not been obtained.

図5は、魚眼レンズカメラ25Lおよび25Rを車両10の屋根に設置した一例を示す。図5に示されるように、車外カメラ20は車両10の屋根の上に2台の魚眼レンズカメラを左右に分けて設置することが好適である。しかし、上記設置位置は屋根の上に限定されるものではなく、ボンネットの上または両サイドミラーの上等であってもよく、特に設置位置が特定されるものではない。なお、本明細書では魚眼レンズとしてFUJIFILM(登録商標)社製のFE185C057HA−1を使用したが、この魚眼レンズに限定されるものではない。   FIG. 5 shows an example in which fisheye lens cameras 25 </ b> L and 25 </ b> R are installed on the roof of the vehicle 10. As shown in FIG. 5, it is preferable that the outside camera 20 is installed on the roof of the vehicle 10 with two fisheye lens cameras divided into left and right. However, the installation position is not limited to the roof, and may be on the hood or on both side mirrors, and the installation position is not particularly specified. In this specification, FE185C057HA-1 manufactured by FUJIFILM (registered trademark) is used as a fisheye lens, but the fisheye lens is not limited to this fisheye lens.

図6は、車内カメラ30の設置例を示す。車内カメラ20の設置位置は例えばダッシュボードの上に設置することが好適であるが、運転の邪魔にならない所であれば他の位置であってもよい。車内カメラ20はコンピュータ40にUSB等で接続された低コストのいわゆるウェブカメラとし、ドライバモニタリングシステムとしては、例えばTrackEye(登録商標)と呼ばれるソフトウェアを用いることができる。TrackEye(登録商標)は運転者12の顔および目を検知し、運転者12の注視点の測定を行う。上述の例では車内カメラ20としてTrackEye(登録商標)を例示したが、1秒あたりのフレーム数がより高い、例えばFaceLab systemを用いる方が好適である。   FIG. 6 shows an installation example of the in-vehicle camera 30. The installation position of the in-vehicle camera 20 is preferably installed on a dashboard, for example, but may be another position as long as it does not interfere with driving. The in-vehicle camera 20 is a low-cost so-called web camera connected to the computer 40 via a USB or the like, and a software called TrackEye (registered trademark) can be used as a driver monitoring system, for example. TrackEye (registered trademark) detects the face and eyes of the driver 12 and measures the driver's gazing point. In the above-described example, TrackEye (registered trademark) is exemplified as the in-vehicle camera 20, but it is preferable to use, for example, a FaceLab system having a higher number of frames per second.

図7は、車内カメラ30と車外カメラ20との位置関係を示す。図7で図1と同じ符号を付した個所は同じ要素を示すため、説明は省略する。図7で、点Pw(座標Cx,Cy,Cz)は図4で説明した3次元空間における点であり、運転者12が注視している注視点である。   FIG. 7 shows the positional relationship between the in-vehicle camera 30 and the outside camera 20. In FIG. 7, the parts denoted by the same reference numerals as those in FIG. In FIG. 7, a point Pw (coordinates Cx, Cy, Cz) is a point in the three-dimensional space described with reference to FIG. 4 and is a gazing point that the driver 12 is gazing at.

次に、運転者12の注視点Pwの3次元位置計測について説明する。運転者12の注視点Pwの3次元位置計測は、車外カメラ20座標系XcYcZcと車内カメラ30座標系XwYwZwとの統一、運転者12の視直線と車外三角形パッチ(後述)との交点の導出から成り立っている。以下、それぞれの原理を述べる。加えて、両カメラの座標系を統合するために事前に必要となる変換行列の導出方法についても説明する。   Next, the three-dimensional position measurement of the driver's gazing point Pw will be described. The three-dimensional position measurement of the gazing point Pw of the driver 12 is based on the unification of the exterior camera 20 coordinate system XcYcZc and the interior camera 30 coordinate system XwYwZw, and the derivation of the intersection of the driver's 12 line of sight and the exterior triangle patch (described later). It is made up. Each principle will be described below. In addition, a method for deriving a transformation matrix necessary in advance to integrate the coordinate systems of both cameras will be described.

車外カメラ20座標系XcYcZcと車内カメラ30座標系XwYwZwとの統一.
以下では、車外カメラ20を魚眼ステレオカメラ20と呼び、車内カメラ30を視線計測カメラ30と呼ぶ。車外環境を撮影する魚眼ステレオカメラ20と視線計測を行う視線計測カメラ30(faceLAB のカメラ)はそれぞれ独立した座標系を持っており、車外の3次元環境と視線方向の情報とを統合させるためには、各ステレオカメラ20および30の座標系を世界座標系に統一させる必要がある。本発明では世界座標系を視線計測カメラ30の座標系とし、魚眼ステレオカメラ20のカメラ座標系を視線計測カメラ30の座標系に合わせる。
Unification of the exterior camera 20 coordinate system XcYcZc and the interior camera 30 coordinate system XwYwZw.
Hereinafter, the outside camera 20 is called a fish-eye stereo camera 20, and the in-vehicle camera 30 is called a line-of-sight measurement camera 30. The fish-eye stereo camera 20 that captures the environment outside the vehicle and the line-of-sight measurement camera 30 (faceLAB camera) that performs the line-of-sight measurement have independent coordinate systems, so that the three-dimensional environment outside the vehicle and the information on the line-of-sight direction are integrated. Therefore, it is necessary to unify the coordinate system of each stereo camera 20 and 30 to the world coordinate system. In the present invention, the world coordinate system is used as the coordinate system of the visual line measurement camera 30, and the camera coordinate system of the fisheye stereo camera 20 is matched with the coordinate system of the visual line measurement camera 30.

視線計測カメラ30の座標系XwYwZwでの3次元座標(Wx,Wy,Wz)と魚眼ステレオカメラ20の座標系XcYcZcでの3次元座標(Cx,Cy,Cz)との関係は式7のようにユークリッド変換で表す。   The relationship between the three-dimensional coordinates (Wx, Wy, Wz) in the coordinate system XwYwZw of the line-of-sight measurement camera 30 and the three-dimensional coordinates (Cx, Cy, Cz) in the coordinate system XcYcZc of the fisheye stereo camera 20 is as shown in Expression 7. Is represented by Euclidean transformation.

あとは変換のパラメータp1、・・・、p12が求まればよい。しかし、本発明で用いる二組のステレオカメラ(車内カメラ30用、車外カメラ20用)には共通する撮影領域がないため、一般的な校正器具を用いたカメラ校正は不可能である。そこで、予め運転者12が座席に座った状態で所定のマーカーに注目してもらい、その時に視線計測カメラ30から取得できる運転者12の視線方向の情報と上記マーカーの魚眼カメラ20座標系における3次元座標とから、カメラ座標系を統合する校正用パラメータを求める手法を以下のように考案した。つまり、二つのステレオカメラ20および30が校正器具を共通して撮影できないため、代わりに運転者12(または作業者)の視線データを介して両ステレオカメラ20および30の情報をつなげる役割を持たせる。上記マーカーは車両10のボンネットまたはフロントガラスに設置した。   After that, conversion parameters p1,..., P12 may be obtained. However, since the two sets of stereo cameras (for in-vehicle camera 30 and for in-vehicle camera 20) used in the present invention do not have a common shooting area, camera calibration using a general calibration instrument is impossible. Therefore, the driver 12 pays attention to a predetermined marker in a state where the driver 12 is seated in advance, and information on the driver's gaze direction that can be acquired from the gaze measuring camera 30 at that time and the marker in the fish-eye camera 20 coordinate system. A method for obtaining a calibration parameter for integrating a camera coordinate system from three-dimensional coordinates was devised as follows. That is, since the two stereo cameras 20 and 30 cannot shoot the calibration instrument in common, a role of connecting the information of both stereo cameras 20 and 30 through the line-of-sight data of the driver 12 (or the operator) is provided instead. . The marker was placed on the hood or windshield of the vehicle 10.

図8は、視線計測カメラ30により運転者12の視線方向を計測する状況を示す。図8で図1および図6と同じ符号を付した個所は同じ要素を示すため、説明は省略する。図8で符号Sは運転者12の視直線、12L、12Rは運転者12の左右の眼球を模式的に示したものであり、Ψpitchは眼球12L等の縦方向回転のピッチ角成分、Ψyawは眼球12L等の横方向回転のヨー角成分であり、(Ψpitch,Ψyaw)で眼球回転角度を構成し、(e,e,e)は眼球12L等の位置座標である。 FIG. 8 shows a situation in which the line-of-sight direction of the driver 12 is measured by the line-of-sight measurement camera 30. In FIG. 8, the portions denoted by the same reference numerals as those in FIGS. 1 and 6 indicate the same elements, and thus the description thereof is omitted. In FIG. 8, symbol S is a line of sight of the driver 12, 12L and 12R schematically show the left and right eyeballs of the driver 12, Ψpitch is a pitch angle component of longitudinal rotation of the eyeball 12L and the like, and Ψyaw is a yaw angle component of lateral rotation of the eyeball 12L such a (Ψpitch, Ψyaw) constitute the eyeball rotation angle, (e x, e y, e z) is the position coordinates such as the eyeball 12L.

眼球回転角度および眼球12L等の位置座標はいずれも両眼のデータが視線計測カメラ30により得られる。本発明ではこれら両眼のデータに関して各データの平均値をとり, それを眼球回転角度と眼球位置座標と定義する。左眼12Lの眼球回転角度を(Ψpitchl,Ψyawl)、眼球位置座標を(exl,eyl,ezl)とし、右眼12Rの眼球回転角度を(Ψpitchr,Ψyawr)、眼球位置座標を(exr,eyr,ezr)とすると、式8〜12のように表わすことができる。 As for the eyeball rotation angle and the position coordinates such as the eyeball 12L, data for both eyes are obtained by the line-of-sight measurement camera 30. In the present invention, the average value of each data is taken for these binocular data, and these are defined as the eyeball rotation angle and eyeball position coordinates. Eyeball rotation angle of the left eye 12L (Ψpitchl, Ψyawl), the eye position coordinates (e xl, e yl, e zl) and the eyeball rotation angle of the right eye 12R (Ψpitchr, Ψyawr), the eye position coordinates (e xr , e yr , e zr ), it can be expressed as in equations 8-12.

以上の準備に基づき、カメラ座標系を統合する校正用パラメータを求める手法について説明する。世界座標系における視線を表す直線(視直線S)は眼球位置座標(e,e,e)および視直線Sの方向を示す視線方向ベクトル(n,n,n)より式13のように書くことができる。 Based on the above preparation, a method for obtaining a calibration parameter for integrating the camera coordinate system will be described. Straight line representing the line of sight in the world coordinate system (view straight S) is eye position coordinates (e x, e y, e z) and visual line-of-sight direction vector indicating the direction of the straight line S (n x, n y, n z) from Eq It can be written as 13.

式13でkは任意の実数である。視線方向ベクトルは眼球回転角度を用いると, 式14のように書くことができる。   In Equation 13, k is an arbitrary real number. The gaze direction vector can be written as shown in Equation 14 using the eyeball rotation angle.

式13および14より、世界座標系における視直線Sの方程式は式15のように書くことができる。以下で、眼球回転角度(Ψpitch,Ψyaw)を簡単に(Ψp,Ψy)と書く場合もある。   From Equations 13 and 14, the equation of the visual line S in the world coordinate system can be written as Equation 15. Hereinafter, the eyeball rotation angle (Ψpitch, Ψyaw) may be simply written as (Ψp, Ψy).

式7と式15とを等しいとおくことにより、少なくとも3点(精度を向上させるためにはより多くの点)のデータが取得できれば方程式7を解いてパラメータp1、...,p12を求めることができる。図3に戻り、符号72は視線計測カメラ30を用いて取得された、世界座標系における点Pw(所定の点)を注視する際の運転者12の両眼球12Lおよび12Rの眼球回転角度および眼球位置座標と上記点Pwの座標とを対応させて記録した視線情報DB(視線情報記録部)である。図3の機能ブロック50に示される変換パラメータ算出部53(変換パラメータ算出手段)は、上述のようにして、3次元座標算出部52により求められた車外の3次元空間における点Pwの座標をユークリッド変換して視線情報DB72に記録された世界座標系における点Pwの座標とする際の式7の変換パラメータp1、...,p12を求めることができる。次に、求められた変換パラメータp1、...,p12を式7に用いることにより、魚眼レンズカメラ20の画像上の全ての画素の座標(Cx,Cy,Cz)について世界座標における3次元座標(Wx,Wy,Wz)を計算することができる。図3の機能ブロック50に示される画素座標算出部54(画素座標算出手段)は、変換パラメータ算出部53により求められた式7の変換パラメータp1、...,p12を用いて、車外画像DB70に記録された左右の車外画像上の全ての画素につき世界座標系における座標を計算して画素座標情報DB74(画素座標情報記録部)に記録する。   By setting Equation 7 and Equation 15 to be equal, if data of at least three points (more points for improving accuracy) can be acquired, Equation 7 is solved and parameters p1,. . . , P12 can be obtained. Returning to FIG. 3, reference numeral 72 denotes the eyeball rotation angles and eyeballs of the binoculars 12 </ b> L and 12 </ b> R of the driver 12 when gazing at the point Pw (predetermined point) in the world coordinate system, acquired using the line-of-sight measurement camera 30. This is a line-of-sight information DB (line-of-sight information recording unit) in which position coordinates and coordinates of the point Pw are recorded in association with each other. The conversion parameter calculation unit 53 (conversion parameter calculation means) shown in the functional block 50 of FIG. 3 uses the Euclidean coordinates of the point Pw in the three-dimensional space outside the vehicle, which is obtained by the three-dimensional coordinate calculation unit 52 as described above. The conversion parameters p1,... Of Expression 7 when converting to the coordinates of the point Pw in the world coordinate system recorded in the line-of-sight information DB 72. . . , P12 can be obtained. Next, the obtained conversion parameters p1,. . . , P12 in Expression 7, the three-dimensional coordinates (Wx, Wy, Wz) in the world coordinates can be calculated for the coordinates (Cx, Cy, Cz) of all pixels on the image of the fisheye lens camera 20. The pixel coordinate calculation unit 54 (pixel coordinate calculation means) shown in the functional block 50 of FIG. 3 includes conversion parameters p1,. . . , P12, the coordinates in the world coordinate system are calculated and recorded in the pixel coordinate information DB 74 (pixel coordinate information recording unit) for all the pixels on the left and right outside images recorded in the outside image DB 70.

運転者12の視直線Sと車外三角形パッチとの交点の導出.
魚眼レンズカメラ20の画像上の全ての画素について3次元座標が計算できたら隣り合う画素ごとに組を作り、三角形パッチを構成する。この時、画像(u,v)のv座標が0または偶数の場合は(u,v)、(u+1,v)、(u,v+1)の三点で、v座標が奇数の場合は(u,v)、(u−1,v)、(u,v−1)の三点で三角形パッチを作るものとする(所定の方式)。この処理により、車両10を取り巻く車外環境を三角形パッチの集合として構成することができる。図3に戻り、図3の機能ブロック50に示される三角形パッチ構成部55(三角形パッチ構成手段)は、画素座標情報DB74に記録された隣り合う3つの画素毎に上述した所定の方式で三角形パッチを構成し、当該三角形パッチに関する情報を三角形パッチ情報DB76(三角形パッチ情報記録部)に記録する。この世界座標系における車外三角形パッチと視直線Sとの交点を運転者12の注視点とする。車両10を取り巻く車外の3次元環境が三角形パッチ群で構成されているため、いずれかの三角形パッチと運12視直線Sとが交点を持つことになる。
Derivation of intersection of driver's 12 line of sight S and exterior triangle patch.
When the three-dimensional coordinates can be calculated for all the pixels on the image of the fisheye lens camera 20, a pair is formed for each adjacent pixel to form a triangular patch. At this time, when the v coordinate of the image (u, v) is 0 or an even number, three points (u, v), (u + 1, v), (u, v + 1) are used, and when the v coordinate is an odd number (u , V), (u-1, v), and (u, v-1), a triangular patch is created (predetermined method). By this processing, the outside environment surrounding the vehicle 10 can be configured as a set of triangular patches. Returning to FIG. 3, the triangular patch forming unit 55 (triangular patch forming means) shown in the functional block 50 of FIG. 3 performs the triangular patch in the predetermined method described above for every three adjacent pixels recorded in the pixel coordinate information DB 74. And records information related to the triangular patch in the triangular patch information DB 76 (triangular patch information recording unit). The intersection point between the vehicle exterior triangle patch and the line of sight S in this world coordinate system is taken as the gaze point of the driver 12. Since the three-dimensional environment outside the vehicle surrounding the vehicle 10 is composed of a group of triangular patches, one of the triangular patches and the line of luck 12 visual line S have an intersection.

図9は、運転者12の視直線Sと車外三角形パッチとの交点の導出を説明するための図である。図9でp=(p1x,p1y,p1z)、p=(p2x,p2y,p2z)p=(p3x,p3y,p3z)は三角形パッチを個性する3点の3次元座標である。この3点で張られる平面の方程式は式16のようになる。 FIG. 9 is a diagram for explaining the derivation of the intersection point between the driver's sight line S and the outside triangle patch. In FIG. 9, p 1 = (p 1x , p 1y , p 1z ), p 2 = (p 2x , p 2y , p 2z ), p 3 = (p 3x , p 3y , p 3z ) 3 3D coordinates of a point. The equation of the plane stretched by these three points is as shown in Equation 16.

式15および式16より、式18が得られる。   From Equation 15 and Equation 16, Equation 18 is obtained.

但し、ベクトルvは式19であるものとする。   However, the vector v is assumed to be Equation 19.

ここで、   here,

とすると、クラメールの公式より、 Then, from the Kramer official,

となる。 It becomes.

なので、式23のように書くことができる。 Therefore, it can be written as Equation 23.

これを解いて、もし上記式17の条件を満たす場合は三角形パッチpの内部で視直線Sと交点Pwを持ち、式17の条件を満たさない場合は三角形パッチpとは交点を持たない。交点を持つときにはそのときのkを式15に代入することにより、注視点Pwの3次元座標を得ることができる。図3に戻り、図3の機能ブロック50に示される交点算出部56(交点算出手段)は、視線情報DB72に記録された世界座標系における点Pw(所定の点)を注視する際の運転者12の両眼球12L等の眼球回転角度および眼球位置座標と所定の点の座標とから得られる運転者12の視直線Sと、三角形パッチ情報DB76に記録された三角形パッチpとの交点Pwを有する三角形パッチpを上述した運転者12の視直線Sと車外三角形パッチpとの交点の導出で説明した方法(所定の方法)により求める。当該交点Pwを運転者12の注視点の3次元座標とし、当該注視点の位置座標を時間の経過と共に注視点位置座標DB78(注視点位置座標記録部)に記録する。 Solving this, if the condition of the above equation 17 is satisfied, the triangular patch p 1 p 2 p 3 has the line of sight S and the intersection point Pw, and if the condition of the equation 17 is not satisfied, the triangular patch p 1 p 2 is satisfied. It does not have the intersection and p 3. By substituting k at that time into Equation 15 when having an intersection, the three-dimensional coordinates of the gazing point Pw can be obtained. Returning to FIG. 3, the intersection calculation unit 56 (intersection calculation means) shown in the functional block 50 of FIG. 3 focuses on the point Pw (predetermined point) in the world coordinate system recorded in the line-of-sight information DB 72. The visual line S of the driver 12 obtained from the eyeball rotation angle and eyeball position coordinates of the twelve binoculars 12L and the like and the coordinates of a predetermined point, and the triangle patches p 1 p 2 p 3 recorded in the triangle patch information DB 76 The triangular patch p 1 p 2 p 3 having the intersection point Pw is obtained by the method described above (predetermined method) in the derivation of the intersection point of the driver's 12 line of sight S and the outside triangle patch p 1 p 2 p 3 . The intersection point Pw is set as the three-dimensional coordinate of the driver's gazing point, and the position coordinate of the gazing point is recorded in the gazing point position coordinate DB 78 (gaze point position coordinate recording unit) with the passage of time.

上述した方法は、3点の座標と視線方向ベクトルSから立てた式18とをクラメールの公式で解くことにより、交点を持つかどうか(パラメータs、t)と交点座標のパラメータkとを同時に求めている。これとは別に、平面の方程式を求めてから交点座標を導出し、その後で当該交点が三角形パッチ内にあるかどうかを調べる方法もある。図9に示される三角形パッチpを三角形パッチABCとする。A=(a,a,a)、B=(b,b,b)C=(c,c,c)とする。点Pwは同じ座標のままでP(Wx,Wy,Wz)とする。世界座標系における空間中の三点(A,B,C)を含む平面の方程式は式24のように書くことができる。 In the above-described method, whether or not there is an intersection (parameters s, t) and the parameter k of the intersection coordinate are simultaneously determined by solving the equation 18 established from the coordinates of the three points and the line-of-sight direction vector S by Kramer's formula. Looking for. Alternatively, there is a method of obtaining an intersection coordinate after obtaining a plane equation, and then examining whether the intersection is in a triangular patch. Let the triangular patches p 1 p 2 p 3 shown in FIG. 9 be triangular patches ABC. A = (a x , a y , a z ), B = (b x , b y , b z ) and C = (c x , c y , c z ). The point Pw is assumed to be P (Wx, Wy, Wz) with the same coordinates. An equation of a plane including three points (A, B, C) in the space in the world coordinate system can be written as shown in Equation 24.

式24で、α、β、γはベクトルABとベクトルACとの外積から求められる要素であり、式25ないし27のように求めることができる。   In Expression 24, α, β, and γ are elements obtained from the outer product of the vector AB and the vector AC, and can be obtained as Expressions 25 to 27.

運転者12の視直線Aを上述した眼球回転角度と眼球位置座標とを用いて表すと, 式28のように書くことができる。   When the visual line A of the driver 12 is expressed using the above-described eyeball rotation angle and eyeball position coordinates, it can be written as in Expression 28.

式24と式28との連立方程式により、kについての一次式(式29)を導出することができる。   From the simultaneous equations of Expression 24 and Expression 28, a linear expression (expression 29) for k can be derived.

式29でkを求め式28に代入することにより、平面ABCと視直線Sとの交点P(Wx,Wy,Wz)を求めることができる。点Pが平面ABCの内部に存在するとき、式30のように書くことができる。   The intersection point P (Wx, Wy, Wz) between the plane ABC and the visual line S can be obtained by obtaining k in Expression 29 and substituting it into Expression 28. When the point P exists inside the plane ABC, it can be written as Equation 30.

式30の条件を満たす交点P(Wx,Wy,Wz)を注視点の3次元位置座標と定義することができる。   The intersection point P (Wx, Wy, Wz) that satisfies the condition of Expression 30 can be defined as the three-dimensional position coordinate of the gazing point.

図10は、上述した本発明の3次元範囲計測プログラムを構成する二眼ステレオ法の処理の流れをフローチャートで示す。図10に示されるように、まず、車外画像DB70に記録された左右の車外画像に対して式6に示される条件(所定の条件)を満たす画素の集合としてエピポーラ線を求め、当該エピポーラ線上を探索することにより左右の車外画像における対応点を求める(ステップS50。対応点マッチングステップ)。対応点マッチングステップ(ステップS50)で対応点が求められた画素については当該画素に投影される車外の3次元空間における点の位置座標を求めると共に、対応点が求められなかった画素については当該画素の周辺画素から補間を行うことにより当業者該画素に投影される車外の3次元空間における点の座標を求める(ステップS52。3次元座標算出ステップ)。3次元座標算出ステップ(ステップS52)で求められた車外の3次元空間における点の座標をユークリッド変換して視線情報DB72に記録された世界座標系における所定の点の座標とする際の変換パラメータp1、...,p12を求める(変換パラメータ算出ステップ。ステップS54)。変換パラメータ算出ステップ(ステップS54)で求められた変換パラメータp1、...,p12を用いて、車外画像DB70に記録された左右の車外画像上の全ての画素につき世界座標系における座標を計算して画素座標情報DB74に記録する(ステップS56または図2に示されるステップS22。画素座標算出ステップ)。画素座標情報DB74に記録された隣り合う3つの画素毎に所定の方式で三角形パッチを構成し、当該三角形パッチに関する情報を三角形パッチ情報DB76に記録する(ステップS58または図2に示されるステップS24。三角形パッチ構成ステップ)。視線情報DB72に記録された世界座標系における所定の点を注視する際の運転者12の両眼球12L等の眼球回転角度および眼球位置座標と当該所定の点の座標とから得られる運転者12の視直線Sと、三角形パッチ情報DB76に記録された三角形パッチとの交点Pwを有する三角形パッチを所定の方法により求め、当該交点を運転者12の注視点の3次元座標とし、当該注視点の位置座標を時間の経過と共に注視点位置座標DB78に記録する(ステップS60または図2に示されるステップS40。交点算出ステップ)。   FIG. 10 is a flowchart showing the process flow of the binocular stereo method constituting the above-described three-dimensional range measurement program of the present invention. As shown in FIG. 10, first, an epipolar line is obtained as a set of pixels that satisfy the condition (predetermined condition) shown in Expression 6 for the left and right outside images recorded in the outside image DB 70, and the epipolar line is displayed on the epipolar line. By searching, corresponding points in the left and right outside images are obtained (step S50, corresponding point matching step). For the pixel for which the corresponding point is obtained in the corresponding point matching step (step S50), the position coordinates of the point in the three-dimensional space outside the vehicle projected onto the pixel are obtained, and for the pixel for which the corresponding point is not obtained, the pixel. Those skilled in the art obtain the coordinates of the point in the three-dimensional space outside the vehicle projected onto the pixel by performing interpolation from the neighboring pixels (step S52, three-dimensional coordinate calculation step). Conversion parameter p1 when the coordinates of the point in the three-dimensional space outside the vehicle obtained in the three-dimensional coordinate calculation step (step S52) are Euclidean transformed into the coordinates of the predetermined point in the world coordinate system recorded in the line-of-sight information DB 72 ,. . . , P12 (conversion parameter calculation step, step S54). The conversion parameters p1,... Obtained in the conversion parameter calculation step (step S54). . . , P12, the coordinates in the world coordinate system are calculated and recorded in the pixel coordinate information DB 74 for all the pixels on the left and right outside images recorded in the outside image DB 70 (step S56 or step S22 shown in FIG. 2). Pixel coordinate calculation step). A triangular patch is formed by a predetermined method for every three adjacent pixels recorded in the pixel coordinate information DB 74, and information relating to the triangular patch is recorded in the triangular patch information DB 76 (step S58 or step S24 shown in FIG. 2). Triangular patch composition step). The driver's 12 obtained from the eyeball rotation angle and eyeball position coordinates of the driver's 12 eyeballs 12L and the like when gazing at a predetermined point in the world coordinate system recorded in the line-of-sight information DB 72 and the coordinates of the predetermined point. A triangular patch having an intersection Pw between the line of sight S and the triangular patch recorded in the triangular patch information DB 76 is obtained by a predetermined method, the intersection is set as the three-dimensional coordinates of the driver's gazing point, and the position of the gazing point The coordinates are recorded in the gazing point position coordinate DB 78 with the passage of time (step S60 or step S40 shown in FIG. 2, intersection calculation step).

以上のように、本発明の実施例1によれば、3次元範囲計測システム1は車両10の車外環境をステレオ計測する2台の広角レンズカメラを有する車外カメラ20(座標は車両10の進行方向がZc軸、Zc軸に垂直にXc軸およびYc軸)と、運転者12の視線方向を計測する車内カメラ30(座標は運転者方向がZw軸、Zw軸に垂直にXw軸およびYw軸)と、車外カメラ20および車内カメラ30に接続されたPC40とから構成されている。車外カメラ20の広角レンズカメラは魚眼レンズカメラであることが好適であるが、これに限定されるものではない。車内カメラ20は、車内に設置されたCCD等のイメージセンサを用いて運転者12の両眼球12L等の眼球回転角および眼球位置座標を取得する。   As described above, according to the first embodiment of the present invention, the three-dimensional range measurement system 1 has the two outside cameras 20 that measure the environment outside the vehicle 10 in stereo (the coordinates are the traveling direction of the vehicle 10). Is the Zc axis, the Xc axis and the Yc axis perpendicular to the Zc axis), and the in-vehicle camera 30 that measures the direction of the driver's line of sight (the coordinates are the driver direction is the Zw axis and the Zw axis is perpendicular to the Zw axis, the Xw axis and the Yw axis) And an external camera 20 and a PC 40 connected to the in-vehicle camera 30. The wide-angle lens camera of the outside camera 20 is preferably a fisheye lens camera, but is not limited to this. The in-vehicle camera 20 acquires the eyeball rotation angle and eyeball position coordinates of the driver's 12 eyeballs 12L using an image sensor such as a CCD installed in the car.

車内カメラ30により運転者12の顔画像が撮像されて視線計測処理が行われ、運転者12の眼球位置座標および眼球回転角が求められる。並行して車外カメラ20により車外画像が撮像されて車外ステレオ処理が実行される。車内カメラ30の座標系と車外カメラ20の座標系とは異なるため、運転者12の視線方向の情報と車外の3次元環境の情報とを統合するためには、左右の各魚眼ステレオカメラ30L等の座標系を世界座標系に統一させる必要がある。本発明の3次元範囲計測プログラム等では、車内カメラ30の座標系XwYwZwを世界座標系とし車外カメラ20の座標系XcYcZcを車内カメラ30の座標系に合わせた。   A face image of the driver 12 is picked up by the in-vehicle camera 30 and a line-of-sight measurement process is performed, and the eyeball position coordinates and the eyeball rotation angle of the driver 12 are obtained. In parallel, a vehicle outside image is captured by the vehicle outside camera 20 and the vehicle outside stereo processing is executed. Since the coordinate system of the in-vehicle camera 30 and the coordinate system of the outside camera 20 are different, in order to integrate the information of the driver's sight line direction and the information of the three-dimensional environment outside the vehicle, the left and right fisheye stereo cameras 30L It is necessary to unify coordinate systems such as the world coordinate system. In the three-dimensional range measurement program of the present invention, the coordinate system XwYwZw of the in-vehicle camera 30 is the world coordinate system, and the coordinate system XcYcZc of the in-vehicle camera 20 is matched to the coordinate system of the in-vehicle camera 30.

本発明で用いる二組の魚眼ステレオカメラ(車内用、車外用)には共通する撮影領域がないため、一般的な校正器具を用いたカメラ校正は不可能である。そこで、予め運転者12が車両10の座席に座った状態で所定の位置においたマーカーを注目してもらい、その時に車内カメラ30(faceLAB) から取得できる運転者12の視線方向の情報と上記マーカーの魚眼カメラ座標系における3次元座標とから、カメラ座標系を統合する校正用パラメータを求める手法を考案した。車外カメラ20の計測から得られた車外環境の画像上の隣接する3つの画素毎に三角形パッチを構成する。次に、車内カメラ30の計測から得られた運転者の視直線と三角形パッチとの交点を運転者12の注視点の3次元座標とする。種々の情報を記録装置42に記録した後、上述した処理を繰返す。   Since the two sets of fish-eye stereo cameras (in-vehicle use and external-use use) used in the present invention do not have a common photographing area, camera calibration using a general calibration instrument is impossible. Therefore, the driver 12 pays attention to the marker placed in a predetermined position while sitting on the seat of the vehicle 10, and information on the driver's line-of-sight direction and the marker that can be obtained from the in-vehicle camera 30 (faceLAB) at that time Devised a method for obtaining calibration parameters that integrate the camera coordinate system from the three-dimensional coordinates in the fish-eye camera coordinate system. A triangular patch is formed for every three adjacent pixels on the image of the outside environment obtained from the measurement by the outside camera 20. Next, the intersection of the driver's line of sight obtained from the measurement by the in-vehicle camera 30 and the triangular patch is set as the three-dimensional coordinates of the driver's gazing point. After various information is recorded in the recording device 42, the above-described processing is repeated.

本発明では、等距離射影式の魚眼レンズカメラによる、透視投影モデルに変換しない二眼ステレオ法を考案した。まず、車外画像DB70に記録された左右の車外画像に対して式6に示される条件を満たす画素の集合としてエピポーラ線を求め、当該エピポーラ線上を探索することにより左右の車外画像における対応点を求める。対応点が求められた画素については当該画素に投影される車外の3次元空間における点の位置座標を求めると共に、対応点が求められなかった画素については当該画素の周辺画素から補間を行うことにより当業者該画素に投影される車外の3次元空間における点の座標を求める。求められた車外の3次元空間における点の座標をユークリッド変換して視線情報DB72に記録された世界座標系における所定の点の座標とする際の変換パラメータp1、...,p12を求める。求められた変換パラメータp1、...,p12を用いて、車外画像DB70に記録された左右の車外画像上の全ての画素につき世界座標系における座標を計算して画素座標情報DB74に記録する。画素座標情報DB74に記録された隣り合う3つの画素毎に所定の方式で三角形パッチを構成し、当該三角形パッチに関する情報を三角形パッチ情報DB76に記録する。視線情報DB72に記録された世界座標系における所定の点を注視する際の運転者12の両眼球12L等の眼球回転角度および眼球位置座標と当該所定の点の座標とから得られる運転者12の視直線Sと、三角形パッチ情報DB76に記録された三角形パッチとの交点Pwを有する三角形パッチを所定の方法により求め、当該交点を運転者12の注視点の3次元座標とし、当該注視点の位置座標を時間の経過と共に注視点位置座標DB78に記録する。   The present invention has devised a binocular stereo method that does not convert to a perspective projection model using a fisheye lens camera of equidistant projection. First, an epipolar line is obtained as a set of pixels satisfying the condition shown in Expression 6 with respect to the left and right outside images recorded in the outside image DB 70, and corresponding points in the left and right outside images are obtained by searching on the epipolar line. . For the pixel for which the corresponding point is obtained, the position coordinates of the point in the three-dimensional space outside the vehicle projected onto the pixel are obtained, and for the pixel for which the corresponding point is not obtained, interpolation is performed from the surrounding pixels of the pixel. A person skilled in the art obtains the coordinates of a point in a three-dimensional space outside the vehicle projected onto the pixel. Conversion parameters p1,... When converting the coordinates of the obtained point in the three-dimensional space outside the vehicle into the coordinates of the predetermined point in the world coordinate system recorded in the line-of-sight information DB 72. . . , P12. The obtained conversion parameters p1,. . . , P12, the coordinates in the world coordinate system are calculated and recorded in the pixel coordinate information DB 74 for all the pixels on the left and right outside images recorded in the outside image DB 70. A triangular patch is formed by a predetermined method for every three adjacent pixels recorded in the pixel coordinate information DB 74, and information related to the triangular patch is recorded in the triangular patch information DB 76. The driver's 12 obtained from the eyeball rotation angle and eyeball position coordinates of the driver's 12 eyeballs 12L and the like when gazing at a predetermined point in the world coordinate system recorded in the line-of-sight information DB 72 and the coordinates of the predetermined point. A triangular patch having an intersection Pw between the line of sight S and the triangular patch recorded in the triangular patch information DB 76 is obtained by a predetermined method, the intersection is set as the three-dimensional coordinates of the driver's gazing point, and the position of the gazing point The coordinates are recorded in the gazing point position coordinate DB 78 with the passage of time.

以上のようにして、車両10等の運転者12の3次元的な認知領域の広がりを計測することができる3次元範囲計測システム等を提供することができる。   As described above, it is possible to provide a three-dimensional range measurement system or the like that can measure the spread of the three-dimensional recognition area of the driver 12 such as the vehicle 10.

実施例2では実施例1で得られた注視点位置座標DB78を用いて、運転者12の注視点からの3次元凸包を生成する方法について説明する。運転手12の眼球12L等を基点とした過去tフレーム間の視線方向ベクトル(注視点べクトル)で構成される3次元凸包を有効視空間と定義する。有効視空間の計測中にも車両は走行しているので、運転手の眼球位置(視線計測カメラ座標系)から伸びる視直線Sを基準とし、そこからの注視点の3次元位置の相対的な変化から有効視空間を構築する。注視点の位置ベクトル群から3次元凸包を構成し、この内部領域を有効視空間として求める。   In the second embodiment, a method for generating a three-dimensional convex hull from the gazing point of the driver 12 using the gazing point position coordinate DB 78 obtained in the first embodiment will be described. A three-dimensional convex hull composed of a line-of-sight direction vector (gaze vector) between the past t frames with the eyeball 12L of the driver 12 as a base point is defined as an effective visual space. Since the vehicle is traveling even during the measurement of the effective visual space, the reference line S extending from the driver's eyeball position (gaze measurement camera coordinate system) is used as a reference, and the relative position of the three-dimensional position of the gazing point from there is determined. Build an effective visual space from changes. A three-dimensional convex hull is constructed from the position vector group of the gazing point, and this internal region is obtained as an effective visual space.

図11は、本発明の実施例2における有効視空間を説明するための図である。図11(A)で、符号100はハザード(車外における対象物であって特に運転者12が注意を向ける必要があるもの)、102は有効視空間である。図11(B)はxz平面(実施例1における車外カメラ20の座標系でのXcZc平面)に射影された場合の有効視区間102xzを示し、図11(C)はyz平面(実施例1における車外カメラ20の座標系でのYcZc平面)に射影された場合の有効視区間102yzを示す。図11(A)に示されるように、運転者12の有効視空間102内にハザード100が含まれているため、運転者12はハザード100を認知していることがわかる。   FIG. 11 is a diagram for explaining an effective visual space according to the second embodiment of the present invention. In FIG. 11A, reference numeral 100 denotes a hazard (an object outside the vehicle that is particularly necessary for the driver 12 to pay attention), and 102 is an effective visual space. FIG. 11B shows the effective viewing section 102xz when projected onto the xz plane (XcZc plane in the coordinate system of the outside camera 20 in the first embodiment), and FIG. 11C shows the yz plane (in the first embodiment). An effective viewing section 102 yz when projected onto the YcZc plane in the coordinate system of the outside camera 20 is shown. As shown in FIG. 11A, it can be seen that the driver 12 recognizes the hazard 100 because the hazard 100 is included in the effective visual space 102 of the driver 12.

図3に示される機能ブロック50の有効視空間算出部57(有効視空間算出手段)は、注視点位置座標DB78に記録された過去tフレーム間分(所定の時間分)の注視点座標から構成される3次元凸包を運転手の有効視空間として求める。即ち、時系列の注視点群から3次元凸包を生成することにより、その領域を有効視空間とする。以下、詳細に説明する。   The effective visual space calculation unit 57 (effective visual space calculation means) of the functional block 50 shown in FIG. 3 is composed of gaze point coordinates for the past t frames (for a predetermined time) recorded in the gaze point position coordinate DB 78. The three-dimensional convex hull is obtained as the driver's effective visual space. That is, by generating a three-dimensional convex hull from a time series of gazing point groups, that region is made an effective visual space. Details will be described below.

tフレーム分の注視点座標をX={x,x、・・・,x}とするとき、これらから構成される3次元凸包を運転者12の有効視空間とする。具体的には注視点座標の集合において、 When the gazing point coordinates for t frames are X = {x 1 , x 2 ,..., x t }, the three-dimensional convex hull formed from these is set as the effective viewing space of the driver 12. Specifically, in a set of gazing point coordinates,

の条件を満たすすべての凸結合 All convex combinations that satisfy

の共通部分(凸包)C を求める。凸包のデータ構造は、3次元凸多面体の境界を平面グラフと考え、二重連結リストで保持する。図12は、逐次添加法によって3次元凸包を求めるアルゴリズム(非特許文献7参照)をフローチャートで示す。図12に示されるように、x,x,x,xの4点で凸包(四面体)C(X)を構成する(ステップS70)。m=5とする(ステップS72)。m個目の点xをC(Xm−1) に加えてC(X)を作成する(ステップS74)。もしx がC(Xm−1)の内部にある場合、xは凸包C(X)の内部の点であるため、何もしないでステップS80へ進む(ステップS76)。そうでない場合、可視面を削除して地平面の辺とxとで構成できる面を新たなファセットとして追加する(ステップS78)。ステップS80でm≠tでなければmを1加算してステップS74へ戻る(ステップS80、S82)。 Find the common part (convex hull) C of. The data structure of the convex hull considers the boundary of the three-dimensional convex polyhedron as a plane graph and holds it in a doubly linked list. FIG. 12 is a flowchart showing an algorithm for obtaining a three-dimensional convex hull by the sequential addition method (see Non-Patent Document 7). As shown in FIG. 12, a convex hull (tetrahedron) C (X 4 ) is constituted by four points x 1 , x 2 , x 3 , x 4 (step S 70). m = 5 is set (step S72). The points x m of the m-th addition to C (X m-1) to create a C (X m) (step S74). If x m is inside C (X m−1 ), x m is a point inside the convex hull C (X m ), so the process proceeds to step S80 without doing anything (step S76). Otherwise, the visible surface is deleted and a surface that can be composed of the side of the ground plane and x m is added as a new facet (step S78). If m ≠ t in step S80, m is incremented by 1 and the process returns to step S74 (steps S80 and S82).

可視面の求め方:x、x、xの順の有効連結リストのファセットにおいて、{(x−x)×(x−x)}・(x−x)>0ならそのファセットは可視面である。
地平面の求め方:削除した可視面と辺を共有するファセットがxに対して不可視面であればその辺は地平面の辺である。
Determining the Visible Surface: {(x i −x j ) × (x j −x k )} · (x i −x m )> in the facets of the effective linked list in the order of x i , x j and x k If 0, the facet is visible.
Determination of the horizontal plane: the neighborhood is a side of the horizontal plane if the invisible face against facet sharing deleted visible surface and sides x m.

図13は逐次追加の様子を例示する。図13(A)はm個目の点xを凸包C(Xm−1) に加える状態を示し、図13(B)はm個目の点xが凸包C(Xm−1) に加えられて凸包C(X)が生成された状態を示す。 FIG. 13 illustrates the state of sequential addition. FIG. 13A shows a state where the m-th point x m is added to the convex hull C (X m−1 ), and FIG. 13B shows that the m-th point x m is the convex hull C (X m− was added to 1) shows a state where the convex hull C (X m) is generated.

以上のように、本発明の実施例2によれば、運転手12の眼球12L等を基点とした過去tフレーム間の視線方向ベクトル(注視点べクトル)で構成される3次元凸包を有効視空間と定義する。運転者12の有効視空間102内にハザード100が含まれていれば、運転者12はハザード100を認知していることがわかる。有効視空間算出部57は、注視点位置座標DB78に記録された過去tフレーム間分(所定の時間分)の注視点座標から構成される3次元凸包を運転手の有効視空間として求める。即ち、時系列の注視点群から3次元凸包を生成することにより、その領域を有効視空間とする。3次元凸包は逐次添加法によって求めることができる。以上により、運転者12の心理状態等の心的要因によって変化する3次元的な有効視野(有効視空間)の時間的変化を測定することができる3次元範囲計測システム等を提供することができる。   As described above, according to the second embodiment of the present invention, the three-dimensional convex hull composed of the gaze direction vector (gaze vector) between the past t frames with the eyeball 12L of the driver 12 as a base point is effective. It is defined as visual space. If the hazard 100 is included in the effective visual space 102 of the driver 12, it can be understood that the driver 12 recognizes the hazard 100. The effective visual space calculation unit 57 obtains a three-dimensional convex hull composed of gazing point coordinates for the past t frames (a predetermined time) recorded in the gazing point position coordinate DB 78 as the driver's effective visual space. That is, by generating a three-dimensional convex hull from a time series of gazing point groups, that region is made an effective visual space. The three-dimensional convex hull can be obtained by the sequential addition method. As described above, it is possible to provide a three-dimensional range measurement system and the like that can measure a temporal change in a three-dimensional effective visual field (effective visual space) that changes depending on mental factors such as the psychological state of the driver 12. .

実施例3では、実施例2で説明した有効視空間を運転者12に対して表示する例について説明する。図3に示される機能ブロック50の有効視空間表示部58(有効視空間表示手段)は、有効視空間算出部57により算出された有効視空間の路面上への正射影像を求め、コンピュータ40に接続された表示装置84(後述)に当該正射影像を所定の方式で表示する。   In the third embodiment, an example in which the effective visual space described in the second embodiment is displayed to the driver 12 will be described. The effective visual space display unit 58 (effective visual space display means) of the functional block 50 shown in FIG. 3 obtains an orthogonal projection image on the road surface of the effective visual space calculated by the effective visual space calculation unit 57, and the computer 40. The orthogonal projection image is displayed in a predetermined manner on a display device 84 (described later) connected to the.

図14は、本発明の実施例3における有効視空間の表示例を示す。有効視空間102の広さを色で表し(原図)、十分広い有効視空間が保たれている場合は緑色で表示し(図14(A)の広く且つ遠方状態、図14(B)の広く且つ近い状態)、有効視空間が狭まっているときには赤色で警告をするように表示する(図14(C)の狭く且つ近い状態、図14(D)の狭く且つ遠方状態)。有効視空間外にハザード(歩行者など車両の進路方向にあって衝突可能性の有るもの)が存在する場合にはピクトグラム(図14(C)の自転車100a、図14(D)の歩行者100b)を表示して運転者12に注意を促す。但し、表示する有効視空間の最大奥行きは車外のステレオ計測精度に依存する。遠方まで正確な計測ができるカメラを使用する場合には表示できる有効視空間の大きさも広くなる。表示する有効視空間の左右の広がりも車外のステレオ計測性能に依存する。広視野領域を精度よく計測できる魚眼カメラの場合には表示できる左右の広がりも広くなる。   FIG. 14 shows a display example of the effective visual space according to the third embodiment of the present invention. The area of the effective viewing space 102 is represented by color (original drawing), and is displayed in green when a sufficiently wide effective viewing space is maintained (a wide and distant state in FIG. 14A, a wide view in FIG. 14B). When the effective visual space is narrow, a warning is displayed in red (narrow and close state in FIG. 14C, narrow and far state in FIG. 14D). If there is a hazard (such as a pedestrian in the direction of the vehicle and having a possibility of collision) outside the effective visual space, a pictogram (bicycle 100a in FIG. 14C, pedestrian 100b in FIG. 14D) ) Is displayed to alert the driver 12. However, the maximum depth of the effective visual space to be displayed depends on the stereo measurement accuracy outside the vehicle. When using a camera that can accurately measure far away, the effective viewing space that can be displayed also becomes large. The left and right extent of the effective visual space to be displayed also depends on the stereo measurement performance outside the vehicle. In the case of a fisheye camera that can accurately measure a wide field of view, the left and right spread that can be displayed is also widened.

以上のように、本発明の実施例3によれば、有効視空間算出部57により算出された有効視空間の路面上への正射影像を求め、コンピュータ40に接続された表示装置84(後述)に当該正射影像を所定の方式で表示する。この結果、水平視野角、垂直視野角、奥行きを映像で表示し、色による有効視空間の大きさ表現、見落としハザードの表示を行うことができる。   As described above, according to the third embodiment of the present invention, the orthogonal projection image on the road surface of the effective visual space calculated by the effective visual space calculation unit 57 is obtained, and the display device 84 (described later) connected to the computer 40 is obtained. ) Is displayed in a predetermined manner. As a result, the horizontal viewing angle, the vertical viewing angle, and the depth can be displayed as an image, and the size of the effective viewing space can be expressed by color and an oversight hazard can be displayed.

実施例4では、実施例2で説明した有効視空間を利用した種々の運転支援の仕組みについて説明する。図3に示される機能ブロック50のハザード座標検出部59(ハザード検出手段)は、車両10の運転者12から見える3次元空間の範囲内に存在するハザードの座標を検出し、警告部59(警告手段)はハザード座標検出部59により検出されたハザードの座標と注視点位置座標DB78に記録された所定の時間分の注視点座標とに基づき、所定の警告を発する。   In the fourth embodiment, various driving support mechanisms using the effective visual space described in the second embodiment will be described. The hazard coordinate detection unit 59 (hazard detection means) of the functional block 50 shown in FIG. 3 detects the coordinates of the hazard that exists in the range of the three-dimensional space that can be seen from the driver 12 of the vehicle 10, and the warning unit 59 (warning The means) issues a predetermined warning based on the hazard coordinates detected by the hazard coordinate detection unit 59 and the gaze point coordinates for a predetermined time recorded in the gaze point position coordinate DB 78.

ハザード座標検出部59は、車外画像DB70に記録された車外画像から所定の動物体解析手法により車両10の外のハザードを検出して車外カメラ20の座標系で特定し、その後当該座標を上述した方法と同様にして車内カメラ30の座標系へ合わせる。所定の動物体解析手法としては既存技術であるオプティカルフローアルゴリズムによる解析手法が好適である。発明者らはHalcon(登録商標) machine vision library function(optical_flow_mg())を使用した。詳細は、Halcon(登録商標) reference manual(http://www/mvtec.com/download/documentation/reference-9.0/hdevelop/optical_flow_mg.html)を参照されたい。   The hazard coordinate detection unit 59 detects a hazard outside the vehicle 10 from a vehicle outside image recorded in the vehicle outside image DB 70 by a predetermined moving body analysis method, specifies the coordinate system of the vehicle outside camera 20, and then the coordinates are described above. The coordinate system of the in-vehicle camera 30 is adjusted in the same manner as the method. As the predetermined moving body analysis method, an analysis method using an optical flow algorithm which is an existing technique is suitable. The inventors used the Halcon® machine vision library function (optical_flow_mg ()). For details, refer to the Halcon (registered trademark) reference manual (http: //www/mvtec.com/download/documentation/reference-9.0/hdevelop/optical_flow_mg.html).

ハザード座標検出部59により検出されたハザードの座標と注視点位置座標DB78に記録された所定の時間分の注視点座標とを用いることにより、運転者12がハザードを見ていたのか否かを特定することができる。言い換えれば、運転者12があるハザードを見落としていたことも特定できる。ハザードの3次元座標は上述したように得ることができるため、高価なレーザ装置を用いなくても車両10とハザードとの間の距離を測定することもできる。従って当該距離と車両10の走行速度とからハザードに衝突するまでの時間も得ることができる。このため、より正確な警告(音声または画像表示)を発することができる。加えて、運転者12の視線計測ができるため、運転者12が計器類、同乗者等に気を取られて前方を見ないというディストラクション(distraction)を検知することも可能である。   By using the hazard coordinates detected by the hazard coordinate detection unit 59 and the gaze point coordinates for a predetermined time recorded in the gaze point position coordinate DB 78, it is specified whether or not the driver 12 was watching the hazard. can do. In other words, it can be specified that the driver 12 has overlooked a certain hazard. Since the three-dimensional coordinates of the hazard can be obtained as described above, the distance between the vehicle 10 and the hazard can also be measured without using an expensive laser device. Therefore, it is possible to obtain the time until the collision with the hazard from the distance and the traveling speed of the vehicle 10. For this reason, a more accurate warning (audio or image display) can be issued. In addition, since it is possible to measure the line of sight of the driver 12, it is possible to detect a distraction in which the driver 12 is distracted by instruments, passengers, etc. and does not look forward.

以上のように、本発明の実施例4によれば、ハザード座標検出部59により検出されたハザードの座標と注視点位置座標DB78に記録された所定の時間分の注視点座標とを用いることにより、種々の正確な警告を発することができる。このため、本発明の3次元範囲計測システムを車両10に搭載することにより、より安全性が高く且つ安価な車両10を提供することが可能となる。   As described above, according to the fourth embodiment of the present invention, the hazard coordinates detected by the hazard coordinate detection unit 59 and the gaze point coordinates for a predetermined time recorded in the gaze point position coordinate DB 78 are used. Various accurate warnings can be issued. For this reason, by mounting the three-dimensional range measurement system of the present invention on the vehicle 10, it is possible to provide the vehicle 10 with higher safety and lower cost.

図15は、本発明の3次元範囲計測プログラムを実行するPC(コンピュータ)40の内部回路80を示すブロック図である。図15に示されるように、CPU81、ROM82、RAM83、画像制御部86、コントローラ87、入力制御部90および外部I/F部92はバス93に接続されている。図15において、上述した本発明の3次元範囲計測プログラムは、ROM82、ディスク88(又は44)、DVD若しくはCD−ROM89等の記録媒体(脱着可能な記録媒体を含む)に記録されている。ディスク88(又は44)には、上述した種々の車外画像DB70、視線情報DB72、画素座標情報DB74、三角形パッチ情報DB76、注視点位置座標DB78等を記録しておくことができる。3次元範囲計測プログラムは、ROM82からバス93を介し、あるいはディスク88又はDVD若しくはCD−ROM89等の記録媒体からコントローラ87を経由してバス93を介しRAM83へロードされる。画像制御部86は、有効視空間表示部58または警告部60等により表示される種々の画面の画像データをVRAM85へ送出する。表示装置(ディスプレイ)84はVRAM85から送出された上記データ等を表示する。VRAM85は表示装置84の一画面分のデータ容量に相当する容量を有している画像メモリである。入力操作部91はPC40に入力等を行うためのマウス、キーボード等の入力装置であり、入力制御部90は入力操作部91と接続され入力制御等を行う。外部I/F部92はPC40の外部にある車外カメラ20および車内カメラ30と接続する際のインタフェース機能を有している。   FIG. 15 is a block diagram showing an internal circuit 80 of a PC (computer) 40 that executes the three-dimensional range measurement program of the present invention. As shown in FIG. 15, the CPU 81, ROM 82, RAM 83, image control unit 86, controller 87, input control unit 90, and external I / F unit 92 are connected to a bus 93. In FIG. 15, the above-described three-dimensional range measurement program of the present invention is recorded on a recording medium (including a removable recording medium) such as ROM 82, disk 88 (or 44), DVD or CD-ROM 89. On the disk 88 (or 44), the above-described various vehicle outside image DB 70, line-of-sight information DB 72, pixel coordinate information DB 74, triangle patch information DB 76, gazing point position coordinate DB 78, and the like can be recorded. The three-dimensional range measurement program is loaded into the RAM 83 from the ROM 82 via the bus 93 or from a recording medium such as the disk 88 or DVD or CD-ROM 89 via the controller 87 via the bus 93. The image control unit 86 sends image data of various screens displayed by the effective visual space display unit 58 or the warning unit 60 to the VRAM 85. A display device (display) 84 displays the above data sent from the VRAM 85. The VRAM 85 is an image memory having a capacity corresponding to the data capacity of one screen of the display device 84. The input operation unit 91 is an input device such as a mouse or a keyboard for inputting to the PC 40, and the input control unit 90 is connected to the input operation unit 91 and performs input control. The external I / F unit 92 has an interface function when connecting to the outside camera 20 and the inside camera 30 outside the PC 40.

上述したようにコンピュータ(CPU)81が本発明の3次元範囲計測プログラムを実行することにより、本発明の目的を達成することができる。3次元範囲計測プログラムは上述のようにDVD若しくはCD−ROM89等の記録媒体の形態でコンピュータ(CPU)81に供給することができ、3次元範囲計測プログラムを記録したDVD若しくはCD−ROM89等の記録媒体も同様に本発明を構成することになる。3次元範囲計測プログラムを記録した記録媒体としては上述された記録媒体の他に、例えばメモリ・カード、メモリ・スティック、光ディスク等を用いることができる。   As described above, when the computer (CPU) 81 executes the three-dimensional range measurement program of the present invention, the object of the present invention can be achieved. As described above, the three-dimensional range measurement program can be supplied to the computer (CPU) 81 in the form of a recording medium such as a DVD or CD-ROM 89, and can be recorded on the DVD or CD-ROM 89 or the like on which the three-dimensional range measurement program is recorded. The medium similarly constitutes the present invention. As a recording medium on which the three-dimensional range measurement program is recorded, for example, a memory card, a memory stick, an optical disk, or the like can be used in addition to the recording medium described above.

上述した各実施例の説明では、図2の事前のカメラ校正(ステップS1)については触れなかった。本発明においても、既存の手法を用いて事前のカメラ校正を行っており、カメラの内部パラメータ(これは焦点距離、レンズ歪み、画素サイズなどから成る)を事前に得ている。この校正が事前に行えているという前提で、上述した式1からは、カメラの内部パラメータで正規化した(レンズの歪などの影響を取り除いた)ul、vl等を利用している。式1、2の焦点距離fも事前のカメラ校正で求めた数値を利用している。   In the description of each embodiment described above, the prior camera calibration (step S1) in FIG. 2 has not been mentioned. Also in the present invention, camera calibration is performed in advance using an existing method, and internal parameters of the camera (which includes focal length, lens distortion, pixel size, etc.) are obtained in advance. On the premise that this calibration can be performed in advance, the above-described Equation 1 uses ul, vl, etc. normalized by the internal parameters of the camera (excluding effects such as lens distortion). The numerical values obtained by the camera calibration in advance are also used for the focal lengths f in Equations 1 and 2.

本発明の活用例として、事故防止ツールに適用することができる。わが国の交通事故を法令違反別に見ると、安全不確認が約3割と最も多いと言われている。事故と視覚認知特性との関連では、特に中高年の有効視野と事故率との相関が高いことも報告されている。このため、本発明の3次元範囲計測システム1等(特に有効視空間表示部58の機能)を利用して、交通状況に応じた自身の有効視空間を常時把握することにより、過大評価することなく、安全運転スタイルを心がけるようにすることができる。   As an application example of the present invention, it can be applied to an accident prevention tool. When we look at traffic accidents in Japan by violation of laws and regulations, it is said that there are about 30% of unconfirmed safety. Regarding the relationship between accidents and visual perception characteristics, it has been reported that there is a high correlation between the effective vision of middle-aged and elderly people and the accident rate. For this reason, using the 3D range measurement system 1 or the like of the present invention (particularly the function of the effective visual space display unit 58), it is necessary to overestimate by constantly grasping its own effective visual space according to traffic conditions. It is possible to keep a safe driving style in mind.

1 3次元範囲計測システム、 10 車両、 12 運転者、 12L、12R 眼球、 20、25L、25R 車外カメラ、 30、30L、30R 車内カメラ、 40 PC、 42 記録装置、 50 機能ブロック、 51 対応点マッチング部、 52 3次元座標算出部、 53 変換パラメータ算出部、 54 画素座標算出部、 55 三角形パッチ構成部、 56 交点算出部、 57 有効視空間算出部、 58 有効視空間表示部、 59 ハザード座標検出部、 60 警告部、 70 車外画像DB、 72 視線情報DB、 74 画素座標情報DB、 76 三角形パッチ情報DB、 78 注視点位置座標DB、81 CPU、 82 ROM、 83 RAM、 84 表示装置、 85 VRAM、 86 画像制御部、 87 コントローラ、 88 ディスク、 89 CD−ROM、 80 入力制御部、 91 入力操作部、 92 外部I/F部、 93 バス 100 ハザード、 102 有効視空間。   1 3D range measurement system, 10 vehicle, 12 driver, 12L, 12R eyeball, 20, 25L, 25R exterior camera, 30, 30L, 30R in-vehicle camera, 40 PC, 42 recording device, 50 function block, 51 corresponding point matching Unit, 52 three-dimensional coordinate calculation unit, 53 conversion parameter calculation unit, 54 pixel coordinate calculation unit, 55 triangular patch configuration unit, 56 intersection calculation unit, 57 effective visual space calculation unit, 58 effective visual space display unit, 59 hazard coordinate detection Section, 60 warning section, 70 vehicle exterior image DB, 72 line-of-sight information DB, 74 pixel coordinate information DB, 76 triangle patch information DB, 78 gaze point position coordinate DB, 81 CPU, 82 ROM, 83 RAM, 84 display device, 85 VRAM , 86 Image control unit, 87 Control La, 88 disk, 89 CD-ROM, 80 an input control unit, 91 input operation unit, 92 external I / F unit, 93 a bus 100 hazard 102 effective visual space.

那倉達哉、入倉隆著、「疲労と有効視の関係」, 照明学会誌, 第89 巻, 第11号,2005.Tatsuya Nakakura, Takashi Irikura, “Relationship between fatigue and effective vision”, Journal of the Illuminating Engineering Society of Japan, Vol. 89, No. 11, 2005. McConkie George W. and RaynerKeith: “The span of the effective stimulus during a fixationsin reading”, Perceptionand Psychophisics,17, pp.578-586,1975.McConkie George W. and RaynerKeith: “The span of the effective stimulus during a fixationsin reading”, Perceptionand Psychophisics, 17, pp.578-586,1975. 三浦利章著、「行動場面における視覚的認知」, 日本心理学会第48回大会発表論文集, S68−69,1984.Toshiaki Miura, “Visual Cognition in Behavioral Scenes”, Proceedings of the 48th Annual Meeting of the Psychological Society of Japan, S68-69, 1984. 立花康夫, 河合敏勝, 小林洋介, 栗原哲也, 菊池孝之著、「魚眼レンズ写真から任意焦点レンズ画像への変換」, 電子情報通信学会技術研究報告. SIP, 信号処理: IEICE technical report107,No.22, pp.25-30, 2007.Yasuo Tachibana, Toshikatsu Kawai, Yosuke Kobayashi, Tetsuya Kurihara, Takayuki Kikuchi, "Conversion from Fisheye Lens Photo to Arbitrary Focus Lens Image", IEICE Technical Report. SIP, Signal Processing: IEICE technical report107, No.22, pp.25-30, 2007. 加瀬翔太, 奥津良太, 光本尚訓, 新垣洋平, 下村倫子, 寺林賢司, 梅田和昇著、「複数の魚眼カメラの内部・外部パラメータの同定による俯瞰画像生成」, 電気学会研究会資料. IP, 情報処理研究会2008, No.13, pp.43−48, 2008.Shota Kase, Ryota Okutsu, Naotsu Mitsumoto, Yohei Aragaki, Ryoko Shimomura, Kenji Terabayashi, and Kazunobu Umeda, "Overhead Image Generation by Identifying Internal and External Parameters of Multiple Fisheye Cameras", IEEJ Study Material. IP, Information Processing Society of Japan 2008, No.13, pp.43-48, 2008. 永森千貴, 西本武志, 山口順一著、「魚眼ステレオ視覚センサ」, 第12 回画像センシングシンポジウム予稿集, pp.137−140, 2006.Nagamori Chiki, Nishimoto Takeshi, Yamaguchi Junichi, "Fisheye Stereo Vision Sensor", Proceedings of the 12th Image Sensing Symposium, pp.137-140, 2006. K.L. Clarkson and P.W. Shor: “Applications of random sampling incomputational geometry,II”, Discrete Computer Geometry, No.4, pp.387−421,1989.K.L.Clarkson and P.W.Shor: “Applications of random sampling incomputational geometry, II”, Discrete Computer Geometry, No.4, pp.387-421, 1989.

Claims (13)

車両の運転者から見える3次元空間の範囲を計測する3次元範囲計測システムであって、車外環境をステレオ計測する2台の広角レンズカメラを有する車外撮像器と、運転者の視線方向を計測する車内撮像器と、該車外撮像器及び該車内撮像器に接続されたコンピュータとを備え、コンピュータが、
前記車内撮像器の座標系を世界座標系とし前記車外撮像器の座標系を該車内撮像器の座標系に合わせ、該車内撮像器の計測から得られた運転者の視直線と該車外撮像器の計測から得られた車外環境の画像上の隣接する3つの画素毎に設定された三角形パッチとの交点を運転者の注視点の3次元座標とすることにより、運転者から見える3次元空間の範囲を測定することを特徴とする3次元範囲計測システム。
A three-dimensional range measurement system that measures a range of a three-dimensional space that can be seen by a driver of a vehicle, and that measures an outside image sensor having two wide-angle lens cameras that measure the outside environment in stereo and the direction of the driver's line of sight An in-vehicle imager, and an external imager and a computer connected to the in-vehicle imager, the computer comprising:
The coordinate system of the in-vehicle imager is the world coordinate system, the coordinate system of the in-vehicle imager is matched with the coordinate system of the in-vehicle imager, and the driver's line of sight obtained from the measurement of the in-vehicle imager and the out-of-vehicle imager The intersection of the triangle patch set for every three adjacent pixels on the image of the environment outside the vehicle obtained from the above measurement is set as the three-dimensional coordinates of the driver's point of sight, so that the three-dimensional space visible to the driver A three-dimensional range measurement system characterized by measuring a range.
請求項1記載の3次元範囲計測システムにおいて、前記車外撮像器は車外に設置された等距離射影方式の左右の魚眼レンズカメラを広角レンズカメラとして用い、前記車内撮像器は車内に設置されたイメージセンサを用いて運転者の両眼球の回転角度及び位置座標を取得することを特徴とする3次元範囲計測システム。   2. The three-dimensional range measurement system according to claim 1, wherein the image sensor outside the vehicle uses an equidistant projection left and right fisheye lens camera installed outside the vehicle as a wide-angle lens camera, and the image sensor inside the vehicle is installed inside the vehicle. A three-dimensional range measurement system that acquires a rotation angle and position coordinates of both eyes of a driver using 請求項2記載の3次元範囲計測システムにおいて、前記コンピュータは、
前記車外撮像器を用いて撮像された左右の魚眼レンズカメラによる左右の車外画像を記録した車外画像記録部と、
前記車内撮像器を用いて取得された、世界座標系における所定の点を注視する際の運転者の両眼球の回転角度及び位置座標と該所定の点の座標とを対応させて記録した視線情報記録部と、
前記車外画像記録部に記録された左右の車外画像に対して所定の条件を満たす画素の集合としてエピポーラ線を求め、該エピポーラ線上を探索することにより左右の車外画像における対応点を求める対応点マッチング手段と、
前記対応点マッチング手段により対応点が求められた画素については該画素に投影される車外の3次元空間における点の位置座標を求めると共に、対応点が求められなかった画素については該画素の周辺画素から補間を行うことにより該画素に投影される車外の3次元空間における点の座標を求める3次元座標算出手段と、
前記3次元座標算出手段により求められた車外の3次元空間における点の座標をユークリッド変換して前記視線情報記録部に記録された世界座標系における所定の点の座標とする際の変換パラメータを求める変換パラメータ算出手段と、
前記変換パラメータ算出手段により求められた変換パラメータを用いて、前記車外画像記録部に記録された左右の車外画像上の全ての画素につき世界座標系における座標を計算して画素座標情報記録部に記録する画素座標算出手段と、
前記画素座標情報記録部に記録された隣り合う3つの画素毎に所定の方式で三角形パッチを構成し、該三角形パッチに関する情報を三角形パッチ情報記録部に記録する三角形パッチ構成手段と、
前記視線情報記録部に記録された世界座標系における所定の点を注視する際の運転者の両眼球の回転角度及び位置座標と該所定の点の座標とから得られる運転者の視直線と、前記三角形パッチ情報記録部に記録された三角形パッチとの交点を有する三角形パッチを所定の方法により求め、該交点を運転者の注視点の3次元座標とし、該注視点の位置座標を時間の経過と共に注視点位置座標記録部に記録する交点算出手段とを備えたことを特徴とする3次元範囲計測システム。
3. The three-dimensional range measurement system according to claim 2, wherein the computer is
A vehicle exterior image recording unit that records left and right exterior images of the left and right fisheye lens cameras imaged using the exterior vehicle;
Line-of-sight information recorded using the in-vehicle imager in association with the rotation angle and position coordinates of the driver's eyes when watching a predetermined point in the world coordinate system and the coordinates of the predetermined point A recording section;
Corresponding point matching that obtains an epipolar line as a set of pixels that satisfy a predetermined condition with respect to the left and right outside images recorded in the outside image recording unit, and obtains corresponding points in the left and right outside images by searching on the epipolar line Means,
For the pixel for which the corresponding point is obtained by the corresponding point matching means, the position coordinates of the point in the three-dimensional space outside the vehicle projected onto the pixel are obtained, and for the pixel for which the corresponding point is not obtained, the peripheral pixels of the pixel Three-dimensional coordinate calculation means for obtaining coordinates of a point in a three-dimensional space outside the vehicle projected onto the pixel by performing interpolation from
A conversion parameter is obtained when the coordinates of the point in the three-dimensional space outside the vehicle obtained by the three-dimensional coordinate calculation means are converted into the coordinates of the predetermined point in the world coordinate system recorded in the line-of-sight information recording unit. Conversion parameter calculation means;
Using the conversion parameters obtained by the conversion parameter calculation means, the coordinates in the world coordinate system are calculated and recorded in the pixel coordinate information recording unit for all the pixels on the left and right outside images recorded in the outside image recording unit. Pixel coordinate calculating means for
A triangular patch forming unit configured to form a triangular patch in a predetermined manner for every three adjacent pixels recorded in the pixel coordinate information recording unit, and record information about the triangular patch in the triangular patch information recording unit;
The driver's line of sight obtained from the rotation angle and position coordinates of the driver's eyes when watching a predetermined point in the world coordinate system recorded in the line-of-sight information recording unit, and the coordinates of the predetermined point; A triangular patch having an intersection with the triangular patch recorded in the triangular patch information recording unit is obtained by a predetermined method, the intersection is set as a three-dimensional coordinate of the driver's gazing point, and the position coordinate of the gazing point is a passage of time. A three-dimensional range measurement system comprising: an intersection point calculation means for recording in the gazing point position coordinate recording unit.
請求項3記載の3次元範囲計測システムにおいて、前記注視点位置座標記録部に記録された所定の時間分の注視点座標から構成される3次元凸包を運転手の有効視空間として求める有効視空間算出手段をさらに備えたことを特徴とする3次元範囲計測システム。   4. The three-dimensional range measurement system according to claim 3, wherein an effective vision for obtaining a three-dimensional convex hull composed of gaze point coordinates for a predetermined time recorded in the gaze point position coordinate recording unit as an effective visual space for a driver. A three-dimensional range measurement system further comprising space calculation means. 請求項4記載の3次元範囲計測システムにおいて、前記有効視空間算出手段により算出された有効視空間の路面上への正射影像を求め、前記コンピュータに接続された表示装置に該正射影像を所定の方式で表示する有効視空間表示手段をさらに備えたことを特徴とする3次元範囲計測システム。   5. The three-dimensional range measurement system according to claim 4, wherein an orthographic image on the road surface of the effective visual space calculated by the effective visual space calculating means is obtained, and the orthographic image is displayed on a display device connected to the computer. A three-dimensional range measurement system further comprising effective visual space display means for displaying in a predetermined manner. 請求項3乃至5のいずれかに記載の3次元範囲計測システムにおいて、
車両の運転者から見える3次元空間の範囲内に存在するハザードの座標を検出するハザード座標検出手段と、
前記ハザード座標検出手段により検出されたハザードの座標と前記注視点位置座標記録部に記録された所定の時間分の注視点座標とに基づき、所定の警告を発する警告手段とをさらに備えたことを特徴とする3次元範囲計測システム。
The three-dimensional range measurement system according to any one of claims 3 to 5,
Hazard coordinate detection means for detecting the coordinates of the hazard present in the range of the three-dimensional space visible to the driver of the vehicle;
Warning means for issuing a predetermined warning based on the hazard coordinates detected by the hazard coordinate detection means and the gazing point coordinates for a predetermined time recorded in the gazing point position coordinate recording unit. Characteristic 3D range measurement system.
車両の運転者から見える3次元空間の範囲を計測する3次元範囲計測プログラムであって、車外環境をステレオ計測する2台の広角レンズカメラを有する車外撮像器と、運転者の視線方向を計測する車内撮像器と、該車外撮像器及び該車内撮像器に接続されたコンピュータとを用いるものであり、コンピュータに、
前記車内撮像器の座標系を世界座標系とし前記車外撮像器の座標系を該車内撮像器の座標系に合わせ、該車内撮像器の計測から得られた運転者の視直線と該車外撮像器の計測から得られた車外環境の画像上の隣接する3つの画素毎に設定された三角形パッチとの交点を運転者の注視点の3次元座標とすることにより、運転者から見える3次元空間の範囲の測定を実行させるための3次元範囲計測プログラム。
A three-dimensional range measurement program for measuring a range of a three-dimensional space that can be seen by a driver of a vehicle, and measuring an outside image pickup device having two wide-angle lens cameras for measuring the outside environment in stereo, and a driver's gaze direction An in-vehicle imager, and an external imager and a computer connected to the in-vehicle imager are used.
The coordinate system of the in-vehicle imager is the world coordinate system, the coordinate system of the in-vehicle imager is matched with the coordinate system of the in-vehicle imager, and the driver's line of sight obtained from the measurement of the in-vehicle imager and the out-of-vehicle imager The intersection of the triangle patch set for every three adjacent pixels on the image of the environment outside the vehicle obtained from the above measurement is set as the three-dimensional coordinates of the driver's point of sight, so that the three-dimensional space visible to the driver A three-dimensional range measurement program for executing range measurement.
請求項7記載の3次元範囲計測プログラムにおいて、前記車外撮像器は車外に設置された等距離射影方式の左右の魚眼レンズカメラを広角レンズカメラとして用い、前記車内撮像器は車内に設置されたイメージセンサを用いて運転者の両眼球の回転角度及び位置座標を取得することを特徴とする3次元範囲計測プログラム。   8. The three-dimensional range measurement program according to claim 7, wherein the image sensor outside the vehicle uses an equidistant projection type left and right fisheye lens camera installed outside the vehicle as a wide-angle lens camera, and the image sensor inside the vehicle is installed inside the vehicle. A three-dimensional range measurement program for acquiring a rotation angle and position coordinates of both eyes of a driver using 請求項8記載の3次元範囲計測プログラムにおいて、前記コンピュータは、
前記車外撮像器を用いて撮像された左右の魚眼レンズカメラによる左右の車外画像を記録した車外画像記録部と、
前記車内撮像器を用いて取得された、世界座標系における所定の点を注視する際の運転者の両眼球の回転角度及び位置座標と該所定の点の座標とを対応させて記録した視線情報記録部とをさらに用い、コンピュータに、
前記車外画像記録部に記録された左右の車外画像に対して所定の条件を満たす画素の集合としてエピポーラ線を求め、該エピポーラ線上を探索することにより左右の車外画像における対応点を求める対応点マッチングステップ、
前記対応点マッチングステップで対応点が求められた画素については該画素に投影される車外の3次元空間における点の位置座標を求めると共に、対応点が求められなかった画素については該画素の周辺画素から補間を行うことにより該画素に投影される車外の3次元空間における点の座標を求める3次元座標算出ステップ、
前記3次元座標算出ステップで求められた車外の3次元空間における点の座標をユークリッド変換して前記視線情報記録部に記録された世界座標系における所定の点の座標とする際の変換パラメータを求める変換パラメータ算出ステップ、
前記変換パラメータ算出ステップで求められた変換パラメータを用いて、前記車外画像記録部に記録された左右の車外画像上の全ての画素につき世界座標系における座標を計算して画素座標情報記録部に記録する画素座標算出ステップ、
前記画素座標情報記録部に記録された隣り合う3つの画素毎に所定の方式で三角形パッチを構成し、該三角形パッチに関する情報を三角形パッチ情報記録部に記録する三角形パッチ構成ステップ、
前記視線情報記録部に記録された世界座標系における所定の点を注視する際の運転者の両眼球の回転角度及び位置座標と該所定の点の座標とから得られる運転者の視直線と、前記三角形パッチ情報記録部に記録された三角形パッチとの交点を有する三角形パッチを所定の方法により求め、該交点を運転者の注視点の3次元座標とし、該注視点の位置座標を時間の経過と共に注視点位置座標記録部に記録する交点算出ステップを実行させることを特徴とする3次元範囲計測プログラム。
The three-dimensional range measurement program according to claim 8, wherein the computer includes:
A vehicle exterior image recording unit that records left and right exterior images of the left and right fisheye lens cameras imaged using the exterior vehicle;
Line-of-sight information recorded using the in-vehicle imager in association with the rotation angle and position coordinates of the driver's eyes when watching a predetermined point in the world coordinate system and the coordinates of the predetermined point Further using the recording unit, the computer,
Corresponding point matching that obtains an epipolar line as a set of pixels that satisfy a predetermined condition with respect to the left and right outside images recorded in the outside image recording unit, and obtains corresponding points in the left and right outside images by searching on the epipolar line Step,
For the pixel for which the corresponding point is obtained in the corresponding point matching step, the position coordinates of the point in the three-dimensional space outside the vehicle projected onto the pixel are obtained, and for the pixel for which the corresponding point is not obtained, the peripheral pixels of the pixel A three-dimensional coordinate calculation step for obtaining coordinates of a point in a three-dimensional space outside the vehicle projected onto the pixel by performing interpolation from
A conversion parameter for obtaining the coordinates of a predetermined point in the world coordinate system recorded in the line-of-sight information recording unit by Euclidean transformation of the coordinates of the point in the three-dimensional space outside the vehicle obtained in the three-dimensional coordinate calculation step is obtained. Conversion parameter calculation step,
Using the conversion parameters obtained in the conversion parameter calculation step, the coordinates in the world coordinate system are calculated and recorded in the pixel coordinate information recording unit for all the pixels on the left and right outside images recorded in the outside image recording unit. A pixel coordinate calculating step,
A triangular patch configuration step of configuring a triangular patch in a predetermined manner for every three adjacent pixels recorded in the pixel coordinate information recording unit, and recording information about the triangular patch in the triangular patch information recording unit,
The driver's line of sight obtained from the rotation angle and position coordinates of the driver's eyes when watching a predetermined point in the world coordinate system recorded in the line-of-sight information recording unit, and the coordinates of the predetermined point; A triangular patch having an intersection with the triangular patch recorded in the triangular patch information recording unit is obtained by a predetermined method, the intersection is set as a three-dimensional coordinate of the driver's gazing point, and the position coordinate of the gazing point is a passage of time. A three-dimensional range measurement program that executes an intersection calculation step that is recorded in the gazing point position coordinate recording unit.
請求項9記載の3次元範囲計測プログラムにおいて、前記注視点位置座標記録部に記録された所定の時間分の注視点座標から構成される3次元凸包を運転手の有効視空間として求める有効視空間算出ステップをさらに備えたことを特徴とする3次元範囲計測プログラム。   10. The three-dimensional range measurement program according to claim 9, wherein an effective vision for obtaining a three-dimensional convex hull composed of gaze point coordinates for a predetermined time recorded in the gaze point position coordinate recording unit as an effective visual space for a driver. A three-dimensional range measurement program further comprising a space calculation step. 請求項10記載の3次元範囲計測プログラムにおいて、前記有効視空間算出ステップにより算出された有効視空間の路面上への正射影像を求め、前記コンピュータに接続された表示装置に該正射影像を所定の方式で表示する有効視空間表示ステップをさらに備えたことを特徴とする3次元範囲計測プログラム。   The three-dimensional range measurement program according to claim 10, wherein an orthographic image on the road surface of the effective visual space calculated by the effective visual space calculation step is obtained, and the orthographic image is displayed on a display device connected to the computer. A three-dimensional range measurement program further comprising an effective visual space display step for displaying in a predetermined method. 請求項9乃至11のいずれかに記載の3次元範囲計測プログラムにおいて、
車両の運転者から見える3次元空間の範囲内に存在するハザードの座標を検出するハザード座標検出ステップと、
前記ハザード座標検出ステップにより検出されたハザードの座標と前記注視点位置座標記録部に記録された所定の時間分の注視点座標とに基づき、所定の警告を発する警告ステップとをさらに備えたことを特徴とする3次元範囲計測プログラム。
In the three-dimensional range measurement program according to any one of claims 9 to 11,
A hazard coordinate detection step for detecting the coordinates of the hazard existing within the range of the three-dimensional space visible to the driver of the vehicle;
A warning step for issuing a predetermined warning based on the hazard coordinates detected by the hazard coordinate detection step and the gaze point coordinates for a predetermined time recorded in the gaze point position coordinate recording unit; Characteristic 3D range measurement program.
請求項7乃至12のいずれかに記載の3次元範囲計測プログラムを記録したコンピュータ読取り可能な記録媒体。

A computer-readable recording medium on which the three-dimensional range measurement program according to any one of claims 7 to 12 is recorded.

JP2011158420A 2011-07-19 2011-07-19 Three-dimensional range measurement system, three-dimensional range measurement program and recording medium Withdrawn JP2013024662A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011158420A JP2013024662A (en) 2011-07-19 2011-07-19 Three-dimensional range measurement system, three-dimensional range measurement program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011158420A JP2013024662A (en) 2011-07-19 2011-07-19 Three-dimensional range measurement system, three-dimensional range measurement program and recording medium

Publications (1)

Publication Number Publication Date
JP2013024662A true JP2013024662A (en) 2013-02-04

Family

ID=47783194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011158420A Withdrawn JP2013024662A (en) 2011-07-19 2011-07-19 Three-dimensional range measurement system, three-dimensional range measurement program and recording medium

Country Status (1)

Country Link
JP (1) JP2013024662A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162901A (en) * 2014-02-27 2015-09-07 ハーマン インターナショナル インダストリーズ インコーポレイテッド Virtual see-through instrument cluster with live video
CN105352455A (en) * 2015-11-18 2016-02-24 宁波大学 Image-fuzzy-degree-based plane inclination measurement method
CN109559356A (en) * 2018-12-26 2019-04-02 长安大学 A kind of highway sighting distance detection method based on machine vision
CN110796116A (en) * 2018-11-08 2020-02-14 英属开曼群岛商麦迪创科技股份有限公司 Multi-panel display system, vehicle with multi-panel display system and display method
CN110969064A (en) * 2018-09-30 2020-04-07 北京四维图新科技股份有限公司 Image detection method and device based on monocular vision and storage equipment
US10663295B2 (en) 2015-12-04 2020-05-26 Socionext Inc. Distance measurement system, mobile object, and component
CN111462233A (en) * 2020-03-20 2020-07-28 武汉理工大学 Recovery data processing method and system for ship cab and storage medium
CN113011388A (en) * 2021-04-23 2021-06-22 吉林大学 Vehicle outer contour size detection method based on license plate and lane line
CN113119975A (en) * 2021-04-29 2021-07-16 东风汽车集团股份有限公司 Distance identification display method, device and equipment and readable storage medium
CN113689491A (en) * 2021-09-02 2021-11-23 广州市奥威亚电子科技有限公司 Target positioning method, multi-target tracking method and device
CN113819890A (en) * 2021-06-04 2021-12-21 腾讯科技(深圳)有限公司 Distance measuring method, distance measuring device, electronic equipment and storage medium
CN114132259A (en) * 2021-12-10 2022-03-04 东南大学 Automobile exterior rearview mirror adjusting method and device and automobile
US11529968B1 (en) 2022-06-07 2022-12-20 Robert A. Schaeffer Method and system for assisting drivers in locating objects that may move into their vehicle path

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162901A (en) * 2014-02-27 2015-09-07 ハーマン インターナショナル インダストリーズ インコーポレイテッド Virtual see-through instrument cluster with live video
CN105352455A (en) * 2015-11-18 2016-02-24 宁波大学 Image-fuzzy-degree-based plane inclination measurement method
US10663295B2 (en) 2015-12-04 2020-05-26 Socionext Inc. Distance measurement system, mobile object, and component
CN110969064A (en) * 2018-09-30 2020-04-07 北京四维图新科技股份有限公司 Image detection method and device based on monocular vision and storage equipment
CN110969064B (en) * 2018-09-30 2023-10-27 北京四维图新科技股份有限公司 Image detection method and device based on monocular vision and storage equipment
CN110796116A (en) * 2018-11-08 2020-02-14 英属开曼群岛商麦迪创科技股份有限公司 Multi-panel display system, vehicle with multi-panel display system and display method
US10896017B2 (en) * 2018-11-08 2021-01-19 Yu-Sian Jiang Multi-panel display system and method for jointly displaying a scene
CN109559356A (en) * 2018-12-26 2019-04-02 长安大学 A kind of highway sighting distance detection method based on machine vision
CN109559356B (en) * 2018-12-26 2022-09-16 长安大学 Expressway sight distance detection method based on machine vision
CN111462233B (en) * 2020-03-20 2024-02-13 武汉理工大学 Method, system and storage medium for processing restored data of ship cab
CN111462233A (en) * 2020-03-20 2020-07-28 武汉理工大学 Recovery data processing method and system for ship cab and storage medium
CN113011388B (en) * 2021-04-23 2022-05-06 吉林大学 Vehicle outer contour size detection method based on license plate and lane line
CN113011388A (en) * 2021-04-23 2021-06-22 吉林大学 Vehicle outer contour size detection method based on license plate and lane line
CN113119975A (en) * 2021-04-29 2021-07-16 东风汽车集团股份有限公司 Distance identification display method, device and equipment and readable storage medium
CN113819890A (en) * 2021-06-04 2021-12-21 腾讯科技(深圳)有限公司 Distance measuring method, distance measuring device, electronic equipment and storage medium
CN113819890B (en) * 2021-06-04 2023-04-14 腾讯科技(深圳)有限公司 Distance measuring method, distance measuring device, electronic equipment and storage medium
CN113689491A (en) * 2021-09-02 2021-11-23 广州市奥威亚电子科技有限公司 Target positioning method, multi-target tracking method and device
CN113689491B (en) * 2021-09-02 2023-12-01 广州市奥威亚电子科技有限公司 Target positioning method, multi-target tracking method and device
CN114132259A (en) * 2021-12-10 2022-03-04 东南大学 Automobile exterior rearview mirror adjusting method and device and automobile
US11697425B1 (en) 2022-06-07 2023-07-11 Robert Schaeffer Method and system for assisting drivers in locating objects that may move into their vehicle path
US11529968B1 (en) 2022-06-07 2022-12-20 Robert A. Schaeffer Method and system for assisting drivers in locating objects that may move into their vehicle path

Similar Documents

Publication Publication Date Title
JP2013024662A (en) Three-dimensional range measurement system, three-dimensional range measurement program and recording medium
JP6265348B2 (en) Eye-gaze measuring device, eye-gaze measuring method, and eye-gaze measuring program
JP6197388B2 (en) Distance measuring device, distance measuring method, and program
WO2018030515A1 (en) Line-of-sight detection device
JP5482737B2 (en) Visual load amount estimation device, driving support device, and visual load amount estimation program
JP6392693B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and program
KR101769177B1 (en) Apparatus and method for eye tracking
US11410430B2 (en) Surround view system having an adapted projection surface
KR20170135952A (en) A method for displaying a peripheral area of a vehicle
CN111854620B (en) Monocular camera-based actual pupil distance measuring method, device and equipment
KR20200071960A (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera Convergence
JP2013168063A (en) Image processing device, image display system, and image processing method
JP5624370B2 (en) Moving body detection apparatus and moving body detection method
CN111860292A (en) Monocular camera-based human eye positioning method, device and equipment
JP6669182B2 (en) Occupant monitoring device
US7599546B2 (en) Image information processing system, image information processing method, image information processing program, and automobile
JP2014165810A (en) Parameter acquisition device, parameter acquisition method and program
JP5853457B2 (en) Vehicle perimeter monitoring system
JP2012022646A (en) Visual line direction detector, visual line direction detection method and safe driving evaluation system
JP2018101212A (en) On-vehicle device and method for calculating degree of face directed to front side
CN113553920A (en) Gazing direction characteristic acquisition method and device, computer equipment and storage medium
CN106303501B (en) Stereo-picture reconstructing method and device based on image sparse characteristic matching
JP2013200840A (en) Video processing device, video processing method, video processing program, and video display device
JP7040627B2 (en) Calculator, information processing method and program
Kwon et al. Selective attentional point-tracking through a head-mounted stereo gaze tracker based on trinocular epipolar geometry

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007