JP2009251761A - Driving support system - Google Patents

Driving support system Download PDF

Info

Publication number
JP2009251761A
JP2009251761A JP2008096524A JP2008096524A JP2009251761A JP 2009251761 A JP2009251761 A JP 2009251761A JP 2008096524 A JP2008096524 A JP 2008096524A JP 2008096524 A JP2008096524 A JP 2008096524A JP 2009251761 A JP2009251761 A JP 2009251761A
Authority
JP
Japan
Prior art keywords
driver
area
vehicle
viewed
already
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008096524A
Other languages
Japanese (ja)
Inventor
Kiyoyuki Uchida
清之 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008096524A priority Critical patent/JP2009251761A/en
Publication of JP2009251761A publication Critical patent/JP2009251761A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a driving support system capable of urging a driver to visually confirm a dead angle range with simple configuration. <P>SOLUTION: The driving support system comprises an upper camera (110), a front camera (120), a control ECU (130) and a display part (140). A driver's head is imaged by the cameras 110, 120. The control ECU (130) generates information on the eye position and face direction of the driver from the picked-up image. The control ECU (130) computes a vehicle outside area visually confirmed by the driver, and when the vehicle outside area includes a predetermined area, controls a display part (140) to inform the driver to the effect. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、運転支援システムに関し、より特定的には、車両に搭載されて、当該車両のドライバーに死角範囲の目視確認を促すことができる運転支援システムに関する。   The present invention relates to a driving support system, and more particularly to a driving support system that is mounted on a vehicle and can prompt a driver of the vehicle to visually check a blind spot range.

従来、車両を運転しているドライバーのアイポイントを検出して、上記ドライバーにとって、上記車両の構造部による死角となる範囲を上記アイポイントから検出する運転視界補助装置が知られている。このような装置の一例として、例えば特許文献1に開示された装置がある。上記特許文献1に開示されている装置は、ドライバーのアイポイントを検出するアイポイント検出センサと、当該アイポイントに基づいて上記車両外界の死角範囲を演算する演算手段と、上記車両外界の障害物を検出する障害物検出センサとを備えている。そして、上記装置は、上記車両の停車中に、ドライバーにとって死角となる範囲に障害物が存在したとき、上記ドライバーに警報を発する。これによって、ドライバーは上記車両外界の死角範囲に例えば、人や自転車などの障害物が存在していることを知ることができる。
実開平1−178700号公報
2. Description of the Related Art Conventionally, there has been known a driving field assist device that detects an eye point of a driver who is driving a vehicle and detects a range that is a blind spot due to the structure of the vehicle from the eye point. As an example of such an apparatus, there is an apparatus disclosed in Patent Document 1, for example. The apparatus disclosed in Patent Literature 1 includes an eye point detection sensor that detects a driver's eye point, a calculation unit that calculates a blind spot range of the vehicle external environment based on the eye point, and an obstacle in the vehicle external environment. And an obstacle detection sensor for detecting. The device issues an alarm to the driver when there is an obstacle in a blind spot for the driver while the vehicle is stopped. Accordingly, the driver can know that an obstacle such as a person or a bicycle exists in the blind spot range of the outside of the vehicle.
Japanese Utility Model Publication No. 1-178700

しかしながら、上記装置は障害物センサによって車両外界の障害物を検出しているため、例えば、車両が交差点で一旦停止している場合、交差点を通行する人や自転車などは、上記車両のドライバーにとって死角となる範囲を殆ど横切ることになる。つまり、結果的には、ドライバーに対して上記装置は常に警告を発することになり、ドライバーは煩わしさを感じることになる。また、交差点などで一旦停止した場合、本来はドライバー自身が頭を動かすなどして周囲を目視により確認すことが望ましいが、上記装置ではドライバーにとって死角となる範囲を目視により確認したか否かまでは判断することができない。   However, since the apparatus detects obstacles outside the vehicle by the obstacle sensor, for example, when the vehicle is temporarily stopped at the intersection, a person or a bicycle traveling at the intersection may be blind spot for the driver of the vehicle. Will almost cross the range. That is, as a result, the device always issues a warning to the driver, and the driver feels troublesome. In addition, when stopping at an intersection or the like, it is originally desirable to visually check the surroundings by moving the head of the driver himself. Cannot be judged.

本発明は、上記事情に鑑みてなされたものであり、その目的とするところは、簡易な構成で、ドライバーに死角範囲の目視確認を促すことができる、運転支援システムを提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a driving support system that can prompt the driver to visually check the blind spot range with a simple configuration.

上記のような目的を達成するために、本発明は、以下に示すような特徴を有している。第1の発明は、車両の運転者に報知を行う運転支援システムである。運転支援システムは、第1の撮像手段、第2の撮像手段、視線方向算出手段、視野領域算出手段、死角領域算出手段、視認中領域算出手段、既視認領域記憶手段、既視認領域更新手段、および全体視野判定手段を備える。第1の撮像手段および第2の撮像手段は、車両の運転席に着席した運転者の頭部を互いに異なる方向から撮像する。視線方向算出手段は、上記各撮像手段が撮像した画像を用いて前記運転者の特徴点を検出し、当該特徴点から前記運転者の目の位置および視線方向を算出する。視野領域算出手段は、上記目の位置および上記視線方向に基づいて、運転者の視界を遮る障害物が全く無いと仮定した場合に運転者が視認できているであろう車両外界の領域である視野領域を算出する。死角領域算出手段は、上記目の位置および上記視線方向と、視界を遮り得る車両の特定部位の位置との基づいて、死角となっているであろう車両外界の領域を算出する。視認中領域算出手段は、視認領域から死角領域を除くことによって、運転者が実際に視認しているであろう車両外界の領域である視認中領域を算出する。既視認領域記憶手段は、運転者が既に視認したであろう車両外界の領域を既視認領域として記憶する。既視認領域更新手段は、視認中領域が算出されるたびに、当該算出された視認中領域が既視認領域に含まれるように既視認領域記憶手段に記憶されている既視認領域を更新する。全体視認判定手段は、既視認領域に基づいて、車両外界の予め定められた領域である要視認領域の全体を運転者が視認したか否かを判定する。報知手段は、全体視認判定手段の判定結果に基づいて運転者に対して報知を行う。   In order to achieve the above object, the present invention has the following features. 1st invention is the driving assistance system which alert | reports to the driver | operator of a vehicle. The driving support system includes a first imaging unit, a second imaging unit, a line-of-sight direction calculating unit, a visual field region calculating unit, a blind spot region calculating unit, a currently viewing region calculating unit, a previously viewed region storing unit, a previously viewed region updating unit, And an overall visual field judging means. The first image pickup means and the second image pickup means pick up images of the head of the driver who is seated in the driver's seat of the vehicle from different directions. The line-of-sight direction calculating means detects the feature point of the driver using the images picked up by the respective image pickup means, and calculates the position and line-of-sight direction of the driver's eyes from the feature point. The field-of-view area calculation means is an area outside the vehicle that the driver will be able to see based on the position of the eyes and the direction of the line of sight, assuming that there are no obstacles that block the driver's field of vision. Calculate the field of view. The blind spot area calculating means calculates the area of the vehicle outside that will be a blind spot based on the position of the eyes and the direction of the line of sight and the position of a specific part of the vehicle that can block the view. The visually recognizing area calculation means calculates a visually recognizing area that is an area outside the vehicle that the driver will actually view by removing the blind spot area from the visually recognizing area. The already-viewed area storage means stores an area outside the vehicle that the driver would have already viewed as the already-viewed area. The already-viewed area update unit updates the already-viewed area stored in the already-viewed area storage unit so that the calculated currently-viewed area is included in the already-viewed area every time the currently-viewed area is calculated. The overall visual recognition determination means determines whether or not the driver has visually recognized the entire visual recognition required area, which is a predetermined area in the outside of the vehicle, based on the existing visual recognition area. The notifying means notifies the driver based on the determination result of the overall visual recognition determining means.

第2の発明は、上記第1の発明において、視線方向算出手段は、前記第1の撮像手段と前記第2の撮像手段とが撮像した画像を用いて、前記運転者の目を検出し、当該目の情報を前記特徴点として検出する。   In a second aspect based on the first aspect, the line-of-sight direction calculating means detects the driver's eyes using images captured by the first imaging means and the second imaging means, The eye information is detected as the feature point.

第3の発明は、上記第1または第2の発明において、視認中領域算出手段は、当該視認中領域算出手段に入力される車両情報に基づいて車両が停車中か否かを判断し、当該車両は停車中であると判断したときに、運転者が実際に視認しているであろう車両外界の領域である視認中領域を算出し、運転者が既に視認したであろう前記車両外界の領域を既視認領域として既視認領域記憶手段に記憶する。また、車両が走行することによって、既視認領域は、既視認領域記憶手段から全て消去される。   According to a third aspect, in the first or second aspect, the currently-viewing area calculation unit determines whether the vehicle is stopped based on the vehicle information input to the currently-viewing area calculation unit, When it is determined that the vehicle is at a stop, a visible area, which is the area of the vehicle outside that the driver will actually see, is calculated, and the outside of the vehicle outside that the driver has already seen is calculated. The area is stored in the already-viewed area storage unit as the already-viewed area. Further, as the vehicle travels, the already-viewed area is completely erased from the already-viewed area storage unit.

第4の発明は、上記第3の発明において、既視認領域記憶手段に記憶されている既視認領域は、既視認領域更新手段によって、所定時間経過後に順次消去される。   According to a fourth aspect, in the third aspect, the already-viewed area stored in the already-viewed area storage unit is sequentially deleted by the already-viewed area update unit after a predetermined time has elapsed.

第5の発明は、上記第4の発明において、報知手段は、車両に備わった表示灯であり、全体視認判定手段が、車両外界の予め定められた領域である要視認領域の全体を運転者が視認したと判断した場合に表示灯を点灯させ、車両が走行することによって表示灯を消灯させることを特徴とする。   In a fifth aspect based on the fourth aspect, the notifying means is an indicator lamp provided in the vehicle, and the overall visual recognition determining means is configured so that the entire visual recognition area, which is a predetermined area in the external environment of the vehicle, is displayed to the driver. When it is determined that the vehicle has been visually recognized, the indicator lamp is turned on, and the indicator lamp is turned off when the vehicle travels.

第6の発明は、上記第1の発明において、特徴点とは、目、鼻、鼻孔、口、眉、および耳の何れかを含む。   In a sixth aspect based on the first aspect, the feature point includes any of eyes, nose, nostril, mouth, eyebrows, and ears.

上記第1の発明によれば、車両の運転席に着席した運転者にとって、当該車両の構造物(フロントピラーなど)によって死角となる上記車両外界の領域を、運転者自身が確認したか否かを判断することができる。そして、死角となる上記車両外界の領域を上記運転者が確認したときに、その旨を知らせるので、運転者は死角領域までも確認したのを知ることができる。つまり、死角領域の確認がまだ十分でないことも、運転者は知ることができ、簡易な構成で、運転者に死角範囲の目視確認を促すことができる。   According to the first aspect of the present invention, whether or not the driver himself / herself has confirmed the area of the vehicle outside that becomes a blind spot by the vehicle structure (such as a front pillar) for the driver seated in the driver's seat of the vehicle. Can be judged. And when the said driver | operator confirms the area | region of the said vehicle external world used as a blind spot, since it notifies that, the driver | operator can know that it confirmed also to the blind spot area | region. In other words, the driver can know that the blind spot area has not been sufficiently confirmed, and the driver can be prompted to visually confirm the blind spot range with a simple configuration.

上記第2の発明によれば、視線方向算出手段は、第1の撮像手段および第2の撮像手段が撮像した画像を用いて、運転者の目を検出し、当該目の情報を前記特徴点として検出する。したがって、運転者の視野領域を正確に算出することができる。   According to the second aspect, the line-of-sight direction calculating unit detects the eyes of the driver using the images captured by the first imaging unit and the second imaging unit, and the information about the eyes is used as the feature point. Detect as. Therefore, the visual field area of the driver can be accurately calculated.

上記第3の発明によれば、交差点などに進入する際、一旦停止した場合、本来はドライバー自身が頭を動かすなどして周囲を目視により確認すことが望ましい領域を確認したか否かを判断することができる。また、上記車両が走行することによって、上記既視認領域は、上記既視認領域記憶手段から全て消去される。つまり、次の交差点などに進入する際、再び一旦停止した場合、目視により確認すことが望ましい領域を確認しかた否かを新たに判断することができる。   According to the third aspect of the present invention, if the vehicle stops once when entering an intersection or the like, it is determined whether or not the driver has confirmed a region where it is desirable to visually check the surroundings by moving his head. can do. Further, when the vehicle travels, the already-viewed area is completely erased from the already-viewed area storage unit. That is, when entering the next intersection or the like, if it stops once again, it can be newly determined whether or not an area that is desired to be visually confirmed is confirmed.

上記第4の発明によれば、視認中領域は、車両が停車しているときに、所定時間間隔で既視認領域記憶手段に記憶され、既記憶領域記憶手段に記憶されている視認中領域は、所定時間経過後に順次消去される。したがって、人や自転車などが行きなうように刻々と変化する走路環境においても、正確にドライバーに対して報知することができる。   According to the fourth aspect, when the vehicle is stopped, the currently-viewing area is stored in the already-viewed area storage unit at predetermined time intervals, and the currently-viewing area stored in the already-stored area storage unit is The data are sequentially erased after a predetermined time has elapsed. Therefore, it is possible to accurately notify the driver even in a road environment that changes every moment so that a person or a bicycle does not go.

上記第5の発明によれば、ドライバーは、目視により確認すことが望ましい領域を確認できたことを知ることができる。また、表示灯が点灯しなければ、ドライバーは「まだ視認できていない領域が存在する」と知ることができる。   According to the fifth aspect of the invention, the driver can know that the region that is desired to be visually confirmed can be confirmed. If the indicator lamp does not light up, the driver can know that “there is an area that has not been visually recognized yet”.

上記第6の発明によれば、目、鼻、鼻孔、口、眉、および耳などの特徴点を検出することができる。   According to the sixth aspect, it is possible to detect feature points such as eyes, nose, nostril, mouth, eyebrows, and ears.

以下、図面を参照しながら、本発明の一実施形態に係る、運転支援システムについて説明する。なお、本実施形態では当該運転支援システムが車両に搭載された場合を想定して説明する。   Hereinafter, a driving support system according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, description will be made assuming that the driving support system is mounted on a vehicle.

まず本実施形態の運転支援システムの概要について簡単に説明する。   First, an outline of the driving support system of the present embodiment will be briefly described.

ドライバーは、交差点の手前で一時停止した後に、車両の前方(右前方および左前方を含む)を確認してから車両を発進させる必要がある。図1は、上記車両が交差点に進入する前に一旦停止しているときの図である。図1に示すように、ドライバーがaの位置から上記車両の右前方を見た場合、上記車両のフロントピラーなどによって車両外界に死角が生じてしまう。したがって、仮にこの死角に車両右側から接近してくるバイクや歩行者等が存在したとしても、ドライバーはそのバイクの存在に気付かない可能性がある。そこで、ドライバーは、車両を発進させる前に、このような死角にバイクや歩行者等がいないことを確認するために、頭の位置を変えながら(例えば頭の位置を上記aの位置よりも前方に移動させて)車両の前方(特に車両の右前方および左前方)を目視により確認することが望ましい。本実施形態の運転支援システムは、このようにドライバーが頭の位置を変えながら車両の前方を目視により確認したときに、視認すべき領域をドライバーが漏れなく視認したか否かを判定し、その判定結果をドライバーに提示するものである。   The driver needs to start the vehicle after confirming the front of the vehicle (including right front and left front) after temporarily stopping before the intersection. FIG. 1 is a view when the vehicle is temporarily stopped before entering the intersection. As shown in FIG. 1, when the driver looks at the right front of the vehicle from the position a, a blind spot is generated in the outside of the vehicle due to the front pillar of the vehicle. Therefore, even if there is a motorcycle, a pedestrian, or the like approaching the blind spot from the right side of the vehicle, the driver may not notice the presence of the motorcycle. Therefore, before starting the vehicle, the driver changes the position of the head (for example, the position of the head in front of the position a above) in order to confirm that there are no motorcycles or pedestrians in such a blind spot. It is desirable to visually confirm the front of the vehicle (especially right front and left front of the vehicle). The driving support system of the present embodiment determines whether or not the driver has visually recognized the area to be visually recognized when the driver visually confirms the front of the vehicle while changing the position of the head in this way, The judgment result is presented to the driver.

図2は、一実施形態に係る、運転支援システムの構成を示したブロック図である。図2に示すように、運転支援システムシステムは、上方カメラ110と、正面カメラ120と、制御ECU130と、表示部140とを備えている。また、図3は、運転支援システムが搭載された車両の車室内の様子を示した図である。   FIG. 2 is a block diagram illustrating a configuration of a driving support system according to an embodiment. As shown in FIG. 2, the driving support system system includes an upper camera 110, a front camera 120, a control ECU 130, and a display unit 140. FIG. 3 is a view showing a state of the interior of the vehicle equipped with the driving support system.

上方カメラ110は、運転席に着席したドライバーの頭部を上方から撮像できる位置に設置される。上方カメラ110の設置場所の一例として、図3に示すように上記車両の天井など、運転席に着席したドライバーの正面上方から撮像できる位置などが挙げられる。また、上方カメラ110は、例えば、所定時間間隔でドライバーの頭部を撮像する。そして、上方カメラ110が撮像した画像は、制御ECU130へ出力される。なお、上方カメラ110が撮像した画像を以下、上方画像と称する。   The upper camera 110 is installed at a position where the head of the driver seated in the driver's seat can be imaged from above. As an example of the installation location of the upper camera 110, as shown in FIG. 3, a position where an image can be taken from the upper front of the driver seated in the driver's seat, such as the ceiling of the vehicle, can be cited. Moreover, the upper camera 110 images the driver's head at predetermined time intervals, for example. Then, the image captured by upper camera 110 is output to control ECU 130. Note that an image captured by the upper camera 110 is hereinafter referred to as an upper image.

正面カメラ120は、運転席に着席したドライバーの頭部(より具体的には顔)を正面から撮像できる位置に設置される。正面カメラ120の設置場所の一例として、図3に示すように、上記車両のステアリングコラム上など、運転席に着席したドライバーの顔を正面から撮像できる位置などが挙げられる。また、正面カメラ120は、例えば、所定時間間隔でドライバーの顔を正面から撮像する。そして、正面カメラ120が撮像した画像は、制御ECU130へ出力される。なお、正面カメラ120が撮像した画像を以下、正面画像と称す。なお、上方カメラ110および正面カメラ120は、本発明の第1の撮像手段および第2の撮像手段の一例に相当する。   The front camera 120 is installed at a position where the head (more specifically, the face) of the driver seated in the driver's seat can be imaged from the front. As an example of the installation location of the front camera 120, as shown in FIG. 3, there is a position where the face of the driver seated in the driver's seat such as on the steering column of the vehicle can be imaged from the front. In addition, the front camera 120 images the driver's face from the front at predetermined time intervals, for example. Then, the image captured by front camera 120 is output to control ECU 130. Note that an image captured by the front camera 120 is hereinafter referred to as a front image. The upper camera 110 and the front camera 120 correspond to an example of the first imaging unit and the second imaging unit of the present invention.

制御ECU130は、画像処理部131と、記憶部132、および顔画像パターン格納部133を備える。制御ECU130は、典型的には中央演算装置や読み書き可能な記憶媒体等を備えるマイクロコンピューターである。制御ECU130は、各カメラ110および120が撮像した画像を処理し、上記車両の室空間内のおけるドライバーの目の位置を算出する。そして、当該目の位置の情報に基づいて、上記ドライバーが視認することができる車両外界の領域を算出する。さらに、当該算出された領域に関する情報に基づいて表示部140を制御する。なお、制御ECU130は、上記運転支援システムが搭載されている車両の車両情報を取得してもよい。上記車両情報とは、例えば上記車両の走行速度等である。   The control ECU 130 includes an image processing unit 131, a storage unit 132, and a face image pattern storage unit 133. The control ECU 130 is typically a microcomputer including a central processing unit, a readable / writable storage medium, and the like. The control ECU 130 processes the images captured by the cameras 110 and 120 and calculates the position of the driver's eyes in the vehicle room space. Then, based on the information on the position of the eyes, an area of the vehicle external environment that can be visually recognized by the driver is calculated. Further, the display unit 140 is controlled based on the information related to the calculated area. The control ECU 130 may acquire vehicle information of a vehicle on which the driving support system is mounted. The vehicle information is, for example, the traveling speed of the vehicle.

画像処理部131は、詳細は後述するが、上方カメラ110が撮像した画像および正面カメラ120が撮像した画像から、ドライバーの目を検出し、当該各画像中におけるドライバーの目の位置を算出する。さらに、画像処理部131は、上記目の位置および各カメラ110および120の設置位置などから、上記車両の車室空間内においてドライバーの目が存在する位置(x、y、z)に関する情報と、ドライバーの顔向き角度θに関する情報とを算出する。なお、ドライバーの目が存在する位置(x、y、z)とは、図3に示すように、上記車両の車室空間内の任意の点を原点とし、上記車両の横幅方向をx座標、高さ方向をy座標、長さ方向をz座標とした座標系としたとき、上記車両の車室空間内においてドライバーの目が存在する位置である。   As will be described in detail later, the image processing unit 131 detects the driver's eyes from the image captured by the upper camera 110 and the image captured by the front camera 120, and calculates the position of the driver's eyes in each image. Further, the image processing unit 131 includes information on the position (x, y, z) where the driver's eyes are present in the vehicle cabin space from the position of the eyes and the installation positions of the cameras 110 and 120, Information on the driver's face orientation angle θ is calculated. Note that the position (x, y, z) where the driver's eyes exist is, as shown in FIG. 3, with an arbitrary point in the passenger compartment space of the vehicle as an origin, and the lateral width direction of the vehicle as an x coordinate, When a coordinate system is used in which the height direction is the y-coordinate and the length direction is the z-coordinate, this is the position where the eyes of the driver are present in the vehicle cabin space.

さらに画像処理部131は、算出された情報(具体的には、目の位置(x、y、z)と顔向き角度θ)に基づいて、ドライバーが実際に視認しているであろう車両外界の領域を算出し、当該視認したであろう領域が予め定められた領域(具体的には、フロントピラーなどによって生じる死角領域)を網羅できたか否かを判断する。そして、画像処理部131は、当該判断結果に基づいて表示部140を制御する。なお、画像処理部131は、本発明の視線方向算出手段、視野領域算出手段、死角領域算出手段、視認中領域算出手段、既視認領域更新手段、および全体視認判定手段の一例に相当する。   Furthermore, the image processing unit 131 determines the vehicle external environment that the driver will actually see based on the calculated information (specifically, the eye position (x, y, z) and the face orientation angle θ). This area is calculated, and it is determined whether or not the area that would have been viewed can cover a predetermined area (specifically, a blind spot area caused by a front pillar or the like). Then, the image processing unit 131 controls the display unit 140 based on the determination result. The image processing unit 131 corresponds to an example of a line-of-sight direction calculating unit, a visual field region calculating unit, a blind spot region calculating unit, a currently-viewing region calculating unit, an already-viewed region updating unit, and an overall visual determining unit.

記憶部132は、画像処理部131で算出された各種情報を一時的に記憶しておくための読み書き可能な記憶媒体である。なお、記憶部132は、本発明の既視認領域記憶手段の一例に相当する。   The storage unit 132 is a readable / writable storage medium for temporarily storing various types of information calculated by the image processing unit 131. The storage unit 132 corresponds to an example of the already-viewed area storage unit of the present invention.

顔画像パターン格納部133は、読み書き可能な記憶媒体で構成され、人物の顔画像パターンを示す情報が記憶されている。具体的には、顔画像パターンは、顔の大きさ、目の大きさ、鼻の大きさ等の様々なパターンを含んでいる。また、顔画像パターンは、様々な人物の顔部品のテンプレート画像(例えば、目のテンプレート画像)を含んでいる。なお、顔画像パターン格納部133に記憶されている顔の情報は、例えば上記車両のユーザーの書き換え作業等によって、適宜更新されてもよい。   The face image pattern storage unit 133 is configured by a readable / writable storage medium, and stores information indicating a person's face image pattern. Specifically, the face image pattern includes various patterns such as a face size, an eye size, and a nose size. The face image pattern includes template images (for example, eye template images) of various human face parts. Note that the face information stored in the face image pattern storage unit 133 may be appropriately updated by, for example, rewriting work of the user of the vehicle.

表示部140は、画像処理部131からの指示に従って、当該車両に備わった警告灯を点灯または消灯させる。なお、表示部140は、本発明の報知手段の一例に相当する。   The display unit 140 turns on or off a warning lamp provided in the vehicle according to an instruction from the image processing unit 131. The display unit 140 corresponds to an example of the notification unit of the present invention.

このように、一実施形態に係る運転支援システムは、各カメラ110および120によってドライバーの頭部を撮像する。そして、画像処理部131は、当該撮像された画像から、上記車両の車室空間内におけるドライバーの目の位置(x、y、z)および顔向き角度θに関する情報を生成する。つまり、画像処理部131は、ドライバーの視線の方向と目の位置とを算出することができる。さらに、画像処理部131は、当該視線の方向と目の位置とからドライバーが視認した車両外界の領域を算出し、予め定められた車両外界の領域(後述の設定領域S)の全体をドライバーが視認したことが確認された場合、表示部140を制御してドライバーにその旨を知らせる。   As described above, the driving support system according to the embodiment images the head of the driver with the cameras 110 and 120. Then, the image processing unit 131 generates information on the driver's eye position (x, y, z) and the face orientation angle θ in the vehicle interior space of the vehicle from the captured image. That is, the image processing unit 131 can calculate the direction of the driver's line of sight and the position of the eyes. Further, the image processing unit 131 calculates the area of the vehicle outer environment visually recognized by the driver from the direction of the line of sight and the position of the eyes, and the driver calculates the entire area of the vehicle outer environment (the setting area S described later). When it is confirmed that the user has visually confirmed, the display unit 140 is controlled to notify the driver of the fact.

以下、図4〜図16を参照して、一実施形態に係る運転支援システムの各部が行う処理の一例を説明する。   Hereinafter, an example of processing performed by each unit of the driving support system according to the embodiment will be described with reference to FIGS.

図4〜図5は、一実施形態に係る運転支援システムの各部が行う処理の流れの一例を示したフローチャートである。なお、図4〜図5に示す処理は、運転支援システムの電源がON(例えば、運転支援システムが搭載された車両のイグニッションスイッチがON)されることによって開始される。また、当該処理は、運転支援システムの電源がOFF(例えば、イグニッションスイッチがOFF)されることによって終了する。なお、イグニッションスイッチは、以下IGと称す。   4 to 5 are flowcharts illustrating an example of a flow of processing performed by each unit of the driving support system according to the embodiment. 4 to 5 is started when the power of the driving support system is turned on (for example, an ignition switch of a vehicle on which the driving support system is mounted is turned on). In addition, the processing ends when the driving support system is turned off (for example, an ignition switch is turned off). The ignition switch is hereinafter referred to as IG.

図4のステップS40において、画像処理部131は、変数nの値を1に初期化(n=1)する。   In step S40 of FIG. 4, the image processing unit 131 initializes the value of the variable n to 1 (n = 1).

ステップS41において、画像処理部131は、各カメラ110および120から出力される画像(上方画像および正面画像)を取得する。そして、画像処理部131は、次のステップS42へ処理を進める。なお、このとき、画像処理部131は取得した各画像を記憶部132へ一旦保存してもよい。   In step S <b> 41, the image processing unit 131 acquires images (upper image and front image) output from the cameras 110 and 120. Then, the image processing unit 131 advances the processing to the next step S42. At this time, the image processing unit 131 may temporarily store the acquired images in the storage unit 132.

ステップS42において、画像処理部131は、上方画像および正面画像から上記車両の車室空間内におけるドライバーの目の位置Pを算出する。以下、画像処理部131が行う、ドライバーの目の位置を算出する方法を説明する。   In step S42, the image processing unit 131 calculates the position P of the driver's eyes in the passenger compartment space of the vehicle from the upper image and the front image. Hereinafter, a method of calculating the eye position of the driver performed by the image processing unit 131 will be described.

図6は、図4のステップS42において、画像処理部131が行う、ドライバーの目の位置を算出する動作の一例を示したフローチャートである。図7は、正面カメラ120が撮像したドライバーの顔画像の一例である。図8は、上方カメラ110が撮像したドライバーの頭画像の一例である。図9は、上方カメラ110および正面カメラ120でドライバーの頭部を撮像するときの図である。   FIG. 6 is a flowchart illustrating an example of an operation of calculating the driver's eye position performed by the image processing unit 131 in step S42 of FIG. FIG. 7 is an example of a driver's face image captured by the front camera 120. FIG. 8 is an example of a driver's head image captured by the upper camera 110. FIG. 9 is a diagram when the head of the driver is imaged by the upper camera 110 and the front camera 120.

図6のステップS61において、画像処理部131は、上記ステップS41で取得した正面画像中において、ドライバーの顔の幅(以下、顔幅Wと称す)と顔の長さ(以下、長さLと称す)とを算出する。具体的には、画像処理部131は、正面画像中の所定方向にソーベルフィルタ処理を施し、処理後のソーベル画像内における輝度の差を用い、当該ソーベル画像内からエッジ点を抽出する処理を行う。このように、画像処理部131は、エッジ点を抽出する処理を行うことによって、正面画像中におけるドライバーの顔の上端、下端、右端、および左端を検出することができる(図7参照)。そして、画像処理部131は、ソーベル画像から抽出したエッジ点を用いて、当該ソーベル画像における顔幅Wと長さLとを算出し、次のステップS62へ処理を進める。なお、このとき、画像処理部131は算出した顔幅Wと長さLとの情報を記憶部132へ一旦保存してもよい。   In step S61 of FIG. 6, the image processing unit 131 includes a driver's face width (hereinafter referred to as face width W) and face length (hereinafter referred to as length L) in the front image acquired in step S41. Calculated). Specifically, the image processing unit 131 performs a Sobel filter process in a predetermined direction in the front image, and uses the luminance difference in the processed Sobel image to extract an edge point from the Sobel image. Do. As described above, the image processing unit 131 can detect the upper end, the lower end, the right end, and the left end of the driver's face in the front image by performing the process of extracting the edge points (see FIG. 7). Then, the image processing unit 131 calculates the face width W and the length L in the Sobel image using the edge points extracted from the Sobel image, and proceeds to the next Step S62. At this time, the image processing unit 131 may temporarily store the calculated face width W and length L information in the storage unit 132.

ステップS62において、画像処理部131は、記憶部132に保存されている顔幅Wおよび長さLを参照して、正面画像中におけるドライバーの鼻孔を検出する。具体的な方法の一例として、画像処理部131は、上記ステップS61で検出した顔幅Wおよび長さLと、顔画像パターン格納部133に予め格納されている顔画像パターンとを参照して、上記正面画像において鼻孔が存在していると予想される範囲、すなわち鼻孔検索範囲を設定する。そして、画像処理部131は、設定した鼻孔検索範囲内の画像から輝度が相対的に低い画素を検出し、それら低輝度画素群の円らしさを算出する。そして、画像処理部131は、円らしさが最も高い(円に近い)点群をドライバーの鼻孔として検出し、次のステップS63へ処理を進める。   In step S <b> 62, the image processing unit 131 refers to the face width W and length L stored in the storage unit 132 and detects the driver's nostril in the front image. As an example of a specific method, the image processing unit 131 refers to the face width W and length L detected in step S61 and the face image pattern stored in advance in the face image pattern storage unit 133. A range where a nostril is expected to be present in the front image, that is, a nostril search range is set. Then, the image processing unit 131 detects pixels having relatively low luminance from the image within the set nostril search range, and calculates the circularity of the low luminance pixel group. Then, the image processing unit 131 detects the point group having the highest circularity (close to a circle) as the driver's nostril, and proceeds to the next step S63.

ステップS63において、画像処理部131は、正面画像中におけるドライバーの目の位置点FPを算出する。例えば、画像処理部131は、上記ステップS62で検出したドライバーの鼻孔の位置を基準として、上記正面画像中の目の位置を推定する。そして、画像処理部131は、正面画像中において推定された目の位置において、エッジラインを抽出する画像処理を施す。さらに、画像処理部131は、顔画像パターン格納部133に保存されている目のテンプレート画像を用いて、エッジラインが抽出された正面画像に対してパターンマッチング処理を行い、正面画像における右目の位置および左目の位置を特定する。次いで、画像処理部131は、上記正面画像における当該右目の位置と左目の位置との中間位置を目の位置点FPとして算出し、次のステップS64へ処理を進める(図7参照)。なお、このとき、画像処理部131は、当該目の位置の情報を記憶部132へ一旦保存してもよい。   In step S63, the image processing unit 131 calculates the position point FP of the driver's eyes in the front image. For example, the image processing unit 131 estimates the position of the eye in the front image on the basis of the position of the driver's nostril detected in step S62. Then, the image processing unit 131 performs image processing for extracting an edge line at the estimated eye position in the front image. Further, the image processing unit 131 uses the eye template image stored in the face image pattern storage unit 133 to perform pattern matching processing on the front image from which the edge line has been extracted, and the position of the right eye in the front image. And the position of the left eye. Next, the image processing unit 131 calculates an intermediate position between the right eye position and the left eye position in the front image as the eye position point FP, and proceeds to the next step S64 (see FIG. 7). At this time, the image processing unit 131 may temporarily store the information on the eye position in the storage unit 132.

ステップS64において、画像処理部131は、上方画像から目のエッジ点を抽出する処理を行う。例えば、画像処理部131は、上方画像中の所定方向にソーベルフィルタ処理を施す。そして、画像処理部131は頭の幅や長さなどから、上方画像中においてドライバーの目が存在していると予想される範囲でエッジ点を検出し、エッジラインを抽出する。   In step S64, the image processing unit 131 performs a process of extracting eye edge points from the upper image. For example, the image processing unit 131 performs Sobel filter processing in a predetermined direction in the upper image. Then, the image processing unit 131 detects edge points within a range in which the driver's eyes are expected to be present in the upper image from the width and length of the head, and extracts edge lines.

ステップS65において、画像処理部131は、上方画像中におけるドライバーの目の位置点TPを算出する。具体的には、画像処理部131は、顔画像パターン格納部133に保存されている目のテンプレート画像を用いて、エッジラインが抽出された上方画像に対してパターンマッチング処理を行い、上方画像における右目の位置および左目の位置を特定する。次いで、画像処理部131は、上記上方画像中における当該右目の位置と当該左目の位置との中間点を目の位置点TPとして算出する(図8参照)。そして、画像処理部131は、次のステップS66へ処理を進める。なお、画像処理部131が上方画像から目の位置を算出する処理は上述したように、正面画像において目の位置を算出する処理と同様な処理で行えばよい。また、画像処理部131は、頭の端(エッジライン)から、上方画像中におけるドライバーの目の位置を推定して、当該目の位置点TPとして算出してもよい。   In step S65, the image processing unit 131 calculates the position point TP of the driver's eyes in the upper image. Specifically, the image processing unit 131 uses the eye template image stored in the face image pattern storage unit 133 to perform pattern matching processing on the upper image from which the edge line has been extracted. Specify the position of the right eye and the position of the left eye. Next, the image processing unit 131 calculates an intermediate point between the position of the right eye and the position of the left eye in the upper image as the eye position point TP (see FIG. 8). Then, the image processing unit 131 proceeds to the next step S66. Note that the process of calculating the eye position from the upper image by the image processing unit 131 may be performed by the same process as the process of calculating the eye position in the front image as described above. Further, the image processing unit 131 may estimate the position of the driver's eyes in the upper image from the edge of the head (edge line), and calculate the eye position point TP.

ステップS66において、画像処理部131は、カメラ光軸と各点との角度を算出する。具体的には、図9に示すように、画像処理部131は、上記正面画像中におけるドライバーの顔の上端と正面カメラ120の光軸とがなす角、および上記正面画像中におけるドライバーの目の位置点FPを通る直線と正面カメラ120のカメラ光軸とがなす角を算出する。同様に、画像処理部131は、上記上方画像中におけるドライバーも頭の先端と上方カメラ110の光軸とがなす角、および上記上方画像中におけるドライバーの目の位置点TPを通る直線と上方カメラ110の光軸とがなす角を算出する。そして、画像処理部131は、次のステップS67へ処理を進める。   In step S66, the image processing unit 131 calculates an angle between the camera optical axis and each point. Specifically, as shown in FIG. 9, the image processing unit 131 detects the angle formed by the upper end of the driver's face in the front image and the optical axis of the front camera 120, and the driver's eyes in the front image. An angle formed by a straight line passing through the position point FP and the camera optical axis of the front camera 120 is calculated. Similarly, the image processing unit 131 determines that the driver in the upper image also has an angle formed by the tip of the head and the optical axis of the upper camera 110, a straight line passing through the driver's eye position point TP in the upper image, and the upper camera. An angle formed by 110 optical axes is calculated. Then, the image processing unit 131 advances the processing to the next step S67.

ステップS67において、画像処理部131は、上記ステップS66で算出された各角度、各カメラ110および120の上記車両における設置位置などから、ドライバーの目の位置点FPおよび点TPを上記車両の車室空間内におけるドライバーの目の位置Pに変換する。   In step S67, the image processing unit 131 determines the driver's eye position point FP and point TP from the angles calculated in step S66, the installation positions of the cameras 110 and 120 in the vehicle, and the like. This is converted to the eye position P of the driver in the space.

このように、ステップS61〜ステップS67の処理によって、画像処理部131は、車室空間内におけるドライバーの目の位置Pを算出することができる。換言すれば、画像処理部131は、車室空間内のおいて、ドライバーの目はどこに存在しているかを求めることができる。   As described above, the image processing unit 131 can calculate the position P of the driver's eyes in the passenger compartment space by the processes in steps S61 to S67. In other words, the image processing unit 131 can determine where the driver's eyes are present in the passenger compartment space.

なお、上述した例は一例であり、2つのカメラによって、空間における目の位置を算出できる方法であれば、他の例を用いてもかまわない。   Note that the above-described example is an example, and other examples may be used as long as the method can calculate the position of the eye in the space by two cameras.

図4に戻って、上記ステップS67におけるドライバーの目の位置Pの算出処理の後、ステップS43において、画像処理部131は、ドライバーの顔向き角度θを算出する。具体的な処理の一例を示すと、画像処理部131は、これまでのステップで鼻や目の位置や顔幅Wを算出した。画像処理部131は、当該算出された鼻や目の位置や顔幅Wから顔の中心線を求め、当該顔の中心線から、顔の左右比率を算出し、当該左右比率を角度に換算して、ドライバーの顔向き角度θを算出する。なお、顔向き角度θとは、正面カメラ120に対して正面を向いた状態でθ=0である。そして、顔向き角度θの値は、顔が正面カメラ120に対して正面を向いた状態から右方向を向くほど大きくなる。一方、顔向き角度θの値は、顔が正面カメラ120に対して正面を向いた状態から左方向を向くほど小さくなる。すなわち、顔向き角度θは、ドライバーが進行方向右側を向くと正の値となり、左側を向くと負の値となる。なお、上述したような、画像処理部131が顔向き角度θを算出する方法は一例である。よって、顔向き角度θを算出する方法は上述したような例に限られず、従来の既知の手法を用いても構わない。   Returning to FIG. 4, after the calculation process of the driver's eye position P in step S <b> 67, in step S <b> 43, the image processing unit 131 calculates the driver's face orientation angle θ. As an example of specific processing, the image processing unit 131 calculates the position of the nose and eyes and the face width W in the steps so far. The image processing unit 131 obtains the center line of the face from the calculated nose and eye positions and the face width W, calculates the left / right ratio of the face from the center line of the face, and converts the left / right ratio into an angle. Then, the driver's face orientation angle θ is calculated. Note that the face orientation angle θ is θ = 0 in a state of facing the front camera 120. Then, the value of the face orientation angle θ increases as the face turns to the right from the front facing the front camera 120. On the other hand, the value of the face angle θ decreases as the face turns to the left from the state where the face faces the front camera 120. That is, the face angle θ becomes a positive value when the driver turns to the right in the traveling direction, and becomes a negative value when the driver turns to the left. Note that the above-described method by which the image processing unit 131 calculates the face orientation angle θ is an example. Therefore, the method of calculating the face orientation angle θ is not limited to the above-described example, and a conventional known method may be used.

このように、画像処理部131は、上述したステップS41〜ステップS43までの処理を行うことによって、目の位置Pと、そのときの顔向き角度θを算出することができる。つまり、画像処理部131は、ドライバーがどの位置からどの方向を見ているか(ドライバーの目の位置および視線方向)を算出することができる。   As described above, the image processing unit 131 can calculate the eye position P and the face orientation angle θ at that time by performing the processing from step S41 to step S43 described above. That is, the image processing unit 131 can calculate from which position the driver is looking in which direction (the driver's eye position and line-of-sight direction).

ステップS44において、画像処理部131は上記車両情報に基づいて、当該車両が停止中であるか否かを判断する。具体的には、画像処理部131は、上記車両が停止中であるか否かを上記車両の走行速度に基づいて判断する。当該ステップにおいて、判断結果が肯定だった場合(YES)、すなわち画像処理部131が、上記車両は停車していると判断した場合、ステップS45へ処理を進める。一方、判断結果が否定だった場合(NO)、ステップS415へ処理を進める。   In step S44, the image processing unit 131 determines whether the vehicle is stopped based on the vehicle information. Specifically, the image processing unit 131 determines whether or not the vehicle is stopped based on the traveling speed of the vehicle. In this step, if the determination result is affirmative (YES), that is, if the image processing unit 131 determines that the vehicle is stopped, the process proceeds to step S45. On the other hand, if the determination result is negative (NO), the process proceeds to step S415.

ステップS45において、画像処理部131は、ステップS43およびステップS44において生成した情報(上記車両車室内におけるドライバーの目の位置Pおよび顔向き角度θ)に基づいて、上記車両のフロントピラーなどの存在を考慮しない場合に、すなわちドライバーの視界を遮る障害物が全くないと仮定した場合に当該ドライバーが視認できているであろう車両外界の視野領域αを算出する。図10は、ドライバーの目の位置がP1で顔向き角度がθ1であるときの視野領域αを示している。なお、視野領域αは、ドライバーの目の位置および顔向き角度に基づいて、人間が肉眼で一般的に視認することができる視野角度を考慮して算出されればよい。   In step S45, the image processing unit 131 detects the presence of the vehicle front pillar and the like based on the information generated in steps S43 and S44 (the driver's eye position P and the face angle θ in the vehicle cabin). When not considered, that is, when it is assumed that there are no obstacles that block the driver's field of vision, the visual field region α of the outside of the vehicle that the driver will be able to visually recognize is calculated. FIG. 10 shows the visual field region α when the driver's eye position is P1 and the face orientation angle is θ1. The visual field region α may be calculated in consideration of the visual field angle that can be generally visually recognized by the human eye based on the driver's eye position and face orientation angle.

ステップS46において、画像処理部131は、ステップS43およびステップS44において生成した情報(上記車両車室内におけるドライバーの目の位置P(x、y、z)および顔向き角度θ)と、予め用意された上記車両の構造物(例えば、フロントピラーなど)の位置情報に基づいて、当該構造物によって生じる車両外界の死角領域βを算出する。図11は、ドライバーの目の位置がP1で顔向き角度がθ1であるときの死角領域βを示している。そして画像処理部131はステップS47へ処理を進める。   In step S46, the image processing unit 131 is prepared in advance with the information generated in steps S43 and S44 (the driver's eye position P (x, y, z) and face orientation angle θ in the vehicle cabin). Based on the positional information of the vehicle structure (for example, the front pillar), a blind spot area β of the outside of the vehicle generated by the structure is calculated. FIG. 11 shows the blind spot region β when the driver's eye position is P1 and the face angle is θ1. Then, the image processing unit 131 advances the processing to step S47.

ステップS47において、画像処理部131、視野領域αから死角領域βを除くことによって、ドライバーが実際に視認することができる車両外界の領域である視認中領域γ(n)を算出する。図12は、ドライバーの目の位置がP1で顔向き角度がθ1であるときの視認中領域γを示している。そして、画像処理部131は、図5のステップS48へ処理を進める。   In step S47, the image processing unit 131 calculates a visible area γ (n) that is an area outside the vehicle that the driver can actually see by removing the blind spot area β from the visual field area α. FIG. 12 shows the visually recognizing region γ when the eye position of the driver is P1 and the face orientation angle is θ1. Then, the image processing unit 131 advances the processing to step S48 in FIG.

図5のステップS48において、画像処理部131は、上記ステップS47で算出した視認中領域γ(n)を、記憶部132に記憶されている既視認領域δに追加する。既視認領域δとは、一定時間だけ前の時点から現時点までの期間(例えば過去5秒間)にドライバーが実際に視認した領域である。なお、視認中領域γ(n)を既視認領域δに追加する際には、変数nの値(もしくは視認中領域γ(n)が生成された時刻に関する情報でもよい)も一緒に記憶部132に記憶しておく。   In step S <b> 48 of FIG. 5, the image processing unit 131 adds the currently-viewed region γ (n) calculated in step S <b> 47 to the already-viewed region δ stored in the storage unit 132. The already-viewed region δ is a region actually viewed by the driver during a period (for example, the past 5 seconds) from a time point before a certain time to the current time point. Note that when adding the currently-viewed region γ (n) to the already-viewed region δ, the value of the variable n (or information regarding the time at which the currently-viewed region γ (n) was generated) is also stored together. Remember it.

ステップS49において、画像処理部131は、記憶部132に記憶されている既視認領域δから、一定時間以上連続して全く視認されていない領域を削除する。削除すべき領域の判定は、視認中領域γ(n)を既視認領域δに追加する際に記憶部132に一緒に記憶された変数nの値に基づいて行われる。なお前述のように、視認中領域γ(n)を既視認領域δに追加する際に、視認中領域γ(n)が生成された時刻に関する情報も一緒に記憶部132に記憶するようにした場合には、この時刻に関する情報に基づいて、削除すべき領域を判定することができる。   In step S <b> 49, the image processing unit 131 deletes a region that has not been viewed at all for a certain period of time from the already-viewed region δ stored in the storage unit 132. The determination of the area to be deleted is performed based on the value of the variable n stored together with the storage unit 132 when the currently-viewing area γ (n) is added to the already-viewed area δ. As described above, when adding the currently visible region γ (n) to the existing visually recognized region δ, information related to the time when the currently visible region γ (n) was generated is also stored in the storage unit 132 together. In this case, the area to be deleted can be determined based on the information regarding this time.

ステップS410において、画像処理部131は、記憶部132に記憶されている既視認領域δが設定領域Sの全体を覆っている否かを判断する。設定領域Sとは、車両が発進する前に安全確認のためにドライバーが視認すべき領域として予め規定された領域であって、本実施形態では、図13に示すように車両の前端部に接する矩形領域とする。なお、設定領域Sは矩形に限らず他の形であってもよい。さらには、設定領域Sが、互いに離れた複数の領域で構成されてもよい。画像処理部131は、ステップS410の判断結果が肯定である場合(YES)、次のステップS411へ処理を進める。一方、画像処理部131は、判断結果が否定である場合(NO)、ステップS412へ処理を進め、表示部140のランプが点灯していた場合、ランプ消灯の指示をする。   In step S410, the image processing unit 131 determines whether or not the already-viewed region δ stored in the storage unit 132 covers the entire setting region S. The setting area S is an area defined in advance as an area to be visually recognized by the driver for safety confirmation before the vehicle starts. In this embodiment, the setting area S is in contact with the front end of the vehicle as shown in FIG. A rectangular area. The setting area S is not limited to a rectangle, but may be another shape. Furthermore, the setting area S may be composed of a plurality of areas separated from each other. If the determination result in step S410 is affirmative (YES), the image processing unit 131 advances the process to the next step S411. On the other hand, when the determination result is negative (NO), the image processing unit 131 proceeds to step S412 and instructs the lamp to be turned off when the lamp of the display unit 140 is turned on.

ステップS411において、画像処理部131は、表示部140を制御して、ランプを点灯させる。ここで、ランプが点灯する場合とは、既視認領域δが設定領域Sの全体を覆っている場合である。つまり、ドライバーが安全のため視認することが求められる車両外界の領域を漏れなく視認した場合、ランプは点灯することになる。一方、設定領域Sにおいてドライバーがまだ視認していない領域が残っていた場合、ランプは点灯しないことになる。これによって、ドライバーは、安全のため視認することが求められている領域の全てを確認できたか否かを知ることができる。言い換えると、表示部140が点灯しなければ、ドライバーは「まだ視認できていない領域が存在する」と知ることができる。つまり、本実施形態に係る運転支援システムは、ドライバーに対してさらに車両外界を確認するよう促すことができる。   In step S411, the image processing unit 131 controls the display unit 140 to turn on the lamp. Here, the case where the lamp is lit is a case where the already-viewed region δ covers the entire setting region S. That is, when the driver visually recognizes an area outside the vehicle that is required to be visually recognized for safety, the lamp is turned on. On the other hand, if there remains an area in the setting area S that the driver has not yet visually recognized, the lamp will not be lit. Thus, the driver can know whether or not all the areas that are required to be visually confirmed for safety have been confirmed. In other words, if the display unit 140 is not turned on, the driver can know that “there is an area that has not been visually recognized yet”. That is, the driving support system according to the present embodiment can further prompt the driver to check the outside of the vehicle.

ステップS413において、制御ECU130は、上記車両のイグニッションスイッチがOFFされたか否かを判断する。そして、制御ECU130は、イグニッションスイッチがOFFされたと判断した場合(YES)、当該フローチャートの処理を終了する。一方、制御ECU130は、上記車両のイグニッションスイッチがOFFされていないと判断した場合(NO)、ステップS414において変数nをインクリメント(n=n+1)した後、上記ステップS41に戻って処理を繰り返す。   In step S413, the control ECU 130 determines whether or not the ignition switch of the vehicle is turned off. If the control ECU 130 determines that the ignition switch has been turned off (YES), the control ECU 130 ends the process of the flowchart. On the other hand, when the control ECU 130 determines that the ignition switch of the vehicle is not turned off (NO), the control ECU 130 increments the variable n (n = n + 1) in step S414, and then returns to step S41 to repeat the process.

ステップS415において、画像処理部131は、記憶部132に記憶した既視認領域δを記憶部132から完全に消去する。このとき、必要に応じて、変数nの値を1に初期化してもよい。   In step S <b> 415, the image processing unit 131 completely erases the already-viewed area δ stored in the storage unit 132 from the storage unit 132. At this time, the value of the variable n may be initialized to 1 as necessary.

このように、本実施形態に係る運転支援システムによれば、上方カメラ110および正面120によってドライバーの頭部を撮像する。そして、画像処理部131は、当該撮像された画像からドライバーの目の位置および顔向きに関する情報を生成する。そして、画像処理部131は、ドライバーが視認した車両外界の領域を算出し、ドライバーが視認した当該車両外界の領域が予め定められた領域(設定領域S)を網羅できた場合、表示部140を制御してドライバーにその旨を知らせることができる。   Thus, according to the driving support system according to the present embodiment, the head of the driver is imaged by the upper camera 110 and the front surface 120. Then, the image processing unit 131 generates information regarding the driver's eye position and face orientation from the captured image. Then, the image processing unit 131 calculates the area of the vehicle external environment visually recognized by the driver, and when the area of the vehicle external environment visually recognized by the driver can cover the predetermined area (setting area S), the display unit 140 is displayed. The driver can be notified to that effect.

また、本実施形態に係る運転支援システムは、上記車両が停車しているときに、上記ドライバーが視認した上記車両外界の領域を既視認領域δとして順次記憶していくが、記憶部132に記憶されている既視認領域δのうち、ドライバーが一定時間(例えば5秒間)以上視認していない領域については既視認領域δから適宜に消去するようにしている。これにより、車両が長時間停車した後で発進する場合にも、発進直前に安全確認したかどうかを正確にドライバーに対して報知することができる。   Further, the driving support system according to the present embodiment sequentially stores, as the already-viewed area δ, the area outside the vehicle visually recognized by the driver when the vehicle is stopped. Among the already-viewed areas δ, areas that have not been viewed by the driver for a certain time (for example, 5 seconds) are appropriately deleted from the already-viewed areas δ. Accordingly, even when the vehicle starts after stopping for a long time, it is possible to accurately notify the driver whether or not safety has been confirmed immediately before starting.

次に、既視認領域δの記憶方法の一実施例について説明する。本実施例では、図14に示すように、記憶部132内に、設定領域Sに相当するk×mの2次元配列の記憶領域を用意する。この2次元配列の各要素の初期値は0とする。まず、視認中領域γ1を既視認領域δに追加するときには、図15に示すように、視認中領域γ1に対応する要素の値を1に書き換える。続いて、視認中領域γ2を既視認領域δに追加するときには、図16に示すように、視認中領域γ2に対応する要素の値を2に書き換える。続いて、視認中領域γ3を既視認領域δに追加するときには、視認中領域γ3に対応する要素の値を3に書き換える。以下、同様にして、視認中領域γnを既視認領域δに追加するときには、視認中領域γnに対応する要素の値をnに書き換える。これにより、各要素の値は、ドライバーがその要素に対応する領域を視認する度に増加していくが、逆に、ドライバーが長時間全く視認していない領域に対応する要素の値は、長時間更新されないままとなる。これにより、各要素の値と現時点の変数nの値との差分を計算すれば、ドライバーがその要素に対応する領域を視認していない期間を容易に計算することができ、ドライバーが一定時間(例えば5秒間)以上視認していない領域を既視認領域δから容易に除外することができる。   Next, an example of a method for storing the already-viewed area δ will be described. In this embodiment, as shown in FIG. 14, a storage area of a k × m two-dimensional array corresponding to the setting area S is prepared in the storage unit 132. The initial value of each element of this two-dimensional array is 0. First, when adding the currently-viewing region γ1 to the already-viewed region δ, as shown in FIG. 15, the value of the element corresponding to the currently-viewing region γ1 is rewritten to 1. Subsequently, when adding the visually-recognized region γ2 to the already-recognized region δ, as shown in FIG. 16, the value of the element corresponding to the visually-recognized region γ2 is rewritten to 2. Subsequently, when adding the visually-recognized region γ3 to the already-recognized region δ, the value of the element corresponding to the visually-recognized region γ3 is rewritten to 3. Similarly, when adding the currently visible region γn to the already-viewed region δ, the value of the element corresponding to the currently visible region γn is rewritten to n. As a result, the value of each element increases each time the driver visually recognizes the area corresponding to the element, but conversely, the value of the element corresponding to the area that the driver has not seen at all for a long time is long. The time will not be updated. Thus, if the difference between the value of each element and the value of the current variable n is calculated, the period during which the driver does not visually recognize the area corresponding to the element can be easily calculated. For example, an area that has not been viewed for more than 5 seconds can be easily excluded from the already-viewed area δ.

なお、既視認領域δの記憶方法の実施例は、上述した方法に限られるものではない。例えば、上記車両の前方周り(例えば上記車両の進行方向に対する左右の方位角度)を設定領域と想定し、方位角度に応じた複数の記憶領域から成る1次元配列の記憶領域を用意してもよい。   The embodiment of the method for storing the already-viewed area δ is not limited to the above-described method. For example, assuming that the setting area is around the front of the vehicle (for example, left and right azimuth angles with respect to the traveling direction of the vehicle), a one-dimensional array of storage areas may be prepared. .

上記の実施形態で説明した態様は、単に具体例を示すものであり、本願発明の技術的範囲を何ら限定するものではない。よって本願の効果を奏する範囲内において、任意の構成を採用することが可能である。   The aspect described in the above embodiment is merely a specific example, and does not limit the technical scope of the present invention. Therefore, it is possible to employ any configuration within the range where the effects of the present application are achieved.

本発明に係る運転支援システムは、簡易な構成で、ドライバーに死角範囲の目視確認を促すことができる、車両に搭載される運転支援システム等として有用である。   The driving support system according to the present invention is useful as a driving support system mounted on a vehicle or the like that can prompt the driver to visually check the blind spot range with a simple configuration.

実施形態に係る運転支援システムの概要を説明するための図The figure for demonstrating the outline | summary of the driving assistance system which concerns on embodiment. 実施形態に係る運転支援システムの構成を示すブロック図The block diagram which shows the structure of the driving assistance system which concerns on embodiment. 運転支援システムが搭載された車両の車室内の様子を示した図A diagram showing the interior of a vehicle equipped with a driving support system 運転支援システムの各部が行う処理の流れの一例の前半を示したフローチャートThe flowchart which showed the first half of an example of the flow of the processing which each part of a driving support system performs 運転支援システムの各部が行う処理の流れの一例の後半を示したフローチャートThe flowchart which showed the second half of an example of the flow of processing which each part of a driving support system performs 図4のステップS42において、制御ECU130の各部が行う、ドライバーの目の位置を算出する動作の一例を示したフローチャートFIG. 4 is a flowchart illustrating an example of an operation for calculating the driver's eye position performed by each unit of the control ECU 130 in step S42. 正面カメラ120が撮像したドライバーの顔画像の一例Example of driver's face image captured by front camera 120 上方カメラ110が撮像したドライバーの頭画像の一例Example of driver's head image taken by upper camera 110 上方カメラ110および正面カメラ120でドライバーの頭部を撮像するときの図The figure when imaging the driver's head with the upper camera 110 and the front camera 120 ドライバーの目の位置がP1で顔向き角度がθ1であるときの視野領域αを示した図The figure which showed the visual field area | region (alpha) when the position of a driver | operator's eyes is P1 and a face direction angle is (theta) 1. ドライバーの目の位置がP1で顔向き角度がθ1であるときの死角領域βを示した図The figure which showed the blind spot area | region (beta) when the position of a driver | operator's eyes is P1 and a face direction angle is (theta) 1. ドライバーの目の位置がP1で顔向き角度がθ1であるときの視認中領域γを示した図A diagram showing a currently visible region γ when the driver's eye position is P1 and the face angle is θ1. 設定領域Sの一例を示した図The figure which showed an example of setting field S 設定領域Sに相当するk×mの2次元配列の記憶領域の概念図Conceptual diagram of storage area of k × m two-dimensional array corresponding to setting area S 視認中領域γ1に対応する要素をk×mの2次元配列の記憶領域に示した図The figure which showed the element corresponding to the visual recognition area | region γ1 in the storage area of the k × m two-dimensional array 視認中領域γ2に対応する要素をk×mの2次元配列の記憶領域に書き換えた図The figure which rewritten the element corresponding to field γ2 under visual recognition to the storage area of the 2 × array of k × m

符号の説明Explanation of symbols

110 上方カメラ
120 正面カメラ
130 制御ECU
131 画像処理部
132 記憶部
133 顔画像パターン格納部
140 表示部
110 Upper camera 120 Front camera 130 Control ECU
131 Image processing unit 132 Storage unit 133 Face image pattern storage unit 140 Display unit

Claims (6)

車両の運転者に報知を行う運転支援システムであって、
前記車両の運転席に着席した前記運転者の頭部を互いに異なる方向から撮像する第1の撮像手段および第2の撮像手段と、
前記第1の撮像手段および前記第2の撮像手段が撮像した画像を用いて前記運転者の特徴点を検出し、当該特徴点から前記運転者の目の位置および視線方向を算出する視線方向算出手段と、
前記視線方向算出手段によって算出された前記運転者の目の位置および視線方向に基づいて、前記運転者の視界を遮る障害物が全く無いと仮定した場合に、前記運転者が視認できているであろう前記車両外界の領域である視野領域を算出する視野領域算出手段と、
前記視線方向算出手段によって算出された前記運転者の目の位置および視線方向と、前記運転者の視界を遮り得る前記車両の特定部分の位置とに基づいて、前記特定部分により遮られて死角となっているであろう前記車両外界の領域である死角領域を算出する死角領域算出手段と、
前記視野領域算出手段によって算出された視野領域から前記死角領域算出手段によって算出された死角領域を除くことによって、前記運転者が実際に視認しているであろう前記車両外界の領域である視認中領域を算出する視認中領域算出手段と、
前記運転者が既に視認したであろう前記車両外界の領域を既視認領域として記憶する既視認領域記憶手段と、
前記視認中領域算出手段によって前記視認中領域が算出されるたびに、当該算出された視認中領域が前記既視認領域に含まれるように、前記既視認領域記憶手段に記憶されている前記既視認領域を更新する既視認領域更新手段と、
前記既視認領域記憶手段に記憶されている前記既視認領域に基づいて、前記車両外界の予め定められた領域である要視認領域の全体を前記運転者が視認したか否かを判定する全体視認判定手段と、
前記全体視認判定手段の判定結果に基づいて前記運転者に対して報知を行う報知手段とを備える、運転支援システム。
A driving support system for notifying a driver of a vehicle,
First imaging means and second imaging means for imaging the driver's head seated in the driver's seat of the vehicle from different directions;
A gaze direction calculation that detects a feature point of the driver using images captured by the first imaging unit and the second imaging unit, and calculates a position and a gaze direction of the driver's eyes from the feature point. Means,
Based on the driver's eye position and line-of-sight direction calculated by the line-of-sight direction calculation means, the driver can visually recognize that there is no obstacle that blocks the driver's view. Visual field region calculating means for calculating a visual field region which is the region of the outside of the vehicle,
Based on the position and line-of-sight direction of the driver's eyes calculated by the line-of-sight direction calculating means and the position of the specific part of the vehicle that can obstruct the driver's field of view, A blind spot area calculating means for calculating a blind spot area that is an area of the vehicle external world that would be
By visually removing the blind spot area calculated by the blind spot area calculating means from the visual field area calculated by the visual field area calculating means, the driver is actually viewing the area outside the vehicle. A currently-viewing area calculating means for calculating the area;
An already-viewed area storage means for storing an area of the outside of the vehicle that the driver would have already viewed as an already-viewed area;
The already-viewed area stored in the already-viewed area storage unit so that the calculated currently-viewed area is included in the already-viewed area each time the currently-viewed area is calculated by the currently-viewed area calculating unit. An already-viewed area updating means for updating the area;
Overall viewing for determining whether or not the driver has viewed the entire viewable area that is a predetermined area of the outside of the vehicle based on the already-viewed area stored in the already-viewed area storage unit. A determination means;
A driving support system comprising: notifying means for notifying the driver based on the determination result of the overall visual recognition determining means.
前記視線方向算出手段は、前記第1の撮像手段および前記第2の撮像手段が撮像した画像を用いて、前記運転者の目を検出し、当該目の情報を前記特徴点として検出することを特徴とする、請求項1に記載の運転支援システム。   The line-of-sight direction calculating means detects eyes of the driver using images picked up by the first imaging means and the second imaging means, and detects information on the eyes as the feature points. The driving support system according to claim 1, wherein the driving support system is characterized. 前記視認中領域算出手段は、当該視認中領域算出手段に入力される車両情報に基づいて前記車両が停車中か否かを判断し、当該車両は停車中であると判断したときに、前記運転者が実際に視認しているであろう前記車両外界の領域である視認中領域を算出し、前記運転者が既に視認したであろう前記車両外界の領域を既視認領域として前記既視認領域記憶手段に記憶し、前記車両が走行することによって、前記既視認領域は、前記既視認領域記憶手段から全て消去されることを特徴とする、請求項1または請求項2に記載の運転支援システム。   The currently-viewing area calculation means determines whether or not the vehicle is stopped based on vehicle information input to the currently-viewing area calculation means, and determines that the vehicle is stopped when the vehicle is stopped. The currently visible region, which is the region of the vehicle external environment that the driver will actually view, is calculated, and the region of the vehicle external environment that the driver has already viewed is calculated as the already viewed region. The driving assistance system according to claim 1 or 2, wherein the already-viewed area is erased from the already-viewed area storing means by storing in the means and the vehicle travels. 前記既視認領域記憶手段に記憶されている前記既視認領域は、前記既視認領域更新手段によって、所定時間経過後に順次消去されることを特徴とする、請求項3に記載の運転支援システム。   The driving assistance system according to claim 3, wherein the already-viewed area stored in the already-viewed-area storage unit is sequentially deleted by the already-viewed area updating unit after a predetermined time has elapsed. 前記報知手段は、前記車両に備わった表示灯であり、前記全体視認判定手段が、前記車両外界の予め定められた領域である要視認領域の全体を前記運転者が視認したと判断した場合に前記表示灯を点灯させ、前記車両が走行することによって前記表示灯を消灯させることを特徴とする、請求項4に記載の運転支援システム。   The notification means is an indicator lamp provided in the vehicle, and when the overall visual recognition determination means determines that the driver has visually recognized the entire visual recognition area that is a predetermined area of the outside of the vehicle. The driving support system according to claim 4, wherein the indicator lamp is turned on and the indicator lamp is turned off when the vehicle travels. 前記特徴点とは、目、鼻、鼻孔、口、眉、および耳の何れかを含む、請求項1に記載の運転支援システム。   The driving support system according to claim 1, wherein the feature points include any of eyes, nose, nostrils, mouth, eyebrows, and ears.
JP2008096524A 2008-04-02 2008-04-02 Driving support system Pending JP2009251761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008096524A JP2009251761A (en) 2008-04-02 2008-04-02 Driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008096524A JP2009251761A (en) 2008-04-02 2008-04-02 Driving support system

Publications (1)

Publication Number Publication Date
JP2009251761A true JP2009251761A (en) 2009-10-29

Family

ID=41312439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008096524A Pending JP2009251761A (en) 2008-04-02 2008-04-02 Driving support system

Country Status (1)

Country Link
JP (1) JP2009251761A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104401261A (en) * 2014-11-24 2015-03-11 上海大众汽车有限公司 Automobile front blind area detection system and detection method thereof
WO2018008085A1 (en) * 2016-07-05 2018-01-11 三菱電機株式会社 Recognized-region estimation device, recognized-region estimation method, and recognized-region estimation program
CN110988889A (en) * 2019-11-01 2020-04-10 广西农业职业技术学院 Automobile blind area monitoring method
CN111724626A (en) * 2019-03-19 2020-09-29 罗伯特·奥瑞斯坦 Traffic permission method
WO2022244318A1 (en) * 2021-05-21 2022-11-24 日立Astemo株式会社 Vehicle control system, vehicle control device, and vehicle control method
US11804045B2 (en) 2019-01-11 2023-10-31 Nec Corporation Monitoring device, monitoring method, and recording medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104401261A (en) * 2014-11-24 2015-03-11 上海大众汽车有限公司 Automobile front blind area detection system and detection method thereof
WO2018008085A1 (en) * 2016-07-05 2018-01-11 三菱電機株式会社 Recognized-region estimation device, recognized-region estimation method, and recognized-region estimation program
JPWO2018008085A1 (en) * 2016-07-05 2018-09-27 三菱電機株式会社 Cognitive area estimation device, cognitive area estimation method, and cognitive area estimation program
CN109416884A (en) * 2016-07-05 2019-03-01 三菱电机株式会社 Identification region estimating device, identification region presumption method and identification region program for estimating
DE112016006962B4 (en) 2016-07-05 2020-06-25 Mitsubishi Electric Corporation Detection region estimating device, detection region estimation method and detection region estimation program
CN109416884B (en) * 2016-07-05 2021-02-19 三菱电机株式会社 Identification region estimation device, identification region estimation method, and identification region estimation program
US11804045B2 (en) 2019-01-11 2023-10-31 Nec Corporation Monitoring device, monitoring method, and recording medium
CN111724626A (en) * 2019-03-19 2020-09-29 罗伯特·奥瑞斯坦 Traffic permission method
CN111724626B (en) * 2019-03-19 2023-04-07 罗伯特·奥瑞斯坦 Traffic permission method
CN110988889A (en) * 2019-11-01 2020-04-10 广西农业职业技术学院 Automobile blind area monitoring method
WO2022244318A1 (en) * 2021-05-21 2022-11-24 日立Astemo株式会社 Vehicle control system, vehicle control device, and vehicle control method

Similar Documents

Publication Publication Date Title
JP4412380B2 (en) Driving support device, driving support method, and computer program
JP5421072B2 (en) Approaching object detection system
JP6205640B2 (en) Warning device for vehicle
JP5092776B2 (en) Gaze direction detection device and gaze direction detection method
JP2010130646A (en) Vehicle periphery checking system
JP2009116723A (en) Lane change support system
JP2016057839A (en) Facial direction detection device and warning system for vehicle
JP2009251761A (en) Driving support system
JP2014120111A (en) Travel support system, travel support method, and computer program
JP4952637B2 (en) Parking assistance device
JP2010160606A (en) Information presentation system for vehicle
US20180201276A1 (en) Driver condition detection system
JP2009231938A (en) Surrounding monitoring device for vehicle
JP2007263931A (en) Driver thinking estimating device, driver thinking estimating method and driver thinking estimating program
JP6805716B2 (en) Display device, display method, program
JP2014120114A (en) Travel support system, travel support method, and computer program
JP2007269309A (en) Parking support device and method, parking location setting device and method, recording medium and program
JP4337130B2 (en) Control device for driving device
JP2007008382A (en) Device and method for displaying visual information
JP6136238B2 (en) Driving support system, driving support method, and computer program
JP2010184534A (en) Dead angle display device
JP2011103058A (en) Erroneous recognition prevention device
JP2015067030A (en) Driving assist system
JP2010100088A (en) Drive assist system
JP2017191367A (en) Safe driving support device and safe driving support program