JP2013218671A - 運転支援装置および運転支援方法 - Google Patents

運転支援装置および運転支援方法 Download PDF

Info

Publication number
JP2013218671A
JP2013218671A JP2013041039A JP2013041039A JP2013218671A JP 2013218671 A JP2013218671 A JP 2013218671A JP 2013041039 A JP2013041039 A JP 2013041039A JP 2013041039 A JP2013041039 A JP 2013041039A JP 2013218671 A JP2013218671 A JP 2013218671A
Authority
JP
Japan
Prior art keywords
display
gaze
driver
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013041039A
Other languages
English (en)
Other versions
JP5630518B2 (ja
Inventor
Takeshi Shiotani
武司 塩谷
Junya Inada
純也 稲田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2013041039A priority Critical patent/JP5630518B2/ja
Priority to KR1020147026530A priority patent/KR101562877B1/ko
Priority to CN201380013976.6A priority patent/CN104169993B/zh
Priority to DE112013001472.6T priority patent/DE112013001472T5/de
Priority to PCT/JP2013/001487 priority patent/WO2013136740A1/ja
Priority to US14/376,910 priority patent/US9317759B2/en
Publication of JP2013218671A publication Critical patent/JP2013218671A/ja
Application granted granted Critical
Publication of JP5630518B2 publication Critical patent/JP5630518B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • B60K35/285Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver for improving awareness by directing driver's gaze direction or eye points
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/06Rear-view mirror arrangements mounted on vehicle exterior
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/191Highlight information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】運転者が注視した注視対象の表示を運転者が所望するときに適切に行う
【解決手段】車両の運転者の顔を連続して撮影して、顔画像データを取得する(S10)とともに、車両の前方の風景を連続して撮影して、前景画像データを取得し(S20)、顔画像データを用いて、運転者の視線方向を検出する(S30)とともに、視線方向に基づいて、運転者が注視している注視領域GRを設定する(S90)。またHUD装置は、取得された前景画像データのうち、注視領域GR内の画像データを、運転者が視認可能な位置に配置された表示画面領域に表示する。そして、視線を表示画面領域DRに向ける動作を運転者が行ったと判断した場合に(S40:YES)、注視領域GR内の画像データの表示を開始させる(S50,S110,S130,S140)。
【選択図】図3

Description

本発明は、車両の運転者を支援するための画像を表示する運転支援装置および運転支援方法に関する。
従来、車両の運転者の視線を検出し、検出した視線の方向に基づいて、運転者が視線を向けた注視対象を撮影し、この撮影画像を、運転者の前方に設けられた表示画面に拡大表示することで、運転者を支援する運転支援装置が知られている(例えば、特許文献1を参照)。
特開2009−43003号公報
しかし、上記特許文献1に記載の運転支援装置では、運転者が注視対象の拡大表示を希望することなく車両前方の風景を注視している場合にも、無駄に注視対象が拡大表示されてしまうことがあるという問題があった。
本発明は、こうした問題に鑑みてなされたものであり、運転者が注視した注視対象の表示を運転者が所望するときに適切に行うことができる技術を提供することを目的とする。
上記目的を達成するためになされた請求項1に記載の運転支援装置では、まず顔画像撮影手段が、車両の運転者の顔を連続して撮影して、顔画像を取得し、その後に視線方向検出手段が、顔画像撮影手段により取得された顔画像を用いて、運転者の視線方向を検出するとともに、注視領域設定手段が、視線方向検出手段により検出された視線方向に基づいて、運転者が注視している注視領域を設定する。
そして視線動作判断手段が、視線方向検出手段による検出結果に基づいて、運転者が視線を動かす動作と、表示手段による表示の開始を指示するために予め設定された表示開始指示動作とが一致するか否かを判断し、表示開始手段が、運転者が視線を動かす動作と表示開始指示動作とが一致すると視線動作判断手段が判断した場合に、注視領域設定手段により設定された注視領域に応じて予め設定された内容の表示情報の表示を、運転者が視認可能な位置に配置された表示画面を有する表示手段に開始させる。
このように構成された運転支援装置では、表示開始指示動作と一致するように運転者が視線を動かす動作を行うことにより、運転者が注視していた注視領域に応じて予め設定された内容の表示情報が、運転者により視認可能な位置に配置された表示画面に表示される。すなわち、注視領域に応じた内容の表示情報を表示画面に表示するためには、運転者が或る領域を注視するだけではなく、注視した後に予め設定された表示開始指示動作と一致するように視線を動かす必要がある。このため、ただ単に或る領域を注視している場合に注視領域が表示画面に表示されるということはなく、注視領域に応じた内容の表示情報の表示を運転者が所望するときに適切に行うことができる。
また請求項14に記載の運転支援方法では、まず顔画像撮影手順で、車両の運転者の顔を連続して撮影して、顔画像を取得し、その後に視線方向検出手順で、顔画像撮影手順により取得された顔画像を用いて、運転者の視線方向を検出するとともに、注視領域設定手順で、視線方向検出手順により検出された視線方向に基づいて、運転者が注視している注視領域を設定する。
そして視線動作判断手順で、視線方向検出手順による検出結果に基づいて、運転者が視線を動かす動作と、表示の開始を指示するために予め設定された表示開始指示動作とが一致するか否かを判断し、表示開始手順で、運転者が視線を動かす動作と表示開始指示動作とが一致すると視線動作判断手順が判断した場合に、注視領域設定手順により設定された注視領域に応じて予め設定された内容の表示情報を、運転者が視認可能な位置に配置された表示画面に表示させる。
この運転支援方法は、請求項1に記載の運転支援装置にて実行される方法であり、当該方法を実行することで、請求項1に記載の運転支援装置と同様の効果を得ることができる。
運転支援装置1の概略構成を示すブロック図である。 ウインドシールド内での表示画面領域DRの配置を示す図である。 第1実施形態の表示処理を示すフローチャートである。 前景画像データ内での注視領域GRを示す図である。 第2実施形態の表示処理を示すフローチャートである。 第2実施形態の表示調整処理を示すフローチャートである。 第3実施形態の表示処理を示すフローチャートである。 第3実施形態の表示調整処理を示すフローチャートである。 第4実施形態の表示調整処理を示すフローチャートである。 表示画面領域DR内での表示画像のスクロールを示す図である。 第5実施形態の表示処理の前半部分を示すフローチャートである。 第5実施形態の表示処理の後半部分を示すフローチャートである。 運転支援装置101の概略構成を示すブロック図である。 車室内から車両前方を眺めたときの状況を示す図である。 第6実施形態の表示処理の前半部分を示すフローチャートである。 第6実施形態の表示処理の後半部分を示すフローチャートである。 第7実施形態の表示処理の前半部分を示すフローチャートである。
(第1実施形態)
以下に本発明の第1実施形態について図面とともに説明する。
運転支援装置1は、車両に搭載され、図1に示すように、IR−LED2とカメラ3,5と画像キャプチャーボード4,6とヘッドアップディスプレイ装置(以下、HUD装置という)7と制御部8とを備えている。
IR−LED2は、車両の運転席に座っている人(以下、運転者という)の顔に向けて近赤外光を照射する。カメラ3は、近赤外線カメラであり、運転者の顔を連続して撮影する。なお以下、カメラ3が撮影することにより取得された画像データを顔画像データという。また画像キャプチャーボード4は、カメラ3により取得された顔画像データを一時的に記憶する。
カメラ5は、運転者がウインドシールド越しに視認可能な自車両前方の風景(以下、前景ともいう)を連続して撮影する。なお以下、カメラ5が撮影することにより取得された画像データを前景画像データという。画像キャプチャーボード6は、カメラ5により取得された前景画像データを一時的に記憶する。
HUD装置7は、画像を表示するための表示光を、ウインドシールドの下方からウインドシールドに向けて照射する。これにより、運転者は、その投影された虚像を車両前方の実際の風景に重ねて視認することになる。なおHUD装置7は、ウインドシールドの下側に設けられた矩形状の表示画面領域DRに画像を表示する(図2を参照)。
制御部8は、画像キャプチャーボード4,6からの入力に応じて各種処理を実行し、カメラ3,5により撮影された画像を用いてHUD装置7を制御する。なお制御部8には、運転支援装置1が搭載された車両の走行速度を検出する車速センサ9からの検出信号が入力される。
このように構成された運転支援装置1において、制御部8は、ウインドシールド上に設けられた表示画面領域DRに画像を表示するための表示処理を実行する。この表示処理は、運転支援装置1の動作中において繰り返し実行される処理である。
この表示処理が実行されると、制御部8は、図3に示すように、まずS10にて、カメラ3により撮影されて画像キャプチャーボード4に記憶された顔画像データの中から、制御部8が取得していない顔画像データを画像キャプチャーボード4から取得する。またS20にて、カメラ5により撮影されて画像キャプチャーボード6に記憶された前景画像データの中から、制御部8が取得していない前景画像データを画像キャプチャーボード6から取得する。
そしてS30にて、画像キャプチャーボード4から取得した顔画像データを用いて、運転者の顔向き方向と視線方向を検出する。具体的には、まず、顔形状モデルを用いて、画像キャプチャーボード4から取得した顔画像データのフィッティングを行うことにより、運転者の顔向き方向を検出する。顔形状モデルは、正面顔を三角形状の複数のメッシュで表現した基本形状と、基本形状からの顔向き方向を示すn個(nは自然数)の形状ベクトルを用いて計算することにより、人間の顔の形状を表現する手法である(例えば、「Takahiro Ishikawa, Simon Baker, Iain Matthews, and Takeo Kanade, "Passive Driver Gaze Tracking with Active Appearance Models", Proceedings of the 11th World Congress on Intelligent Transportation Systems, October, 2004.」を参照)。また、顔形状モデルを用いた上記フィッティングによって、顔画像データから運転者の眼を抽出し、抽出した眼について画像認識処理(例えばパターンマッチング)を行うことにより、運転者の視線方向を検出する。
その後S40にて、S30での検出結果に基づいて、運転者の視線が表示画面領域DRに向けられているか否かを判断する。ここで、運転者の視線が表示画面領域DRに向けられている場合には(S40:YES)、S50にて、表示指示フラグF1をセットし、S110に移行する。一方、運転者の視線が表示画面領域DRに向けられていない場合には(S40:NO)、S60にて、表示指示フラグF1をクリアする。
さらにS70にて、S30での検出結果に基づいて、運転者の視線が車両外に向けられているか否かを判断する。ここで、運転者の視線が車両外に向けられていない場合には(S70:NO)、S80にて、注視フラグF2をクリアして、S110に移行する。
一方、運転者の視線が車両外に向けられている場合には(S70:YES)、S90にて、S30での検出結果に基づいて、運転者が注視している注視領域GRを前景画像データ内に設定する。具体的には、図4に示すように、運転者の視線方向に基づいて、前景画像データ内において運転者が注視している注視点GPを決定し、この注視点GPを中心とする予め設定された矩形状の領域を注視領域GRとする。その後、図3に示すように、S100にて、注視フラグF2をセットして、S110に移行する。
そしてS110に移行すると、表示指示フラグF1および注視フラグF2がセットされているか否かを判断する。ここで、表示指示フラグF1および注視フラグF2がセットされていない場合には(S110:NO)、表示処理を一旦終了する。一方、表示指示フラグF1および注視フラグF2がセットされている場合には(S110:YES)、S120にて、S30の処理で抽出した眼の形状に基づいて、運転者がウィンクしたか否かを判断する。
ここで、運転者がウィンクした場合には(S120:YES)、S130にて、運転者の視線が表示画面領域DRに向けられた時点から予め設定された動画表示時間(例えば5秒)が経過するまで、注視領域GR内の前景画像データをHUD装置7に動画表示させて、表示処理を一旦終了する。一方、運転者がウィンクしていない場合には(S120:NO)、S140にて、運転者の視線が表示画面領域DRに向けられた時点から予め設定された静止画表示時間(例えば5秒)が経過するまで、運転者の視線が表示画面領域DRに向けられた時点における注視領域GR内の前景画像データをHUD装置7に静止画表示させて、表示処理を一旦終了する。
このように構成された運転支援装置1では、まず、車両の運転者の顔を連続して撮影して、顔画像データを取得する(S10)とともに、車両の前方の風景を連続して撮影して、前景画像データを取得し(S20)、その後に、取得された顔画像データを用いて、運転者の視線方向を検出する(S30)とともに、検出された視線方向に基づいて、運転者が注視している注視領域GRを設定する(S90)。またHUD装置7は、取得された前景画像データのうち、注視領域GR内の画像データを、運転者が視認可能な位置に配置された表示画面領域DRに表示する。
そして、視線方向の検出結果に基づいて、視線を表示画面領域DRに向ける動作を運転者が行ったか否かを判断し(S40)、視線を表示画面領域DRに向ける動作を運転者が行ったと判断した場合に(S40:YES)、注視領域GR内の画像データの表示を開始させる(S50,S110,S130,S140)。
このように構成された運転支援装置1では、視線を表示画面領域DRに向ける動作を運転者が行うことにより、車両の前方の風景のうち運転者が注視していた周辺の注視領域GRの部分が、運転者により視認可能な位置に配置された表示画面領域DRに表示される。すなわち、注視領域GRを表示画面領域DRに表示するためには、運転者が車両の前方の或る領域を注視するだけではなく、注視した後に、視線を表示画面領域DRに向ける動作を行う必要がある。このため、ただ単に車両前方の風景を注視している場合に注視領域GRが表示画面領域DRに表示されるということはなく、注視領域GRの表示を運転者が所望するときに適切に行うことができる。
また、取得された顔画像データを用いて、運転者がウィンクしたか否かを判断し(S120)、運転者がウィンクした場合に(S120:YES)、注視領域GR内の画像データの動画表示を行う(S130)。一方、運転者がウィンクしていない場合には(S120:NO)、注視領域GR内の画像データの静止画表示を行う(S140)。これにより、車両の運転中において、ボタンおよびスイッチ等の操作部材を操作することなく容易に、動画表示と静止画表示との切り替えを行うことができる。
以上説明した実施形態において、S10の処理は本発明における顔画像撮影手段および顔画像撮影手順、S30の処理は本発明における視線方向検出手段および視線方向検出手順、S20の処理は本発明における風景画像撮影手段および風景画像撮影手順、S90の処理は本発明における注視領域設定手段および注視領域設定手順、HUD装置7は本発明における表示手段、S40の処理は本発明における視線動作判断手段および視線動作判断手順、S50,S110の処理は本発明における表示開始手段および表示開始手順、S120の処理は本発明におけるウィンク判断手段である。
(第2実施形態)
以下に本発明の第2実施形態を図面とともに説明する。なお第2実施形態では、第1実施形態と異なる部分のみを説明する。
第2実施形態の運転支援装置1は、表示処理が変更された点と表示調整処理が追加された点以外は第1実施形態と同じである。
そして、第2実施形態の表示処理は、図5に示すように、S120〜S140の処理が省略されて、S210〜S240の処理が追加された点以外は第1実施形態と同じである。
すなわち、S110にて、表示指示フラグF1および注視フラグF2がセットされている場合には(S110:YES)、S210にて、自車両の前方に存在する移動物体を検出する。具体的には、前景画像データを用いた画像処理でオプティカルフローを求めることにより、前景画像データ内から、自車両とは独立に移動する領域を抽出し、抽出した領域を移動物体として検出する。
そしてS220にて、S210での検出結果に基づいて、注視領域GR内に移動物体が存在するか否かを判断する。ここで、注視領域GR内に移動物体が存在する場合には(S220:YES)、S230にて、運転者の視線が表示画面領域DRに向けられた時点から予め設定された動画表示時間(例えば5秒)が経過するまで、後述の表示調整処理で設定された表示領域内の前景画像データをHUD装置7に動画表示させることにより、移動物体を動画表示し、表示処理を一旦終了する。
一方、注視領域GR内に移動物体が存在しない場合には(S220:NO)、S240にて、運転者の視線が表示画面領域DRに向けられた時点から予め設定された静止画表示時間(例えば5秒)が経過するまで、運転者の視線が表示画面領域DRに向けられた時点における注視領域GR内の前景画像データをHUD装置7に静止画表示させて、表示処理を一旦終了する。
次に表示調整処理は、運転支援装置1の動作中において制御部8により繰り返し実行される処理である。
この表示調整処理が実行されると、制御部8は、図6に示すように、まずS260にて、S210での検出結果に基づいて、注視領域GR内に移動物体が存在するか否かを判断する。ここで、注視領域GR内に移動物体が存在しない場合には(S260:NO)、表示調整処理を一旦終了する。一方、注視領域GR内に移動物体が存在する場合には(S260:YES)、S270にて、検出した移動物体が表示画面領域DRの中心に位置するように、表示領域を設定して、表示調整処理を一旦終了する。
このように構成された運転支援装置1では、取得された前景画像データを用いて、注視領域GR内に移動物体が存在するか否かを判断し(S220)、注視領域GR内に移動物体が存在すると判断した場合に(S220:YES)、表示画面領域DR内の画像データの動画表示を行う(S230)。すなわち、注視領域GR内に移動物体が存在する場合には、運転者が指示をすることなく自動的に、移動物体の表示に適切な形態(すなわち、動画表示)で表示が行われる。このため運転者は、表示画面領域DRを見ることにより、車両前方に存在する移動物体の確認を迅速かつ容易に行うことができる。
また、注視領域GR内に移動物体が存在すると判断した場合に(S260:YES)、移動物体が表示画面領域DRの中心に位置するように表示領域を設定する(S270)。これにより、移動物体が注視領域GRの外側に移動することにより表示画面領域DR内に移動物体が表示されなくなってしまうということがなくなり、移動物体の表示に適切な位置(すなわち、表示画面領域DRの中心)で移動物体の表示が行われる。このため運転者は、表示画面領域DRを見ることにより、車両前方に存在する移動物体の確認を迅速かつ容易に行うことができる。
以上説明した実施形態において、S220,S260の処理は本発明における移動物体判断手段、S270の処理は本発明における第1表示領域設定手段である。
(第3実施形態)
以下に本発明の第3実施形態を図面とともに説明する。なお第3実施形態では、第1実施形態と異なる部分のみを説明する。
第3実施形態の運転支援装置1は、表示処理が変更された点と表示調整処理が追加された点以外は第1実施形態と同じである。
そして、第3実施形態の表示処理は、図7に示すように、S120〜S140の処理が省略されて、S310〜S340の処理が追加された点以外は第1実施形態と同じである。
すなわち、S110にて、表示指示フラグF1および注視フラグF2がセットされていない場合には(S110:NO)、表示処理を一旦終了する。一方、表示指示フラグF1および注視フラグF2がセットされている場合には(S110:YES)、S310にて、例えばサリエンシーマップ(例えば、「J. Harel, C. Koch, and P. Perona. "Graph-Based Visual Saliency", NIPS 2006」を参照)を用いて、注視領域GR内の顕著領域を検出する。なお本実施形態では、前景画像データ内において他の領域と比較して輝度が大きく異なる領域を「顕著領域」と定義する。例えば、車両走行中の前景に道路標識が存在している場合には、道路標識が顕著領域に相当する。
そしてS320にて、S310での検出結果に基づいて、注視領域GR内に顕著領域が存在するか否かを判断する。ここで、注視領域GR内に顕著領域が存在する場合には(S320:YES)、S330にて、運転者の視線が表示画面領域DRに向けられた時点から予め設定された動画表示時間(例えば5秒)が経過するまで、後述の表示調整処理で設定された表示領域内の前景画像データをHUD装置7に動画表示させることにより、顕著領域を動画表示し、表示処理を一旦終了する。
一方、注視領域GR内に顕著領域が存在しない場合には(S320:NO)、S340にて、運転者の視線が表示画面領域DRに向けられた時点から予め設定された静止画表示時間(例えば5秒)が経過するまで、運転者の視線が表示画面領域DRに向けられた時点における注視領域GR内の前景画像データをHUD装置7に静止画表示させて、表示処理を一旦終了する。
次に表示調整処理は、運転支援装置1の動作中において制御部8により繰り返し実行される処理である。
この表示調整処理が実行されると、制御部8は、図8に示すように、まずS360にて、S310での検出結果に基づいて、注視領域GR内に顕著領域が存在するか否かを判断する。ここで、注視領域GR内に顕著領域が存在しない場合には(S360:NO)、表示調整処理を一旦終了する。一方、注視領域GR内に顕著領域が存在する場合には(S360:YES)、S370にて、検出した顕著領域が表示画面領域DRの中心に位置するように、表示領域を設定して、表示調整処理を一旦終了する。
このように構成された運転支援装置1では、取得された前景画像データを用いて、注視領域GR内に顕著領域が存在するか否かを判断し(S360)、注視領域GR内に顕著領域が存在すると判断した場合に(S360:YES)、顕著領域が表示画面領域DRの中心に位置するように表示領域を設定する(S370)。
このため、例えば車両走行中に運転者が周辺視野で前景内の顕著領域(道路標識、看板や歩行者など)を視認した場合であっても、顕著領域が表示画面領域DRの中心に表示される。これにより、周辺視野での視認では顕著領域の存在そのものは確認できても、その内容や状況を正確に確認することができなかった場合であっても、運転者は、表示画面領域DRを見ることにより、車両前方に存在する顕著領域の確認を迅速かつ容易に行うことができる。
また、例えば車両走行中に運転者が中心視野で前景内の顕著領域を視認しているにもかかわらず、視線方向の検出精度が悪いために、運転者が実際に注視している点と、運転支援装置1が決定した注視点GPとが異なっている場合であっても、顕著領域が表示画面領域DRの中心に表示される。これにより、注視点GPから外れた位置に顕著領域が存在している場合であっても、顕著領域の表示に適切な位置(すなわち、表示画面領域DRの中心)で顕著領域の表示が行われる。このため運転者は、表示画面領域DRを見ることにより、車両前方に存在する顕著領域の確認を迅速かつ容易に行うことができる。
以上説明した実施形態において、S360の処理は本発明における顕著領域判断手段、S370の処理は本発明における第2表示領域設定手段である。
(第4実施形態)
以下に本発明の第4実施形態を図面とともに説明する。なお第4実施形態では、第1実施形態と異なる部分のみを説明する。
第4実施形態の運転支援装置1は、表示調整処理が追加された点以外は第1実施形態と同じである。
この表示調整処理は、運転支援装置1の動作中において制御部8により繰り返し実行される処理である。
この表示調整処理が実行されると、制御部8は、図9に示すように、まずS410にて、HUD装置7が表示画面領域DRに静止画像を表示中であるか否かを判断する。ここで、静止画像を表示中でない場合には(S410:NO)、表示調整処理を一旦終了する。
一方、静止画像を表示中である場合には(S410:YES)、S420にて、S30での検出結果に基づいて、運転者の視線が表示画面領域DRの端に、予め設定された表示調整判定時間(本実施形態では例えば2秒)継続して向けられたか否かを判断する。ここで、表示画面領域DRの端に表示調整判定時間継続して向けられていない場合には(S420:NO)、表示調整処理を一旦終了する。
一方、表示画面領域DRの端に表示調整判定時間継続して向けられた場合には(S420:YES)、S430にて、図10に示すように、表示画面領域DRの端における運転者の注視点GPが表示画面領域DRの中心に位置するように(矢印AL1を参照)、前景画像データ内の表示領域を設定して、表示調整処理を一旦終了する。これにより、表示画面領域DRの端において運転者が注視していた箇所が表示画面領域DRの中心DCになるように、表示画面領域DRに表示されている静止画像がスクロールされる。
このように構成された運転支援装置1では、検出された視線方向に基づいて、運転者が表示画面領域DRの端を注視しているか否かを判断し(S420)、表示画面領域DRの端を注視していると判断した場合に(S420:YES)、表示画面領域DRの端において運転者が注視している注視点GPが表示画面領域DRの中心に位置するように表示領域を設定する(S430)。
このため、表示画面領域DRの端を注視することにより、ボタンおよびスイッチ等の操作部材を操作することなく容易に、前景画像データ内において表示画面領域DRに表示される領域(表示領域)を変更することができる。
以上説明した実施形態において、S420の処理は本発明における注視判断手段、S430の処理は本発明における第3表示領域設定手段である。
(第5実施形態)
以下に本発明の第5実施形態を図面とともに説明する。なお第5実施形態では、第1実施形態と異なる部分のみを説明する。
第5実施形態の運転支援装置1は、表示処理が変更された点以外は第1実施形態と同じである。そして、第5実施形態の表示処理は、図11および図12に示すように、S110〜S140の処理が省略されて、S510〜S520およびS600〜S720の処理が追加された点以外は第1実施形態と同じである。
すなわち、S90の処理が終了すると、S510にて、画像取得カウンタC1をインクリメント(1加算)する。なお画像取得カウンタC1の値は、運転支援装置1の動作開始時に初期化されて0に設定される。そしてS520にて、S70の判断結果に基づいて運転者の視線が車両外に向けられた時点に撮影された前景画像データについて、S90で設定された注視領域GR内の画像を抽出して、この抽出した画像(以下、注視領域画像という)のデータを、画像取得カウンタC1の値(以下、画像取得カウンタ値ともいう)と対応付けて保存し、S100に移行する。
また、S50,S80,S100の処理が終了すると、S600に移行して、表示指示フラグF1がセットされ、且つ、画像取得カウンタ値が1より大きいか否かを判断する。ここで、表示指示フラグF1がクリアされているか、画像取得カウンタ値が1以下である場合には(S600:NO)、表示処理を一旦終了する。一方、表示指示フラグF1がセットされ、且つ、画像取得カウンタ値が1より大きい場合には(S600:YES)、S610にて、車速センサ9の検出結果に基づいて、運転支援装置1を搭載した車両(以下、自車両という)が停止しているか否かを判断する。ここで、自車両が停止していない場合には(S610:NO)、S620にて、表示カウンタC2の値(以下、表示カウンタ値ともいう)を画像取得カウンタ値に設定する。そしてS630にて、S520の処理により保存された注視領域画像のうち、表示カウンタ値に一致した画像取得カウンタ値に対応付けられている注視領域画像のデータをHUD装置7に静止画表示させて、表示処理を一旦終了する。S620とS630の処理により、保存された注視領域画像のうち最新のものが表示画面領域DRに表示される。
一方、自車両が停止している場合には(S610:YES)、S640にて、S30での検出結果に基づいて、運転者の顔向き方向と視線方向と角度差が、予め設定された表示判定角度(本実施形態では例えば10°)以下であるか否かを判断する。ここで、顔向き方向と視線方向と角度差が表示判定角度以下である場合には(S640:YES)、S630に移行する。これにより、表示カウンタ値に一致した画像取得カウンタ値に対応付けられている注視領域画像が表示画面領域DRに表示される。
またS640にて、顔向き方向と視線方向と角度差が表示判定角度より大きい場合には(S640:NO)、S660にて、顔向き方向が視線方向より左側に向いているか否かを判断する。ここで、顔向き方向が視線方向より左側に向いている場合には(S660:YES)、S670にて、表示カウンタ値が1より大きいか否かを判断する。
ここで、表示カウンタ値が1より大きい場合には(S670:YES)、S680にて、表示カウンタC2をデクリメント(1減算)し、S700に移行する。一方、表示カウンタ値が1である場合には(S670:NO)、S690にて、表示カウンタC2の値(表示カウンタ値)を画像取得カウンタ値に設定し、S700に移行する。
そしてS700に移行すると、表示カウンタ値に一致した画像取得カウンタ値に対応付けられている注視領域画像のデータをHUD装置7に静止画表示させて、表示処理を一旦終了する。
またS660にて、顔向き方向が視線方向より右側に向いている場合には(S660:NO)、S710にて、表示カウンタ値が画像取得カウンタ値に等しいか否かを判断する。ここで、表示カウンタ値が画像取得カウンタ値に等しい場合には(S710:YES)、S730に移行する。一方、表示カウンタ値が画像取得カウンタ値に等しくない場合には(S710:NO)、S720にて、表示カウンタC2をインクリメント(1加算)して、S730に移行する。そしてS730に移行すると、表示カウンタ値に一致した画像取得カウンタ値に対応付けられている注視領域画像のデータをHUD装置7に静止画表示させて、表示処理を一旦終了する。
以下に、このように構成された運転支援装置1において、保存された注視領域画像を表示画面領域DRに表示する場合の動作を説明する。
まず、運転者が視線を表示画面領域DRに向けたときに車両が走行中である場合には(S600:YES,S610:NO)、保存された注視領域画像のうち最新のものが表示画面領域DRに表示される(S620,S630)。その後、車両の停止中に運転者が視線を表示画面領域DRに向けると(S600:YES,S610:YES)、まず、保存された注視領域画像のうち最新のものが表示画面領域DRに表示される(S630)。そして、運転者が視線を表示画面領域DRに向けながら顔を左側に向けると(S640:NO,S660:YES)、現在表示されている注視領域画像の1つ前に取得された注視領域画像が表示画面領域DRに表示される(S680,S700)。また、運転者が視線を表示画面領域DRに向けながら顔を右側に向けると(S640:NO,S660:NO)、現在表示されている注視領域画像の1つ後に取得された注視領域画像が表示画面領域DRに表示される(S720,S730)。
また、最も古い注視領域画像が表示されているとき(表示カウンタ値=1のとき)に運転者が視線を表示画面領域DRに向けながら顔を左側に向けると(S640:NO,S660:YES)、保存された注視領域画像のうち最新のものが表示画面領域DRに表示される(S690,S700)。また、最新の注視領域画像が表示されているときに運転者が視線を表示画面領域DRに向けながら顔を右側に向けると(S640:NO,S660:NO)、最新の注視領域画像が表示されたままとなる(S710:YES)。
このように構成された運転支援装置1では、取得された前景画像データのうち注視領域GR内の画像を抽出して、抽出した注視領域画像データを時系列で保存し(S510,S520)、保存された注視領域画像データを表示画面領域DRに表示する(S630,S700,S730)。また、取得された顔画像データを用いて運転者の顔向き方向を検出し(S30)、検出された顔向き方向に基づいて、表示される注視領域画像データを指示する(S660〜S690,S710〜S720)。
これにより、注視した前景を注視した時点で表示画面領域DRに表示して確認することができるだけではなく、複数の注視領域画像を撮りためておき、後でまとめて確認することも可能となる。例えば、運転中であったために、注視した時点では注視領域画像を十分確認することができなかった場合であっても、車を停止させた後に、注視領域画像を再度表示させることにより、注視領域画像を十分確認することが可能となる。
また、顔向き方向により、ボタンおよびスイッチ等の操作部材を操作することなく容易に、表示画面領域DRに表示される注視領域画像を変更することができる。
以上説明した実施形態において、S510,S520の処理は本発明における画像保存手段、S630,S700,S730の処理は本発明における保存画像表示手段、S30の処理は本発明における顔向き方向検出手段、S660〜S690,S710〜S720の処理は本発明における表示指示手段である。
(第6実施形態)
以下に本発明の第6実施形態を図面とともに説明する。
図13に示すように、運転支援装置101は、車両に搭載され、車内LAN102を介してナビゲーションECU103、エアコンECU104およびメータECU105と接続されている。
ナビゲーションECU103は、GPS(Global Positioning System)アンテナ(不図示)を介して受信したGPS信号等に基づいて車両の現在位置を検出するように構成されている。そしてナビゲーションECU103は、車両の現在地を、インパネ部130(図14を参照)に配置されているナビゲーション装置の表示画面131(図14を参照)に表示するための制御、および、現在地から目的地までの経路を案内するための制御などを実行するように構成されている。
またナビゲーションECU103は、インパネ部130に設置されて運転者により操作されるオーディオ操作スイッチ群132(図14を参照)からの信号に基づいて、車載オーディオ(不図示)の制御を実行するように構成されている。なおオーディオ操作スイッチ群132は、CD、TVおよびラジオの中から動作させる機器を切り換える場合に操作される切換スイッチ、上記動作させる機器の切り換え後にどのチャンネルや曲を選択するかを切り替える場合に操作される切換スイッチ、および、音量を調整する場合に操作される音量設定スイッチなどから構成される。
エアコンECU104は、インパネ部130に設置されて運転者により操作されるエアコン操作スイッチ群133(図14を参照)からの信号と、車両の車室内および外部の温度を検出する車内外温度センサ(不図示)からの検出信号に基づいて、カーエアコン(不図示)を動作させて車室内の空調を制御するように構成されている。なおエアコン操作スイッチ群133は、エアコンの動作/非動作を切り換える場合に操作されるオン/オフスイッチ、および、設定温度を調整する場合に操作される温度設定スイッチ、風量を調整する場合に操作される風量設定スイッチ、および、吹き出し口位置を調整する場合に操作される吹き出し口位置設定スイッチなどから構成される。
メータECU105は、運転席の前方に設置されて車両の各種状態を表示するメータ部140(図14を参照)を制御する。なおメータ部140は、車速、自動変速機(不図示)のシフトレンジ、エンジン回転速度、ガソリン残量、オート・クルーズ・コントロール(ACC)の状況およびレーンキープアシスト(LKA)の状況などを表示する。
運転支援装置101は、IR−LED2、カメラ3、画像キャプチャーボード4、HUD装置7、右側方カメラ111、左側方カメラ112、後方カメラ113、画像キャプチャーボード114,115,116、車内LAN通信部117および制御部118を備えている。
IR−LED2、カメラ3、画像キャプチャーボード4およびHUD装置7については、第1実施形態と同じであるため、説明を省略する。
右側方カメラ111は、車両の右端部(本実施形態では車両右側のサイドミラー151(図14を参照))に設置されており、車両の右側方の状況を連続して撮影することにより、画像データを取得する。
左側方カメラ112は、車両の左端部(本実施形態では車両左側のサイドミラー152(図14を参照))に設置されており、車両の左側方の状況を連続して撮影することにより、画像データを取得する。
後方カメラ113は、車両の後端部(本実施形態ではリアバンパー)に設置されており、車両の後方の状況を連続して撮影することにより、画像データを取得する。
画像キャプチャーボード114,115,116はそれぞれ、カメラ111,112,113により取得された画像データを一時的に記憶する。
車内LAN通信部117は、車内LAN102を介して車内LAN102に接続された様々な機器(ナビゲーションECU103等)と通信を行う。
制御部118は、CPU,ROM,RAM,I/O及びこれらの構成を接続するバスラインなどからなる周知のマイクロコンピュータを中心に構成されており、ROMが記憶するプログラムに基づいて各種処理を実行する。
このように構成された運転支援装置101において、制御部118は、ウインドシールド上に設けられた表示画面領域DRに画像を表示するための表示処理を実行する。この表示処理は、運転支援装置101の動作中において繰り返し実行される処理である。
この表示処理が実行されると、制御部118は、図15および図16に示すように、まずS810にて、S10と同様にして、カメラ3により撮影されて画像キャプチャーボード4に記憶された顔画像データの中から、制御部8が取得していない顔画像データを画像キャプチャーボード4から取得する。
そしてS820にて、S30と同様にして、画像キャプチャーボード4から取得した顔画像データを用いて、運転者の顔向き方向と視線方向を検出する。
その後S830にて、S820での検出結果に基づいて、運転者の視線が表示画面領域DRに向けられているか否かを判断する。ここで、運転者の視線が表示画面領域DRに向けられている場合には(S830:YES)、S840にて、表示指示フラグF1をセットし、S1070に移行する。一方、運転者の視線が表示画面領域DRに向けられていない場合には(S830:NO)、S850にて、表示指示フラグF1をクリアする。
さらにS860にて、S820での検出結果に基づいて、運転者の視線がナビゲーション装置の表示画面131に向けられているか否かを判断する。ここで、視線がナビゲーション装置の表示画面131に向けられている場合には(S860:YES)、S870にて、ナビ注視フラグF11をセットし、さらにS880にて、他の注視フラグF12,F13,F14,F15,F16,F17をクリアし、S1070に移行する。なお、他の注視フラグは、後述するように、メータ注視フラグF12、オーディオ注視フラグF13、エアコン注視フラグF14、右サイド注視フラグF15、左サイド注視フラグF16およびリア注視フラグF17である。
一方、視線がナビゲーション装置の表示画面131に向けられていない場合には(S860:NO)、S890にて、S820での検出結果に基づいて、運転者の視線がメータ部140に向けられているか否かを判断する。ここで、視線がメータ部140に向けられている場合には(S890:YES)、S900にて、メータ注視フラグF12をセットし、さらにS910にて、メータ注視フラグF12以外の注視フラグをクリアし、S1070に移行する。
一方、視線がメータ部140に向けられていない場合には(S890:NO)、S920にて、S820での検出結果に基づいて、運転者の視線がオーディオ操作スイッチ群132に向けられているか否かを判断する。ここで、視線がオーディオ操作スイッチ群132に向けられている場合には(S920:YES)、S930にて、オーディオ注視フラグF13をセットし、さらにS940にて、オーディオ注視フラグF13以外の注視フラグをクリアし、S1070に移行する。
一方、視線がオーディオ操作スイッチ群132に向けられていない場合には(S920:NO)、S950にて、S820での検出結果に基づいて、運転者の視線がエアコン操作スイッチ群133に向けられているか否かを判断する。ここで、視線がエアコン操作スイッチ群133に向けられている場合には(S950:YES)、S960にて、エアコン注視フラグF14をセットし、さらにS970にて、エアコン注視フラグF14以外の注視フラグをクリアし、S1070に移行する。
一方、視線がエアコン操作スイッチ群133に向けられていない場合には(S950:NO)、S980にて、S820での検出結果に基づいて、運転者の視線が車両右側のサイドミラー151に向けられているか否かを判断する。ここで、視線が右側のサイドミラー151に向けられている場合には(S980:YES)、S990にて、右サイド注視フラグF15をセットし、さらにS1000にて、右サイド注視フラグF15以外の注視フラグをクリアし、S1070に移行する。
一方、視線が右側のサイドミラー151に向けられていない場合には(S980:NO)、S1010にて、S820での検出結果に基づいて、運転者の視線が車両左側のサイドミラー152に向けられているか否かを判断する。ここで、視線が左側のサイドミラー152に向けられている場合には(S1010:YES)、S1020にて、左サイド注視フラグF16をセットし、さらにS1030にて、左サイド注視フラグF16以外の注視フラグをクリアし、S1070に移行する。
一方、視線が左側のサイドミラー152に向けられていない場合には(S1010:NO)、S1040にて、S820での検出結果に基づいて、運転者の視線がリアビューミラー153(図14を参照)に向けられているか否かを判断する。ここで、視線がリアビューミラー153に向けられている場合には(S1040:YES)、S1050にて、リア注視フラグF17をセットし、さらにS1060にて、リア注視フラグF17以外の注視フラグをクリアし、S1070に移行する。
そしてS1070に移行すると、表示指示フラグF1がセットされ、且つ、注視フラグF11,F12,F13,F14,F15,F16,F17の何れか一つがセットされているか否かを判断する。ここで、表示指示フラグF1と注視フラグの少なくとも何れかがセットされていない場合には(S1070:NO)、表示処理を一旦終了する。一方、表示指示フラグF1がセットされるとともに注視フラグの何れか一つがセットされている場合には(S1070:YES)、S1080にて、ナビ注視フラグF11がセットされているか否かを判断する。
ここで、ナビ注視フラグF11がセットされている場合には(S1080:YES)、S1090にて、ナビ画面表示処理を実行し、ナビ画面表示処理の終了後にS1210に移行する。ナビ画面表示処理では、具体的には、ナビゲーション装置の表示画面131に表示されている画像を示す画像データをナビゲーションECU103から車内LAN102を介して取得し、取得した画像データを、運転者の視線が表示画面領域DRに向けられた時点から予め設定された画像表示時間(例えば3秒)が経過するまで、HUD装置7に表示させる。
一方、ナビ注視フラグF11がセットされていない場合には(S1080:NO)、S1100にて、メータ注視フラグF12がセットされているか否かを判断する。ここで、メータ注視フラグF12がセットされている場合には(S1100:YES)、S1110にて、メータ部表示処理を実行し、メータ部表示処理の終了後にS1210に移行する。メータ部表示処理では、具体的には、まず、S820での検出結果に基づいて、メータ部140において運転者の視線が向いている領域を特定する。そしてメータ部表示処理では、特定した領域に表示されている情報をメータECU105から車内LAN102を介して取得し、取得した情報を、運転者の視線が表示画面領域DRに向けられた時点から予め設定された画像表示時間(例えば3秒)が経過するまで、HUD装置7に表示させる。
例えば、メータ部140において車速を表示している領域に運転者の視線が向いている場合には、メータ部表示処理では、車速を示す車速情報をメータECU105から取得し、取得した車速情報を示す画像をHUD装置7に表示させる。
一方、メータ注視フラグF12がセットされていない場合には(S1100:NO)、S1120にて、オーディオ注視フラグF13がセットされているか否かを判断する。ここで、オーディオ注視フラグF13がセットされている場合には(S1120:YES)、S1130にて、オーディオ操作スイッチ表示処理を実行し、オーディオ操作スイッチ表示処理の終了後にS1210に移行する。オーディオ操作スイッチ表示処理では、具体的には、まず、S820での検出結果に基づいて、オーディオ操作スイッチ群132において運転者の視線が向いているスイッチを特定する。そしてオーディオ操作スイッチ表示処理では、特定したスイッチの操作により設定されている現在の状況を示す設定状況情報をナビゲーションECU103から車内LAN102を介して取得し、取得した情報を、運転者の視線が表示画面領域DRに向けられた時点から予め設定された画像表示時間(例えば3秒)が経過するまで、HUD装置7に表示させる。
例えば、音量設定スイッチに運転者の視線が向いている場合には、オーディオ操作スイッチ表示処理では、現在の音量を示す音量情報をメータECU105から取得し、取得した音量情報を示す画像をHUD装置7に表示させる。
なおナビゲーションECU103は、オーディオ操作スイッチ表示処理で特定されたスイッチの設定状況情報がHUD装置7により表示されている場合に、ステアリングST(図14を参照)に設けられたステアリングスイッチ161,162(図14を参照)の操作に基づいて、特定されたスイッチの設定状況を変更する。例えば、音量設定スイッチに運転者の視線が向いている場合には、音量を示す画像が表示画面領域DRに表示される。そして、運転者がステアリングスイッチ161を操作すると、オーディオから出力される音量が大きくなるとともに、音量が大きくなる画像が表示画面領域DRに表示され、逆に運転者がステアリングスイッチ162を操作すると、オーディオから出力される音量が小さくなるとともに、音量が徐々に小さくなる画像が表示画面領域DRに表示される。
一方、オーディオ注視フラグF13がセットされていない場合には(S1120:NO)、S1140にて、エアコン注視フラグF14がセットされているか否かを判断する。ここで、エアコン注視フラグF14がセットされている場合には(S1140:YES)、S1150にて、エアコン操作スイッチ表示処理を実行し、エアコン操作スイッチ表示処理の終了後にS1210に移行する。エアコン操作スイッチ表示処理では、具体的には、まず、S820での検出結果に基づいて、エアコン操作スイッチ群133において運転者の視線が向いているスイッチを特定する。そしてエアコン操作スイッチ表示処理では、特定したスイッチの操作により設定されている現在の状況を示す設定状況情報をエアコンECU104から車内LAN102を介して取得し、取得した情報を、運転者の視線が表示画面領域DRに向けられた時点から予め設定された画像表示時間(例えば3秒)が経過するまで、HUD装置7に表示させる。
例えば、オン/オフスイッチに運転者の視線が向いている場合には、エアコン操作スイッチ表示処理では、エアコンが動作中であるか停止中であるかを示すオン/オフ情報をエアコンECU104から取得し、取得したオン/オフ情報を示す画像をHUD装置7に表示させる。
なおエアコンECU104は、エアコン操作スイッチ表示処理で特定されたスイッチの設定状況情報がHUD装置7により表示されている場合に、ステアリングSTに設けられたステアリングスイッチ161,162の操作に基づいて、特定されたスイッチの設定状況を変更する。例えば、オン/オフスイッチに運転者の視線が向いている場合には、オン/オフ情報を示す画像が表示画面領域DRに表示される。そして、運転者がステアリングスイッチ161を操作すると、エアコンの動作/非動作が切り換わるとともに、エアコンが動作中であるか停止中であるかを示す画像が表示画面領域DRに表示される。
一方、エアコン注視フラグF14がセットされていない場合には(S1140:NO)、S1160にて、右サイド注視フラグF15がセットされているか否かを判断する。ここで、右サイド注視フラグF15がセットされている場合には(S1160:YES)、S1170にて、右サイドミラー表示処理を実行し、右サイドミラー表示処理の終了後にS1210に移行する。右サイドミラー表示処理では、具体的には、まず、右側方カメラ111により撮影されて画像キャプチャーボード114に記憶された画像データを画像キャプチャーボード114から取得する。そして右サイドミラー表示処理では、画像キャプチャーボード114から取得した画像データを、運転者の視線が表示画面領域DRに向けられた時点から予め設定された画像表示時間(例えば3秒)が経過するまで、HUD装置7に表示させる。
一方、右サイド注視フラグF15がセットされていない場合には(S1160:NO)、S1180にて、左サイド注視フラグF16がセットされているか否かを判断する。ここで、左サイド注視フラグF16がセットされている場合には(S1180:YES)、S1190にて、左サイドミラー表示処理を実行し、左サイドミラー表示処理の終了後にS1210に移行する。左サイドミラー表示処理では、具体的には、まず、左側方カメラ112により撮影されて画像キャプチャーボード115に記憶された画像データを画像キャプチャーボード115から取得する。そして左サイドミラー表示処理では、画像キャプチャーボード115から取得した画像データを、運転者の視線が表示画面領域DRに向けられた時点から予め設定された画像表示時間(例えば3秒)が経過するまで、HUD装置7に表示させる。
一方、左サイド注視フラグF16がセットされていない場合には(S1180:NO)、S1200にて、リアビューミラー表示処理を実行し、リアビューミラー表示処理の終了後にS1210に移行する。リアビューミラー表示処理では、具体的には、まず、後方カメラ113により撮影されて画像キャプチャーボード116に記憶された画像データを画像キャプチャーボード116から取得する。そしてリアビューミラー表示処理では、画像キャプチャーボード116から取得した画像データを、運転者の視線が表示画面領域DRに向けられた時点から予め設定された画像表示時間(例えば3秒)が経過するまで、HUD装置7に表示させる。
そしてS1210に移行すると、表示指示フラグF1をクリアし、さらにS1220にて、全ての注視フラグF11,F12,F13,F14,F15,F16,F17をクリアして、表示処理を一旦終了する。
このように構成された運転支援装置101では、まず、車両の運転者の顔を連続して撮影して、顔画像データを取得し(S810)、その後に、取得された顔画像データを用いて、運転者の視線方向を検出する(S820)とともに、検出された視線方向に基づいて、ナビゲーション装置の表示画面131、メータ部140、オーディオ操作スイッチ群132、エアコン操作スイッチ群133、車両右側のサイドミラー151、車両左側のサイドミラー152およびリアビューミラー153の何れを運転者が注視しているかを判断する(S860,S890,S920,S950,S980,S1010,S1040)。
そして、視線方向の検出結果に基づいて、視線を表示画面領域DRに向ける動作を運転者が行ったか否かを判断し(S830)、視線を表示画面領域DRに向ける動作を運転者が行ったと判断した場合に(S830:YES)、運転者が注視した領域に応じて予め設定された内容の表示情報の表示を、運転者が視認可能な位置に配置された表示画面領域DRを有するHUD装置7に開始させる(S840,S1070,S1090,S1110,S1130,S1150,S1170,S1190,S1200)。
このように構成された運転支援装置101では、視線を表示画面領域DRに向ける動作を運転者が行うことにより、運転者が注視していた注視領域に応じて予め設定された内容の表示情報が、運転者により視認可能な位置に配置された表示画面領域DRに表示される。すなわち、運転者が注視していた注視領域に応じて予め設定された内容の表示情報を表示画面領域DRに表示するためには、運転者が車両の或る領域を注視するだけではなく、注視した後に、視線を表示画面領域DRに向ける動作を行う必要がある。このため、ただ単に或る領域を注視している場合に注視領域が表示画面領域DRに表示されるということはなく、注視領域に応じた内容の表示情報の表示を運転者が所望するときに適切に行うことができる。
また、ナビゲーション装置の表示画面131が注視領域内に含まれている場合に(S1080:YES)、ナビゲーション装置の表示画面131に表示されている画像をHUD装置7に表示させる(S1090)。このため、運転者がただ単に表示画面131を注視している場合に、表示画面131に表示されている画像が表示画面領域DRに表示されるということはなく、表示画面131に表示されている画像の表示画面領域DRへの表示を運転者が所望するときに適切に行うことができる。
また、メータ部140により表示されている車両状態情報(例えば、車速)が注視領域内に含まれている場合に(S1100:YES)、注視領域内に含まれている車両状態情報をHUD装置7に表示させる(S1100)。このため、運転者がただ単にメータ部140を注視している場合に、メータ部140により表示されている車両状態情報が表示画面領域DRに表示されるということはなく、メータ部140により表示されている車両状態情報の表示画面領域DRへの表示を運転者が所望するときに適切に行うことができる。
また、車両に搭載された車載オーディオとカーエアコンの動作状態を変更するときに操作されるオーディオ操作スイッチ群132とエアコン操作スイッチ群133が、運転者が視認可能なインパネ部130に配置され、オーディオ操作スイッチ群132およびエアコン操作スイッチ群133のスイッチが注視領域内に含まれている場合に(S1120:YES,S1140:YES)、注視領域内に含まれているスイッチにより変更可能な現在の動作状態を示す情報をHUD装置7に表示させる(S1130,S1150)。このため、運転者がただ単にオーディオ操作スイッチ群132またはエアコン操作スイッチ群133を注視している場合に、オーディオ操作スイッチ群132またはエアコン操作スイッチ群133のスイッチにより変更可能な動作状態を示す情報が表示画面領域DRに表示されるということはなく、スイッチ群132,133のスイッチにより変更可能な現在の動作状態を示す情報の表示画面領域DRへの表示を運転者が所望するときに適切に行うことができる。
また、カメラ111,112,113は、車両の後方を確認するためのミラー151,152,153に映る風景を連続して撮影して、車両の後方の風景画像を取得する。そして、ミラー151,152,153が注視領域内に含まれている場合に(S1160:YES,S1180:YES,S1180:NO)、カメラ111,112,113により取得された風景画像をHUD装置7に表示させる(S1170,S1190,S1200)。このため、運転者がただ単にミラー151,152,153を注視している場合に、カメラ111,112,113により取得された風景画像が表示画面領域DRに表示されるということはなく、カメラ111,112,113により取得された風景画像の表示画面領域DRへの表示を運転者が所望するときに適切に行うことができる。
以上説明した実施形態において、S810の処理は本発明における顔画像撮影手段および顔画像撮影手順、S820の処理は本発明における視線方向検出手段および視線方向検出手順、S860,S890,S920,S950,S980,S1010,S1040の処理は本発明における注視領域設定手段および注視領域設定手順、S830の処理は本発明における視線動作判断手段および視線動作判断手順、S840,S1070,S1090,S1110,S1130,S1150,S1170,S1190,S1200の処理は本発明における表示開始手段および表示開始手順である。
また、表示画面131は本発明における車室内表示画面、メータ部140は本発明における車両状態表示手段、オーディオ操作スイッチ群132およびエアコン操作スイッチ群133は本発明における操作部、ミラー151,152,153は本発明における車載用ミラー、カメラ111,112,113は本発明における後方風景画像撮影手段である。
(第7実施形態)
以下に本発明の第7実施形態を図面とともに説明する。なお第7実施形態では、第6実施形態と異なる部分のみを説明する。
第7実施形態の運転支援装置101は、表示処理が変更された点以外は第6実施形態と同じである。
そして、第7実施形態の表示処理は、図17に示すように、S835の処理が追加された点以外は第6実施形態と同じである。
すなわち、S830にて、運転者の視線が表示画面領域DRに向けられている場合には(S830:YES)、S835にて、S820の処理で抽出した眼の形状に基づいて、運転者がウィンクしたか否かを判断する。
ここで、運転者がウィンクした場合には(S835:YES)、S840に移行する。一方、運転者がウィンクしていない場合には(S835:NO)、S1070に移行する。
このように構成された運転支援装置101では、取得された顔画像データを用いて、運転者がウィンクしたか否かを判断する(S835)。そして運転支援装置101は、視線を表示画面領域DRに向ける動作を運転者が行ったと判断し(S830:YES)、且つ、運転者がウィンクしたと判断した場合に(S835:YES)、表示情報の表示をHUD装置7に開始させる。
このように構成された運転支援装置101において、注視領域GRを表示画面領域DRに表示するためには、運転者が車両の前方の或る領域を注視するだけではなく、注視した後に、視線を表示画面領域DRに向ける動作に加えてウィンクを行う必要がある。すなわち、注視領域GRの表示を運転者が所望していないにもかかわらず、注視した後に視線を表示画面領域DRに向ける動作を運転者が行った場合には、運転者がウィンクを行わないため、運転支援装置101は表示情報の表示を行わない。このため運転支援装置101は、注視領域GRの表示を運転者が所望するか否かを、より適切に判断することができる。
以上説明した実施形態において、S835の処理は本発明におけるウィンク判断手段である。
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の技術的範囲に属する限り種々の形態を採ることができる。
例えば上記実施形態では、HUD装置7を用いてウインドシールドに画像を表示するものを示したが、例えば液晶表示装置のように表示画面を備えたものを車室内の運転者前方に設置して、この表示画面に注視領域画像を表示するようにしてもよい。
また上記第2,3実施形態では、移動物体および顕著領域を表示画面領域DRの中心に表示するものを示したが、表示画面領域DR内に表示される移動物体および顕著領域を四角などで囲ってハイライト表示することにより、移動物体および顕著領域の存在を認識させ易くするようにしてもよい。
また上記第5実施形態では、運転者が注視すると注視領域画像データが保存されるものを示したが、上記第1実施形態のように、視線を表示画面領域DRに向ける動作を運転者が行うことにより、車両の前方の風景のうち運転者が注視していた周辺の注視領域GRの部分が、運転者により視認可能な位置に配置された表示画面領域DRに表示された時の注視領域画像データのみが保存されるようにしてもよい。また、運転者が注視しながら取得ボタンを押すと注視領域画像データが保存されるようにしてもよい。
また上記第5実施形態では、車速センサ9の検出結果に基づいて自車両が停止しているか否かを判断するものを示したが、例えば、シフト位置がパーキング(P)であるとき、またはサイドブレーキがかかっているときに、自車両が停止していると判断するようにしてもよい。
また上記第6実施形態では、ナビゲーション装置の表示画面131に表示されている画像をHUD装置7に表示させるものを示した。しかし、車室内にスマートフォンが設置されている場合には、運転者がスマートフォンの表示画面を注視すると、スマートフォンの表示画面に表示されている画像をHUD装置7に表示させるようにしてもよい。この場合には例えば、ナビゲーション装置とスマートフォンとの間で無線通信が可能となるように構成し、運転支援装置101は、スマートフォンの表示画面に表示されている画像を示す画像データを、ナビゲーションECU103から車内LAN102を介して取得するようにしてもよい。
また上記第6実施形態では、カメラ111,112がサイドミラー151,152に設置されているものを示したが、カメラ111,112が車両の後部に設置されているようにしてもよい。
また上記第6実施形態では、後方カメラ113がリアバンパーに設置されているものを示したが、後方カメラ113がリアビューミラー153の付近に設置されているようにしてもよい。
また上記第6実施形態では、カメラ111,112,113により撮影された画像をHUD装置7に表示させるものを示したが、右側方カメラ111、左側方カメラ112および後方カメラ113で撮影した画像を加工することにより、運転席に座っている運転者からの視点で右側のサイドミラー151、左側のサイドミラー152およびリアビューミラー153を見た画像を表示画面領域DRに表示するようにしてもよい。
また上記第6実施形態では、HUD装置7を用いて画像を表示するものを示したが、これに限定されるものではなく、運転者の前方で画像を表示することができる装置(例えば液晶ディスプレイ)であればよい。
また上記第6実施形態では、カメラ111,112,113により取得された画像データをそれぞれ画像キャプチャーボード114,115,116に記憶するものを示したが、カメラ111,112,113により取得された画像データを1つの画像キャプチャーボードに記憶するようにしてもよい。
1,101…運転支援装置、3,5…カメラ、4,6,114,115,116…画像キャプチャーボード、7…HUD装置、8,118…制御部、117…車内LAN通信部

Claims (14)

  1. 車両の運転者の顔を連続して撮影して、顔画像を取得する顔画像撮影手段(S10,S810)と、
    前記顔画像撮影手段により取得された顔画像を用いて、前記運転者の視線方向を検出する視線方向検出手段(S30,S820)と、
    前記視線方向検出手段により検出された視線方向に基づいて、前記運転者が注視している注視領域を設定する注視領域設定手段(S90,S860,S890,S920,S950,S980,S1010,S1040)と、
    前記運転者が視認可能な位置に配置された表示画面を有する表示手段(7)と、
    前記視線方向検出手段による検出結果に基づいて、前記運転者が視線を動かす動作と、前記表示手段による表示の開始を指示するために予め設定された表示開始指示動作とが一致するか否かを判断する視線動作判断手段(S40,S830)と、
    前記運転者が視線を動かす動作と前記表示開始指示動作とが一致すると前記視線動作判断手段が判断した場合に、前記注視領域設定手段により設定された前記注視領域に応じて予め設定された内容の表示情報の表示を、前記表示手段に開始させる表示開始手段(S50,S110,S840,S1070,S1090,S1110,S1130,S1150,S1170,S1190,S1200)とを備える
    ことを特徴とする運転支援装置。
  2. 前記車両の前方の風景を連続して撮影して、風景画像を取得する風景画像撮影手段(S20)を備え、
    前記表示手段は、前記風景画像撮影手段により取得された前記風景画像のうち、予め設定された表示領域内の画像を前記表示画面に表示し、
    前記表示開始手段は、前記注視領域設定手段により設定された前記注視領域を前記表示領域とし、さらに、前記風景画像撮影手段により取得された前記風景画像のうち、前記表示領域内の画像を前記表示情報とする
    ことを特徴とする請求項1に記載の運転支援装置。
  3. 前記顔画像撮影手段により取得された顔画像を用いて、前記運転者がウィンクしたか否かを判断するウィンク判断手段(S120)を備え、
    前記表示手段は、
    前記ウィンク判断手段による判断結果に基づいて、前記表示領域内の画像の動画表示および静止画表示の何れかを行う
    ことを特徴とする請求項2に記載の運転支援装置。
  4. 前記風景画像撮影手段により取得された前記風景画像を用いて、前記注視領域設定手段により設定された前記注視領域内に移動物体が存在するか否かを判断する移動物体判断手段(S220,S260)を備え、
    前記表示手段は、
    前記注視領域内に前記移動物体が存在すると前記移動物体判断手段が判断した場合に、前記表示領域内の画像の動画表示を行う
    ことを特徴とする請求項2に記載の運転支援装置。
  5. 前記注視領域内に前記移動物体が存在すると前記移動物体判断手段が判断した場合に、前記表示画面の中心に前記移動物体が位置するように前記表示領域を設定する第1表示領域設定手段(S270)を備える
    ことを特徴とする請求項4に記載の運転支援装置。
  6. 前記風景画像撮影手段により取得された前記風景画像を用いて、前記注視領域設定手段により設定された前記注視領域内に顕著領域が存在するか否かを判断する顕著領域判断手段(S360)と、
    前記注視領域内に前記顕著領域が存在すると前記顕著領域判断手段が判断した場合に、前記表示画面の中心に前記顕著領域が位置するように前記表示領域を設定する第2表示領域設定手段(S370)とを備える
    ことを特徴とする請求項2〜請求項5の何れか1項に記載の運転支援装置。
  7. 前記視線方向検出手段により検出された視線方向に基づいて、前記運転者が前記表示画面の周縁部を注視しているか否かを判断する注視判断手段(S420)と、
    前記運転者が前記表示画面の周縁部を注視していると前記注視判断手段が判断した場合に、前記表示画面の周縁部において前記運転者が注視している点が前記表示画面の中心に位置するように前記表示領域を設定する第3表示領域設定手段(S430)とを備える
    ことを特徴とする請求項2〜請求項6の何れか1項に記載の運転支援装置。
  8. 前記風景画像撮影手段により取得された前記風景画像のうち、前記注視領域設定手段により設定された前記注視領域内の画像を抽出して、抽出した画像を時系列で保存する画像保存手段(S510,S520)と、
    前記画像保存手段により保存された画像を表示する保存画像表示手段(S630,S700,S730)と、
    前記顔画像撮影手段により取得された顔画像を用いて、前記運転者の顔向き方向を検出する顔向き方向検出手段(S30)と、
    前記顔向き方向検出手段により検出された顔向きの方向に基づいて、前記保存画像表示手段により表示される画像を指示する表示指示手段(S660〜S690,S710〜S720)とを備える
    ことを特徴とする請求項2〜請求項7の何れか1項に記載の運転支援装置。
  9. 前記車両の車室内に設置された車載表示機器の表示画面を車室内表示画面(131)として、
    前記表示開始手段は、前記車室内表示画面が前記注視領域内に含まれている場合に、前記車室内表示画面に表示されている画像を前記表示情報とする
    ことを特徴とする請求項1に記載の運転支援装置。
  10. 前記運転者が視認可能な位置に配置され、前記車両の状態を示す車両状態情報を表示する車両状態表示手段(140)を備え、
    前記表示開始手段は、
    前記車両状態表示手段により表示されている前記車両状態情報が前記注視領域内に含まれている場合に、前記注視領域内に含まれている前記車両状態情報を前記表示情報とする
    ことを特徴とする請求項1または請求項9に記載の運転支援装置。
  11. 前記車両に搭載された車載機器の動作状態を変更するときに操作される操作部(132,133)が、前記運転者が視認可能な位置に配置され、
    前記表示開始手段は、
    前記操作部が前記注視領域内に含まれている場合に、前記車載機器の現在の動作状態のうち、前記注視領域内に含まれている前記操作部により変更可能な動作状態を示す情報を、前記表示情報とする
    ことを特徴とする請求項1、請求項9および請求項10の何れか1項に記載の運転支援装置。
  12. 前記車両の後方を確認するための車載用ミラー(151,152,153)に映る風景を連続して撮影して、前記車両の後方の風景画像を取得する後方風景画像撮影手段(111,112,113)を備え、
    前記表示開始手段は、
    前記車載用ミラーが前記注視領域内に含まれている場合に、前記後方風景画像撮影手段により取得された前記風景画像を前記表示情報とする
    ことを特徴とする請求項1、請求項9、請求項10および請求項11の何れか1項に記載の運転支援装置。
  13. 前記顔画像撮影手段により取得された顔画像を用いて、前記運転者がウィンクしたか否かを判断するウィンク判断手段(S835)を備え、
    前記表示開始手段は、
    前記運転者が視線を動かす動作と前記表示開始指示動作とが一致すると前記視線動作判断手段が判断し、且つ、前記運転者がウィンクしたと前記ウィンク判断手段が判断した場合に、前記表示情報の表示を前記表示手段に開始させる
    ことを特徴とする請求項1、請求項9、請求項10、請求項11および請求項12の何れか1項に記載の運転支援装置。
  14. 車両の運転者の顔を連続して撮影して、顔画像を取得する顔画像撮影手順(S10,S810)と、
    前記顔画像撮影手順により取得された顔画像を用いて、前記運転者の視線方向を検出する視線方向検出手順(S30,S820)と、
    前記視線方向検出手順により検出された視線方向に基づいて、前記運転者が注視している注視領域を設定する注視領域設定手順(S90,S860,S890,S920,S950,S980,S1010,S1040)と、
    前記視線方向検出手順による検出結果に基づいて、前記運転者が視線を動かす動作と、表示の開始を指示するために予め設定された表示開始指示動作とが一致するか否かを判断する視線動作判断手順(S40,S830)と、
    前記運転者が視線を動かす動作と前記表示開始指示動作とが一致すると前記視線動作判断手順が判断した場合に、前記注視領域設定手順により設定された前記注視領域に応じて予め設定された内容の表示情報を、前記運転者が視認可能な位置に配置された表示画面に表示させる表示開始手順(S50,S110,S840,S1070,S1090,S1110,S1130,S1150,S1170,S1190,S1200)とを備える
    ことを特徴とする運転支援方法。
JP2013041039A 2012-03-14 2013-03-01 運転支援装置 Expired - Fee Related JP5630518B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013041039A JP5630518B2 (ja) 2012-03-14 2013-03-01 運転支援装置
KR1020147026530A KR101562877B1 (ko) 2012-03-14 2013-03-08 운전 지원 장치 및 운전 지원 방법
CN201380013976.6A CN104169993B (zh) 2012-03-14 2013-03-08 驾驶辅助装置及驾驶辅助方法
DE112013001472.6T DE112013001472T5 (de) 2012-03-14 2013-03-08 Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
PCT/JP2013/001487 WO2013136740A1 (ja) 2012-03-14 2013-03-08 運転支援装置および運転支援方法
US14/376,910 US9317759B2 (en) 2012-03-14 2013-03-08 Driving assistance device and driving assistance method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012057561 2012-03-14
JP2012057561 2012-03-14
JP2013041039A JP5630518B2 (ja) 2012-03-14 2013-03-01 運転支援装置

Publications (2)

Publication Number Publication Date
JP2013218671A true JP2013218671A (ja) 2013-10-24
JP5630518B2 JP5630518B2 (ja) 2014-11-26

Family

ID=49160672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013041039A Expired - Fee Related JP5630518B2 (ja) 2012-03-14 2013-03-01 運転支援装置

Country Status (6)

Country Link
US (1) US9317759B2 (ja)
JP (1) JP5630518B2 (ja)
KR (1) KR101562877B1 (ja)
CN (1) CN104169993B (ja)
DE (1) DE112013001472T5 (ja)
WO (1) WO2013136740A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017170949A (ja) * 2016-03-18 2017-09-28 トヨタ自動車株式会社 車両用表示装置
WO2017195405A1 (ja) * 2016-05-11 2017-11-16 ソニー株式会社 画像処理装置及び画像処理方法、並びに移動体
KR20170134670A (ko) 2015-07-09 2017-12-06 가부시키가이샤 덴소 차량용 표시 장치
JP2019086985A (ja) * 2017-11-06 2019-06-06 日本電気株式会社 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
JP2023009260A (ja) * 2019-02-27 2023-01-19 株式会社Jvcケンウッド 再生装置、再生方法およびプログラム
US11752940B2 (en) 2019-01-11 2023-09-12 Ricoh Company, Ltd. Display controller, display system, mobile object, image generation method, and carrier means

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5630518B2 (ja) 2012-03-14 2014-11-26 株式会社デンソー 運転支援装置
JP6115278B2 (ja) * 2013-04-16 2017-04-19 株式会社デンソー 車両用表示装置
US9513702B2 (en) * 2013-07-15 2016-12-06 Lg Electronics Inc. Mobile terminal for vehicular display system with gaze detection
KR20150073269A (ko) * 2013-12-20 2015-07-01 현대자동차주식회사 차량용 클러스터 장치
US9542844B2 (en) * 2014-02-11 2017-01-10 Google Inc. Providing navigation directions in view of device orientation relative to user
DE102014009697B4 (de) 2014-06-26 2024-10-17 Audi Ag Verfahren zum Betreiben eines mobilen Virtual-Reality-Systems in einem Kraftfahrzeug und mobiles Virtual-Reality-System
KR20160033376A (ko) * 2014-09-18 2016-03-28 (주)에프엑스기어 시선에 의해 제어되는 헤드 마운트형 디스플레이 장치, 이의 제어 방법 및 이의 제어를 위한 컴퓨터 프로그램
KR102270577B1 (ko) * 2014-10-21 2021-06-29 현대모비스 주식회사 차량 외부 영상 출력 제어 장치 및 방법
US9904362B2 (en) * 2014-10-24 2018-02-27 GM Global Technology Operations LLC Systems and methods for use at a vehicle including an eye tracking device
KR101619635B1 (ko) * 2014-11-06 2016-05-10 현대자동차주식회사 시선추적을 이용한 메뉴 선택장치
DE202014009919U1 (de) * 2014-12-15 2016-03-16 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Fahrerassistenzsystem
US10121063B2 (en) * 2015-01-12 2018-11-06 BMT Business Meets Technology Holding AG Wink gesture based control system
EP3267295B1 (en) * 2015-03-05 2021-12-29 Sony Group Corporation Information processing device, control method, and program
EP3317755B1 (en) * 2015-07-02 2021-10-20 Volvo Truck Corporation An information system for a vehicle
KR101895485B1 (ko) * 2015-08-26 2018-09-05 엘지전자 주식회사 운전 보조 장치 및 그 제어 방법
KR102457262B1 (ko) * 2015-09-25 2022-10-20 현대모비스 주식회사 운전자의 관심 정보 제공 장치
JP6605615B2 (ja) * 2015-09-28 2019-11-13 京セラ株式会社 画像処理装置、撮像装置、カメラモニタシステム、および画像処理方法
US9841813B2 (en) * 2015-12-22 2017-12-12 Delphi Technologies, Inc. Automated vehicle human-machine interface system based on glance-direction
JP6917708B2 (ja) * 2016-02-29 2021-08-11 株式会社デンソー 運転者監視システム
CN108883777B (zh) * 2016-03-28 2022-02-01 日本精机株式会社 驾驶辅助系统和显示装置
JP6313355B2 (ja) * 2016-03-31 2018-04-18 株式会社Subaru 車両周囲監視装置
IL246129A0 (en) * 2016-06-08 2016-08-31 Sibony Haim A visual display system to prevent accidents with vehicles
KR20200011405A (ko) * 2016-07-01 2020-02-03 아이사이트 모빌 테크놀로지 엘티디 운전자 모니터링을 위한 시스템 및 방법
FR3053480B1 (fr) * 2016-07-04 2018-08-17 Valeo Comfort & Driving Assistance Systeme de presentation d'informations visuelles tete-haute pour conducteur a commande d'activation-desactivation de module de projection, dispositif tete-haute et procede correspondants
CN106295542A (zh) * 2016-08-03 2017-01-04 江苏大学 一种夜视红外图像中的基于显著性的道路目标提取方法
CN109789779B (zh) * 2016-09-16 2022-03-04 富士胶片株式会社 投影型显示装置及其控制方法
EP3299241B1 (en) * 2016-09-26 2021-11-10 Volvo Car Corporation Method, system and vehicle for use of an object displaying device in a vehicle
US20190387061A1 (en) * 2017-03-07 2019-12-19 Sony Corporation Information processing device, information processing method, and program
US10289197B2 (en) * 2017-05-26 2019-05-14 GM Global Technology Operations LLC Apparatus and method for detecting inappropriate gear selection based on gaze information
CN109212753B (zh) 2017-07-06 2021-01-29 京东方科技集团股份有限公司 可变显示距离的抬头显示系统、抬头显示方法、驾驶设备
JP6777060B2 (ja) * 2017-11-15 2020-10-28 オムロン株式会社 脇見判定装置、運転支援システム、脇見判定方法及び脇見判定のためのプログラム
KR102446387B1 (ko) * 2017-11-29 2022-09-22 삼성전자주식회사 전자 장치 및 그의 텍스트 제공 방법
US10600390B2 (en) * 2018-01-10 2020-03-24 International Business Machines Corporation Displaying a vehicle notification in a location determined based on driver eye gaze direction and other criteria
CN110316066B (zh) * 2018-03-30 2021-05-14 比亚迪股份有限公司 基于车载显示终端的防倒影方法和装置及车辆
CN108888487A (zh) * 2018-05-22 2018-11-27 深圳奥比中光科技有限公司 一种眼球训练系统及方法
CN109002757A (zh) * 2018-06-04 2018-12-14 上海商汤智能科技有限公司 驾驶管理方法和系统、车载智能系统、电子设备、介质
US10970571B2 (en) 2018-06-04 2021-04-06 Shanghai Sensetime Intelligent Technology Co., Ltd. Vehicle control method and system, vehicle-mounted intelligent system, electronic device, and medium
US10915769B2 (en) 2018-06-04 2021-02-09 Shanghai Sensetime Intelligent Technology Co., Ltd Driving management methods and systems, vehicle-mounted intelligent systems, electronic devices, and medium
CN109109666A (zh) * 2018-09-03 2019-01-01 王宣武 一种汽车前风窗视觉控制系统
DE102018219481A1 (de) * 2018-11-15 2020-05-20 Robert Bosch Gmbh Baugruppe für einen LiDAR-Sensor und LiDAR-Sensor
US11703590B2 (en) * 2018-11-19 2023-07-18 Suteng Innovation Technology Co., Ltd. Lidar signal receiving circuits, lidar signal gain control methods, and lidars using the same
JP7053437B2 (ja) * 2018-11-26 2022-04-12 本田技研工業株式会社 運転支援装置および車両
CN113170081B (zh) * 2018-12-11 2024-09-24 索尼集团公司 图像处理装置、图像处理方法和图像处理系统
KR20210100608A (ko) 2018-12-11 2021-08-17 소니그룹주식회사 화상 처리 장치, 화상 처리 방법 및 화상 처리 시스템
CN109849788B (zh) * 2018-12-29 2021-07-27 北京七鑫易维信息技术有限公司 信息提供方法、装置及系统
CN109968979B (zh) * 2019-03-14 2021-12-07 阿波罗智联(北京)科技有限公司 车载投射处理方法、装置、车载设备及存储介质
IL265495B (en) * 2019-03-19 2022-09-01 Rober Ohrenstein Method for travel authorization
DE102019206749A1 (de) 2019-05-09 2020-11-12 Volkswagen Aktiengesellschaft Mensch-Maschine-Interaktion in einem Kraftfahrzeug
US11042765B2 (en) * 2019-05-14 2021-06-22 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for playing vehicle monitored content in a vehicle
US10885728B1 (en) * 2019-10-02 2021-01-05 William H. Havins Cognitively optimized user interface for motor vehicle
US11106336B2 (en) * 2019-10-02 2021-08-31 William H. Havins Cognitively optimized user interface for static equipment
CN111263133B (zh) * 2020-02-26 2021-10-01 中国联合网络通信集团有限公司 信息处理方法及系统
JP7442933B2 (ja) * 2020-03-20 2024-03-05 アルパイン株式会社 車両用画像処理装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251287A (ja) * 1993-02-23 1994-09-09 Mitsubishi Electric Corp 運転支援システム
JP2001194161A (ja) * 2000-01-11 2001-07-19 Alpine Electronics Inc 視線移動検出情報提示装置
JP2004061259A (ja) * 2002-07-29 2004-02-26 Mazda Motor Corp 情報提供装置、情報提供方法及び情報提供用プログラム
JP2006023953A (ja) * 2004-07-07 2006-01-26 Fuji Photo Film Co Ltd 情報表示システム
JP2007263931A (ja) * 2006-03-30 2007-10-11 Denso It Laboratory Inc ドライバ思考推定装置、ドライバ思考推定方法及びドライバ思考推定プログラム
JP2010127779A (ja) * 2008-11-27 2010-06-10 Denso It Laboratory Inc 情報提供装置、情報提供方法およびプログラム
JP2010173530A (ja) * 2009-01-30 2010-08-12 Toyota Motor Corp 走行支援装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330450A (ja) 2000-03-13 2001-11-30 Alpine Electronics Inc ナビゲーション装置
JP4556586B2 (ja) * 2004-09-22 2010-10-06 トヨタ自動車株式会社 運転支援装置
JP2006172215A (ja) 2004-12-16 2006-06-29 Fuji Photo Film Co Ltd 運転支援システム
JP2007178293A (ja) 2005-12-28 2007-07-12 Suzuki Motor Corp 車両用表示装置
JP4894300B2 (ja) * 2006-03-01 2012-03-14 トヨタ自動車株式会社 車載装置調整装置
JP4231884B2 (ja) * 2006-09-27 2009-03-04 株式会社デンソーアイティーラボラトリ 注視対象物検出装置および注視対象物検出方法
JP4935571B2 (ja) 2007-08-08 2012-05-23 株式会社デンソー 運転支援装置
JP5078815B2 (ja) * 2008-09-12 2012-11-21 株式会社豊田中央研究所 開眼度推定装置
JP2010179850A (ja) 2009-02-06 2010-08-19 Toyota Motor Corp 車両用表示装置
US20120002028A1 (en) * 2010-07-05 2012-01-05 Honda Motor Co., Ltd. Face image pick-up apparatus for vehicle
US8605009B2 (en) * 2010-12-05 2013-12-10 Ford Global Technologies, Llc In-vehicle display management system
JP5630518B2 (ja) 2012-03-14 2014-11-26 株式会社デンソー 運転支援装置
US20140070934A1 (en) * 2012-09-07 2014-03-13 GM Global Technology Operations LLC Methods and systems for monitoring driver object detection

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251287A (ja) * 1993-02-23 1994-09-09 Mitsubishi Electric Corp 運転支援システム
JP2001194161A (ja) * 2000-01-11 2001-07-19 Alpine Electronics Inc 視線移動検出情報提示装置
JP2004061259A (ja) * 2002-07-29 2004-02-26 Mazda Motor Corp 情報提供装置、情報提供方法及び情報提供用プログラム
JP2006023953A (ja) * 2004-07-07 2006-01-26 Fuji Photo Film Co Ltd 情報表示システム
JP2007263931A (ja) * 2006-03-30 2007-10-11 Denso It Laboratory Inc ドライバ思考推定装置、ドライバ思考推定方法及びドライバ思考推定プログラム
JP2010127779A (ja) * 2008-11-27 2010-06-10 Denso It Laboratory Inc 情報提供装置、情報提供方法およびプログラム
JP2010173530A (ja) * 2009-01-30 2010-08-12 Toyota Motor Corp 走行支援装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170134670A (ko) 2015-07-09 2017-12-06 가부시키가이샤 덴소 차량용 표시 장치
US10224006B2 (en) 2015-07-09 2019-03-05 Denso Corporation Display device for vehicle
JP2017170949A (ja) * 2016-03-18 2017-09-28 トヨタ自動車株式会社 車両用表示装置
WO2017195405A1 (ja) * 2016-05-11 2017-11-16 ソニー株式会社 画像処理装置及び画像処理方法、並びに移動体
JPWO2017195405A1 (ja) * 2016-05-11 2019-03-07 ソニー株式会社 画像処理装置及び画像処理方法、並びに移動体
JP2019086985A (ja) * 2017-11-06 2019-06-06 日本電気株式会社 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
JP7180067B2 (ja) 2017-11-06 2022-11-30 日本電気株式会社 運転支援装置
JP2023021123A (ja) * 2017-11-06 2023-02-09 日本電気株式会社 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
JP7501598B2 (ja) 2017-11-06 2024-06-18 日本電気株式会社 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
US11752940B2 (en) 2019-01-11 2023-09-12 Ricoh Company, Ltd. Display controller, display system, mobile object, image generation method, and carrier means
JP2023009260A (ja) * 2019-02-27 2023-01-19 株式会社Jvcケンウッド 再生装置、再生方法およびプログラム
JP7371752B2 (ja) 2019-02-27 2023-10-31 株式会社Jvcケンウッド 再生装置、再生方法およびプログラム

Also Published As

Publication number Publication date
WO2013136740A1 (ja) 2013-09-19
DE112013001472T5 (de) 2014-12-04
JP5630518B2 (ja) 2014-11-26
KR101562877B1 (ko) 2015-10-23
CN104169993B (zh) 2016-05-25
KR20140126401A (ko) 2014-10-30
US20150010207A1 (en) 2015-01-08
US9317759B2 (en) 2016-04-19
CN104169993A (zh) 2014-11-26

Similar Documents

Publication Publication Date Title
JP5630518B2 (ja) 運転支援装置
CN110678371B (zh) 车辆控制系统、车辆控制方法及存储介质
JP6413207B2 (ja) 車両用表示装置
JP4793307B2 (ja) 車両周辺監視装置
JP6865006B2 (ja) 車両用表示装置
WO2019008764A1 (ja) 駐車支援方法及び駐車支援装置
JP2012140106A (ja) 後方視界支援システム
JP4222183B2 (ja) 車両周辺画像表示装置
JP2005138755A (ja) 虚像表示装置およびプログラム
JP6825433B2 (ja) 虚像表示装置及びコンピュータプログラム
CN110462699B (zh) 车辆用显示控制装置以及车辆用显示单元
CN116323320A (zh) 虚像显示装置以及显示系统
JP2018144554A (ja) 車両用ヘッドアップディスプレイ装置
JP2012001041A (ja) 駐車支援装置
JP2009171129A (ja) 車両用駐車支援装置および画像表示方法
JP2016074410A (ja) ヘッドアップディスプレイ装置、ヘッドアップディスプレイ表示方法
JP5885619B2 (ja) 運転支援装置
WO2016056199A1 (ja) ヘッドアップディスプレイ装置、ヘッドアップディスプレイ表示方法
JP2005313772A (ja) 車両用ヘッドアップ・ディスプレイ装置
US20210206269A1 (en) Device control system, moving vehicle, device control method, and non-transitory storage medium
JP6996542B2 (ja) 車両用表示制御装置及び車両用表示ユニット
JP2004177315A (ja) 視線方向判定装置及びそれを利用した対話システムならびに運転支援システム
US20240020803A1 (en) Display control apparatus, display control method, recording medium, and display system
JP5920528B2 (ja) 駐車支援装置
US20230376123A1 (en) Display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140922

R151 Written notification of patent or utility model registration

Ref document number: 5630518

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees