JP2020080485A - 運転支援装置、運転支援システム、運転支援方法およびプログラム - Google Patents

運転支援装置、運転支援システム、運転支援方法およびプログラム Download PDF

Info

Publication number
JP2020080485A
JP2020080485A JP2018213084A JP2018213084A JP2020080485A JP 2020080485 A JP2020080485 A JP 2020080485A JP 2018213084 A JP2018213084 A JP 2018213084A JP 2018213084 A JP2018213084 A JP 2018213084A JP 2020080485 A JP2020080485 A JP 2020080485A
Authority
JP
Japan
Prior art keywords
image
vehicle
line
driver
driving support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018213084A
Other languages
English (en)
Other versions
JP7163732B2 (ja
Inventor
伊藤 和浩
Kazuhiro Ito
和浩 伊藤
久門 仁
Hitoshi Kumon
仁 久門
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018213084A priority Critical patent/JP7163732B2/ja
Priority to US16/670,024 priority patent/US11351918B2/en
Priority to CN201911101526.8A priority patent/CN111169382B/zh
Publication of JP2020080485A publication Critical patent/JP2020080485A/ja
Application granted granted Critical
Publication of JP7163732B2 publication Critical patent/JP7163732B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/06Rear-view mirror arrangements mounted on vehicle exterior
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/103Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using camera systems provided with artificial illumination device, e.g. IR light source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/50Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the display information being shared, e.g. external display, data transfer to other traffic participants or centralised traffic controller
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8046Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for replacing a rear-view mirror system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Astronomy & Astrophysics (AREA)

Abstract

【課題】運転者が車両の周辺環境の状況を直感的に把握することができる運転支援装置、運転支援システム、運転支援方法およびプログラムを提供する。【解決手段】運転支援装置は、メモリと、ハードウェアを有するプロセッサと、を備え、このプロセッサは、車室内の運転者の視線に基づいて、前記車室内において仮想的に表示する画像であって、車両の周辺を撮像した画像データに対応する画像の表示位置および表示内容を設定して画像とともに出力する。【選択図】図1

Description

本発明は、運転支援装置、運転支援システム、運転支援方法およびプログラムに関する。
車両のインナーミラーやアウターミラー等の代わりに電子ミラーを設ける技術が知られている(例えば特許文献1参照)。電子ミラーは、車両に搭載した撮像装置が撮像した画像を用いて生成される仮想的な鏡像を液晶等のディスプレイによって表示する。
特開2018−22958号公報
ところで、高速大容量通信の発展に伴って、車車間通信や路車間通信等により大量の情報を取得できる車両が製造されるようになってきている。このような状況下では、車両が通信によって取得した情報をもとに、車両の周辺環境に関する多様な情報を運転者に対して直感的に把握させることが可能になると期待される。
本発明は、上記に鑑みてなされたものであって、運転者が車両の周辺環境を直感的に把握することができる運転支援装置、運転支援システム、運転支援方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る運転支援装置は、メモリと、ハードウェアを有するプロセッサと、を備え、前記プロセッサは、運転者の視線に関する視線情報および車両の周辺を撮像した画像データをそれぞれ取得し、前記視線情報に基づいて、前記画像データを用いて生成される画像の表示位置および表示内容を設定して前記画像とともに出力する。
また、前記プロセッサは、前記視線情報に基づいて、前記運転者の視線の向きが前記車両のルーフとフロントウィンドウの境界より上方であるか否かを判定し、前記運転者の視線の向きが前記上方であると判定した場合、前記画像に基づいて、前記車両を俯瞰した仮想的な俯瞰画像であって、前記ルーフに表示するための俯瞰画像を生成して出力してもよい。
これによれば、運転者が車両の周辺環境を直感的に把握することができるうえ、視認性が高いため、危険回避を容易に行うことができる。
また、前記プロセッサは、前記俯瞰画像を前記車両の車輪を含む情報に基づいて定まる基準面と平行な面であって、前記車両における所定の基準位置を通る面と前記視線の向きとが交差する位置へオフセットして出力してもよい。
これによれば、運転者が無理な姿勢を取ることなく、俯瞰画像を容易に確認することができるうえ、運転者の首に掛かる負担を軽減することができる。
また、前記プロセッサは、前記俯瞰画像の含まれる前記基準位置を中心に所定の角度で回転して出力してもよい。
これによれば、運転者が車両の周辺環境を容易に把握することができる。
また、前記プロセッサは、少なくとも前記俯瞰画像における前記車両における車室内から視て内装部品が写る領域を切り取るトリミング処理を行って出力してもよい。
これによれば、ルーフ等の遮蔽物によって遮蔽物より距離が遠い領域を隠してしまうオクルージョンの状態が発生することを防止することができるので、運転者が俯瞰画像の遠近感に違和感を生じさせなく済む。
また、前記プロセッサは、前記視線情報に基づいて、前記運転者の視線の向きが前記車両内のフロントウィンドウ上方の中央であるか否かを判定し、前記運転者の視線の向きが前記車両内のフロントウィンドウの上方の中央であると判定した場合、前記画像に基づいて、前記車両の背面から後方を撮像した後方画像であって、前記フロントウィンドウの中央の上方に表示するための後方画像を生成して出力してもよい。
これによれば、車両からルームミラーを省略または小型化を図ることができるので、運転者の視野が広くなり、安全性を高めることができる。
また、前記プロセッサは、前記車両の車速に関する車速情報を取得し、前記車速情報に基づいて、前記車両が停止しているか否かを判定し、前記車両が停止している場合、前記後方画像を前記フロントウィンドウ領域に相当する大きさに拡大して出力してもよい。
これによれば、運転者が安全確認を容易にすることができるので、車両の後方の見落としを防止することができる。
また、前記プロセッサは、前記視線情報に基づいて、前記運転者の視線の向きが前記車両の側方であるか否かを判定し、前記運転者の視線の向きが前記車両の側方である場合、前記画像に基づいて、前記車両の側方から後方を撮像した側方画像であって、サイドミラーに対応する位置、フェンダーミラーに対応する位置およびフロントウィンドウの上方の左右の位置のいずれか1つ以上に表示するための側方画像を生成して出力してもよい。
これによれば、従来のインナーミラーの位置と同じため、運転者に違和感を生じさせることなく、車両の側方の後方を確認することができる。
また、前記プロセッサは、前記運転者の視線の向きが運転席から遠ざかる側の前記側方である場合、前記側方画像の表示タイミングを前記運転席から近い側の前記側方の表示タイミングと比して早くしてもよい。
これによれば、運転者が視線の向きを遠い側の側方に移した場合であっても、運転者に違和感を生じさせることなく、車両の側方の後方を確認することができる。
また、前記プロセッサは、前記運転者の視線の向きが運転席から遠ざかる側の前記側方である場合、前記側方画像を前記運転席から近い側の前記側方よりも拡大した拡大画像を生成して出力してもよい。
これによれば、運転席から遠い側方に視線を向けた場合であっても、運転者が容易に車両の側方の後方を確認することができる。
また、本発明に係る運転支援システムは、上記の運転支援装置と、当該運転支援装置と双方向に通信可能であり、視野領域の光を透過しつつ、該視野領域に前記画像を仮想的に表示可能なウェアラブル装置と、を備え、前記ウェアラブル装置は、前記視線情報を検出する視線センサを備え、前記プロセッサは、前記視線情報に基づいて、前記ウェアラブル装置における前記画像の表示位置および前記表示内容を設定して前記画像とともに前記ウェアラブル装置に出力する。
これによれば、視線の向きに応じた内容の画像が表示されるので、運転者が直感的に把握することができる。
また、本発明に係る運転支援方法は、運転者の視線に関する視線情報および車両の周辺を撮像した画像データをそれぞれ取得し、メモリから読み出した前記視線情報に基づいて、前記画像データを用いて生成される画像の表示位置および表示内容を設定して前記画像とともに出力する。
また、本発明に係るプログラムは、運転者の視線に関する視線情報および車両の周辺を撮像した画像データを取得し、前記視線情報に基づいて、前記画像データを用いて生成される画像の表示位置および表示内容を設定して前記画像とともに出力する。
本発明によれば、プロセッサが運転者の視線に関する視線情報に基づいて、車両の周辺を撮像した画像データを用いて生成される画像の表示位置および表示内容を設定して画像ともに出力することによって、運転者の視線を向けた位置に応じた内容の画像を運転者に提示することができるので、運転者が車両の周辺環境を直感的に把握することができるという効果を奏する。
図1は、実施の形態1に係る車両に搭載された運転支援装置の機能構成を示すブロック図である。 図2は、実施の形態1に係る運転支援装置が実行する処理の概要を示すフローチャートである。 図3は、トップビュー表示の一例を模式的に示す図である。 図4は、俯瞰画像の表示領域を説明する模式図である。 図5は、俯瞰画像のオフセットを説明する模式図である。 図6Aは、俯瞰画像の別の一例を説明する模式図である。 図6Bは、車両の部位名称に示す図である。 図6Cは、車両の部位名称に示す図である。 図7は、バックビュー表示の表示位置を説明する模式図である。 図8は、バックビュー表示の後方画像の一例を示す模式図である。 図9は、拡大したバックビュー表示の表示位置を説明する模式図である。 図10は、サイドビュー表示の表示位置を説明する模式図である。 図11Aは、サイドビュー表示の側方画像の一例を示す模式図である。 図11Bは、サイドビュー表示の側方画像の一例を示す模式図である。 図12は、サイドビュー表示の別の表示位置を説明する模式図である。 図13は、サイドビュー表示の別の表示位置を説明する模式図である。 図14は、トップビュー表示の一例を上方から模式的に示す図である。 図15は、トップビュー表示の画像の一例を示す模式図である。 図16は、実施の形態2に係るウェアラブル装置の概略構成を示す図である。 図17は、実施の形態2に係る運転支援装置とウェアラブル装置を備える運転支援システムの機能構成を示すブロック図である。 図18は、実施の形態2に係る運転支援装置が実行する処理の概要を示すフローチャートである。 図19は、実施の形態2に係る別のウェアラブル装置の概略構成を示す図である。 図20は、実施の形態2に係る別のウェアラブル装置の概略構成を示す図である。 図21は、実施の形態2に係る別のウェアラブル装置の概略構成を示す図である。 図22は、実施の形態2に係る別のウェアラブル装置の概略構成を示す図である。 図23は、実施の形態3に係る運転支援システムの概要を示す模式図である。
以下、本発明を実施するための形態を図面とともに詳細に説明する。なお、以下の実施の形態により本発明が限定されるものでない。また、以下において、同一の部分には同一の符号を付して説明する。
(実施の形態1)
〔運転支援装置の構成〕
図1は、実施の形態1に係る車両に搭載される運転支援装置の機能構成を示すブロック図である。図1に示す運転支援装置1は、車両に搭載され、この車両に搭載された他のECU(Electronic Control Unit)と連携しながら車両内の運転者に対して運転を支援する。図1に示す運転支援装置1は、イグニッションスイッチ10(以下、「IGスイッチ10」という)と、車速センサ11と、撮像装置12と、視線センサ13と、通信部14と、表示部15と、ECU(Electronic Control Unit)16等と、を備える。
IGスイッチ10は、エンジンやモータ等の電気系統の始動および停止を受け付ける。IGスイッチ10は、オン状態となった場合、IG電源を始動させ、オフ状態となった場合、IG電源を停止させる。
車速センサ11は、車両の走行時における車速を検出し、この検出結果をECU16へ出力する。
撮像装置12は、車両の外部に複数、例えば撮像画角が360°となるように少なくとも前方、後方および両側方の4箇所に設けられる。撮像装置12は、ECU16の制御のもと、車両の周辺を撮像することによって画像データを生成し、この画像データをECU16へ出力する。撮像装置12は、1または複数のレンズで構成された光学系と、この光学系が集光した被写体像を受光することによって画像データを生成するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を用いて構成される。
視線センサ13は、運転者の視線を検出し、この検出結果をECU16へ出力する。視線センサ13は、光学系と、CCDまたはCMOSと、メモリと、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のハードウェアを有するプロセッサを用いて構成される。視線センサ13は、例えば周知のテンプレートマッチングを用いて運転者の目の動かない部分を基準点(例えば目頭)として検出し、かつ、目の動く部分(例えば虹彩)を動点として検出し、この基準点と動点との位置関係に基づいて運転者の視線を検出する。なお、実施の形態1では、視線センサ13を可視カメラによって運転者の視線を検出しているが、これに限定されることなく、赤外カメラによって運転者の視線を検出してもよい。視線センサ13を赤外カメラによって構成する場合、赤外LED(Light Emitting Diode)等によって赤外光を運転者に照射し、赤外カメラで運転者を撮像することによって生成された画像データから基準点(例えば角膜反射)および動点(例えば瞳孔)を検出し、この基準点と動点との位置関係に基づいて運転者の視線を検出する。
通信部14は、ECU16の制御のもと、基地局およびネットワークを介して所定の通信規格に従って各種情報を図示しないサーバへ送信するとともに、サーバから各種情報を受信する。また、通信部14は、図示しないウェアラブル装置、他の車両またはユーザ端末装置等に対して所定の通信規格に従って各種情報を送信するとともに、各種情報をウェアラブル装置、他の車両またはユーザ端末装置等から受信する。通信部14は、無線通信可能な通信モジュールを用いて構成される。
表示部15は、車両の車室内、例えばルーフ、フロントウィンドウおよびサイドウィンドウ等に複数設けられ、ECU16の制御のもと、画像、映像および文字情報を車室内に表示または投影することによって表示する。表示部15は、例えばHUD(Head-UP Display)や車両のルーフに設けられた表示ディスプレイ等を用いて構成される。具体的には、表示部15は、画像を投影する有機EL(Electro Luminescence)や液晶等の表示パネルを有する画像表示機と、この画像表示機から投影された画像が中間像として結像される拡散板と、拡散板で結像された中間像を拡大してルーフ、フロントウィンドウおよびサイドウィンドウ等に投影する拡大鏡等を用いて構成される。
ECU16は、運転支援装置1を構成する各部の動作を制御する。ECU16は、メモリと、CPU等のハードウェアを有するプロセッサを用いて構成される。ECU16は、視線センサ13から取得した運転者の視線に関する視線情報に基づいて、画像データを用いて生成される画像の表示位置および表示内容を設定して画像とともに出力する。具体的には、ECU16は、視線センサ13が検出した運転者の視線の向きに基づいて、表示部15に表示させる画像であって、撮像装置12から取得した画像データに対応する画像の表示位置および表示内容を制御して出力する。なお、実施の形態1では、ECU16がプロセッサとして機能する。
〔運転支援装置の処理〕
次に、運転支援装置1が実行する処理について説明する。図2は、運転支援装置1が実行する処理の概要を示すフローチャートである。
図2に示すように、まず、ECU16は、視線センサ13が検出した運転者の視線に関する視線情報、撮像装置12が生成した画像データおよび車速センサ11が検出した車両の車速情報を取得する(ステップS101)。
続いて、ECU16が視線センサ13から取得した視線情報に基づいて、運転者の視線の向きが車両のフロントウィンドウとルーフとの境界より斜め上方であり(ステップS102:Yes)、ルーフであると判定した場合(ステップS103:Yes)、運転支援装置1は、ステップS104へ移行する。
続いて、ECU16は、撮像装置12から取得した画像データに基づいて、車両を俯瞰した仮想的な俯瞰画像であって、車両のルーフに表示するための俯瞰画像を生成して表示部15に出力することによって、表示部15に俯瞰画像を車両のルーフに表示させるトップビュー表示を行う(ステップS104)。具体的には、ECU16は、図3に示すように、車両100のルーフ101に表示するための俯瞰画像P1を表示部15に表示させる。この場合、ECU16は、撮像装置12が車両100の上方から撮像した画像データに対応する実画像に対して、実画像の中心を通過して実画像と直交する軸周りに180°回転させた後に、車両100の前後方向に対して左右反転処理および車両100と運転者との距離間を調整するリサイズ処理等を行うことによって仮想的な俯瞰画像P1を生成し、この俯瞰画像P1を表示部15に出力する。ここで、俯瞰画像P1には、車両100の車輪の位置等によって定まる基準面と平行な対称面に対して車両100の鏡像対象な像が含まれる。表示部15は、ECU16の制御のもと、ECU16から入力された俯瞰画像P1を車両のルーフに向けて表示する。これにより、運転者は、ルーフ101に俯瞰画像P1が表示されるため、車両100の周辺環境の状況を直感的に把握することができる。さらに、運転者は、俯瞰画像P1がルーフ101に表示されるため、車両100の周辺に位置する対象物までの距離を把握し易いので、危険回避を容易に行うことができる。なお、ECU16は、俯瞰画像P1に対して左右反転処理を行うことなく、表示部15へ出力してもよい。ステップS104の後、運転支援装置1は、ステップS105へ移行する。
ステップS104において、ECU16は、俯瞰画像P1が所定の表示範囲内で表示されるように表示部15を制御してもよい。図4は、俯瞰画像P1の表示領域を説明する模式図である。図4において、車両100の車輪の位置等によって定まる基準面H1とする。さらに、図4において、運転者U1の視線の角度を、運転者U1が運転席102に着座した状態で基準面と平行な方向を見ているときの視線方向を0°とする仰角を用いて説明する。なお、図4において、仰角は、運転者U1が0°の方向より上を向いているときの角度(図4で0°から反時計回りした角度)を正として説明する。
図4に示すように、ECU16は、俯瞰画像P1をルーフ101に表示させる際に、ルーフ101の全体に表示させなくてもよく、仰角が所定の角度範囲(θ〜θ)である領域に制御して表示部15に表示させてもよい。ここで、角度θは、運転者U1の視線方向がルーフ101とフロントウィンドウW1との境界を通過するときの角度であり、車両の種類に応じて定まる角度である。また、角度θは、運転者U1が首を最も上向きにし、かつ視線を最も上向きにしたときの角度である。一般に、人間の首は、50°程度上向きにすることができ、視線は、まっすぐな方向に対して60°程度上に向けることができると考えられる。従って、この想定のもとでの角度θは、110°程度である。
また、ステップS104において、ECU16は、俯瞰画像P1を基準面H1と平行な面であって、車両100における所定の基準位置を通る面と運転者U1の視線の向きとが交差する位置へオフセットして表示されるように表示部15を制御してもよい。図5は、俯瞰画像P1のオフセットを説明する模式図である。
図5に示すように、ECU16は、基準面H1と平行な対称面H2に対して車両100の鏡像対象な像100A(俯瞰画像P1)を前方にオフセットさせて表示部15に表示させる。オフセット量D1は、オフセット後の俯瞰画像P1が上述した仰角の角度範囲θ〜θに含まれることが条件である。即ち、ECU16は、像100Aが写る俯瞰画像を像100Aにおける所定の基準位置A1を通る面H3と視線L1の向きとが交差する位置A2へオフセットして表示部15に出力する。この場合、ECU16は、視線センサ13が検出した運転者U1の瞳孔の大きさに基づいて、俯瞰画像P1を拡大して表示部15に表示させてもよい。さらに、図5に示すように、ECU16は、像100Aの基準位置A1を中心に、例えば像100Aの前方を面H3から上に45°回転させた像100Bが写る俯瞰画像を表示部15に出力してもよい。これにより、運転者U1は、首に掛かる負担を軽減することができるうえ、車両100の周囲の環境をより容易に把握することができる。
また、図6Aに示すように、ECU16は、表示部15に撮像装置12が車両100の全周囲(360°)を撮像した円環状の俯瞰画像P100を車両100のルーフ101上に表示させてもよい。この場合において、ECU16は、上述したオフセット量で俯瞰画像P100を表示部15に表示させてもよい。このとき、ECU16は、少なくとも俯瞰画像P100において、図6A、図6Bまたは図6Cに示すように車両100または車両100’における車室内から視て内装部品が写る領域を切り取るトリミング処理を行って出力する。ここで、車室内から視て内装部品とは、図6Bの車両100または図6Cの図の車両100’のルーフ、ドア、フロントピラー(以下、「Aピラー」という)、センターピラー(以下、「Bピラー」という)、クォータピラー(以下、「Cピラー」という)、リヤピラー(以下、「Dピラー」という)等である。即ち、ECU16は、少なくとも俯瞰画像P100において、図6A〜図6Cに示すように車両100または車両100’のルーフ、ドア、Aピラー、Bピラー、Cピラー、Dピラー等の各々が写る領域Z1,Z2を切り取るトリミング処理を行い、トリミング処理を行った俯瞰画像P100を車両100または車両100’のルーフに仮想的に表示部15に表示させる。これにより、ECU16は、車両100のルーフ、ドア、AピラーおよびBピラー或いはCピラー、Dピラー等の各々が写る領域Z1,Z2を切り取るトリミング処理を行うことで、ルーフ101等の遮蔽物より距離が遠い領域の画像が遮蔽物に隠れるオクルージョンの状態が発生するのを防止することができる。この結果、運転者U1は、俯瞰画像P100に対する遠近感覚に違和感を生じさせなくて済む。
図2に戻り、ステップS105以降の説明を続ける。
ステップS105において、ECU16は、IGスイッチ10がオフ状態となったか否かを判定する。ECU16によってIGスイッチ10がオフ状態であると判定された場合(ステップS105:Yes)、運転支援装置1は、本処理を終了する。これに対して、ECU16によってIGスイッチ10がオフ状態でないと判定された場合(ステップS105:No)、運転支援装置1は、上述したステップS101へ戻る。
ステップS102において、ECU16が運転者の視線の向きが車両のフロントウィンドウとルーフとの間の斜め上方であり(ステップS102:Yes)、ルーフでないと判定した場合(ステップS103:No)、運転支援装置1は、ステップS106へ移行する。
続いて、ECU16は、車速センサ11から取得した車速情報に基づいて、車両が走行中であるか否かを判定し(ステップS106)、ECU16によって車両が走行中であると判定された場合(ステップS106:Yes)、運転支援装置1は、ステップS107へ移行する。
続いて、ECU16は、撮像装置12から取得した画像データに基づいて、表示部15に車両の後方を撮像した後方画像を生成して表示部15に出力することによって、表示部15にフロントウィンドウ中央の上部に対応する位置に後方画像を投影させて表示させるバックビュー表示を行う(ステップS107)。具体的には、図7および図8に示すように、ECU16は、表示部15に撮像装置12が車両100の後方を撮影した画像データに対応する後方画像P2を、フロントウィンドウW1中央の上部に対応する位置M1、例えば従来のバックミラーや電子ミラーが配置された領域に対応する位置に投影させるバックビュー表示を行う。この場合、ECU16は、撮像装置12が車両100の後方を撮影した画像データに対応する画像に対して、周知の左右反転処理および距離間を調整するリサイズ処理等を行った後方画像P2を表示部15に出力する。これにより、運転者U1は、違和感なく後方画像P2を直感的に把握することができる。さらに、車両100からルームミラーを省略または小型化が図ることができるので、運転者は、運転時の視野が広くなり、安全性を高めることができる。ステップS107の後、運転支援装置1は、ステップS105へ移行する。
ステップS106において、ECU16によって車両が走行中でないと判定された場合(ステップS106:No)、運転支援装置1は、ステップS108へ移行する。
続いて、ECU16は、撮像装置12から取得した画像データに基づいて、車両の後方を撮像した後方画像P2をフロントウィンドウ領域に相当する大きさに拡大した拡大画像を表示部15に出力することによって、表示部15に拡大画像を投影させる拡大バックビュー表示を行う(ステップS108)。具体的には、図9に示すように、ECU16は、車両100の後方を撮像した後方画像P2をフロントウィンドウW1領域に相当する位置M2に拡大した拡大画像を表示部15に出力する。この場合、表示部15は、ECU16の制御のもと、拡大画像をフロントウィンドウW1領域に相当する位置に拡大して投影する拡大バックビュー表示を行う。これにより、運転者U1は、車両の走行時に比べて車両の後方の死角を容易に把握することができる。この場合、ECU16は、車両の走行中よりも撮像装置12の画角を広角側に変更させた状態で撮像装置12に車両の後方を撮像させてもよい。さらに、ECU16は、拡大画像上に、撮像装置12が車両の側方の後方を撮像した側方画像を重畳して表示部15に表示させてもよい。ステップS108の後、運転支援装置1は、ステップS105へ移行する。
ステップS102において、ECU16によって運転者の視線の向きが車両の斜め上方でなく(ステップS102:No)、車両の側方であると判定された場合(ステップS109:Yes)、運転支援装置1は、ステップS110へ移行する。ここで、車両の側方とは、車両のサイドウィンドウ、従来のサイドミラーに相当する位置および車両のAピラーのサイドウィンドウ側のいずれか1つである。
続いて、ECU16は、撮像装置12から取得した画像データに基づいて、表示部15に車両の側方後方を撮像した側方画像を生成して表示部15へ出力することによって、表示部15に、従来のサイドミラーが配置された領域に対応する位置に投影させるサイドビュー表示を行う(ステップS110)。具体的には、図10および図11Aに示すように、ECU16は、運転者の視線の向きが運転席から遠い側のサイドウィンドウWL1である場合、表示部15に従来の左サイドミラーが配置された領域に対応する位置ML1に撮像装置12が車両100の左側後方を撮像した画像データに対応する側方画像P3を投影させて表示するサイドビュー表示を行う。この場合、ECU16は、撮像装置12が車両100の左側後方を撮像した画像データに対応する画像に対して周知の左右反転処理および距離間を調整するリサイズ処理等を行った側方画像P3を表示部15に出力する。また、ECU16は、運転者の視線の向きが運転席から近い側のサイドウィンドウWR1である場合、表示部15に従来の右サイドミラーが配置された領域に対応する位置MR1に側方画像P3を表示部15に投影させて表示するサイドビュー表示を行う。この場合において、ECU16は、運転者の視線の向きが運転席から遠い側のサイドウィンドウWL1であるとき、側方画像P3の表示タイミングを運転席から近い側のサイドウィンドウWR1の表示タイミングと比して早く表示部15に表示させてもよい。これにより、運転者は、サイドウィンドウ間で視線の向きを移動させた場合であっても、ECU16が側方画像P3の表示タイミングを運転席から近い側のサイドウィンドウWR1の表示タイミングと比して早く表示部15に表示させるので、違和感なく両側方の後方を確認しながら運転することができる。ステップS110の後、運転支援装置1は、ステップS105へ移行する。
また、ステップS110において、ECU16は、運転者の視線の向きが運転席から遠い側のサイドウィンドウWL1である場合、運転席から近い側のサイドウィンドウWR1の側方画像P3よりも拡大した側方画像P3を表示部15に出力することによって、表示部15に拡大した側方画像P3を投影させて表示させるサイドビュー表示を行ってもよい。これにより、運転者は、視線の向きを左右で瞬時に切り替えた場合であっても、違和感なく両側方の側方画像を確認することができる。このとき、ECU16は、運転者の視線の向きの滞留時間に応じて、側方画像P3を徐々に拡大して表示部15に出力してもよい。
また、図11Bまたは図12に示すように、ECU16は、運転者の視線の向きがフロントウィンドウW1の上方の左右またはAピラー103方向である場合、側方画像P3を表示部15に出力することによって、表示部15にフロントウィンドウW1上方の位置ML4,MR4に側方画像P3や側方画像P4を投影させて表示させるサイドビュー表示を行ってもよい。これにより、運転者U1は、運転中における視線の移動量を小さくすることができる。また、ピラーレス表示には、側方画像P3がフロントウィンドウW1寄りであっても良い。
また、図13に示すように、ECU16は、運転者の視線の向きがサイドウィンドウWL1,WR1またはフロントウィンドウW1において従来のフェンダーミラーが配置された領域に対応する位置ML5,MR5である場合、表示部15に側方画像P3を出力することによって、表示部15にサイドウィンドウWL1,WR1またはフロントウィンドウW1の位置ML5,MR5に側方画像P3を投影させて表示させるサイドビュー表示を行ってもよい。これにより、運転者U1は、運転中における視線の移動量を小さくすることができる。
また、ECU16は、車速センサ11から取得した車両の車速情報に基づいて、表示部15に表示させる側方画像P3の表示タイミングを変更してもよい。例えば、ECU16は、車両の車速が早いほど、表示部15が側方画像P3を表示する表示タイミングを早くするように制御してもよい。
ステップS109において、ECU16によって運転者の視線が側方でないと判定された場合(ステップS109:No)、運転支援装置1は、ステップS105へ移行する。
以上説明した実施の形態1によれば、ECU16が運転者の視線に関する視線情報に基づいて、画像データを用いて生成される画像の表示位置および表示内容を設定して画像とともに出力するので、運転者の視線を向けた位置に、この位置に応じた内容の画像を表示することができるので、運転者が車両の周辺環境を直感的に把握することができる。
また、実施の形態1によれば、運転者の視線の向きが車両のルーフとフロントウィンドウとの間の斜め上方である場合、ECU16が車両の周辺を撮像した画像データに対応する画像に基づいて、車両を俯瞰した仮想的な俯瞰画像P1であって、ルーフに表示するための俯瞰画像P1を生成して表示部15へ出力するので、運転者が車両の周辺環境を直感的に把握することができるうえ、車両の周辺に位置する対象物までの距離を把握し易いので、危険回避を容易に行うことができる。
また、実施の形態1によれば、ECU16が俯瞰画像P1を車両の車輪の位置によって定まる基準面と平行な面であって、車両における所定の基準位置を通る面と視線の向きとが交差する位置へオフセットして出力するので、運転者が無理な姿勢を取ることなく、俯瞰画像P1を容易に確認することができるうえ、運転者の首に掛かる負担を軽減することができる。
また、実施の形態1によれば、ECU16が俯瞰画像P1を車両における所定の基準位置を中心に所定の角度で回転して表示部15へ出力するので、運転者が車両の周辺環境を容易に把握することができる。
また、実施の形態1によれば、ECU16が少なくとも俯瞰画像P1における車両のルーフ、ドア、AピラーおよびBピラー或いはCピラー、Dピラー等の各々が写る領域を切り取るトリミング処理を行って表示部15に出力するので、ルーフ等の遮蔽物によって遮蔽物より距離が遠い領域を隠してしまうオクルージョンの状態が発生することを防止することができるので、運転者が俯瞰画像P1の遠近感に違和感を生じさせなくて済む。
また、実施の形態1によれば、ECU16が運転者の視線が車室内の斜め上方、かつ、車室内のフロントウィンドウの中央である場合、車両の周辺を撮像した画像データに対応する画像に基づいて、フロントウィンドウの中央の上方に表示するための後方画像P2を生成して表示部15に出力するので、車両からルームミラーを省略、またはルームミラーの小型化を図ることができる。この結果、運転者は、運転時の視野が広くなり、安全性を高めることができる。
また、実施の形態1によれば、車両停止している場合、ECU16が車両の走行時と比べて拡大した後方画像P2を拡大した拡大画像を表示部15に出力するので、運転者が安全確認を容易にすることができるので、車両の後方の見落としを防止することができる。
また、実施の形態1によれば、運転者の視線の向きが車両の側方である場合、ECU16が従来のサイドミラーが配置された領域に対応する位置MR3,ML3、従来のフェンダーミラーが配置された領域に対応する位置MR5,ML5およびフロントウィンドウW1の上方の左右の位置MR4,ML4のいずれか1つ以上に表示するための側方画像P3を生成して表示部15に出力するので、従来のインナーミラーやアウターミラーが配置された位置と同じため、運転者に違和感を生じさせることなく、車両の側方の後方を確認することができる。また、図解されていないがAピラー103の箇所に表示してもよい。
また、実施の形態1によれば、運転者の視線が運転席から遠い側の側方である場合、ECU16が側方画像P3を運転席から近い側方の表示タイミングと比して早く表示部15へ出力するので、運転者が視線の向きを運転席から遠い側の側方に移した場合であっても、運転者に違和感を生じさせることなく、車両の側方の後方を確認することができる。
また、実施の形態1によれば、運転者の視線の向きが運転席から遠い側の側方である場合、ECU16が側方画像P3の表示領域を運転席から近い側の側方よりも拡大して表示部15へ出力するので、運転者が運転席から遠い側の側方に視線を向けた場合であっても、運転者が容易に車両の側方の後方を確認することができる。
なお、実施の形態1では、ECU16が俯瞰画像P1、後方画像P2および側方画像P3に対して周知の左右反転処理やリサイズ処理を行って表示部15に表示させているが、左右反転処理やリサイズ処理を行うことなく俯瞰画像P1、後方画像P2および側方画像P3を表示部15に表示させてもよい。もちろん、ECU16は、図示しない操作部の操作に応じて俯瞰画像P1、後方画像P2および側方画像P3に対して左右反転処理やリサイズ処理を行うか否かを切り替えてもよい。
また、実施の形態1では、ECU16が運転者の視線の向きが車両100のルーフ101とフロントウィンドウW1の境界より上方であると判定した後にフロントウィンドウW1近傍(例えばルーフ101とフロントウィンドウW1との境界)を見た場合、車両の周辺を撮像した画像データに用いて生成される画像に基づいて、車両100を上方から俯瞰した仮想的な俯瞰画像であって、ルーフ101もしくはフロントウィンドウW1に表示するための俯瞰画像を生成して出力してもよい。具体的には、図14および図15に示すように、ECU16は、運転者の視線の向きが車両100のルーフ101とフロントウィンドウW1の境界より上方であると判定した後にフロントウィンドウW1近傍を見た場合、車両100の周辺を撮像した画像データに用いて生成される画像に基づいて、車両100を上方から俯瞰した仮想的な俯瞰画像であって、ルーフ101もしくはフロントウィンドウW1に表示するための俯瞰画像を生成して出力してもよい。具体的には、図14および図15に示すように、ECU16は、運転者の視線の向きが車両100のルーフ101とフロントウィンドウW1の境界より上方であると判定した後にフロントウィンドウW1近傍を見た場合、表示部15にルーフ101またはフロントウィンドウW1の領域MB1に、車両100を上方から俯瞰した仮想的な俯瞰画像P5を投影させて表示させる。これにより、運転者は、ルーフ101またはフロントウィンドウW1に俯瞰画像P5が表示されるため、車両100の周辺環境の状況を直感的に把握することができる。さらに、運転者は、俯瞰画像P5がルーフ101またはフロントウィンドウW1に表示されるため、車両100の周辺に位置する対象物までの距離を把握し易いので、危険回避を容易に行うことができる。
(実施の形態2)
次に、実施の形態2について説明する。上述した実施の形態1では、表示部15が車両内に投影することによって画像を表示させていたが、実施の形態2では、ウェアラブル装置を用いて画像を表示する。以下において、上述した実施の形態1に係る運転支援装置1と同一の構成には同一の符号を付して詳細な説明は省略する。
図16は、実施の形態2に係るウェアラブル装置の概略構成を示す図である。図17は、実施の形態2に係る車両とウェアラブル装置を備える運転支援システムの機能構成を示すブロック図である。
〔運転支援装置の構成〕
まず、運転支援装置1Aの構成について説明する。図16に示す運転支援装置1Aは、上述した実施の形態1に係る運転支援装置1の構成のうち視線センサ13および表示部15を有しない点以外は、運転支援装置1と同様の構成を有する。
〔ウェアラブル装置の構成〕
次に、ウェアラブル装置2の構成について説明する。図16および図17に示すウェアラブル装置2は、運転者が装着自在であり、拡張現実(AR)を実現可能な眼鏡型の装置である。さらに、ウェアラブル装置2は、運転者の視野領域からの光を透過しつつ、運転者の視野領域内において仮想的な画像を視認できるように運転者の網膜の画像を結像させる装置である。ウェアラブル装置2は、通信部20と、撮像装置21と、9軸センサ22と、投影部24と、制御部25と、を備える。
通信部20は、制御部25の制御のもと、ネットワークを介して所定の通信規格に従って各種情報を運転支援装置1Aまたはサーバへ送信するとともに、運転支援装置1Aまたはサーバから各種情報を受信する。通信部20は、無線通信可能な通信モジュールを用いて構成される。
撮像装置21は、図16に示すように複数設けられる。撮像装置21は、制御部25の制御のもと、例えば車両の車室内に撮像することによって画像データを生成し、この画像データを制御部25へ出力する。撮像装置21は、1または複数のレンズで構成された光学系と、この光学系が集光した被写体像を受光することによって画像データを生成するCCDやCMOS等を用いて構成される。
9軸センサ22は、3軸ジャイロセンサ、3軸加速度センサおよび3軸地磁気(コンパス)センサを用いて構成される。9軸センサ22は、ウェアラブル装置2に生じる角速度および加速度を検出し、この検出結果を制御部25へ出力する。また、9軸センサ22は、地磁気を検出することによって絶対方向を検出し、この検出結果を制御部25へ出力する。
視線センサ23は、ウェアラブル装置2の装着者である運転者の視線の向きを検出し、この検出結果を制御部25へ出力する。視線センサ23は、光学系と、CCDまたはCMOSと、メモリと、CPUやGPU等のハードウェアを有するプロセッサを用いて構成される。視線センサ23は、例えば周知のテンプレートマッチングを用いて運転者の目の動かない部分を基準点(例えば目頭)として検出し、かつ、目の動く部分(例えば虹彩)を動点として検出し、この基準点と動点との位置関係に基づいて運転者の視線の向きを検出する。
投影部24は、制御部25の制御のもと、画像、映像および文字情報をウェアラブル装置表示部(例えばレンズ部)や運転者の網膜に向けて投影する。投影部24は、RGBの各々のレーザ光を照射するRGBレーザビーム、レーザ光を反射するMEMSミラー、MEMSミラーから反射されたレーザ光を運転者の網膜へ投影する反射ミラー等を用いて構成される。
制御部25は、ウェアラブル装置2を構成する各部の動作を制御する。制御部25は、メモリと、CPU等のハードウェアを有するプロセッサを用いて構成される。制御部25は、運転支援装置1AのECU16の制御のもと、投影部24が投影する画像の表示内容および表示位置を制御する。例えば、制御部25は、ECU16から入力された運転支援装置1Aの撮像装置12が車両の周辺を撮像した画像データに対応する画像の表示位置および表示内容を設定して画像とともに出力された情報に基づいて、投影部24のMEMSミラーの反射角度を制御することによって、運転者が視認可能な画像の表示位置を制御する。なお、制御部25は、撮像装置21から入力される画像データに対応する画像内から車両の車室の所定の箇所、例えばルーフ、フロントウィンドウおよびサイドウィンドウに設けられたマークを検出することによって運転者の視線を検出してもよい。さらに、制御部25は、9軸センサ22の検出結果に基づいて、運転者の視線を検出してもよい。
〔運転支援装置の処理〕
次に、運転支援装置1Aが実行する処理について説明する。図18は、運転支援装置1Aが実行する処理の概要を示すフローチャートである。
図18に示すように、まず、ECU16は、通信部14を介してウェアラブル装置2の視線センサ23が検出した運転者の視線に関する視線情報、撮像装置12から画像データおよび車速センサ11が検出した車両の車速情報を取得する(ステップS201)。
続いて、ECU16によって運転者の視線の向きが車両のフロントウィンドウとルーフとの間の斜め上方であり(ステップS202:Yes)、ルーフであると判定された場合(ステップS203:Yes)、運転支援装置1Aは、ステップS204へ移行する。
続いて、ECU16は、車両の撮像装置12から入力された画像データに基づいて、車両を俯瞰する俯瞰画像であって、運転者の網膜上における車両のルーフに対応する位置に表示するための俯瞰画像を生成して投影部24に出力することによって、投影部24に俯瞰画像を投影させるトップビュー表示を行う(ステップS204)。具体的には、ECU16は、上述した実施の形態1と同様に、実画像の中心を通過して実画像と直交する軸周りに180°回転させた後に、車両の前後方向に対して左右反転処理および車両と運転者との距離間を調整するリサイズ処理等を行うことによって仮想的な俯瞰画像P1を生成して投影部24へ出力する。この場合、投影部24は、俯瞰画像P1を運転者の網膜上のルーフに対応する位置に向けて投影する(例えば図3を参照)。さらに、ECU16は、俯瞰画像P1を上述した実施の形態1と同様にオフセットや傾斜した俯瞰画像P1を投影部24に出力することによって、投影部24に俯瞰画像P1を運転者の網膜のルーフからオフセットした位置に向けて投影させてもよい(図5を参照)。また、ECU16は、俯瞰画像の車両のルーフ、ドア、AピラーおよびBピラー或いはCピラー、Dピラー等の各々が写る領域を切り取るトリミング処理を行い、トリミング処理を行った俯瞰画像P100を投影部24に出力することによって、投影部24に俯瞰画像P100を運転者の網膜のルーフに対応する位置に向けて投影させてもよい(図6Aを参照)。ステップS204の後、運転支援装置1Aは、ステップS205へ移行する。
続いて、ECU16は、IGスイッチ10がオフ状態となったか否かを判定する。ECU16によってIGスイッチ10がオフ状態であると判定された場合(ステップS205:Yes)、運転支援装置1Aは、本処理を終了する。これに対して、ECU16によってIGスイッチ10がオフ状態でないと判定された場合(ステップS205:No)、運転支援装置1Aは、上述したステップS201へ戻る。
ステップS202において、ECU16によって運転者の視線の向きが車両の斜め上方であり(ステップS202:Yes)、ルーフでないと判定された場合(ステップS203:No)において、運転支援装置1Aは、ステップS206へ移行する。
続いて、ECU16は、車速センサ11から取得した車速情報に基づいて、車両が走行中であるか否かを判定し(ステップS206)、ECU16によって車両が走行中であると判定した場合(ステップS206:Yes)、運転支援装置1Aは、ステップS207へ移行する。
続いて、ECU16は、撮像装置12から取得した画像データに基づいて、車両の後方を撮像した後方画像であって、運転者の網膜上におけるフロントウィンドウ中央の上部に対応する位置に投影するための後方画像を生成して投影部24に出力することによって、投影部24に後方画像を投影させるバックビュー表示(例えば図8を参照)を行う(ステップS207)。
その後、ECU16によって運転者の視線が側方に変化したと判定された場合(ステップS208:Yes)、運転支援装置1Aは、ステップS209へ移行し、ECU16によって運転者の視線が側方に変化していないと判定された場合(ステップS208:No)、運転支援装置1Aは、ステップS205へ移行する。
ステップS209において、ECU16は、撮像装置12から入力される画像データに基づいて、車両の側方後方を撮像した側方画像であって、運転者の網膜上における車両のサイドウィンドウに対応する位置に投影するための側方画像を生成して投影部24に出力することによって、投影部24に側方画像を投影させるサイドビュー表示を行う(例えば図11Aを参照)。ステップS209の後、運転支援装置1Aは、ステップS205へ移行する。
ステップS206において、ECU16によって車両が走行中でないと判定されたとき(ステップS206:No)、運転支援装置1Aは、ステップS210へ移行する。
続いて、ECU16は、撮像装置12から入力された画像データに基づいて、車両の後方を撮像した後方画像であって、運転者の網膜上におけるフロントウィンドウ領域に相当する大きさに拡大した後方画像を投影部24に出力することによって、投影部24に拡大した後方画像を投影させるバックビュー表示(例えば図9を参照)を行う(ステップS210)。これにより、運転者は、ウェアラブル装置2を介して自身の目で車両の後方を直接見ている感覚となるので、安全性を高めることができる。ステップS210の後、運転支援装置1Aは、ステップS205へ移行する。
ステップS202において、ECU16によって運転者の視線の向きが車両の斜め上方でなく(ステップS202:No)、側方であると判定された場合(ステップS211:Yes)において、運転者の視線の向きが所定の位置より下方であると判定されたとき(ステップS212:Yes)、運転支援装置1Aは、ステップS213へ移行する。ここで、所定の位置とは、運転者が運転席に着座した状態で基準面と平行な方向を見ているときの視線方向を0°より下方の位置である。
続いて、ECU16は、撮像装置12から取得した画像データに基づいて、車両のAピラーの直下を撮像した仮想的な直下画像であって、運転者の網膜上における従来の車両のサイドウィンドウが配置された領域に対応する位置に表示するための直下画像を生成して投影部24へ出力することによって、投影部24に直下画像を投影させる直下サイドビュー表示を行う(ステップS213)。これにより、運転者は、視線を下げるだけで、Aピラーによって隠れた領域を直感的に把握することができる。ステップS213の後、運転支援装置1Aは、ステップS205へ移行する。
ステップS212において、ECU16によって運転者の視線の向きが所定の位置より下方でないと判定されたとき(ステップS212:No)、運転支援装置1Aは、ステップS214へ移行する。
続いて、ECU16は、撮像装置12から取得した画像データに基づいて、車両の後方側方を撮像した側方画像であって、運転者の網膜上における従来の車両のサイドウィンドウが配置された領域に対応する位置に表示するための側方画像を投影部24へ出力することによって、投影部24に側方画像を投影させるサイドビュー表示(図11Aを参照)を行う(ステップS214)。ステップS214の後、運転支援装置1Aは、ステップS205へ移行する。
ステップS211において、ECU16によって運転者の視線の向きが側方でないと判定された場合(ステップS211:No)、運転支援装置1Aは、ステップS205へ移行する。
以上説明した実施の形態2によれば、ECU16が運転者の視線に関する視線情報に基づいて、ウェアラブル装置2で表示される画像の表示位置および表示内容設定して画像とともにウェアラブル装置2に出力するので、運転者が直感的に把握することができる。
また、実施の形態2では、ECU16が運転者のジェスチャーに応じて、投影部24に投影させる画像の表示位置、表示領域および表示角度を制御してもよい。この場合、ECU16は、ウェアラブル装置2の撮像装置21が生成した画像データに対応する画像に写る運転者のジェスチャー、例えば画像の拡大または縮小する指示するピンチ操作、画像の移動を指示するフリック操作やスワイプ操作を検出し、この検出結果に応じて投影部24に投影させる画像の表示位置、表示領域および表示角度を制御する。
なお、実施の形態2では、運転者が装着可能な眼鏡型のウェアラブル装置2を用いた例を説明していたが、これに限定されることなく、種々のウェアラブル装置に適用することができる。例えば図19に示すように撮像機能を有するコンタクトレンズ型のウェアラブル装置2Aであっても適用することができる。さらに、図20のウェアラブル装置2Bまたは図21の脳内チップ型のウェアラブル装置2Cのように運転者U1の脳へ直接的に伝達する装置であっても適用することができる。さらにまた、図22のウェアラブル装置2Dのように、例えばバイザーを備えたヘルメット形状に構成された装置であってもよい。この場合、上述したウェアラブル装置2を身に付けた上でヘルメットを被る必要がない。
また、実施の形態2では、ウェアラブル装置2が運転者の網膜に投影することによって画像を視認させていたが、例えば眼鏡等のレンズに画像を投影して表示するものであってもよい。
また、実施の形態2では、ECU16が撮像装置12によって生成された画像データを用いてウェアラブル装置2の投影部24に表示させる画像の表示内容および表示位置を制御していたが、例えばウェアラブル装置2の制御部25が通信部20を介して撮像装置12から画像データを取得し、取得した画像データを用いて生成される画像の表示位置および表示内容を設定して画像とともに投影部24に出力してもよい。
(実施の形態3)
次に、実施の形態3について説明する。上述した実施の形態1,2では、ECU16が自車に搭載された撮像装置12から取得した画像データを用いて画像の表示位置および表示内容を設定して画像とともに出力していたが、実施の形態3では、サーバが他車やGPS衛星から取得した画像データを用いて画像の表示位置および表示内容を設定して画像とともに出力する。なお、上述した実施の形態1に係る運転支援装置1と同一の構成には同一の符号を付して詳細な説明は省略する。
図23は、実施の形態3に係る運転支援システムの概略構成を示す模式図である。図23に示す運転支援システム1000は、複数の車両200と、サーバ300と、を備える。複数の車両200およびサーバ300は、基地局400およびネットワーク500を介して相互に情報通信可能に構成されている。また、複数の車両200は、複数のGPS衛星600からの信号を受信し、受信した信号に基づいて車両200の位置を算出する。また、サーバ300は、基地局400およびネットワーク500を介してGPS衛星600から車両200の上空を撮像して画像データを取得する。
〔車両の構成〕
まず、車両200の構成について説明する。図23に示す車両200は、上述した実施の形態1に係る運転支援装置1を搭載し、この運転支援装置1の構成のうち、ECU16が撮像装置12から取得した画像データを用いて画像の表示位置および表示内容を設定して画像とともに出力する機能を有しない点以外は、同様の機能を有する。
〔サーバの構成〕
次に、サーバ300の構成について説明する。サーバ300は、図23に示すサーバ300は、通信部301と、制御部302と、を備える。
通信部301は、制御部302の制御のもと、ネットワーク500および基地局400を介して所定の通信規格に従って各種情報を送信するとともに、各種情報を受信する。また、通信部301は、制御部33の制御のもと、各車両200に対して所定の通信規格に従って各種情報を送信するとともに、GPS衛星600や各車両200から各種情報を受信する。通信部301は、無線通信可能な通信モジュールを用いて構成される。
制御部302は、メモリと、CPU等のハードウェアを有するプロセッサを用いて構成される。制御部302は、通信部301を介して、画像の要求があった車両200(以下、単に「要求車両200」という)から運転者の視線に関する視線情報および画像の要求があった要求車両200の周辺に位置する車両200(以下、「他車両200」という)またはGPS衛星600から画像データを取得する。そして、制御部302は、要求車両200から取得した視線情報に基づいて、他車両200またはGPS衛星600から取得した画像データを用いて要求車両200の周辺状況を仮想的に生成した画像を生成し、この生成した画像の表示位置および表示内容を設定して画像とともに要求車両200に出力することによって、要求車両200の表示部15に表示させる。なお、制御部302は、要求車両200から取得した視線情報に基づいて、メモリに記録された複数の画像データ群を用いて要求車両200の周辺状況を仮想的に生成した画像を生成し、この生成した画像の表示位置および表示内容を設定して画像とともに要求車両200に出力することによって、要求車両200の表示部15に表示させてもよい。また、実施の形態3では、制御部302がプロセッサとして機能する。
以上説明した実施の形態3によれば、制御部302が要求車両200の周辺状況を仮想的に生成した画像を生成し、この生成した画像の表示位置および表示内容を設定して画像とともに要求車両200に出力することによって、要求車両200内における運転者の視線を向けた位置に、この位置に応じた内容の画像を要求車両200内において表示することができるので、要求車両200の運転者が車両の周辺環境を直感的に把握することができる。
(その他の実施の形態)
また、実施の形態1〜3に係る運転支援装置では、上述してきた「部」は、「回路」などに読み替えることができる。例えば、制御部は、制御回路に読み替えることができる。
また、実施の形態1〜3に係る運転支援装置では、ECUが運転者の視線に関する視線情報および車両の周辺を撮像した画像データをそれぞれ取得し、視線情報に基づいて、画像データを用いて生成される画像の表示位置および表示内容を設定して画像とともに出力していたが、これに限定されることなく、ECUやGPU(Graphics Processing Unit)に代えて、ECUやGPUより適したデバイス、例えばFPGA(Field Programmable Gate Array)、DSP(Digital Signal Processing)およびメモリ等で構成されるデバイスが行ってもよい。
また、実施の形態1〜3に係る運転支援装置に実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、実施の形態1〜3に係る運転支援装置に実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。
なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本実施の形態を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施の形態に限定されるものではない。従って、添付のクレームおよびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1,1A 運転支援装置
2,2A,2B,2C ウェアラブル装置
11 車速センサ
12,21 撮像装置
13,23 視線センサ
14,20,301 通信部
15 表示部
16 ECU
22 9軸センサ
24 投影部
25,302 制御部
100,200 車両
101 ルーフ
103 Aピラー
300 サーバ
600 GPS衛星
1000 運転支援システム
W1 フロントウィンドウW1
WL1,WR1 サイドウィンドウ
P1,P5 俯瞰画像
P2 後方画像
P3,P4 側方画像

Claims (14)

  1. メモリと、
    ハードウェアを有するプロセッサと、
    を備え、
    前記プロセッサは、
    運転者の視線に関する視線情報および車両の周辺を撮像した画像データをそれぞれ取得し、
    前記視線情報に基づいて、前記画像データを用いて生成される画像の表示位置および表示内容を設定して前記画像とともに出力する、
    運転支援装置。
  2. 請求項1に記載の運転支援装置であって、
    前記プロセッサは、
    前記視線情報に基づいて、前記運転者の視線の向きが前記車両のルーフとフロントウィンドウの境界より上方であるか否かを判定し、
    前記運転者の視線の向きが前記上方であると判定した場合、前記画像に基づいて、前記車両を俯瞰した仮想的な俯瞰画像であって、前記ルーフに表示するための俯瞰画像を生成して出力する、
    運転支援装置。
  3. 請求項2に記載の運転支援装置であって、
    前記プロセッサは、
    前記俯瞰画像を前記車両の車輪を含む情報に基づいて定まる基準面と平行な面であって、前記車両における所定の基準位置を通る面と前記視線の向きとが交差する位置へオフセットして出力する、
    運転支援装置。
  4. 請求項3に記載の運転支援装置であって、
    前記プロセッサは、
    前記俯瞰画像の含まれる前記基準位置を中心に所定の角度で回転して出力する、
    運転支援装置。
  5. 請求項4に記載の運転支援装置であって、
    前記プロセッサは、
    少なくとも前記俯瞰画像における前記車両における車室内から視て内装部品が写る領域を切り取るトリミング処理を行って出力する、
    運転支援装置。
  6. 請求項1に記載の運転支援装置であって、
    前記プロセッサは、
    前記視線情報に基づいて、前記運転者の視線の向きが前記車両内のフロントウィンドウ上方の中央であるか否かを判定し、
    前記運転者の視線の向きが前記車両内のフロントウィンドウの上方の中央であると判定した場合、前記画像に基づいて、前記車両の背面から後方を撮像した後方画像であって、前記フロントウィンドウの中央の上方に表示するための後方画像を生成して出力する、
    運転支援装置。
  7. 請求項6に記載の運転支援装置であって、
    前記プロセッサは、
    前記車両の車速に関する車速情報を取得し、
    前記車速情報に基づいて、前記車両が停止しているか否かを判定し、
    前記車両が停止している場合、前記後方画像を前記フロントウィンドウ領域に相当する大きさに拡大して出力する、
    運転支援装置。
  8. 請求項1に記載の運転支援装置であって、
    前記プロセッサは、
    前記視線情報に基づいて、前記運転者の視線の向きが前記車両の側方であるか否かを判定し、
    前記運転者の視線の向きが前記車両の側方である場合、前記画像に基づいて、前記車両の側方から後方を撮像した側方画像であって、サイドミラーに対応する位置、フェンダーミラーに対応する位置およびフロントウィンドウの上方の左右の位置のいずれか1つ以上に表示するための側方画像を生成して出力する、
    運転支援装置。
  9. 請求項8に記載の運転支援装置であって、
    前記プロセッサは、
    前記運転者の視線の向きが運転席から遠ざかる側の前記側方である場合、前記側方画像の表示タイミングを前記運転席から近い側の前記側方の表示タイミングと比して早くする、
    運転支援装置。
  10. 請求項9に記載の運転支援装置であって、
    前記プロセッサは、
    前記運転者の視線の向きが運転席から遠ざかる側の前記側方である場合、前記側方画像を前記運転席から近い側の前記側方よりも拡大した拡大画像を生成して出力する、
    運転支援装置。
  11. 請求項2に記載の運転支援装置であって、
    前記プロセッサは、
    前記運転者の視線の向きが前記上方であると判定した後にフロントウィンドウ近傍を見た場合、前記画像に基づいて、前記車両を上方から俯瞰した仮想的な俯瞰画像であって、前記ルーフもしくはフロントウィンドウに表示するための俯瞰画像を生成して出力する、
    運転支援装置。
  12. 請求項1〜11のいずれか一つに記載の運転支援装置と、
    当該運転支援装置と双方向に通信可能であり、視野領域の光を透過しつつ、該視野領域に前記画像を仮想的に表示可能なウェアラブル装置と、
    を備え、
    前記ウェアラブル装置は、前記視線情報を検出する視線センサを備え、
    前記プロセッサは、
    前記視線情報に基づいて、前記ウェアラブル装置における前記画像の表示位置および前記表示内容を設定して前記画像とともに前記ウェアラブル装置に出力する、
    運転支援システム。
  13. 運転支援装置が実行する運転支援方法であって、
    運転者の視線に関する視線情報および車両の周辺を撮像した画像データをそれぞれ取得し、
    メモリから読み出した前記視線情報に基づいて、前記画像データを用いて生成される画像の表示位置および表示内容を設定して前記画像とともに出力する、
    運転支援方法。
  14. 運転支援装置に実行させるプログラムであって、
    運転者の視線に関する視線情報および車両の周辺を撮像した画像データを取得し、
    前記視線情報に基づいて、前記画像データを用いて生成される画像の表示位置および表示内容を設定して前記画像とともに出力する、
    プログラム。
JP2018213084A 2018-11-13 2018-11-13 運転支援装置、運転支援システム、運転支援方法およびプログラム Active JP7163732B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018213084A JP7163732B2 (ja) 2018-11-13 2018-11-13 運転支援装置、運転支援システム、運転支援方法およびプログラム
US16/670,024 US11351918B2 (en) 2018-11-13 2019-10-31 Driver-assistance device, driver-assistance system, method of assisting driver, and computer readable recording medium
CN201911101526.8A CN111169382B (zh) 2018-11-13 2019-11-12 驾驶辅助装置、驾驶辅助系统、驾驶辅助方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018213084A JP7163732B2 (ja) 2018-11-13 2018-11-13 運転支援装置、運転支援システム、運転支援方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020080485A true JP2020080485A (ja) 2020-05-28
JP7163732B2 JP7163732B2 (ja) 2022-11-01

Family

ID=70551665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018213084A Active JP7163732B2 (ja) 2018-11-13 2018-11-13 運転支援装置、運転支援システム、運転支援方法およびプログラム

Country Status (3)

Country Link
US (1) US11351918B2 (ja)
JP (1) JP7163732B2 (ja)
CN (1) CN111169382B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022071796A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 情報処理システム、コンピュータプログラム、及び表示方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7163732B2 (ja) * 2018-11-13 2022-11-01 トヨタ自動車株式会社 運転支援装置、運転支援システム、運転支援方法およびプログラム
JP7163418B2 (ja) * 2019-01-31 2022-10-31 三菱電機株式会社 運転支援装置
CN110789533B (zh) * 2019-09-25 2021-08-13 华为技术有限公司 一种数据呈现的方法及终端设备
JP2021192202A (ja) * 2020-06-05 2021-12-16 トヨタ自動車株式会社 体験システム、体験提供方法およびプログラム
CN112298039A (zh) * 2020-09-27 2021-02-02 浙江合众新能源汽车有限公司 一种a柱成像方法
JP2022084136A (ja) * 2020-11-26 2022-06-07 株式会社東海理化電機製作所 無線通信装置、システムおよびプログラム
JP7400705B2 (ja) * 2020-11-30 2023-12-19 トヨタ自動車株式会社 撮像システム及び撮像装置
JP2022189113A (ja) * 2021-06-10 2022-12-22 ウーブン・プラネット・ホールディングス株式会社 遠隔支援システム及び遠隔支援方法
CN113602196B (zh) * 2021-08-25 2023-10-17 东风汽车集团股份有限公司 一种可透视化a柱及周边区域的显示系统及方法
CN113837027B (zh) * 2021-09-03 2024-06-25 东风柳州汽车有限公司 辅助驾驶的感知方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001055100A (ja) * 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd 多機能車載カメラシステムと多機能車載カメラの画像表示方法
JP2008230296A (ja) * 2007-03-16 2008-10-02 Mazda Motor Corp 車両用運転支援システム
JP2014116756A (ja) * 2012-12-07 2014-06-26 Toyota Motor Corp 周辺監視システム
WO2017130439A1 (ja) * 2016-01-28 2017-08-03 鴻海精密工業股▲ふん▼有限公司 車両用画像表示システム及びその画像表示システムを搭載した車両
JP2018163310A (ja) * 2017-03-27 2018-10-18 三菱自動車工業株式会社 車両周囲表示装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4329525B2 (ja) 2003-12-16 2009-09-09 株式会社エクォス・リサーチ 車外情報表示装置
JP4412365B2 (ja) * 2007-03-26 2010-02-10 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
JP2011213186A (ja) 2010-03-31 2011-10-27 Equos Research Co Ltd 電子サイドミラー装置
JP6077214B2 (ja) 2012-02-06 2017-02-08 富士通テン株式会社 画像処理装置、画像処理方法、プログラム、及び画像処理システム
US20140362195A1 (en) * 2013-03-15 2014-12-11 Honda Motor, Co., Ltd. Enhanced 3-dimensional (3-d) navigation
JP6380410B2 (ja) 2014-01-10 2018-08-29 アイシン精機株式会社 画像表示制御装置および画像表示システム
US9626802B2 (en) * 2014-05-01 2017-04-18 Microsoft Technology Licensing, Llc Determining coordinate frames in a dynamic environment
DE102014213683A1 (de) * 2014-07-15 2016-01-21 Robert Bosch Gmbh Vorrichtung zur optischen Darstellung von Informationen in einem Fahrzeug
JP6187413B2 (ja) 2014-08-19 2017-08-30 株式会社デンソー 車両用情報提示方法、車両用情報提示システム、車載装置
CN104260669B (zh) * 2014-09-17 2016-08-31 北京理工大学 一种智能汽车抬头显示器
KR102270577B1 (ko) * 2014-10-21 2021-06-29 현대모비스 주식회사 차량 외부 영상 출력 제어 장치 및 방법
DE102015202863A1 (de) * 2015-02-17 2016-08-18 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges
KR101741433B1 (ko) * 2015-06-09 2017-05-30 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법
JP2017030530A (ja) * 2015-07-31 2017-02-09 スズキ株式会社 映像表示システム
EP3337166B1 (en) * 2015-08-10 2020-01-01 JVC Kenwood Corporation Vehicular display apparatus and vehicular display method
EP3358549A4 (en) * 2015-09-30 2018-11-21 Aisin Seiki Kabushiki Kaisha Driving support device
JP2017129406A (ja) 2016-01-19 2017-07-27 日本電気通信システム株式会社 情報処理装置、スマートグラスおよびその制御方法、並びにコンピュータ・プログラム
CN105872482A (zh) * 2016-05-31 2016-08-17 乐视控股(北京)有限公司 车辆系统及其图像显示方法
JP2018022958A (ja) 2016-08-01 2018-02-08 株式会社デンソー 車両用表示制御装置及び車両用モニタシステム
JP6865006B2 (ja) 2016-09-28 2021-04-28 矢崎総業株式会社 車両用表示装置
JP6643969B2 (ja) * 2016-11-01 2020-02-12 矢崎総業株式会社 車両用表示装置
KR101899981B1 (ko) * 2016-12-02 2018-09-19 엘지전자 주식회사 차량용 헤드 업 디스플레이
JP2018144554A (ja) * 2017-03-02 2018-09-20 カルソニックカンセイ株式会社 車両用ヘッドアップディスプレイ装置
US10529104B2 (en) * 2017-12-19 2020-01-07 GM Global Technology Operations LLC Virtual vehicle skin
JP2019156298A (ja) * 2018-03-15 2019-09-19 株式会社デンソーテン 車両遠隔操作装置及び車両遠隔操作方法
JP7163732B2 (ja) * 2018-11-13 2022-11-01 トヨタ自動車株式会社 運転支援装置、運転支援システム、運転支援方法およびプログラム
JP7227106B2 (ja) * 2019-08-22 2023-02-21 本田技研工業株式会社 操作制御装置、操作制御方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001055100A (ja) * 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd 多機能車載カメラシステムと多機能車載カメラの画像表示方法
JP2008230296A (ja) * 2007-03-16 2008-10-02 Mazda Motor Corp 車両用運転支援システム
JP2014116756A (ja) * 2012-12-07 2014-06-26 Toyota Motor Corp 周辺監視システム
WO2017130439A1 (ja) * 2016-01-28 2017-08-03 鴻海精密工業股▲ふん▼有限公司 車両用画像表示システム及びその画像表示システムを搭載した車両
JP2018163310A (ja) * 2017-03-27 2018-10-18 三菱自動車工業株式会社 車両周囲表示装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022071796A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 情報処理システム、コンピュータプログラム、及び表示方法
JP7236478B2 (ja) 2020-10-28 2023-03-09 株式会社日本総合研究所 情報処理システム、コンピュータプログラム、及び表示方法

Also Published As

Publication number Publication date
US20200148112A1 (en) 2020-05-14
CN111169382B (zh) 2024-01-09
CN111169382A (zh) 2020-05-19
JP7163732B2 (ja) 2022-11-01
US11351918B2 (en) 2022-06-07

Similar Documents

Publication Publication Date Title
JP7163732B2 (ja) 運転支援装置、運転支援システム、運転支援方法およびプログラム
JP6497158B2 (ja) 表示装置、移動体
JP5093611B2 (ja) 車両周辺確認装置
CN110573369A (zh) 平视显示器装置及其显示控制方法
JP6410987B2 (ja) 運転支援装置、運転支援方法、及び、運転支援プログラム
US10863141B2 (en) Vehicle monitor system
US20230249618A1 (en) Display system and display method
JP6453929B2 (ja) 車両の表示システム及び車両の表示システムの制御方法
WO2018179786A1 (ja) 情報表示装置
CN111284498B (zh) 驾驶支援装置、系统、方法、可穿戴装置以及存储介质
JP2008018760A (ja) 運転支援装置
JP6805974B2 (ja) 走行支援装置及びコンピュータプログラム
US11151775B2 (en) Image processing apparatus, display system, computer readable recoring medium, and image processing method
US11827148B2 (en) Display control device, display control method, moving body, and storage medium
CN111292555A (zh) 支援装置、支援方法以及存储介质
EP3513999B1 (en) Vehicle display nexus control apparatus
JPWO2020105685A1 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2007047735A (ja) 視覚情報呈示装置及び視覚情報呈示方法
WO2020090187A1 (ja) 虚像表示装置、およびヘッドアップディスプレイ装置
JP2021135933A (ja) 表示方法、表示装置及び表示システム
JP2019151205A (ja) 車載表示装置、車載表示装置を制御する方法及びコンピュータプログラム
US20240118571A1 (en) Liquid crystal display element, display device, electronic device, drive substrate, and method for manufacturing drive substrate
US20240087339A1 (en) Information processing device, information processing system, and information processing method
US20240085207A1 (en) Information processing system
US20240296581A1 (en) Vehicle control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221003

R151 Written notification of patent or utility model registration

Ref document number: 7163732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151