JP6806914B2 - 表示システム及び表示方法 - Google Patents

表示システム及び表示方法 Download PDF

Info

Publication number
JP6806914B2
JP6806914B2 JP2019542899A JP2019542899A JP6806914B2 JP 6806914 B2 JP6806914 B2 JP 6806914B2 JP 2019542899 A JP2019542899 A JP 2019542899A JP 2019542899 A JP2019542899 A JP 2019542899A JP 6806914 B2 JP6806914 B2 JP 6806914B2
Authority
JP
Japan
Prior art keywords
unit
brightness
virtual image
display
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019542899A
Other languages
English (en)
Other versions
JPWO2019058492A1 (ja
Inventor
誠治 村田
誠治 村田
弘充 森
弘充 森
嶋田 堅一
堅一 嶋田
和良 山崎
和良 山崎
真弓 長吉
真弓 長吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2019058492A1 publication Critical patent/JPWO2019058492A1/ja
Application granted granted Critical
Publication of JP6806914B2 publication Critical patent/JP6806914B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/349Adjustment of brightness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Processing Or Creating Images (AREA)
  • Instrument Panels (AREA)

Description

本発明は、表示システム及び表示方法に関する。
視線移動を少なくすることで自動車の安全運転支援を行なうことを目的とし、運転者の前方風景と車機器情報(計器、カーナビ情報、注意喚起、警告等)をフロントガラスまたはコンバイナ(サンバイザーの位置あるいはダッシュボードの上方)に重畳して表示するAR(Augmented Reality:拡張現実)表示装置(AR- HUD)が製品化されている。
上記AR表示装置技術の例として、運転者が見る実際の画像が天候によって劣化する場合、運転者に運転情景を改善した画像を表示する技術がある(例えば、特許文献1参照)。具体的には、運転情景を撮影するカメラ画像を取得し、ノイズフィルタリングにより悪天候で劣化したカメラ画像の画質を改善して出力する。
特表2005―509984号公報
上記特許文献1に開示されている技術においては、カメラ画像の画質を画一的に改善している。しかしながら、移動体(例えば、車両)の周囲の状況に応じて、表示処理をした方がより適切に虚像(AR)を表示することができる。
本発明の目的は、移動体の周囲の状況に応じて虚像を出力する表示システム、表示方法を提供することを目的とする。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
前記課題を解決するための手段として、特許請求の範囲に記載の技術を用いる。
一例を挙げるならば、移動体に装着される表示部に虚像を表示させる表示システムであって、表示部を通して、移動体の前方を撮像する撮像部と、移動体の位置を特定する位置特定部と、位置特定部により特定された位置に基づいて、表示部に表示される強調対象を特定する対象特定部と、撮像部により撮像された画像の輝度を特定する輝度特定部と、輝度特定部により特定された輝度に基づいて、対象特定部により特定された強調対象を強調するための虚像を生成する虚像生成部と、虚像生成部により生成された虚像を前記表示部に表示させる表示処理部と、を備える。
本発明の技術を用いることにより、移動体の周囲の状況に応じて虚像を出力することができる。
車両の運転席における、表示システム1のハードウェア構成の概要を示す図である。 実施例1の表示システムの機能ブロック図である。 運転者から見える外界を示す図(1)である。 周囲領域における輝度の変化を示すグラフである。 表示システムが、輝度を調整して表示処理する手順を示すフローチャートである。 実施例2に係る表示システムの構成例について概要を示した図である。 運転者から見える外界を示す図(2)である。 虚像を表示した例を示す図である。 重要オブジェクトを特定して、当該重要オブジェクトを強調表示処理する手順を示すフローチャートである。 実施例3に係る表示システムの構成例について概要を示した図である。 車両周囲情報に基づいた虚像を表示する処理の手順を示すフローチャートである。
以下、本発明の実施形態の例を、図面を用いて説明する。
(表示システムのハードウェア構成)
まず、図1を用いて、表示システム1(表示システム1A〜1C)のハードウェア構成の概要を説明する。図1は、車両の運転席における、表示システム1のハードウェア構成の概要を示す図である。表示システム1は、車両等の移動体に搭載されるシステムである。この表示システム1は、移動体の周囲の状況に応じて、虚像(AR情報)を生成し、生成した虚像を移動体に装着されている表示部200(フロントガラス、あるいはコンバイナ)へ表示する。
図1に示すように、表示システム1は、ヘッドトラッキング装置101と、外界撮影部102と、ウェアラブルカメラ103と、映像制御装置104と、映像表示装置105とを含む。また、表示システム1は、図示しないGPS(Global Positioning System)受信機なども含む。
ヘッドトラッキング装置101は、運転者300(表示システム1のユーザ)の頭の位置、向きを検出し、運転者300の視線を検出する装置である。ヘッドトラッキング装置101は、運転席に固定されている。ヘッドトラッキング装置101は、検出結果を映像制御装置104へ送出する。外界撮影部102は、表示部200を通して、車両の外部(車両前方)を撮影する手段である。外界撮影部102は、撮影した結果得られる画像を映像制御装置104へ送出する。外界撮影部102は、例えば図示しない1つのカメラレンズと1つの受光素子から成る単眼カメラである。また、外界撮影部102は、別の形態として、例えば、図示しない2つのレンズと2つの受光素子から成るステレオカメラでもよい。外界撮影部102は、運転席に固定されている。
ウェアラブルカメラ103は、運転者300へ装着された撮影手段である。ウェアラブルカメラ103は、運転者300の前方を撮像する手段である。ウェアラブルカメラ103は、運転者300に装着されているので、運転者300視点の画像を得ることができる。ウェアラブルカメラ103は、撮影した結果得られる画像を映像制御装置104へ送出する。
映像制御装置104は、周囲の環境に応じて虚像を生成する装置である。映像制御装置104は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備える情報処理装置である。映像制御装置104は、ヘッドトラッキング装置101から運転者300の視線検出結果を取得する。また、映像制御装置104は、外界撮影部102およびウェアラブルカメラ103から画像を取得する。また、映像制御装置104は、GPS受信機からGPS信号を取得する。また、映像制御装置104は、公知の画像解析を行うことができる。映像制御装置104は、取得したユーザの視線検出結果、画像、GPS信号等に基づいて、表示する虚像を生成する。映像制御装置104は、生成した虚像を映像表示装置105へ送出する。
また、映像制御装置104は、取得した画像を記憶し、生成した虚像を記憶する。また、映像制御装置104は、生成した虚像を映像表示装置105へ送出する。また、映像制御装置104は、記憶した画像、虚像をユーザ指定に応じて再生する。また、映像制御装置104は、地図情報を記憶し、上記GPS信号を用いてナビゲーションする機能を有する。
映像表示装置105は、光源(LEDあるいはレーザ)、レンズ、ミラー、SLM(空間光変調器)あるいはMEMSミラーあるいはDMDといった光学素子から構成される投影デバイスであり、例えば、ヘッドアップディスプレイ(HUD)である。この映像表示装置105から投射された画像を、表示部200に所定の拡大率、所定の位置にある画像として運転者300に映るようにする。前記ヘッドアップディスプレイとは別に、例えばシースルー型のヘッドマウントディスプレイ(HMD)を用いることもできる。これを使用する場合、例えばHMDに設けた加速度センサの情報から車両の振動を検出し、使用者が不快と感じない範囲で車両の振動をできるだけ打ち消すようHMDのディスプレイで映る画像を振動させる。
また、表示システム1は、図示しない運転者状態モニタを備える。この運転者状態モニタは、運転者300の瞳孔の大きさ、目の反応(動き、視点)を検出する。この運転者状態モニタは、公知の装置であり、例えば、運転手を撮像する装置などである。
(実施例1)
続いて、実施例1について説明する。本実施例の表示システム1Aは、運転者300の眼に入る眩しい光の周辺輝度を変化させ、当該眩しい光を目立たなくするように表示制御する。
続いて、図2を用いて、実施例1の表示システム1Aの機能を説明する。図2は、実施例1の表示システム1Aの機能ブロック図である。表示システム1Aは、撮像部11、視線方向特定部12、ユーザ検出部13、輝度特定部14、輝度変更部15、虚像生成部16A、表示処理部17、記録部18、及び再生部19を備える。
撮像部11は、表示部200を通して、車両の前方を撮像する部分である。この撮像部11は、外界撮影部102により実現される。撮像部11は、車両の前方を撮像した結果の画像を輝度特定部14および記録部18へ送出する。
なお、撮像部11は、外界撮影部102だけでなく、さらにウェアラブルカメラ103により実現されてもよい。この場合、撮像部11は、ウェアラブルカメラ103により撮像された画像(ユーザ画像)を記録部18へ送出する。すなわち、撮像部11は、ユーザ撮像部としても機能する。
視線方向特定部12は、運転者300の視線方向を特定する部分である。視線方向特定部12は、ヘッドトラッキング装置101により実現される。視線方向特定部12は、特定した視線方向を示す情報を輝度特定部14および記録部18へ送出する。
ユーザ検出部13は、ユーザの眼の状態を検出する部分である。ユーザ検出部13は、上述の運転者モニタにより実現する。ユーザ検出部13は、ユーザの眼の状態を輝度変更部15へ送出する。
輝度特定部14は、撮像部11により撮像された画像における、視線方向特定部12により特定された視線方向における輝度を特定する部分である。輝度特定部14は、映像制御装置104により実現される。輝度特定部14は、撮像部11から画像を取得し、当該画像を解析して当該画像の輝度値を特定する。
また、輝度特定部14は、視線方向特定部12から視線方向を示す情報を取得して、当該視線方向を示す情報と、画像の解析結果とに基づいて、視線方向および視線方向周囲における輝度を特定する。例えば、輝度特定部14は、解析結果として、2次元の輝度分布を得る。輝度特定部14は、特定した輝度を示す情報を輝度変更部15へ送出する。なお、輝度特定部14は、視線方向によらず、画像全体の輝度分布を特定するようにしてもよい。
輝度変更部15は、視線方向特定部12により特定された視線方向における、輝度特定部14により特定された輝度と、当該視線方向の周囲における輝度とに基づいて、視線方向の周囲の輝度を上げるように輝度を変更する部分である。輝度変更部15は、映像制御装置104により実現される。
輝度変更部15は、輝度特定部14から輝度を示す情報を取得する。また、輝度変更部15は、視線方向特定部12から検出した視線方向を示す情報を取得する。また、輝度変更部15は、ユーザ検出部13からユーザ(運転手)の眼の状態を示す情報を取得する。輝度変更部15は、取得した情報を用いて、運転者300にとって眩しい箇所を特定し、当該箇所の周囲の輝度を変更する。
ここで、図3を用いて、輝度を変更する箇所について説明する。図3は、運転者300から見える外界を示す図である。運転者300は、表示部200を通して外界を見ることができる。ここで、運転者300の視線の先に眩しい領域301(例えば、西日等)がある。輝度変更部15は、ユーザ検出部13からユーザの眼の状態を示す情報(例えば、瞳孔の大きさ)に基づき、運転者300が眩しいと感じているか否かを判断する。輝度変更部15は、運転者300が眩しいと感じていると判断した場合、上記視線方向を示す情報に基づいて、運転者300の視線の先を特定することにより、眩しい領域301を特定する。
なお、輝度変更部15は、ユーザ検出部13からユーザの眼の状態を示す情報を用いずに、眩しい領域301を特定するようにしてもよい。例えば、輝度変更部15は、輝度特定部14から輝度分布を取得し、当該輝度分布を参照し、予め定めた輝度の絶対値以上である領域を眩しい領域301と特定するようにしてもよい。
予め定める輝度は、運転者300が直視できる範囲であることが望ましく、例えば、蛍光灯の表面輝度程度の20,000cd/m程度に定めてもよい。また、輝度変更部15は、取得した輝度分布の空間的な輝度変化量を2次元的に算出し、輝度変化量が大きい箇所を境界として明るい側の領域(眩しい領域301)として特定してもよい。
輝度変更部15は、周囲領域302の輝度を徐々に上げるように、変更後の輝度を決定する。なお、周囲領域302は、予め定めていてもよいし、眩しい領域301の大きさに応じて変更するようにしてもよい。例えば、眩しい領域301の面積の倍とするようにしてもよい。
ここで、輝度変更部15が、眩しい領域301の輝度に基づいて、周囲領域302の輝度を変更する例について、図4を用いて説明する。図4は、周囲領域302における輝度の変化を示すグラフである。縦軸は、輝度であり、横軸は、時間である。眩しい領域301の輝度を示す線分303(一定の輝度値L0)で示す。また、輝度変更部15は、周囲領域302の輝度を線分304(時間t1まで輝度0)、輝度L1まで変化する線分305(時間t1から時間t2)、輝度L2まで変化する線分306(時間t2から時間t3まで)、輝度L2を維持する線分307(時間t3以降)で示すように時間に対して徐々に上げていく。
運転者300は、一般的に、空間的な輝度コントラストが大きければ、眩しさを感じる。ここで、輝度L2は、運転者300が眩しさを感じなくなる閾値である。輝度L0>輝度L2>輝度L1>0の関係を持たせている。また、輝度の時間あたりの変化L1/(t2−t1)が(L2−L1)/(t3−t2)よりも小さくなるようにすれば、周囲領域302が徐々に明るくなり自然に明るくなったように見せることができ、急激な輝度変化による運転者300に対する違和感を回避することができる。
別の方法としては、輝度L1<輝度L3<輝度L2となる輝度L3を設ける。そして、輝度L3に到達する時間を時間t4として、L1/(t2−t1)<(L3−L1)/(t4−t2)とし、(L2−L3)/(t3−t4)<(L3−L1)/(t4−t2)とすれば、L1からL2まで輝度を上昇させる際に、t1からt2までの時間を長くとることができる。この結果、前記方法よりも運転者300に対して輝度変化の始まりを感じさせにくく、違和感を与えない輝度上昇が可能である。
また、輝度変更部15は、周囲領域302の内部の輝度領域は、眩しい領域301から周囲領域302の外側にかけて、眩しい領域301の輝度から周囲領域302の外側近傍の輝度と同等になるようにグラデーションをかけるように輝度を決定してもよい。この構成であれば、輝度の空間的な変化量が小さくなるため、運転者300にとって眩しさを低減することができる。また、輝度変更部15は、前記の輝度分布を実現するために、輝度特定部14により特定された輝度分布を利用して、運転者300に提供したい輝度分布から周囲領域302に対応する輝度分布を減算した値を変更後の輝度値に決定するようにしてもよい。
ただし、いずれの処理においても、輝度変更部15は、輝度L0が大きく明るすぎる場合、周辺輝度を明るく追従させるような処理をさせず、周囲領域302の輝度を調整しないようにしてもよい。例えば、快晴時の太陽の輝度は、1.7×10cd/m程度に到達する。このガラスへの写り込みなどに追従させるように制御すると、眩しい領域301が増えてしまう。これを防止するために、予め定めた第2の絶対値、例えば、100,000cd/m以上の輝度になった場合、輝度の上昇の調整を加えないように輝度を決定すると、運転者300にとって眩しい領域301が拡大することを防止することができる。
以上のいずれかの処理中に、眩しい領域301の輝度が変化した場合の処理について説明する。輝度変更部15は、処理に用いていた輝度であるL1〜L3の輝度を再設定し、再度処理する。最大輝度領域107の位置が変化した場合には、対象となる眩しい領域301、周囲領域302を再度特定する。このような、制御であれば、運転者300に常に効果的に眩しさを抑えた視野を提供できる。
眩しい領域301の輝度が変化して運転者300が眩しさを感じない程度に十分に明るさが低下した時、輝度をもとに戻す。輝度変更部15は、運転者300が視認している環境が急変しないように、時間的にフェードアウトするように輝度を変更することが望ましい。
輝度変更部15は、変更した輝度値および変更対象の領域(領域の大きさ、領域の位置を示す情報)を虚像生成部16へ送出する。
虚像生成部16は、輝度変更部15によって変更された輝度に基づく虚像を生成する部分である。虚像生成部16は、映像制御装置104により実現される。虚像生成部16は、輝度変更部15から変更した輝度値および変更対象の領域を取得する。虚像生成部16は、輝度変更部15から取得した領域の大きさであり、変更した輝度値の虚像を生成する。虚像生成部16は、生成した虚像と、領域の位置を示す情報とを表示処理部17および記録部18へ送出する。
表示処理部17は、虚像生成部16により生成された虚像を表示部200に表示させる部分である。表示処理部17は、映像表示装置105により実現される。表示処理部17は、虚像生成部16から虚像および領域の位置を示す情報を取得する。表示処理部17は、取得した虚像を当該領域の位置に対応する箇所に表示する。
記録部18は、撮像部11によって撮像された画像、および虚像生成部16によって生成された虚像を記憶する部分である。また、記録部18は、表示システム1のユーザ(運転者300)の向きと、撮像部11の撮像方向とに基づいた相対位置情報を特定し、当該相対位置情報を記憶する部分である。すなわち、記録部18は、相対位置情報特定部および履歴情報記憶部として機能する。記録部18は、映像制御装置104によって実現される。
記録部18は、撮像部11から画像(外界画像、ユーザ画像)を取得し、虚像生成部16によって生成された虚像を取得する。また、記録部18は、視線方向特定部12から視線方向を示す情報を取得する。記録部18は、予め記憶している撮像部11の方向情報と、視線方向を示す情報とを用いて相対位置情報を特定する。この相対位置情報は、撮像部11の方向(撮像部11の撮像方向)と視線方向とから特定される角度情報である。
記録部18は、撮像部11から取得した画像と、虚像生成部16によって生成された虚像とを別々に履歴情報として、記憶手段(例えば、ハードディスク)に記憶する。また、記録部18は、相対位置情報を履歴情報として、画像および虚像とは別々に記憶する。
なお、記録部18は、外界画像と、相対位置情報と、虚像とを別々に記憶する代わりに、撮像部11から取得した画像(外界画像)に、相対位置情報により虚像を合成した合成画像を生成して、当該合成画像を記憶手段に記憶するようにしてもよい。
再生部19は、記録部18により記憶された情報を用いて、撮像部11により撮像された画像に、相対位置情報により虚像を合成した合成画像を再生する部分である。再生部19は、表示システム1Aのユーザによる再生要求を受け付けると、記録部18に記憶されている外界画像を取得して、当該外界画像をディスプレイ(例えば、ナビゲーションシステムのディスプレイ)に再生する。また、再生部19は、外界画像に対応する虚像がある場合、当該虚像と相対位置情報とを記録部18から取得し、当該外界画像に、相対位置情報に基づいて虚像を合成し、合成した画像を再生する。
再生部19は、合成画像が記憶されている場合、合成処理をせずに合成画像を再生するようにしてもよい。また、再生部19は、記録部18に記録されているユーザ画像をさらに再生するようにしてもよい。
続いて、図5を用いて、輝度を調整して表示処理をする手順を説明する。図5は、表示システム1Aが、輝度を調整して表示処理する手順を示すフローチャートである。まず、撮像部11が外界を撮像する(ステップS1)。また、視線方向特定部12は、運転者300の視線を特定する(ステップS2)。なお、ステップS1およびステップS2は、順序が逆でもよいし、平行して処理をしてもよい。
続いて、輝度特定部14は、撮像部11により撮像された外界画像について、輝度を特定し、輝度分布を生成する(ステップS3)。輝度変更部15は、ユーザの視線方向およびユーザの状態に基づいて、輝度分布から眩しい領域301を特定する。さらに輝度変更部15は、周囲領域302における変更後の輝度を決定する(ステップS4)。
虚像生成部16は、変更後の輝度、および周囲領域302に基づいた虚像を生成する(ステップS5)。表示処理部17は、虚像生成部16により生成された虚像を表示部200へ表示する(ステップS6)。
また、記録部18は、運転者300の向き(視線方向)と、撮像部11の撮像方向とに基づいた相対位置情報を特定する(ステップS7)。また、記録部18は、撮像部11により撮像された画像、相対位置情報、および虚像を履歴情報として、記憶する(ステップS8)。そして、再生部19は、相対位置情報に基づいて、外界画像に虚像を合成した合成画像を再生する(ステップS9)。
上述のように、輝度特定部14が、運転者300の視線方向における外界画像の輝度分布を特定し、輝度変更部15が、当該輝度分布のうち、眩しい領域301を特定する。さらに、輝度変更部15は、当該眩しい領域301の周囲領域302における変更後の輝度を決定する。虚像生成部16Aが、決定した輝度に基づいた虚像を生成し、表示処理部17が、当該虚像を表示部200へ表示する。このように、表示システム1Aは、眩しい領域301の周囲の輝度を上げるための虚像を表示するので、運転者300が眩しく感じることを緩和することができ、視認性を向上させることができる。すなわち、表示システム1Aは、周囲の状況に応じた虚像を出力することができる。
また、ユーザ検出部13により、ユーザの眼の状態を検出して、輝度変更部15が、当該ユーザの眼の状態に基づいて、周囲領域302の輝度を変更するので、ユーザ個々で眩しいと感じる輝度の違いを考慮して輝度を変更することができる。
また、記録部18は、相対位置情報と、撮像部11により撮像された外界画像と、虚像生成部16Aにより生成された虚像とを履歴情報として記憶する。そして、再生部19は、外界画像に上記虚像を合成した画像を再生する。このように、表示システム1Aは、過去の走行時における虚像情報の表示状態を再生することができる。これにより、虚像情報が適切に表示されたか確認することができる。例えば、車両事故等が発生した場合に、表示システム1Aのユーザは、虚像を表示したことにより事故が発生してしまったか否か検証することができる。すなわち、記録部18が、上記履歴情報を記憶することにより、車両が事故を起こした際の責任の所在が運転者300によるものなのか、表示システムによるものかを判断するための証拠を残すことができる。
また、記録部18は、撮像部11により撮像された外界画像と、虚像生成部16Aにより生成された虚像とを別々に記憶する。これにより、表示システム1Aは、外界画像と虚像とを重ね合せた状態で記録する場合と比較して記録するためのデータ量を削減することができる。
また、記録部18は、運転者300のユーザ画像を記憶し、再生部19は、当該ユーザ画像を再生するので、ユーザ視点における虚像の表示状態を確認することができる。
上述では述べなかったが、表示システム1Aは、虚像を表示した後に、車両が走行するルートに基づいて、虚像の消去するように制御してもよい。例えば、表示システム1Aは、ナビゲーション機能により探索した走行経路に基づき、現在の走行方向が変わる場所に到達した場合に、虚像を消去するようにしてもよい。例えば、西日の光が正面から入ってくる状況にある場合に、虚像を表示したままとすると、車両の走行方向が変わり、西日が入ってこなくなっているにも関わらず、虚像を表示してしまうことになる。上記のように、走行方向が変わる場合に、虚像を消去することにより、運転者300にとって眩しくない状況であるにも関わらず、虚像を表示し続けてしまうことを回避することができる。
上述の実施例では、視線方向特定部12は、ヘッドトラッキング装置101により実現される旨、記載したが、これに替えて運転者300の視線方向を検出するアイトラッキング装置を用いてもよい。この場合、運転者300の眼球の向き、位置などから視線を直接的に検出するため、検出精度を高めることができる。
上述の実施例では、記録部18は、撮像部11が撮像した外界画像およびユーザ画像を記録する場合について述べたが、ユーザ画像のみ記録するようにしてもよい。この場合、再生部19は、運転者300視点の画像を再生することができる。また、記録部18は、撮像部11が撮像した外界画像およびユーザ画像を記録する場合について述べたが、外界画像のみ記録するようにしてもよい。この場合、再生部19は、外界画像およびこれに合成した虚像を再生することができる。
本実施例の変形例として、表示部200を、運転者300とフロントガラスの間に設定し、液晶シャッターを設けたコンバイナとしてもよい。この場合、コンバイナを通して眩しい光の輝度を低下させ、運転者300の眼に入る眩しさを防ぐことができる。
本実施例の変形例として、フロントガラスを、閾値以上の明るさの光が入射するとその光をカットする機能を有するようにしてもよい。
(実施例2)
図6は、実施例2に係る表示システム1Bの構成例について概要を示した図である。表示システム1Bは、車両前方にある強調対象(注視対象)が運転者300により見えやすくするように虚像を表示するシステムである。
表示システム1Bは、関連情報記憶部20と、撮像部11と、視線方向特定部12と、位置特定部21と、対象特定部22と、輝度特定部14と、虚像生成部16Bと、表示処理部17と、記録部18と、再生部19とを備える。
関連情報記憶部20は、看板に表示される文字である看板文字と当該看板文字を簡略化したシンボルとを関連づけた関連情報を記憶する部分である。関連情報記憶部20は、映像制御装置104により実現される。
位置特定部21は、車両の位置を特定する部分である。位置特定部21は、映像制御装置104により実現される。位置特定部21は、GPS信号を受信して、受信したGPS信号および予め記憶している地図情報を用いて、車両の位置を特定する。位置特定部21は、特定した位置を示す情報を対象特定部22へ送出する。
対象特定部22は、位置特定部21により特定された位置に基づいて、表示部200に表示される強調対象を特定する部分である。対象特定部22は、映像制御装置104により実現される。ここで、強調対象とは、運転者300に注視させるべき対象である。本実施例では、信号、交通標識、看板などである。
対象特定部22は、位置特定部21から位置を示す情報を取得すると、方向センサに基づいて、走行方向も特定し、当該位置と走行方向とに基づいて、車両の走行前方の強調対象とを特定する。具体的に、対象特定部22は、予め記憶している地図情報を参照して、車両の走行前方にある地図オブジェクト(信号、交通標識、施設等)の情報を取得する。
対象特定部22は、取得した地図オブジェクトの情報に、強調対象であることを示す情報が付されている地図オブジェクトがある場合、当該地図オブジェクトを強調対象に特定する。なお、上記地図オブジェクトの情報には、地図オブジェクトの種類(信号、交通標識等)の情報、地図オブジェクトの位置の情報、地図オブジェクトが強調対象か否かを示す情報、地図オブジェクトの情報の種類が施設である場合、当該施設の看板に記載の名称、当該地図オブジェクトの画像(施設の場合は、看板の画像)を含む。対象特定部22は、特定した地図オブジェクトの情報を虚像生成部16Bへ送出する。
虚像生成部16Bは、輝度特定部14により特定された輝度に基づいて、対象特定部22により特定された地図オブジェクトを強調するための虚像を生成する部分である。虚像生成部16Bは、対象特定部22から地図オブジェクトの情報を取得する。また、虚像生成部16Bは、輝度特定部14により特定された輝度分布に、予め定めた閾値以上の輝度の領域がある場合、当該領域をマスクする虚像を生成する。なお、虚像生成部16Bは、取得した地図オブジェクトの情報に基づいて、虚像生成部16Bは、撮像部11により撮像された画像から地図オブジェクトの情報の画像に対応する箇所を特定し、当該位置に表示(配置)させるための、上記閾値以上の輝度より高い輝度の虚像を生成するようにしてもよい。
また、虚像生成部16Bは、対象特定部22から取得した地図オブジェクトの情報を参照し、当該地図オブジェクトの情報の種類が施設である場合、関連情報記憶部20に記憶されている情報を参照し、看板の名称に対応するシンボルを取得する。虚像生成部16Bは、撮像部11により撮像された画像から地図オブジェクトの情報の画像に対応する箇所を特定し、当該位置に上記シンボルの虚像を生成する。虚像生成部16Bは、マスク対象の位置を示す情報と、マスクのための虚像と、看板の位置を示す情報と、シンボルの虚像とを表示処理部17へ送出する。表示処理部17は、マスク対象の位置にマスクのための虚像を表示する。また、表示処理部17は、看板の位置に、シンボルの虚像を表示する。
ここで、図7を用いて、虚像を生成する箇所について説明する。図7は、運転者から見える外界を示す図である。運転者300は、表示部200を通して外界を見ることができる。ここで、運転者300の視線の先に、強調対象のオブジェクトである信号311、看板313がある。また、輝度が高いネオン看板312がある。虚像生成部16Bは、輝度特定部14により特定された輝度分布に基づき、ネオン看板312の領域をマスク対象の箇所と判断し、マスク用の虚像を生成する。また、重要な施設の看板313の簡易版のシンボルの虚像を生成する。
図8は、虚像を表示した例を示す図である。図8に示すように、表示処理部17が、図7のネオン看板312の位置にマスク用の虚像315を表示する。このように、表示システム1は、不要な現実情報の輝度を低下させることにより、強調対象のオブジェクト(例えば、信号)を強調表示させることができる。また、表示処理部17は、看板313の位置にシンボルの虚像314を表示する。看板313の文字が小さい場合や、文字数が多い場合でも簡易なシンボルに表示切り替えするので、運転者に直感的に看板を認識させることができる。この結果、運転者300の注意力が散漫になることを防ぐことができる。また、外国人に理解しやすいシンボルを用意しておけば、外国人の運転手であっても、意味を容易に理解させることができる。表示システム1Bにおいて、ユーザ入力等により、運転手の人種を特定しておき、当該人種に対応するシンボルを表示することにより実現できる。
続いて、図9を用いて、注視対象を特定して、当該注視対象を強調表示処理する手順を説明する。図9は、注視対象を特定して、当該注視対象を強調表示処理する手順を示すフローチャートである。なお、ステップS11、ステップS13、ステップS16〜S19は、それぞれステップS1、ステップS3、ステップS6〜S9と同様であるので、説明を省略する。
位置特定部21は、自車両の位置を特定する(ステップS12)。なお、ステップS11およびステップS12は、順序が逆でもよいし、平行して処理をしてもよい。
虚像生成部16Bは、自車両の位置・走行方向に基づいて強調対象を特定する(ステップS14)。続いて、虚像生成部16Bは、上記輝度分布に基づいて、輝度の高い箇所を特定して、当該箇所をマスクするための虚像を生成する。また、虚像生成部16Bは、施設の看板が強調対象である場合、当該看板の文字に対応する簡略したシンボルがある場合、当該シンボルの虚像を生成する(ステップS15)。
なお、上述の実施例において、輝度が高い箇所にマスク処理する場合について述べたが、強調対象の箇所に対して輝度を高めた虚像を重畳させて、強調表示するようにしてもよい。また、マスク処理と併せて行うようにしてもよい。
また、上述の実施例では、マスクするための虚像を表示することにより、ネオン看板312を消す例について述べてが、目的地への到達のために必要なものである場合は、当該ネオン看板312にマスク処理をすることは望ましくない。そこで、撮像部11により撮像された画像における輝度の高い領域と、走行位置との関係から、当該輝度の高い領域が目的地に対応する場合、マスク処理を中止することが考えられる。
より簡易な処理として、目的地に近づいた場合、仮に輝度の高い領域が存在しても、マスク処理を禁止するようにしてもよい。
また、オブジェクト情報にマスク対象を禁止する情報を付加しておき、当該情報が付加されているオブジェクトを画像から抽出した場合、当該箇所をマスク対象から除外してもよい。このような構成であれば、運転者300にとって、潜在的な必要性を秘めた対象物を隠すことなく、運転者300に提供することができる。特に、目的地の看板を目視させる場合には好適である。
本実施例の変形例として、運転者300とフロントガラスの間に設けたコンバイナの内部に液晶シャッターを設け、この液晶シャッターを動作させることにより、ネオン看板312の領域の輝度を低下させるようにしてもよい。このように、運転者300の視認性を向上させ、より安全な運転が可能となる。
上述のように、虚像生成部16Bは、輝度特定部14により特定された輝度に基づいて、強調対象を強調するための虚像を生成し、当該虚像を表示するので、車両の前方が眩しい状況でも、強調対象を視認しやすくすることができ、より安全な走行が可能となる。すなわち、表示システム1Bは、周囲の状況に応じた虚像を出力することができる。
具体的に、虚像生成部16Bは、表示部200に表示される強調対象の位置の虚像を生成するので、強調対象の箇所を目立たせることが可能となる。また、虚像生成部16Bは、強調対象の位置周囲の輝度が高い場合に、当該周囲の位置をマスクする虚像を生成するので、強調対象の周囲が眩しいために、強調対象が視認しづらい状況を解消することができる。また、虚像生成部16Bは、強調対象が看板文字である場合、関連情報記憶部20に記憶されている当該看板文字を簡略化したシンボル情報に基づいた虚像を生成する。これにより、表示システム1Bは、運転者300(例えば、高齢運転者、外国人の運転者)にとって、視認しやすい表示形態で強調対象を表示することができる。
(実施例3)
図10は、実施例3に係る表示システム1Cの構成例について概要を示した図である。表示システム1Cは、運転者300が目視では認識することが困難な情報(例えば、小さな起伏、凹凸等)を虚像で表示するシステムである。
表示システム1Cは、撮像部11と、視線方向特定部12と、周囲情報検出部31と、位置特定部21と、判断部32と、虚像生成部16Cと、表示処理部17と、記録部18と、再生部19とを備える。
周囲情報検出部31は、車両の前方の注視物を示す周囲情報を検出する部分である。周囲情報検出部31は、映像制御装置104により実現される。ここで、注視物とは、車両の運転者300が視認する必要があると考えられる物であり、例えば、ガードレール、道路の白線(センターライン等)、崖等である。周囲情報検出部31は、センサ機能等により、起伏のある箇所を公知技術により特定する。周囲情報検出部31は、当該起伏の形状、当該起伏のある箇所を含む情報である周囲情報を検出する。また、周囲情報検出部31は、当該周囲情報を判断部32へ送出する。
また、周囲情報検出部31は、位置特定部21により特定された位置や走行方向等に基づいて、周囲情報を検出するようにしてもよい。周囲情報検出部31は、位置特定部21により特定された位置と、走行方向とに基づいて、走行方向前方の所定範囲を定める。周囲情報検出部31は、予め記憶している地図情報を参照し、当該範囲における注視物(ここでは、ガードレール、車両の白線数)を示す地図情報を取得することにより、周囲情報を検出する。周囲情報検出部31は、当該周囲情報を判断部32へ送出する。
判断部32は、撮像部11により撮像された画像を解析し、当該画像に周囲情報検出部31により検出された周囲情報が示す注視物の画像が含まれているか否かを判断する部分である。判断部32は、映像制御装置104により実現される。判断部32は、撮像部11から撮像された外界画像を取得する。また、判断部32は、周囲情報検出部31から周囲情報を取得する。
判断部32は、撮像部11により撮像された画像を解析して、当該画像中に周囲情報検出部31から取得した周囲情報に対応する情報が含まれるか否かを判断する。すなわち、判断部32は、走行前方に、起伏や地図オブジェクトを運転者300が視認できる状態であるか否かを判断する。判断部32は、予め地図オブジェクトや起伏の画像を記憶しておき、撮像部11から取得した画像に、周囲情報の注視物を示す画像が含まれているか否かにより判断する。
判断部32は、上記判断をした結果、注視物の画像が含まれていた場合、虚像生成部16Cへ虚像の生成要求を行わない。一方、判断部32は、上記判断をした結果、注視物の画像が含まれていない場合、注視物の情報を送出し、虚像生成部16Cへ虚像の生成要求をする。
虚像生成部16Cは、周囲情報に基づく虚像を生成する部分である。虚像生成部16Cは、判断部32から周囲情報を取得すると、当該周囲情報が示す位置に、当該周囲情報に対応する虚像を生成する。例えば、周囲情報がガードレールを示す情報である場合、虚像生成部16Cは、ガードレールを示す虚像を生成する。また、周囲情報が白線を示す情報である場合、虚像生成部16Cは、白線を示す虚像を生成する。なお、虚像生成部16Cは、警告を示す虚像を生成するようにしてもよい。例えば、周囲情報が崖を示す情報である場合、虚像生成部16Cは、崖があることを注意喚起する警告を示す虚像を生成する。
続いて、図11を用いて、周囲情報に基づいた虚像を表示する処理の手順を説明する。図11は、周囲情報に基づいた虚像を表示する処理の手順を示すフローチャートである。なお、ステップS21、ステップS22、ステップS26〜S29は、それぞれステップS1、ステップS12、ステップS6〜S9と同様であるので、説明を省略する。
なお、ステップS21およびステップS22は、順序が逆でもよいし、平行して処理をしてもよい。
ステップS23において、周囲情報検出部31は、移動体前方の周囲情報を検出する(ステップS23)。続いて、判断部32は、撮像部11により撮像された画像を解析し、当該画像に注視物の画像が含まれているか否かを判断する(ステップS24)。判断部32により、当該画像に注視物の画像が含まれていないと判断された場合、虚像生成部16Cは、当該周囲情報に基づく虚像を生成する(ステップS25)。
上述のように、表示システム1Cは、周囲情報検出部31により検出された周囲情報を取得して、撮像部11により撮像された画像に注視物の画像が含まれているか否かを判断する。この判断をした結果、当該注視物の画像が含まれていない場合、虚像生成部16Cが、当該周囲情報に基づく虚像を生成して、表示部200へ表示させる。これによれば、積雪等により、運転者300がガードレールやセンターライン(白線)を視認できない状態であっても、運転者300にそれらがある旨を認識させることができる。すなわち、表示システム1Cは、車両の周囲の状況に応じた虚像を出力することができる。この結果、表示システム1Cは、運転者300が、危険個所を回避して安全に運転することを助長することができる。
上述では、自動車の運転を想定し、ヘッドアップディスプレイを利用した例を説明してきたが、これに限られない。例えば、スキー場で滑走する状況を想定し、滑走者のゴーグルにシースルー型のヘッドマウントディスプレイを内蔵した場合に対しても適用することが可能である。この場合、雪に埋もれており滑走者の目視では見つけられない危険箇所をメッシュ等の画像で強調して虚像情報とし、ゴーグルの表示部にて現実情報と重ね合わせる。その他、目視では見つけにくい滑走面のコブ凹凸をマーキング画像で強調してAR情報とし、ゴーグルの表示部にて現実情報と重ね合わせる。以上より、滑走者に危険箇所(コブ凹凸)を認識させ、回避させることが可能となる。
なお、上述した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記各実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。前記各実施例では、カメラとヘッドアップディスプレイ(HUD)、カメラとヘッドマウントディスプレイ(HMD)を用いた例で説明してきたが、これらに限らず、撮像部と表示部を備えたデバイスを用いても良い。例えば、スマートフォン(携帯電話)、タブレット端末、Webカメラを搭載したパーソナルコンピュータ(PC)等を使用することが可能である。移動体の例として主に自動車を想定して記載したが、オートバイ、自転車、パーソナルビークルなどにも適用できる。
前述した本発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、マイクロプロセッサユニット等がそれぞれの機能等を実現する動作プログラムを解釈して実行することによりソフトウェアで実現してもよい。ハードウェアとソフトウェアを併用してもよい。
また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、必ずしも製品上の全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、必ずしも製品上の全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
1A…表示システム、1B…表示システム、1C…表示システム、11…撮像部、12…視線方向特定部、13…ユーザ検出部、14…輝度特定部、15…輝度変更部、16A…虚像生成部、16B…虚像生成部、16C…虚像生成部、17…表示処理部、18…記録部、19…再生部、20…関連情報記憶部、21…位置特定部、22…対象特定部、31…周囲情報検出部、32…判断部、101…ヘッドトラッキング装置、102…外界撮影部、103…ウェアラブルカメラ、104…映像制御装置、105…映像表示装置。

Claims (11)

  1. 移動体に装着される表示部に虚像を表示させる表示システムであって
    記移動体の前方を撮像する撮像部と
    記撮像部により撮像された画像の輝度を特定する輝度特定部と、
    前記撮像部により撮像された画像中に、前記輝度特定部により特定された輝度が所定の閾値以上の高輝度領域を含む場合、前記高輝度領域の周辺領域に、該周辺領域よりも輝度が高くかつ前記高輝度領域の輝度よりも低く表示する虚像を生成する虚像生成部と、
    前記虚像生成部により生成された虚像を前記高輝度領域の前記周辺領域に表示させる表示処理部と、
    を備える、表示システム。
  2. 移動体に装着される表示部に虚像を表示させる表示システムであって、
    前記表示部を通して、前記移動体の前方を撮像する撮像部と、
    前記移動体の前方の注視物を示す周囲情報を検出する周囲情報検出部と、
    前記撮像部により撮像された画像を解析し、当該画像に前記周囲情報検出部により検出された周囲情報が示す注視物の画像が含まれているか否かを判断する判断部と、
    前記判断部により、前記撮像部により撮像された画像に、前記周囲情報が示す注視物の画像が含まれていないと判断された場合、前記周囲情報に基づく虚像を生成する虚像生成部と、
    前記虚像生成部により生成された虚像を前記表示部へ表示する表示処理部と、を備える、表示システム。
  3. 移動体に装着される表示部に虚像を表示させる表示システムであって、
    前記表示部を通して、前記移動体の前方を撮像する撮像部と、
    前記表示システムのユーザの視線方向を特定する視線方向特定部と、
    前記撮像部により撮像された画像における、前記視線方向特定部により特定された視線方向における輝度を特定する輝度特定部と、
    前記視線方向特定部により特定された視線方向における、前記輝度特定部により特定された輝度と、当該視線方向の周囲における輝度とに基づいて、視線方向の周囲の輝度を変更する輝度変更部と、
    前記輝度変更部によって変更された輝度に基づく虚像を生成する虚像生成部と、
    前記虚像生成部により生成された虚像を前記表示部に表示させる表示処理部と、
    を備える、表示システム。
  4. 請求項3に記載の表示システムにおいて、
    前記ユーザの眼の状態を検出する検出部をさらに備え、
    前記輝度変更部は、前記検出部によって検出された眼の状態にさらに基づいて、視線方向の周囲の輝度を上げる、表示システム。
  5. 移動体に装着される表示部に虚像を表示させる表示システムであって、
    前記移動体の前方を撮像する撮像部と、
    前記表示システムのユーザの頭部の位置および向きに基づいて視線方向を特定する視線方向特定部と、
    前記視線方向特定部により特定された前記ユーザの視線方向を示す情報と前記撮像部により撮像された画像を解析して輝度を変更する部分を特定し、当該部分の輝度を変更する輝度変更部と、
    前記輝度変更部により変更された輝度に基づき、前記輝度変更部で特定された部分に表示される虚像を生成する虚像生成部と、
    前記撮像部の撮像方向と前記視線方向特定部で特定された視線方向とに基づいた相対位置情報を特定する相対位置情報特定部と、
    前記撮像部により撮像された画像と、前記虚像生成部により生成された虚像と、前記相対位置情報特定部により特定された相対位置情報とを履歴情報として記憶する履歴情報記憶部と
    備える、表示システム。
  6. 請求項5に記載の表示システムにおいて、
    前記履歴情報記憶部は、前記撮像部により撮像された画像と、前記虚像生成部により生成された虚像と前記視線方向とを履歴情報として記憶し
    生部は、前記撮像部により撮像された画像に、前記相対位置情報により前記虚像を合成し、合成した合成画像を再生する、表示システム。
  7. 請求項5または6に記載の表示システムにおいて、
    前記表示システムのユーザの前記視線方向からの映像を撮像するユーザ撮像部をさらに備え、
    前記履歴情報記憶部は、前記ユーザ撮像部により撮像された画像であるユーザ画像をさらに記憶し
    生部は、前記履歴情報記憶部により記憶されたユーザ画像を再生する、表示システム。
  8. 請求項1から7のいずれか一項に記載の表示システムであって、
    前記移動体は、車両である、表示システム。
  9. 移動体に装着される表示部に虚像を表示させる表示システムが実行する表示方法であって
    記移動体の前方を撮像する撮像ステップと
    記撮像ステップで撮像した画像の輝度を特定する輝度特定ステップと、
    前記撮像ステップで撮像した画像中に、前記輝度特定ステップで特定した輝度が所定の閾値以上の高輝度領域を含む場合、前記高輝度領域の周辺領域に、該周辺領域よりも輝度が高くかつ前記高輝度領域の輝度よりも低く表示する虚像を生成する虚像生成ステップと、
    前記虚像生成ステップで生成した虚像を前記高輝度領域の前記周辺領域に表示させる表示処理ステップと、
    を含む、表示方法。
  10. 移動体に装着される表示部に虚像を表示させる表示システムが実行する表示方法であって、
    前記表示部を通して、前記移動体の前方を撮像する撮像ステップと、
    前記移動体の前方の注視物を示す周囲情報を検出する周囲情報検出ステップと、
    前記撮像ステップで撮像した画像を解析し、当該画像に前記周囲情報検出ステップで検出した周囲情報が示す注視物の画像が含まれているか否かを判断する判断ステップと、
    前記撮像ステップで撮像した画像に、前記周囲情報が示す注視物の画像が含まれていないと、前記判断ステップで判断した場合、前記周囲情報に基づく虚像を生成する虚像生成ステップと、
    前記虚像生成ステップで生成した虚像を前記表示部へ表示する表示処理ステップと、を含む、表示方法。
  11. 移動体に装着される表示部に虚像を表示させる表示システムが実行する表示方法であって、
    前記表示システムのユーザの視線方向を特定する視線方向特定ステップと、
    前記表示部を通して、前記移動体の前方を撮像する撮像ステップと、
    前記撮像ステップが撮像した画像における、前記視線方向特定ステップにより特定した視線方向における輝度を特定する輝度特定ステップと、
    前記視線方向特定ステップが特定した視線方向における、前記輝度特定ステップが特定した輝度と、当該視線方向の周囲における輝度とに基づいて、視線方向の周囲の輝度を変更する輝度変更ステップと、
    前記輝度変更ステップが変更した輝度に基づく虚像を生成する虚像生成ステップと、
    前記虚像生成ステップで生成した虚像を前記表示部に表示させる表示処理ステップと、
    を含む、表示方法。
JP2019542899A 2017-09-22 2017-09-22 表示システム及び表示方法 Active JP6806914B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/034202 WO2019058492A1 (ja) 2017-09-22 2017-09-22 表示システム及び表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020201523A Division JP7094349B2 (ja) 2020-12-04 2020-12-04 情報記録装置

Publications (2)

Publication Number Publication Date
JPWO2019058492A1 JPWO2019058492A1 (ja) 2020-07-02
JP6806914B2 true JP6806914B2 (ja) 2021-01-06

Family

ID=65809618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019542899A Active JP6806914B2 (ja) 2017-09-22 2017-09-22 表示システム及び表示方法

Country Status (4)

Country Link
US (2) US11648878B2 (ja)
JP (1) JP6806914B2 (ja)
CN (3) CN117934775A (ja)
WO (1) WO2019058492A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020013519A1 (en) 2018-07-10 2020-01-16 Samsung Electronics Co., Ltd. Method and system of displaying multimedia content on glass window of vehicle
KR102617120B1 (ko) * 2018-07-10 2023-12-27 삼성전자주식회사 차량의 글래스 윈도우 상에 멀티미디어 컨텐트를 디스플레이하는 방법 및 시스템
CN114078267A (zh) * 2020-08-12 2022-02-22 宝马股份公司 反人脸识别系统、反人脸识别方法和车辆
WO2022270558A1 (ja) * 2021-06-25 2022-12-29 株式会社Jvcケンウッド 画像処理装置、画像処理方法、プログラム
JP2023161938A (ja) * 2022-04-26 2023-11-08 京セラ株式会社 情報処理装置、情報処理方法及びプログラム
JP2024018719A (ja) * 2022-07-29 2024-02-08 富士フイルム株式会社 制御装置、眼鏡型情報表示装置、制御方法、及び制御プログラム
JP2024018720A (ja) * 2022-07-29 2024-02-08 富士フイルム株式会社 画像処理装置、眼鏡型情報表示装置、画像処理方法、及び画像処理プログラム
CN118158863A (zh) * 2024-03-15 2024-06-07 广州背乐爷电子有限公司 基于外部环境感知的车辆灯光控制方法及系统

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7167796B2 (en) * 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
US20030095080A1 (en) * 2001-11-19 2003-05-22 Koninklijke Philips Electronics N.V. Method and system for improving car safety using image-enhancement
JP3817174B2 (ja) * 2001-12-28 2006-08-30 矢崎総業株式会社 車両用画像修整装置及び夜間運転視界支援装置
JP2004302903A (ja) * 2003-03-31 2004-10-28 Fuji Photo Film Co Ltd 車両表示装置
DE102006047777A1 (de) 2006-03-17 2007-09-20 Daimlerchrysler Ag Virtuelles Spotlight zur Kennzeichnung von interessierenden Objekten in Bilddaten
JP5007818B2 (ja) * 2007-09-26 2012-08-22 株式会社エクォス・リサーチ 車輌用防眩装置
JP2009143470A (ja) * 2007-12-17 2009-07-02 Yamaha Corp 車両用防眩装置
JP2010066042A (ja) * 2008-09-09 2010-03-25 Toshiba Corp 画像照射システムおよび画像照射方法
CN201338523Y (zh) * 2008-12-30 2009-11-04 刘敢 动态跟踪光线的会车安全装置
JP5706874B2 (ja) * 2010-03-03 2015-04-22 本田技研工業株式会社 車両の周辺監視装置
WO2013169601A2 (en) * 2012-05-07 2013-11-14 Honda Motor Co., Ltd. Method to generate virtual display surfaces from video imagery of road based scenery
EP2967322A4 (en) * 2013-03-11 2017-02-08 Magic Leap, Inc. System and method for augmented and virtual reality
JP6364702B2 (ja) * 2013-03-29 2018-08-01 アイシン精機株式会社 画像表示制御装置、画像表示システム、および表示ユニット
CN103273826A (zh) * 2013-06-13 2013-09-04 北京汽车股份有限公司 一种车辆前风挡玻璃自动防炫目系统
US10139623B2 (en) * 2013-06-18 2018-11-27 Microsoft Technology Licensing, Llc Virtual object orientation and visualization
JP6497158B2 (ja) * 2014-05-16 2019-04-10 株式会社リコー 表示装置、移動体
JP6409337B2 (ja) * 2014-05-23 2018-10-24 日本精機株式会社 表示装置
JP6565148B2 (ja) * 2014-09-05 2019-08-28 アイシン精機株式会社 画像表示制御装置および画像表示システム
JP6448274B2 (ja) * 2014-09-29 2019-01-09 三菱電機株式会社 情報表示制御システムおよび情報表示制御方法
CN107074110B (zh) * 2014-10-29 2019-07-05 松下知识产权经营株式会社 显示控制装置以及记录了显示控制程序的记录介质
JP6520668B2 (ja) * 2015-02-09 2019-05-29 株式会社デンソー 車両用表示制御装置及び車両用表示ユニット
US9965029B2 (en) * 2015-03-30 2018-05-08 Sony Corporation Information processing apparatus, information processing method, and program
US20170351092A1 (en) * 2015-06-30 2017-12-07 Mitsubishi Electric Corporation Display control apparatus, display control method, and computer readable medium
EP3357734A4 (en) * 2015-10-02 2018-09-05 Ricoh Company, Ltd. Display device
CN105501036A (zh) * 2015-11-26 2016-04-20 上海汽车集团股份有限公司 车辆防炫目图像采集装置及车辆防炫目系统
WO2017113403A1 (zh) * 2015-12-31 2017-07-06 华为技术有限公司 一种影像信息处理方法及增强现实ar设备
JPWO2017141511A1 (ja) * 2016-02-17 2018-12-06 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
WO2017163288A1 (ja) * 2016-03-24 2017-09-28 パナソニックIpマネジメント株式会社 ヘッドアップディスプレイ装置、及び車両
US20180017799A1 (en) * 2016-07-13 2018-01-18 Ford Global Technologies, Llc Heads Up Display For Observing Vehicle Perception Activity
WO2018134897A1 (ja) * 2017-01-17 2018-07-26 マクセル株式会社 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法
CN118781305A (zh) * 2017-03-17 2024-10-15 麦克赛尔株式会社 Ar显示装置和ar显示方法
JP2018185654A (ja) * 2017-04-26 2018-11-22 日本精機株式会社 ヘッドアップディスプレイ装置

Also Published As

Publication number Publication date
JPWO2019058492A1 (ja) 2020-07-02
US20200285884A1 (en) 2020-09-10
CN117934775A (zh) 2024-04-26
US20230249618A1 (en) 2023-08-10
CN111095363B (zh) 2024-02-09
CN111095363A (zh) 2020-05-01
US11648878B2 (en) 2023-05-16
WO2019058492A1 (ja) 2019-03-28
CN117934774A (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
JP6806914B2 (ja) 表示システム及び表示方法
CN110419063B (zh) Ar显示装置和ar显示方法
JP7397918B2 (ja) 映像装置
US20100073773A1 (en) Display system for vehicle and display method
WO2015114697A1 (ja) 表示装置、表示方法および表示プログラムを格納した非一時的なコンピュータ可読媒体
WO2016064875A1 (en) Integrated forward display of rearview imagee and navigation information for enhanced situational awareness
CN106483659A (zh) 用于观察具有抬头显示器的车辆的驾驶员的眼睛的方法
KR20180022374A (ko) 운전석과 보조석의 차선표시 hud와 그 방법
JPWO2010119496A1 (ja) 画像処理装置、画像処理プログラム、画像処理方法
CN111886155A (zh) 用于控制机动车的增强现实显示器设备的显示的方法、设备和具有指令的计算机可读存储介质
KR101736991B1 (ko) 스마트 안경의 화면과 차량 디스플레이 장치의 화면 중첩을 회피하는 방법 및 장치
JP6825433B2 (ja) 虚像表示装置及びコンピュータプログラム
JP2018185654A (ja) ヘッドアップディスプレイ装置
KR101621876B1 (ko) 차량에서 웨어러블 기기를 이용한 전조등 제어 방법 및 이를 수행하는 차량
JP7561910B2 (ja) Ar表示装置、ar表示方法、およびプログラム
US20220348080A1 (en) Control of a display of an augmented reality head-up display apparatus for a motor vehicle
JP2005313772A (ja) 車両用ヘッドアップ・ディスプレイ装置
KR20200063789A (ko) Ar 글라스 및 이를 이용한 증강현실 서비스 제공 방법
WO2021131529A1 (ja) ヘッドアップディスプレイ装置
WO2021200913A1 (ja) 表示制御装置、画像表示装置、及び方法
JP7567762B2 (ja) Arグラス
JP7516954B2 (ja) ヘッドアップディスプレイ装置、表示制御装置、及び表示制御プログラム
JP2007212855A (ja) 情報提示装置及び情報提示方法
JP2021160409A (ja) 表示制御装置、画像表示装置、及び方法
JP2024154100A (ja) 表示制御装置、表示システム、及び表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201204

R150 Certificate of patent or registration of utility model

Ref document number: 6806914

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250