JP6694112B2 - Ar表示装置及びar表示方法 - Google Patents

Ar表示装置及びar表示方法 Download PDF

Info

Publication number
JP6694112B2
JP6694112B2 JP2019505663A JP2019505663A JP6694112B2 JP 6694112 B2 JP6694112 B2 JP 6694112B2 JP 2019505663 A JP2019505663 A JP 2019505663A JP 2019505663 A JP2019505663 A JP 2019505663A JP 6694112 B2 JP6694112 B2 JP 6694112B2
Authority
JP
Japan
Prior art keywords
image
information
display
display device
visibility
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019505663A
Other languages
English (en)
Other versions
JPWO2018167966A1 (ja
Inventor
弘充 森
弘充 森
誠治 村田
誠治 村田
川村 友人
友人 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2018167966A1 publication Critical patent/JPWO2018167966A1/ja
Priority to JP2020073217A priority Critical patent/JP6947873B2/ja
Application granted granted Critical
Publication of JP6694112B2 publication Critical patent/JP6694112B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、表示装置の技術に関し、拡張現実(AR:Augmented Reality)の画像情報を利用者に提供する表示技術に関する。
AR画像情報を提供する機能を持つAR表示装置やそのシステムとしては、例えば、自動車の車載システムにおいて、運転支援、ナビゲーション、関連情報提供等の目的でAR画像情報を運転者に提示するものが挙げられる。例えば、車載のヘッドアップディスプレイ(HUD:Head Up Display)装置で、AR表示機能を持つもの(AR−HUD)がある。AR−HUDでは、運転席のフロントシールド等の画面に透過されている外界映像である運転者の視界の実景に対し、AR画像を虚像として重畳するように投射表示する。AR画像情報としては、車速等の車両情報、運転支援やナビゲーションのための車両進行方向矢印画像、歩行者等の注意情報、標識や看板等の情報、等の各種が挙げられる。AR画像情報の元データとしては、例えば車載のセンサの情報や、カーナビゲーションシステムの地図情報等が利用されている。
AR表示装置に関する先行技術例として、特開2016−95688号公報(特許文献1)が挙げられる。特許文献1には、車載用情報表示装置として、車載カメラによって車両の外の看板等を撮影した場合に、撮影した画像の中の看板等の画像を正確に認識し、認識結果をユーザが理解可能な画像に変換して表示する旨等が記載されている。特許文献1には、看板に含まれる文字列を翻訳して表示する旨等が記載されている。
特開2016−95688号公報
従来の車載のHUD装置等のAR表示装置では、画面のAR画像を含む映像の提示に関して、以下のように、利用者(運転者等)による、物体及びAR画像を含む映像の視認性に関して課題がある。言い換えると、利用者による認知や情報処理の容易性、AR利用の快適性、等に関して課題がある。
例えば、従来の車載のHUD装置では、カメラが撮影した外界の物体を含む画像に基づいて、そのまま物体に関するAR画像を生成し、画面に重畳表示させる。その際、例えば、画面及び視界内に運転者が興味ある看板等の物体があるが、その物体を運転者が視認しにくい場合や視認できない場合がある。あるいは、その物体に関するAR画像が提示されても、そのAR画像を視認しにくい場合や視認できない場合がある。例えば、運転状況等に応じて、看板等の物体に記載の文字を、運転者が判読できない場合等がある。また、例えば、自車から比較的遠くに看板があるが、ある程度近付かないとその看板の情報を視認できない場合がある。このような場合、運転者は、その物体を認知できない、あるいは、その物体に関する情報が得られず、不便である。
本発明の目的は、AR表示装置に関して、利用者(運転者等)による、物体及びAR画像を含む映像の視認性を高めて、好適なAR提示が実現できる技術を提供することである。
本発明のうち代表的な実施の形態は、AR表示装置であって、以下に示す構成を有することを特徴とする。
一実施の形態のAR表示装置は、外界の実景を透過する画面に対して拡張現実の画像情報を重畳表示するAR機能を有するAR表示装置であって、カメラで撮影された画像を入力し、前記画像から、所定の物体の領域を選択して抽出する画像選択部と、前記抽出された前記物体の領域に関する利用者の視認性を、指標値に基づいて判断する、視認性判断部と、前記物体の領域の視認性に基づいて、前記物体の領域に対する前記視認性を高めるための画像加工処理を施すことで、前記物体に関する前記拡張現実の画像情報であるAR画像を生成するAR画像生成部と、前記外界の実景を透過する画面に対して前記AR画像を重畳表示するAR表示部と、を有し、前記視認性に応じて、前記AR画像の表示有無、及び前記画像加工処理の内容を変えるように制御する。
本発明のうち代表的な実施の形態によれば、AR表示装置に関して、利用者による、物体及びAR画像を含む映像の視認性を高めて、好適なAR提示が実現できる。
本発明の実施の形態1のAR表示装置であるHUD装置を含む、車載システムの構成を示す図である。 実施の形態1で、自動車の運転座席付近を横から見た、各部の配置構成例を概略的に示す図である。 実施の形態1で、主要処理のフローを示す図である。 実施の形態1で、運転者から見た画面の例を示す図である。 実施の形態1で、画面の領域の例を示す図である。 実施の形態1で、画面でのAR表示の例を示す図である。 実施の形態1で、視認性に応じたAR表示制御の第1例を示す図である。 実施の形態1で、視認性に応じたAR表示制御の第2例を示す図である。 実施の形態1で、AR機能のユーザ設定の例を示す図である。 本発明の実施の形態2のAR表示装置であるHUD装置を示す図である。 実施の形態2で、画面の例を示す図である。 本発明の実施の形態3のAR表示装置であるHUD装置を示す図である。 実施の形態3で、画面の例を示す図である。 本発明の実施の形態4のAR表示装置であるHUD装置を示す図である。 実施の形態4で、画面の例を示す図である。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において同一部には原則として同一符号を付し、その繰り返しの説明は省略する。
(実施の形態1)
図1〜図9を用いて、本発明の実施の形態1のAR表示装置等について説明する。実施の形態1のAR表示装置は、車載システムのHUD装置として実装される場合を示す。実施の形態1のAR表示方法は、実施の形態1のAR表示装置で実行されるステップを有する方法である。実施の形態1のAR表示装置では、車外カメラの撮影画像から、看板等の物体を抽出し、運転者が視認しにくい物体について、画像加工によって、視認しやすいAR画像を生成して提示する機能を有する。また、実施の形態1のAR表示装置では、撮影画像内の物体の位置、サイズ、距離、姿勢、画質等に応じて、AR画像の提示の仕方を変えて、運転者の視認性を高める機能を有する。
[AR表示装置及び車載システム(1)]
図1は、実施の形態1のAR表示装置であるHUD装置1を含む、車載システム100の構成を示す。車載システム100は、自動車に搭載されているシステムである。利用者である運転者は、車載システム100及びHUD装置1を操作し利用する。このHUD装置1は、特にAR機能を持つAR−HUD装置である。
車載システム100は、ECU(Engine Control Unit:エンジン制御部)101、HUD装置1、カメラ2を含む車外撮影部102、映像データ記憶部103、通信部104、GPS受信器105、カーナビ部106、カメラ3を含む運転者撮影部107、センサ部108、DB部109等を有し、それらが車載バス及びCAN(Car Area Network)110に接続されている。車載システム100は、その他図示しない操作部、電源部等を有する。
HUD装置1は、制御部10、表示部20、その他図示しない記憶部、操作部、音声出力部、電源部等を有する。制御部10は、マイコン等で構成され、HUD装置1の全体を制御する。表示部20は、投射型表示装置で構成され、フロントシールド9へARの虚像を形成するための映像光を投射する。これにより、フロントシールド9に画面5が構成され、画面5で透過実景上にARの虚像が重畳表示される。操作部(例えば操作パネルを含む)を用いて、利用者による操作入力、例えばAR機能のオン/オフが可能である。音声出力部を用いて、カーナビやAR表示に伴う音声出力も可能である。
表示部20は、表示駆動回路21、表示素子22、光源23、光学系24等を有し、それらが接続されている。表示駆動回路21は、制御部10のAR表示部15からのARデータである映像データに基づいて、AR表示制御のための表示信号を生成し、表示素子22や光源23を駆動する。光源23は、表示信号に基づいて表示素子22へ光を出射する。光源23は、例えばLED素子やレーザ素子等で構成される。表示素子22は、例えば公知のSLM(Spatial Light Modulator:空間光変調器)、MEMSミラー、DMD(Digital Micromirror Device、登録商標)、またはLCD等から構成できる。表示素子22は、表示信号及び光源23からの光に基づいて映像光を生成し、光学系24へ出射する。
光学系24は、表示素子22からの映像光をフロントシールド9の画面5へ導く。光学系24は、レンズやミラー等の素子、及びそれらを駆動するためのモータ等の駆動部を含む。光学系24は、例えば表示部20の制御またはユーザ操作に基づいてミラーを駆動してミラーの傾きの角度を変更する機能も有する。これにより、フロントシールド9の画面5(虚像の基本表示領域)の位置等を、運転者から見て上下左右等に移動するように基本調整が可能である。
ECU101は、エンジン運転制御を含む車両制御を行う。ECU101は、運転支援や運転自動制御のための高度な機能(例えば車間距離制御機能)を有してもよい。その場合、ECU101は、その運転支援等のための情報をHUD装置1に出力してHUD装置1を制御し、これによりHUD装置1に運転支援等のためのAR表示(例えば車間距離情報出力)を行わせてもよい。
車外撮影部102は、カメラ2を含み、自動車の停止中や走行中等に、1台以上のカメラ2を用いて自車の外界の実景を撮影して、映像データ(時系列の画像フレームを含む)及び車両周囲情報を取得し、映像データ記憶部103に格納したり、ECU101へ出力したりする。カメラ2は、車外カメラ2であり、例えば、車両前部のバンパー、フロントシールド9の四辺付近、あるいは車両横部のバックミラー付近、等の所定の位置に設置されている。カメラ2は、所定の向きで所定の範囲を撮像する。カメラ2は、運転者の視界に対応する車両前方の実景を含む範囲を撮影する。
車外撮影部102は、1台以上のカメラ2の画像を処理して、車両周囲情報を計算して得る信号処理部等を備えてもよいし、備えなくてもよい。その信号処理部等は、ECU101やHUD装置1内に備えてもよい。車両周囲情報は、車両前方や側面付近を含む範囲の物体の近接等の状態を含む情報である。
映像データ記憶部103は、カメラ2からの映像データ等を記憶する。映像データ記憶部103は、HUD装置1内に備えてもよい。なお、情報セキュリティ等の観点から、映像データを、車内の映像データ記憶部103等に格納して残すのではなく、通信部104を通じて外部のデータセンタ等に格納し、外部でデータ管理を行う形態としてもよい。
通信部104は、外部の移動体網やインターネット等に対する通信を行う通信インタフェース装置を含む部分である。通信部104は、HUD装置1等からの制御に基づいて、例えばインターネット上のデータセンタ等のサーバと通信を行う。これにより、HUD装置1は、サーバからAR表示のための元データや関連情報等を参照、取得できる。
GPS受信器105は、外部のGPS衛星との通信に基づいて、自車の位置情報(例えば緯度及び経度等で表される)を得る。なお、図示しないが、他に公知のVICS受信機等を有する。
カーナビ部106は、車に搭載されている既存のカーナビゲーションシステムの部分であり、地図情報や、GPS受信器105を用いて取得した位置情報等を保持している。カーナビ部106は、GPS受信器105を通じて、自車の位置情報を把握する。ECU101及びHUD装置1は、GPS受信器105やカーナビ部106から自車両の位置情報を取得する。HUD装置1は、カーナビ部106から地図情報や目的地情報等を参照してAR表示のための元データとして用いることもできる。例えば、HUD装置1は、その元データに基づいて、AR画像例として、目的地へのナビゲーションのための、道路上の進行方向を表す矢印画像等を生成してもよい。
運転者撮影部107は、カメラ3を含み、1台以上のカメラ3を用いて、運転者の目や顔を含む範囲を撮影し、所定の処理を行う。カメラ3は、運転者カメラ、車内カメラである。運転者撮影部107は、カメラ3で撮影された映像データを、映像データ記憶部103に格納してもよい。運転者撮影部107は、カメラ3の画像から所定の処理を行う信号処理部等を備える。その信号処理部等は、ECU101やHUD装置1内に備えてもよい。運転者撮影部107は、公知技術を用いて構成できる。なお、実施の形態1では、運転者撮影部107を用いる必要は無く、実施の形態3等で用いる。
運転者撮影部107は、所定の処理機能として例えば以下を有する。運転者撮影部107は、例えば、運転者の目のまばたき等の状態を判断することで、居眠り運転等を検出できる。運転者撮影部107は、例えば、空間内(車内)の運転者の目の位置を検出でき、また、目の位置から運転者の姿勢等を判断できる。運転者撮影部107は、例えば、運転者の目の中の瞳孔や光反射点を判断することで、運転者の視線を検出する機能(視線追跡機能)を有する。ECU101やHUD装置1は、運転者撮影部107から視線等の運転者情報を取得して、制御を行うことができる。
センサ部108は、自動車に搭載されている公知のセンサ群を有し、検出した車速等の車両情報を出力する。ECU101やHUD装置1は、その車両情報を取得し、制御を行う。センサ部108は、センサ群として、車速計、加速度センサ、ジャイロセンサ、地磁気センサ、赤外線センサ等を備えている。センサ部108は、自車と物体との距離を計測する距離センサを備えてもよい。加速度センサやジャイロセンサは、自車の状態情報として加速度や角速度等を検出する。
DB部109は、ストレージ等で構成され、AR表示に利用するためのデータや情報がDBに格納されている。このDBのデータや情報としては、AR画像を生成するための元データや、AR処理のための設定情報や、ユーザ設定情報等を含む。元データは、例えば運転支援やナビゲーションに用いるデータである。設定情報は、例えば物体の特徴情報や定義情報、あるいは画像マッチングの基準画像等である。ユーザ設定情報は、例えば、AR表示装置が提供する機能のオン/オフの設定情報や、AR表示対象情報のカテゴリの設定情報等がある。
なお、DB部109及びそのDBは、車載システム100内でHUD装置1外に設けているが、これに限らず、HUD装置1内に設けてもよいし、車載システム100の外部の通信網上のデータセンタ等に設けてもよい。このDBは、カーナビ部106のDBと併合でもよい。このDBには、通信部104を介して外部のサーバやDB等から取得された情報が格納されてもよい。DBが外部の通信網上にある場合、通信が必要になるが、車載システム100内にDBを持つ必要がなく、メモリ容量の節約等ができる。DBが車載システム100内またはHUD装置1内にある場合、メモリ容量の確保が必要になるが、通信が不要で高速な検索ができる。
フロントシールド9は、透過性及び剛性を持つガラス等で構成されている。フロントシールド9の画面5は、AR機能の非利用時には、全領域が透過状態であり、外界の実景が透過されている。画面5は、AR機能の利用時には、透過実景上にAR画像が重畳表示されている。フロントシールド9は、反射及び透過機能を持つフィルム等で構成されてもよい。フロントシールド9は、無通電状態では透明で通電状態では発光する性質を持つ有機EL装置等で構成されてもよい。フロントシールド9は、可撓性を持つ有機EL表示装置等で構成されてもよい。フロントシールド9の手前に、別に、AR専用の表示板(コンバイナ等)が設けられてもよい。
[AR表示装置及び車載システム(2)]
図2は、自動車の前部運転座席付近を横から見た場合の各部の配置構成例を概略的に示す。運転座席に運転者が座っている状態を示す。運転者の前方(Z方向)に、曲面のフロントシールド9を有する。例えば、前部のダッシュボードの中央のコンソールの位置には、AR表示装置の表示部20や、図示しないがカーナビ部106等が設置されている。図2では、表示素子22と光学系24のうちのミラー24aとを示している。表示素子22から前方へ出射された光は、凹面鏡であるミラー24aでフロントシールド9の方へ反射され、その反射光は、フロントシールド9の内側面で運転者の目(点p1)の方へ反射される。これにより、フロントシールド9の内側面の一部に画面5が構成される。運転者の目または視点の位置を点p1で示す。運転者の視線L1を一点鎖線で示す。視線L1の先の画面5との交点である注視点を点p4で示す。
自動車の前部の所定の位置、例えばバックミラー付近には、カメラ2が設置されている。カメラ2の位置を点p2で示す。カメラ2は、自動車の前方の方向を撮影している。車内の前部の所定の位置、例えば運転座席の斜め上には、カメラ3が設置されている。カメラ3の位置を点p3で示す。カメラ3は、運転座席及び運転者の顔の方向を撮影している。
AR表示装置の表示部20、カメラ2及びカメラ3の位置(3次元空間座標)や方向が予め設定されており、それらは所定の関係を有する。また、それらは、利用者の調整操作によって可変に設定できる。運転者は、運転座席を調整し、表示部20による画面5の位置を調整する。
運転者の視線L1の先には、実景内の物体(例えば路面マークや看板等)がある。画面5の点p4には、その物体、またはその物体に対応付けられたAR虚像としての物体が見える。車載システム100及びHUD装置1は、実景内の物体と、車のカメラ2(点p2)との距離(物体距離)を計測及び計算する機能を有する。また、その物体距離は、カメラ2の点p2と視点の点p1との位置関係に基づいて、視点と物体との距離として換算可能である。即ち、車載システム100及びHUD装置1は、実景内の物体と、車及び運転者の視点との物体距離を計測可能である。また、自車の位置情報に基づいて、物体距離から、物体の空間内の位置も計算可能である。また、カメラ3がある形態の場合、変動する視点の点p1の位置も計測可能である。その場合、変動する視点と物体との距離が把握可能である。HUD装置1は、カメラ2、車及び運転者の視点と物体との距離情報を用いて、後述の視認性判断やAR画像加工を行う。
上記物体距離や位置の計測機能は、公知の各種の手段で実現可能であるが、例えば以下である。センサ部108に備える専用の距離センサを用いてもよい。例えば、センサから出射した光が物体に当たって戻ってくるまでの時間を計測し、その時間から物体距離を計算可能である。また、車外撮影部102に1つのカメラ2を備える場合、そのカメラ2の画像の画像内の物体の位置等と、他のセンサの情報とを用いて、計算で物体距離等が得られる。また、車外撮影部102に2つのカメラ2、即ちステレオカメラを備える場合、その2つのカメラ2の左右の2つの画像を用いて、計算で物体距離等が得られる。物体距離等の計算は、ECU101内やHUD装置1内で行ってもよい。
車外撮影部102は、カメラ2として、例えば1組のカメラレンズ及び受光素子から成る単眼カメラを用いてもよい。この場合、低コストで実現できる。車外撮影部102またはHUD装置1は、その単眼カメラの画像、及び他のセンサの情報等を用いて、公知の計算処理によって、物体距離を計測する。車外撮影部102は、カメラ2として、2組のカメラレンズ及び受光素子から成るステレオカメラを用いてもよい。車外撮影部102またはHUD装置1は、2つのカメラの画像を用いて、公知の計算処理によって、物体距離を計測する。
カメラ2のレンズとしては、望遠レンズや広角レンズを用いてもよい。望遠レンズを用いる場合、運転者から遠い位置にある物体についても撮影でき、ARの候補となる物体を増やすことができる。広角レンズを用いる場合、1つのカメラ2で広範囲を撮影できるので、低コストで実現できる。カメラ2のレンズまたは受光素子の手前に偏光フィルタを設けてもよい。これにより、物体からの不要反射光による検出精度低下を防止できる。
[AR表示装置及び車載システム(3)]
制御部10は、マイコンのソフトウェアプログラム処理等によって実現される各部として、画像選択部11、視認性判断部12、AR画像生成部13、画像加工部14、AR表示部15を有する。AR画像生成部13は画像加工部14を含む。各部は、専用回路(例えばFPGA)で実現されてもよい。
画像選択部11は、カメラ2で撮影された映像データを映像データ記憶部103から入力し、その映像データの各画像フレームから、画像解析処理等に基づいて、その画像内に写っている所定の物体の領域(物体領域、物体画像、等と記載する場合がある)を選択して画像データとして抽出する。画像選択部11の処理機能は、言い換えると、画像の全体領域を、物体として認識可能である単位に対応した画素領域に区分する処理機能である。画像選択部11は、選択抽出した物体領域の画像データを、制御部10内のメモリまたは映像データ記憶部103に格納する。
画像選択部11は、画像解析処理としては、画像からの特徴量の抽出や判断、あるいは画像マッチング等を行う。画像選択部11は、抽出した特徴量と、予め設定されている物体の特徴情報や定義情報とを比較して、類似性から、物体領域を判断し、抽出する。あるいは、画像選択部11は、画像マッチング処理として、画像内の領域と、予め設定されている基準画像とを比較して、類似性から、物体領域を判断し、抽出する。
実施の形態1では、対象物体として少なくとも看板を含む。HUD装置1内には、予め所定の物体の特徴情報や定義情報が設定されている。例えば、看板の特徴情報や定義情報としては、四角形等の形状やサイズ範囲、看板面の色、看板面に記載の文字や図像、等が規定されている。物体の特徴情報や定義情報は、矩形や多角形や楕円等の幾何図形としてもよいし、画素単位の細かい領域としてもよいし、基準画像としてもよい。
例えば、対象物体が看板である場合、画像選択部11は、画像内から抽出された境界線によって区切れる四角形の領域がある場合に、その領域を看板の物体領域として抽出してもよい。または、画像選択部11は、その看板に相当する四角形の領域を包含するようにとった単純化した直角四角形を、看板の物体領域として抽出してもよい。物体領域を例えば単純な矩形とする場合、高速処理が可能である。物体領域を例えば画素単位の細かい画素領域とする場合、細かく抽出でき、ノイズ(その物体の周辺の他の物体の影響等)を低減でき、より精細なAR提示ができる。これらの観点は、バランスをとって適宜設計すればよい。
なお、後述のユーザ設定機能を用いて、対象物体の種類等についてユーザ設定可能である。例えば、対象物体を看板のみとする設定等が可能である。
視認性判断部12は、映像データや物体領域の画像データに基づいて、対象物体に関するAR画像を表示するにあたっての、運転者の視認性の良否(高低)の度合いを判断する。この視認性は、実景内の物体自体の視認性と、その物体に関連付けるAR画像の視認性とを含む。視認性判断部12は、その判断のために、所定の方式で視認性指標値を計算する。視認性判断部12は、視認性指標値に基づいて、画像内から抽出された物体のうちで運転者が視認しにくいと考えられる物体を、AR表示対象やAR画像加工対象として決定する。視認性判断部12は、視認性指標値に応じて、物体のAR表示の仕方を決定する。
AR画像生成部13は、対象物体が運転者に視認しやすくなるように、画像加工部14の画像加工処理を用いて、元の物体よりも視認性が高いAR画像を生成する。AR画像生成部13は、対象物体に関する視認性の判断結果、入力映像データまたは物体領域の画像データ、及びAR画像用の元データ等に基づいて、AR画像を生成する。その際、AR画像生成部13は、必要に応じて、画像加工部14を用いて、対象物体の画像領域を加工処理し、その加工後画像を用いてAR画像を生成する。AR画像生成部13は、必要に応じて、元データとして、DB部109のDBのデータを参照して利用する。または、AR画像生成部13は、ECU101やセンサ部108からの車両情報、カーナビ部106からの地図情報、通信部104を介した外部の情報、等を参照して利用する。
画像加工部14は、視認性の判断結果、入力映像データまたは物体領域の画像データ、及び元データ等に基づいて、対象物体及びAR画像に関して視認性を高めるための加工や変換等の画像処理を行う。加工処理は、例えば、拡大処理、先鋭化処理、コントラスト変更処理、色調変更処理、姿勢変更処理、OCR処理等が挙げられる。画像加工部14は、それらの各処理を行う機能を有する。加工処理は、物体画像を加工してAR画像とする場合もあるし、元のAR画像を更に加工してAR画像とする場合もある。なお、実装上、それらのうち一部の加工処理の機能のみを有してもよい。
AR表示部15は、AR画像生成部13で生成されたAR画像のデータに基づいて、AR表示のためのARデータを生成して表示部20へ出力することで、表示部20にAR表示を行わせる。ARデータは、画面5内のAR画像の表示位置、表示サイズ等の情報を含む。これにより、画面5内の表示位置に、物体と関係付けられたAR画像が所定の拡大率の表示サイズ等の状態で、虚像として重畳表示される。運転者の目には、物体に関係付けられたAR画像として視認される。AR表示部15は、情報処理上の概念的な画面である平面の座標系と、フロントシールド9の画面5である曲面の座標系とを対応させる変換処理等も行う。
HUD装置1は、光学文字認識(OCR)機能も備えている。画像選択部11は、入力画像またはそのうちの物体画像から、OCR処理によって文字(英数字、かな漢字、記号等)を認識し、文字データを得て、制御部10のメモリまたは映像データ記憶部103に格納する。画像選択部11は、入力画像から所定の図像やマーク等、例えば交通標識や商標等を抽出してもよい。
画像選択部11等の各部は、HUD装置1の制御部10の処理で実現されているが、これに限らず可能である。それらの各部は、一部または全部が、HUD装置1外のハードウェアやソフトウェアで実現されてもよい。
[主要処理フロー]
図3は、実施の形態1のAR表示装置であるHUD装置1における主要処理のフローを示す。図3は、ステップS1〜S7を有する。以下、ステップの順に説明する。
(S1) HUD装置1の制御部10は、通常時、AR機能のオン状態では、車外撮影部102のカメラ2をオン状態とし、車外撮影部102のカメラ2によって撮影された外界の映像データを、映像データ記憶部103に格納させる。制御部10は、映像データ記憶部103からその映像データの画像を順に入力する。
なお、変形例として、車載システム100のECU101等がカメラ2の動作を制御してもよい。また、HUD装置1は、カメラ2から直接的に映像データを入力してもよい。
(S2) 画像選択部11は、S1の入力映像データの画像内から、所定の対象の物体(例えば看板)の領域を選択して抽出する。画像選択部11は、選択抽出した物体領域の画像データを、制御部10内のメモリまたは映像データ記憶部103に格納する。
また、S2で、画像選択部11は、画像から物体を抽出する際、画像解析処理に基づいて、物体の特徴量等を抽出する。特徴量の例としては、形状、大きさ、色、明るさ、コントラスト、ぼけ(周波数成分)等がある。
また、S2で、画像選択部11は、画像または抽出した物体領域に関して、OCR処理を施して、文字を認識できる場合には、その文字情報を抽出してもよい。
実施の形態1では、画像選択部11は、画面5のAR表示可能領域の全体、及びカメラ2の画像の全体を対象として、物体領域を抽出する。これに限らず可能であり、画面5及び画像の全体のうちの一部領域が、抽出対象領域として設定されてもよい。例えば、図5で、一部領域R6の設定例を示す。
また、実施の形態1では、画像選択部11は、カメラ2の画像内から、同時に所定数までの物体領域を抽出する。その際には、例えば、自車から距離が近い位置にある物体を優先して抽出するようにしてもよいし、画面5で中心点から近い位置にある物体を優先して抽出するようにしてもよい。
(S3) 視認性判断部12は、S2で抽出された物体について、運転者から見た視認性の度合いを判断するための指標値を、所定の方式で計算する。説明上、この指標値を「視認性指標値」(visibility index value)と定義する。この指標値は、例えば、視認がしやすいほど高い値、視認がしにくいほど低い値になるように計算される。視認性判断部12は、例えば、画像から抽出した特徴情報や、センサ部108のセンサ等の情報を用いて、この指標値を計算する。この指標値は、実施の形態1の計算方式では、物体距離や、画面5及び画像内の物体の位置やサイズ等の少なくとも1つを用いて計算される。物体距離は、前述の自車のカメラ2や視点と対象物体との距離である。例えば、物体距離が相対的に大きいほど指標値が低くなる。また、例えば、画像内の物体サイズが相対的に小さいほど指標値が低くなる。例えば、画像内の物体の位置が相対的に中心から離れた周辺の位置になるほど指標値が低くなる。
(S4) 視認性判断部12は、S3の視認性指標値に基づいて、対象物体が運転者から見て視認しやすいか視認しにくいかを判断し、分類する。例えば、視認性判断部12は、視認性指標値と閾値とを比較し、いくつかの場合に分類する。少なくとも2つの分類を有する。実施の形態1では、第1分類、第2分類を有する(後述の図7)。第1分類は、大別して視認しやすいと判断される場合である。第2分類は、大別して視認しにくいと判断される場合である。HUD装置1は、物体距離や物体サイズ等に関する閾値の範囲を用いて分類を行う。
例えば、物体距離を用いる場合、自車と物体との距離が閾値よりも大きい場合には、運転者の視認性が低いと推定できる。また、例えば、物体サイズを用いる場合、画像内の物体領域のサイズが閾値よりも小さい場合には、その物体が自車から遠くの位置にあると推定でき、そのことから運転者の視認性が低いと推定できる。
例えば、HUD装置1は、予め、運転者の視力、及びカメラ2のレンズの画角特性等に応じて、運転者が視認困難となる画像サイズ(画素単位での長さ)を、閾値として設定しておく。この閾値は、物体毎の標準の画像サイズに対する倍率等で設定されてもよい。HUD装置1は、S2で抽出した物体領域のサイズと、その画像サイズの閾値とを比較し、視認可能か否か等を判断し、分類する。
上記視認性の分類は、2つに限らず可能であり、視認しやすさや視認しにくさの段階に応じて、3つ以上の分類としてもよい(後述の図8)。例えば、視認しにくさの第1段階、第2段階に応じて、第2分類、第3分類を有する。
(S5) 視認性判断部12は、S4の視認性判断結果の分類に基づいて、対象物体に関するAR表示の実行有無、AR画像、加工処理の有無や内容等(タイプ等と記載する)を決定する。例えば、分類が第1分類の場合には、第1タイプとしてAR表示を行わないとし、第2分類の場合には、第2タイプとして画像加工処理有りでAR表示を行うとする。
S5及びS6の際には、AR表示に関する基本ルール(後述)も考慮される。例えば、基本ルールとして、画面5の中央領域ではAR画像表示を避ける。また、基本ルールとして、画面5内に同時に表示するAR画像を所定の最大数までに抑える。
(S6) AR画像生成部13は、S5のタイプの決定に基づいて、AR表示する物体に関するAR画像を生成する。その際、AR画像生成部13は、画像加工部14を用いて、第2分類として視認性が低いとされた物体及びAR画像に関して、視認性を高めるための画像加工処理を行う。画像加工部14は、物体領域に対する画像加工処理として、タイプに応じた拡大処理等を適用し、加工後画像データを出力する。AR画像生成部13は、加工後画像データを用いてAR画像を構成する。
画像加工部14は、加工処理として、拡大処理、先鋭化処理、コントラスト変更処理、色調変更処理、姿勢変更処理、OCR処理の少なくとも1つを適用する。画像加工部14は、例えば拡大処理の場合、物体領域の画像を拡大し、AR画像とする。画像加工部14は、例えばOCR処理(言い換えると文字画像への変換処理)の場合、物体領域からOCR処理で文字情報を抽出し、その文字のフォント、サイズ、色等を、目的の視認性のレベルとなるように選んで文字画像を生成し、AR画像とする。なお、このOCR処理では、S2で画像選択部11によって抽出された文字情報を利用してもよい。
AR画像生成部13は、元データに対し、画像加工部14によって加工処理を施して、AR画像を生成してもよい。例えば、元データとして、看板面に記載の文字情報や図像が得られたとする。画像加工部14は、その文字や図像のサイズを拡大等して、視認性が高いAR画像を作成する。
また、S6の際、AR画像生成部13は、生成したAR画像について、所定の方式(後述)に基づいて、画面5内の表示位置や表示サイズ等を決定する。例えば、固定位置方式の場合、画面5内の所定の固定領域(例えば図6の下辺領域R3)で、空いている部分の位置が、表示位置として選択される。近隣位置方式の場合、画面5内で、対象物体の近隣の範囲内で、かつ中央領域の外で、空いている部分の位置が、表示位置として選択される。AR画像の表示サイズについては、基本的に、物体距離の変化に応じて表示サイズが変化することになる。
また、S6の際、AR画像生成部13は、画面5内の1つ以上のAR画像の視認性を高めるために、AR画像の表示位置や表示サイズ、表示数等を調整してもよい。運転者の視認性は、個別の物体やAR画像に関する視認性だけではなく、画面5を見た時の複数の物体や複数のAR画像に関する総合的な視認性も関係する。そのため、HUD装置1は、画面5での総合的な視認性も考慮してAR画像を決定する。例えば、第2分類の複数の物体についての複数のAR画像がある場合に、それらの総合的な視認性が高くなるように、それらの表示位置、表示サイズ、表示数等が決定される。例えば、表示位置について、複数のAR画像の表示位置が近く密集している場合には、なるべく重ならないように、それらの間隔をある程度離すように調整される。例えば、表示数については、画面5内で同時に所定の最大数までのAR画像になるように限定される。限定の際には、物体距離、あるいは物体及びAR画像の優先度の規定(看板よりも交通標識の方が優先度が高い等)等を考慮して決定される。これらにより、画面5内のAR画像の情報量が抑えられ、運転者が物体やAR画像を認知しやすくなる。
(S7) AR表示部15は、S6で生成されたAR画像データ及びその制御用情報を用いて、画面5内で対象物体に対して関連付けてAR画像を重畳表示するためのARデータを作成し、表示部20へ出力する。AR表示部15は、S6の矩形の平面の画面でのAR画像のデータを、フロントシールド9の曲面の画面5に対応させるように変換を行う。表示部20は、このARデータに従って、画面5にAR画像を重畳表示する。以上の処理が同様の繰り返しのループとして行われる。
[画面、画像]
図4は、車内の運転席の運転者が前方のフロントシールド9の画面5を見た様子を概略的に示す。なお、実際のフロントシールド9及び画面5は、台形状に見える曲面であるが、図4では矩形の平面として簡略化して示す。画面5は、AR表示可能領域を含む。本例では、画面5の全体をAR表示可能領域とする。画面5では、運転者の視界に対応する実景として、前方に延びる道路31や、道路脇の建物32a,32b,32cや、背景の空33等が透過で見えている。また、画面5の実景において、物体として、標識34、看板41〜44等を有する。
看板は、例えば直角四角形の平板の正面において、店舗案内や広告等の文字や図像が描かれている。運転者の視点の位置と、その看板の向き及び位置との関係に応じて、運転者からその看板を見た場合の形状等が異なる。例えば、看板44は、正面が、視線や車進行方向に対して概ね垂直に配置されている状態であるため、矩形として見えている。例えば、看板41は、同様に、正面が矩形として見えているが、物体距離が比較的遠いため、小さいサイズで見えており、記載文字等が視認しにくい。例えば、看板42は、正面が、道路31に面する向き、視線及び車進行方向に対しては90度に近い向きで配置されている。看板42は、正面が、視線に対し、斜めの姿勢となっている。そのため、看板42は、台形状に歪んだ領域として見える。このような歪みを持つ場合、運転者にとって視認しにくい場合がある。車両と物体の位置や方向の関係によっては、物体が全く視認できない場合もある。看板43は、自車に対して左横付近の位置に配置されており、同様に斜めの姿勢となっている。
対象物体となる看板としては、独立に設置された看板、建物に設置された看板等を含む。対象物体となる看板の面における記載情報の種類としては、文字、図像(ロゴ等を含む)等が含まれる。記載情報の例としては、一般広告、店舗等の建物の広告、案内や地図、等が挙げられる。看板は、時間で内容が変化するデジタル広告看板でもよい。看板は、設置位置が固定の看板に限らず、移動する看板、例えば移動体に搭載されている看板でもよい。
[領域、基本ルール、表示位置の方式]
図5は、画面5の領域等を示す。説明上の領域として、画面5の中央付近にある中央領域R1、上辺付近にある上辺領域R2、下辺付近にある下辺領域R3、右辺付近にある右辺領域R4、左辺付近にある左辺領域R5を有する。
中央領域R1は、実施の形態1で、AR表示に関する基本ルールとして、AR画像の表示を避ける領域である。中央領域R1は、楕円としているが、これに限らず矩形等に設定可能である。画面5の中央領域R1は、運転者が運転中に注視することが多い領域である。この中央領域R1は、基本的にAR表示を行わない領域、あるいは、運転支援等のための重要な所定のAR表示のための優先使用領域として規定される。重要なAR表示の一例としては、路面マークや信号機に関する表示、進行方向矢印表示、速度制限表示、車間距離表示、歩行者や対向車等の注意表示、警告表示等が挙げられる。この領域は、中央領域R1に限らず、後述の視線追跡機能がある場合の視線中心領域としてもよい。基本ルールの設定は一例である。他の設定例としては、画面5内でAR画像を表示する率を一定率以下とすること等が挙げられる。
実施の形態1のHUD装置1は、看板等の物体に関するAR表示を行うが、そのAR画像の表示位置等を決める際、中央領域R1をなるべく避ける。即ち、看板のAR画像の表示位置は、基本的に中央領域R1の外側の位置に決定される。これにより、車載システム100では、交通安全のための運転支援等を優先確保した上で、看板等のAR画像情報を、視認性が良い状態で好適に提示できる。なお、状況(例えば低速運転時や車両停止時)によっては、中央領域内R1に、看板等のAR表示を行うようにしてもよい。
画面5におけるAR画像の表示位置の決め方の方式に関して、いくつか可能であり、以下が挙げられる。前述のS6でAR画像生成部13は、物体に関連付けて表示する画面5内のAR画像の表示位置や表示サイズ等を決定する際、以下のいずれか方式を用いて決定する。
表示位置の方式として、(1)固定位置方式、(2)近隣位置方式、(3)同位置方式を有する。
(1)の固定位置方式では、予め、画面5のAR表示可能領域内の中央領域R1の外に、AR画像表示用の固定領域を有する。図5の上辺領域R2や下辺領域R3は、固定位置方式に対応した固定領域の設定例である。固定領域内でAR画像の表示位置が決定される。なお、詳しくは、固定領域毎に異なる種類のAR画像が表示されるように設定されていてもよい。例えば、下辺領域R3では車両情報を表示し、上辺領域R4では看板の情報を表示する等。
(2)の近隣位置方式では、AR画像の表示位置は、対象物体の近隣の範囲内から選択された位置に決定される。例えば、対象物体の位置を中心点として所定半径距離の円領域が仮に設定される。その円領域内で、かつ、中央領域R1の外側にある、いずれかの空いている位置が、AR画像の表示位置として選択される。また、特に、候補領域のうちで、他の物体やAR画像が無いような、空いている位置がある場合には、その位置が選択される。例えば、対象物体が看板である場合、その看板の上側や横側において、背景が空33等である空いている位置が、表示位置として選択される。
また、この方式では、物体とAR画像とを結ぶ線(引き出し線)を、AR画像の一部として表示してもよい。また、画像内の物体の位置に対し、比較的近い距離の範囲内でAR画像の表示位置が確保できない場合には、物体からある程度以上の距離で離れた位置を表示位置として、その物体とAR画像とを結ぶ線を表示してもよい。引き出し線が表示されることで、運転者は、物体とAR画像との関連性をより認識しやすい。
(3)の同位置方式では、画像内の物体の位置に対し、AR画像の表示位置をそのまま同じ位置とする。例えば、物体を覆い隠すようにAR画像を重畳表示してもよいし、物体の外形を囲む枠のようなAR画像を表示してもよい。例えば、図6で、物体が標識35であり、その標識35の存在を強調するために、標識35を囲む枠をAR画像として、同じ位置に表示する。
[AR表示例]
図6は、画面5でのAR画像の表示制御例等を示す。本例では、看板41等に関するAR画像の表示例を示す。まず、看板44は、十分に大きく視認しやすい状態と判断されたため、AR画像が表示されていない。
AR画像51aは、看板41に関する第1表示例であり、固定位置方式で、下辺領域R3内に、看板41の画像を拡大等して視認しやすい状態にして表示する例である。同様に、上辺領域R3内にAR画像51aを表示するようにしてもよい。また、AR画像51aには、図示のように、看板41から延びるように引き出し線51a1(例えば破線矢印)を付けて表示してもよい。その引き出し線51a1は、中央領域R1を避けて外側を迂回するように表示される。また、AR画像51aの表示サイズは、少なくとも元の看板41の物体領域よりも大きく、下辺領域R3のサイズ(例えば縦幅)に合わせた所定のサイズとしてもよい。
AR画像51bは、看板41に関する第2表示例であり、看板41の近隣の所定半径距離の範囲内で、かつ中央領域R1の外側の空いている位置に、同様に看板41の画像を拡大等して視認しやすい状態にして表示する例である。また、AR画像51bには、図示のように、看板41から延びるように引き出し線51b1(例えば実線)を付けて表示してもよい。その引き出し線51b1は、画面5の中心から周辺への方向で延びるように表示される。また、AR画像51bの表示サイズは、少なくとも元の看板41の物体領域よりも大きい。AR画像及び引き出し線は、吹き出し形式等の画像としてもよい。引き出し線等を付けることで、運転者が物体とAR画像との関係をより認識しやすくなる。
看板42は、運転者の視点から見て斜めの姿勢であり、台形状に歪んで見えている。そのため、看板42の正面の記載内容が視認しにくくなっている。看板42に関するAR画像52は、同様に、看板42の近隣の位置に引き出し線を付けて表示する例である。AR画像52は、画像加工処理として拡大処理や姿勢変更処理が行われている。看板42の物体領域の姿勢が、視点から見て正面の状態となるように変更されている。即ち、元の台形が直角四角形となるように変換されている。この姿勢変更により、看板42の正面の記載文字が視認しやすくなっている。
看板43は、同様に、画面5及び視界の左端にあって斜めの姿勢状態であるため、視認しにくくなっている。看板43に関するAR画像53は、下辺領域R3内に表示する例である。
実施の形態1では、1つの機能として、看板42等の例のように、画像内の物体の姿勢状態に応じたAR画像を表示する機能を有する。HUD装置1は、運転者の視点から見た物体の姿勢状態に応じた視認性を判断し、AR表示内容を選択決定する。例えば、看板44のように、正面が運転者の視線の方向及び自車の進行方向に概ね沿っている向きである姿勢状態の場合、言い換えると画像内で物体領域が直角四角形に近い形状の場合には、相対的に視認性しやすいと判断できる。その場合、視認性指標値が相対的に高い値として計算される。一方、看板42のように、正面が運転者の視線の方向及び自車の走行方向に対して交差する異なる方向に対応した斜めの姿勢状態の場合、言い換えると画像内で物体領域が台形状等の場合には、相対的に視認しにくいと判断できる。あるいは、看板43のように、物体領域の横幅(画面水平方向の長さ)が狭く見えている場合、相対的に視認しにくいと判断できる。その場合、視認性指標値が相対的に低い値として計算される。あるいは、看板正面が全く見えない姿勢状態である場合、視認不可と判断できる。なお、視認性指標値の計算方法としては、物体領域の姿勢状態、例えば看板の正面の向きの角度、または画像内の台形の斜辺の角度等を計算し、その角度等を物体距離等に対して係数として乗算する方式等で計算してもよい。または、そのような計算を省略し、画像内から物体領域を抽出する際に、台形等の形状の判断に応じて、直接的に分類を行ってもよい。
[画像加工処理(1)]
画像加工部14による画像加工処理の例について以下である。画像加工部14は、物体及びAR画像の視認性を高めるための画像加工処理機能として、(1)拡大、(2)先鋭化、(3)コントラスト変更、(4)色調変更、(5)物体姿勢変更、(6)OCR、等の処理機能を有する。
(1) 拡大処理機能は、カメラ2(対応する車及び運転者)から比較的遠くにある物体が撮影された場合に画像内で小さいサイズで写っている物体領域を、拡大して大きいサイズにする処理機能である。例えば、図6で、比較的遠くの位置にある看板41が物体領域として抽出された場合に、画像加工部14は、その看板41の物体領域の画像を、所定の拡大率等で拡大する。例えば、看板41の記載文字「ABC」が小さい状態から拡大されて大きい状態になっている。
(2) 先鋭化処理機能(言い換えると、シャープネス変更、エッジ強調)は、公知技術を用いて、ぼけている画像を先鋭化する処理を行う機能である。なお、先鋭化の方式は、例えば階調変化を強調するフィルタを用いる方式でもよいし、画像をフーリエ変換して周波数成分毎に分解して低周波成分を取除する方式等でもよい。画像加工部14は、例えば看板41の画像(またはその拡大後画像)に対し、先鋭化処理を施す。これにより、看板41の記載文字のぼけが低減される。
(3) コントラスト変更処理機能は、公知技術を用いて、強い光が当たる等の理由で階調が無い画像におけるコントラストを強調する処理を行う機能である。画像加工部14は、例えば看板41の画像(またはその拡大後画像)に対し、コントラスト変更処理を施す。これにより、看板41の記載文字と背景とのコントラストが高くなり、記載文字が視認しやすくなる。
(4) 色調変更処理機能は、公知技術を用いて、実景と同系色である等の理由で見えにくい物体の画像における色調を変更する処理を行う機能である。画像加工部14は、例えば看板41の画像(またはその拡大後画像)に対し、色調変更処理を施す。画像加工部14は、例えば、撮影画像に基づいて、看板41の物体領域の色と、その周辺の背景領域(建物や空等)の色とを比較し、同系色(同じ色調)であるかどうかを判断する。画像加工部14は、同系色である場合、物体領域の色調を、背景領域の色調に対して十分な差がでるように変更する。これにより、看板41の領域が視認しやすくなる。
(5) 物体姿勢変更処理機能は、公知技術を用いて、撮影画像から対象物体が運転者の視点から見て傾斜した姿勢状態である場合に、その物体領域が正面の状態になるように変換する処理を行う機能である。画像加工部14は、画像内の物体領域の形状等から姿勢状態を判断し、姿勢が斜め(例えば形状が台形状)である場合には、変換を行う。画像加工部14は、公知の射影変換等を用いて、その物体領域の姿勢が正面となるように、例えば台形状が直角四角形となるように、変換を行う。例えば、図6の看板42は、台形状の画像が直角四角形の画像に変換される。
(6) OCR処理機能は、公知技術を用いて、画像内の物体領域から文字を抽出し、その文字情報を用いて文字画像を生成する機能である。抽出された文字情報が、AR画像の生成の元データにされる。画像加工部14は、画像内の物体領域に対しOCR処理を施して文字を抽出してもよい。画像加工部14は、例えば看板41の物体領域から、OCR処理によって文字「ABC」が認識できた場合には、拡大処理によってその文字を拡大等して十分な大きさにしてもよい。あるいは、画像加工部14は、拡大処理によって拡大後の物体領域の画像に対し、OCR処理を施して、文字を抽出してもよい。画像加工部14は、例えば拡大後のAR画像51bに対応する画像から、OCR処理によって文字が認識できた場合に、その文字による画像に置換してもよい。
[画像加工処理(2)]
画像加工処理等に係わる他の処理例として以下が挙げられる。
(1)HUD装置1の画像選択部11は、画像内の物体領域の周波数成分を解析する。その解析結果で、低周波成分のみがある場合には、その物体画像にぼけがあり(言い換えるとぼけ度合いが大きく)、視認しにくいと判断できる。視認性判断部12は、その周波数成分に基づいて視認性指標値を計算できる。その場合、HUD装置1は、画像加工部14を用いて、その物体領域に画像加工処理として、先鋭化やコントラスト変更等の処理を施す。この処理は、詳しくは以下としてもよい。HUD装置1は、運転中、ある時刻に撮影された画像の物体領域と、それよりも後の時刻に物体が自車に近付いた位置で撮影された画像の物体領域とを取得し、両者の物体画像のサイズを揃えて周波数成分を比較する。その比較結果で、周波数成分の変化が比較的小さい場合には、その物体領域に低周波成分のみがある(ぼけがある)と判断できる。
(2)HUD装置1は、画像の物体領域やその周辺の領域の明るさ(それに対応する画素値等)を判断する。視認性判断部12は、物体領域の明るさ値が、相対的に低い(暗い)場合や、相対的に高い(明るい)場合には、視認しにくいと判断できる。この場合に、画像加工処理としては、物体領域の明るさに、オフセット値を加算または減算する。これにより、物体領域とその周辺の領域とで明るさの差をつくるように調整し、視認性が高められる。
(3)HUD装置1は、画像の物体領域の明るさに関するヒストグラムを生成し、その物体領域に関して、AR画像生成処理及び画像加工処理で扱うデータ信号に置換する際に、コントラストを上げるように再構成する。例えば、画像選択部11は、画像解析の際、その物体領域の明るさの最小値から最大値までの範囲を、データ信号で表現できる最小値から最大値までの範囲に割り当てるように変換し、中間値を補間する。これにより、コントラストが上がると、物体の特徴情報も検出しやすくなり、視認性の判断もしやすくなる。
[視認性に応じたAR表示制御(1)]
図7は、実施の形態1で、AR表示制御の第1例として、図3のS4の視認性の分類やS5のAR表示内容の決定について整理した表を示す。第1例は、物体距離等に応じてAR表示内容を2種類に分類する制御例である。図7の表で、行として、上から順に、分類、看板付近の画像、運転者の視認性、物体距離、物体サイズ、VI:視認性指標値、AR表示タイプ、AR画像を示す。分類は、左から、(A)第1分類、(B)第2分類を示す。
(A)の第1分類に関して、画像では、看板41の正面の矩形が相対的に大きく写っている。そのため、運転者は、看板41の記載文字に関して比較的視認しやすい。運転者と物体である看板41との物体距離は相対的に近く(小さく)、物体サイズは相対的に大きい。視認性指標値VIは、物体距離や物体サイズに基づいて、第1範囲内にあり、相対的に高い値として計算されている。第1範囲は、閾値H1を用いて、VI≧H1である。視認性指標値VIが第1範囲内であるため、第1分類のAR表示タイプ(第1タイプ)にされている。このAR表示タイプでは、物体をそのままとし、AR画像を表示しない。または、物体に関連付けてAR画像を表示してもよく、その場合には画像加工処理を行わない。AR画像を表示しないことで、画面5で運転者に提示する情報量を減らし、運転者が他のAR画像や物体を認識しやすくなる。
(B)の第2分類に関して、画像では、看板41の正面の矩形が相対的に小さく写っている。そのため、運転者は、看板41の記載文字に関して比較的視認しにくい。看板41との物体距離及び物体サイズは相対的に中程度である。視認性指標値VIは、距離やサイズに基づいて、第2範囲内にある相対的に中程度の値として計算されている。第2範囲は、閾値H1,H2を用いて、H1>VI≧H2である。視認性指標値VIが第2範囲内であるため、第2分類のAR表示タイプ(第2タイプ)にされている。このAR表示タイプでは、物体のAR画像を表示する。その際、物体領域に対し第1加工処理を施してAR画像が生成される。第1加工処理として例えば拡大処理であり、AR画像は看板の領域の拡大画像である。他の加工処理として、前述の(2)〜(5)の処理を組み合わせて適用してもよい。
[視認性に応じたAR表示制御(2)]
図8は、実施の形態1の変形例として、AR表示制御の第2例を同様に示す。第2例は、物体距離等に応じてAR表示内容を3種類に分類する制御例である。図8の表で、分類は、左から、(A)第1分類、(B)第2分類、(C)第3分類を示す。視認しにくさの段階に応じて、図7の第2分類は、図8では更に、第2分類、第3分類に区分されている。
(A)の第1分類に関して、図7の第1分類と同様である。なお、閾値H1は異なる値でもよい。運転者は、例えば看板41の記載文字に関して明瞭に視認可能であり、視認しやすい。
(B)の第2分類に関して、画像では、看板41の正面の矩形が相対的に中程度の大きさで写っている。そのため、運転者は、看板41の記載文字に関して、注視すれば視認可能であるが、比較的視認しにくく、視認しにくさの第1段階に相当する。物体距離及び物体サイズは相対的に中程度である。視認性指標値VIは、物体距離や物体サイズに基づいて、第2範囲内にある相対的に中程度の値として計算されている。第2範囲は、閾値H1,H2を用いて、H1>VI≧H2である。視認性指標値VIが第2範囲内であるため、第2分類のAR表示タイプ(第2タイプ)にされている。このAR表示タイプでは、物体のAR画像を表示する。その際、物体領域に第1加工処理を施してAR画像が生成される。第1加工処理として例えば拡大処理であり、AR画像は看板の領域の拡大画像である。
(C)の第3分類に関して、画像では、看板41の正面の矩形が相対的にかなり小さく写っている。そのため、運転者は、看板41の記載文字に関して、視認不可または視認困難であり、視認しにくさの第2段階に相当する。物体距離は相対的に遠く(大きく)、物体サイズは相対的に小さい。視認性指標値VIは、物体距離や物体サイズに基づいて、第3範囲内にある相対的に低い値として計算されている。第3範囲は、閾値H2を用いて、H2>VIである。視認性指標値VIが第3範囲内であるため、第3分類のAR表示タイプ(第3タイプ)にされている。このAR表示タイプでは、物体のAR画像を表示する。その際、物体領域に第2加工処理を施してAR画像が生成される。第2加工処理としては、拡大処理の他に例えばOCR処理を用いる。AR画像は、OCRで認識できた文字情報を用いて作成される。他の加工処理として、前述の(2)〜(5)の処理を組み合わせて適用してもよい。
なお、OCRで文字が認識できない場合には、AR画像を表示しないようにしてもよい。あるいは、OCRで文字が認識できない場合には、後述のように、DB部109のDBの情報を検索する処理を行ってもよい。その場合、例えば物体の位置情報(自車からの相対的な位置)を用いてDBから対象物体(例えば看板41)の物体情報を検索し、その検索結果の物体情報を用いてAR画像が作成される。
なお、上記で視認性判断部12がVI値を計算及び判断する際には、所定の最大値や最小値を用いて、物体の距離やサイズが大きすぎる場合や小さすぎる場合には、分類の範囲外とし、処理対象外とする。また、VIに関する閾値H1等については、実装上の固定の設定値としてもよいし、ユーザ設定機能によって利用者が可変に設定可能としてもよい。例えば、運転者の視力に応じて、閾値H1等を決めて設定してもよい。例えば、視力が良い人の場合には閾値H1が比較的低い値に設定され、視力が相対的に良くない人の場合には閾値H1が比較的高い値に設定される。これにより、運転者から同じ距離にある物体についても、前者の人の場合には、VI値が閾値H1以上となることで第1分類とされ、後者の人の場合にはVI値が閾値H1未満になることで第2分類とされる。
[ユーザ設定機能]
実施の形態1のAR表示装置で、AR機能に関するユーザ設定機能を有する。このユーザ設定機能では、AR機能に関する種別の設定や、AR情報カテゴリの設定が可能である。利用者は、ユーザ設定機能を用いて、自分が優先的に取得及び表示したい情報を選択して設定できる。HUD装置1は、ユーザ設定に基づいて、選択された種別のAR機能で、選択されたカテゴリの情報をAR画像として表示する。画面5内には運転者の所望の限定されたAR情報が提示される。よって、運転者は、画面5で所望のAR情報を視認しやすい。なお、これらは、ユーザ設定に限らず、実装上の固定の設定とする形態でもよい。
図9は、ユーザ設定画面の例を示す。例えば、HUD装置1は、ハードウェアの操作パネルにユーザ設定画面を表示し、ユーザ入力操作に応じて設定可能とする。図9の画面では、[AR機能種別の設定]項目、[AR情報カテゴリの設定]項目を有する。[AR機能種別の設定]項目では、例えば[運転支援]、[ナビゲーション]、[交通標識]、[看板]、[建物]等の項目を有し、ユーザが選択してオン/オフが可能である。例えば、[看板]項目がオン状態に設定されている。これにより、看板を対象物体としてAR表示を行う機能が有効状態とされる。
[AR情報カテゴリの設定]項目では、AR機能で取得及び表示対象とするAR情報のカテゴリを設定可能とする。この項目では、例えば[人(カテゴリA)]、[場所(カテゴリB)]、[状況(カテゴリC)]、[時間(カテゴリD)]等を有し、ユーザが選択してオン/オフが可能である。例えば[場所(カテゴリB)]項目がオン状態に設定されている。これにより、上で選択されている種別(例えば[看板])のAR機能に関して、場所に係わる情報がAR画像として提供される。
カテゴリAは、[人]であり、情報内容としては、氏名、住所、電話番号等が挙げられる。なお、プライバシー等の観点から、対象の人は、設定された運転者の知人等の人や、情報公開者等に限定して設定できる。カテゴリBは、[場所]であり、情報内容としては、コンビニ、ガソリンスタンド、駐車場、病院、トイレ、レストラン、自宅、店舗、観光スポット、駅等が挙げられる。カテゴリCは、[状況]であり、情報内容としては、天候、路面状態、渋滞、駐車場空車、事故、工事、店舗行列等が挙げられる。カテゴリDは、[時間]であり、情報内容としては、店舗等の待ち時間、開店時間、閉店時間、所要時間、通過時刻、電車到着時刻等が挙げられる。各カテゴリ内の情報項目は、更に個別にオン/オフの設定が可能である。
実施の形態1では、対象物体として主に看板としている。カテゴリBの場所の設定によって、看板群のうち特に何の看板を対象にするかを設定可能である。例えば[レストラン]項目のみがオン状態の設定の場合、画面5及び画像内の看板のうち、レストランの看板に該当するものについて優先的にAR画像が表示される。
また、自動車に同乗者がいる場合、同乗者がHUD装置1等を操作して、上記情報カテゴリ等の選択が可能である。HUD装置1は、その選択操作に応じてAR画像を切り替えるようにして表示する。
[効果等]
上記のように、実施の形態1のAR表示装置によれば、運転者による物体及びAR画像を含む映像の視認性を高めて、好適なAR提示が実現できる。看板等の物体に関するAR画像を提示する際に、視認しにくい物体についても、視認しやすいAR画像として提示できる。運転者は、看板等の物体及びAR画像をわかりやすく認識できる。これにより、運転者は、看板等の物体に関する知りたい情報が得られる。運転者は、看板の記載文字も判読しやすくなる。実施の形態1では、運転者からの物体の視認しやすさの度合い、即ち視認性指標値に応じて、AR画像情報の提示内容を切り替える。これにより、運転者に好適なAR提示が可能である。視認性の度合いに応じて異なる内容でAR画像が提示され、画面5の全体での視認性も好適にできる。
[変形例]
実施の形態1のAR表示装置であるHUD装置1や車載システム100の構成に限らず可能であり、変形例として以下が挙げられる。各変形例の組み合わせも可能である。
(a)実施の形態1では、AR表示装置として、HUD装置1を用いてAR表示を実現しているが、これに限らず可能であり、ヘッドマウントディスプレイ(HMD)装置を用いてAR表示を実現してもよい。即ち、AR表示装置は、利用者が頭部に装着して使用する透過型のHMD装置やそのシステムとして実現されてもよい。この形態の場合、利用者の眼前のHMD装置の画面において、透過実景上にAR画像が重畳表示される。また、例えばHMD装置に備える加速度センサ等の情報から、車両の振動を検出し、利用者が酔う等して不快と感じない範囲で、車両の振動をできるだけ打ち消すように、AR画像を振動させる制御をしてもよい。また、車載システムにおいてHUDやHMD以外の方式でAR表示を実現してもよい。また、自動車以外のシステム(例えば施設に固定設置された遊技機等)において同様のAR表示を実現してもよい。
(b)実施の形態1のAR表示装置は、車載の既存のカーナビ部106の情報を外部入力の元データとして利用してAR画像を生成することができるが、これに限らず可能である。変形例として、HUD装置1内に独自のカーナビ部を備え、その情報を利用してAR画像を生成してもよい。カーナビ部のDBの情報として、地図上の建物及び看板の情報が整備されている場合、その情報を利用可能である。例えば、HUD装置1は、GPSによる自車の位置情報に基づいて、カーナビ部の地図情報を参照し、自車現在位置または対象物体位置の付近の建物や看板等の情報を検索する。HUD装置1は、その検索結果情報として、看板や看板に対応付けられた建物等の情報が得た場合、その情報を用いてAR画像を構成できる。
(c)実施の形態1では、車載の既存のカメラ2を用いてHUD装置1に映像データを外部入力し、AR表示を実現している。変形例として、カメラ2、カメラ3等の要素をAR表示装置に含む各形態が可能である。例えば、カメラ2や車外撮影部102をHUD装置1に備える形態でもよい。DB部109をHUD装置1に備える形態でもよい。
(d)HUD装置1の制御部10(画像選択部11等)に相当する部分をECU101等のHUD装置1以外の部分で実現し、そのECU101等の制御部から、HUD装置1の表示部20である投射型表示装置へ連携してAR表示を実現してもよい。言い換えると、制御部10と表示部20とが別の装置で実現されてもよい。
(e)カーナビ部106やDB部109等の要素は、車載システム100やHUD装置1とは別の独立した装置、例えば利用者が車内に持ち込んだ携帯端末装置(スマートフォン、タブレット端末、Webカメラを備えたPC等)で実現されて、HUD装置1等とその装置とが通信して連携する形態としてもよい。
(実施の形態2)
図10及び図11を用いて、実施の形態2のAR表示装置等について説明する。実施の形態2等における基本的な構成は実施の形態1と同様である。以下では、実施の形態2等における実施の形態1とは異なる構成部分について説明する。実施の形態2では、AR機能に関して追加された機能を有する。実施の形態2では、運転者の視界及び画面5で物体が比較的高速に移動するように変化した場合でも、その物体のAR画像に関する視認性を確保する機能を有する。HUD装置1は、画面5内で物体が比較的高速に移動していると判断した時には、AR画像の視認性を高めるようにAR画像の表示位置を例えば静止位置に制御する。
図10は、実施の形態2のAR表示装置であるHUD装置1の機能ブロック構成を示す。図10の構成は、図1の構成に対し異なる部分として、制御部10は、移動物体判断部16を有する。移動物体判断部16は、画像選択部11や視認性判断部12と連携し、カメラ2の画像内から固定物体及び移動物体を区別して抽出する処理や、画像内の物体に関する移動速度を計算する処理を行う。また、図1のDB部109のDBには、物体の定義情報として、固定物体か移動物体か等の種類を表す情報を含んでいてもよい。
実景内の物体は、看板等の固定位置に設置されている固定物体と、他車や人等の移動物体とがある。移動物体は、他にも移動型看板(例えば車載広告)等が挙げられる。自車の走行中では、画面5及び画像内で、それらの物体はいずれも位置が移動するように変化して見える。実施の形態2では、実施の形態1と同様に、看板等の物体をAR対象として設定する。更に、実施の形態2では、他車や人等の移動物体もAR対象として設定できる。AR画像生成部13は、移動物体に関するAR画像も生成する。
実施の形態2では、第1の機能として、物体が固定物体か移動物体かを判断し、移動物体についてもAR表示を行う機能を有する。実施の形態2で、HUD装置1の画像選択部11は、カメラ2の画像から物体として、看板等の固定物体だけでなく、他車や人等の移動物体も抽出する。移動物体判断部16は、抽出された物体領域について、固定物体か移動物体かを判断する。この判断の仕方としては、後述の移動速度を用いてもよい。視認性判断部12は、移動物体等の判断結果、及び視認性指標値に応じて、実施の形態1と同様にAR表示内容を変えるように制御する。
また、HUD装置1は、物体の種類が異なる場合、例えば看板と交通標識の場合や、固定物体と移動物体の場合等には、AR画像の表示の際に、それらのAR画像の表示色や表示形状等を異ならせてもよい。これにより、運転者は、物体の種類の違いを認識しやすくなる。
更に、実施の形態2では、第2の機能として、画面5及び画像内の物体の移動速度に応じて、AR表示の仕方を変える機能を有する。特に、物体の移動速度が大きい場合に、AR画像の表示位置を静止させる機能を有する。HUD装置1の移動物体判断部16は、運転者の視界に対応する画面5及びカメラ2の画像内で移動している物体(看板や車等)の移動速度や移動方向を計算する。この移動速度は、画面5及び画像内で物体領域の位置が移動する際の速度であり、自車の走行速度及び運転者の視点に対する相対的な速度である。
視認性判断部12は、視認性指標値として、物体の移動速度を用いる。視認性判断部12は、物体の移動速度を、例えば所定の閾値の範囲と比較する。視認性判断部12は、例えば、固定物体である看板に関して、移動速度が所定の閾値の範囲内である場合には、視認しやすいと判断して所定の分類(実施の形態1と同様)とする。視認性判断部12は、その範囲外である場合には、視認しにくいと判断して所定の分類とする。即ち、運転者が比較的高速に移動しているその物体を目視で追うことができないと判断される。視認性判断部12は、後者の分類に応じて、その移動している物体のAR画像の表示位置を静止位置とする、所定のAR表示内容(タイプ)に決定する。AR画像生成部13は、その決定に従い、移動方向等も考慮して、その物体のAR画像の表示位置である静止位置等を決定する。また、AR画像生成部13は、その移動している物体のAR画像の表示サイズについても、一定のサイズに維持するようにしてもよい。これにより、運転者がその移動している物体のAR画像をより視認しやすくなる。
画像内の物体の移動速度は、例えば以下のように計算できる。単純には、映像データの画像フレーム間の物体領域の位置の差(画素間距離)から、その移動速度を計算してもよい。分類ができればよいので、その移動速度の計算で高精度は不要である。あるいは、自車と物体との相対的な位置関係に基づいて、例えば自車の右折や左折の際の速度や角速度を用いてその移動速度が計算可能である。例えば自車の車速計や加速度センサやジャイロセンサ等から自車の速度や加速度や角速度及び角度等の情報が得られる。また、HMD装置を用いる形態では、HMD装置に搭載の磁気センサやジャイロセンサ等を用いて、角速度及び角度等の情報を得ることができる。
図4内に、自車の移動の例を示す。画面5及び視界における道路31の交差点付近において、視点から右斜め前に見えている看板44は、固定物体であり、AR対象であるとする。自車が交差点を矢印401で示す方向に右折するように曲がり、その際に看板44の手前を通り過ぎる場合とする。その場合、画面5では、運転者にとって、その看板44は、比較的高速で移動するように見える。
図11は、その場合に対応する画面5の時系列の状態を簡略的に示す。図11の(A)は、視界内で看板44に対応する物体領域がどのように移動して見えるかを概略的に示す。例えば、看板44の物体領域は、第1時点(例えば交差点進入開始時)では、領域91の位置に見えている。次に第2時点では、右折の進行に従って、領域92に移動している。同様に、第3時点では領域93、第4時点では領域94、第5時点では領域95といったように移動して、位置が連続的に変化している。矢印は移動軌跡を示す。
図11の(B)は、(A)に対応する時間において、看板44のAR画像54を表示する例を示す。移動物体判断部16は、例えば自車の速度や右折時の角速度から、看板44の移動速度を計算し、閾値と比較し、閾値以上である場合に、比較的高速で動いているため視認しにくいと判断し、所定の分類及びタイプとする。AR画像生成部13は、それに従い、看板44のAR画像54を生成する。AR画像54の例としては、看板44の正面の画像が拡大処理されて、記載文字「XYZ」が十分な大きさにされている。AR画像生成部13は、このAR画像54の表示位置を、時系列で変化する領域91〜95の位置に対し、画面5内の静止位置になるように決定する。本例では、AR画像54の静止位置は、看板44よりも上側の位置であり、特に領域91〜95の範囲における真ん中付近の位置にされている。
制御部10は、時系列で、物体を撮影し物体領域を検出した時点(または画像フレーム)と、その時点での画像内の物体領域の位置(例えば物体領域の中心点の画素の位置座標)と、を関係付けて把握する。制御部10は、時点毎に、車両位置または物体距離を把握してもよい。制御部10は、時系列で把握した情報を用いて、画面5及び画像内の物体の移動速度や移動方向を計算して把握する。画像選択部11は、例えば、第1時点の領域91と第2時点の領域92との差から、看板44の物体領域の移動方向(例:図示する矢印のように概略左方向)及び移動速度を計算する。
AR画像生成部13は、その移動方向及び移動速度に応じて、AR画像54の静止位置を決定する。第2時点で移動方向が概略左方向であるとわかるので、そのような移動先予測と共に、領域92よりも左側にある位置が静止位置として選択される。
これにより、画面5内で看板44が移動中の時間において、同じ位置にAR画像54が静止するように表示される。そのため、運転者は、走行中のその時間において、視界(中央領域R1)が遮られずに明瞭な状態が維持されると共に、看板44に対応付けられるAR画像54を視認しやすい。比較例として、画面5内の物体(看板44)の移動に追随させた位置にAR画像が表示させる形態では、移動速度が大きい場合には、運転者が視認困難となる。
また、本例では、AR画像生成部13は、AR画像54の一部または映像効果として、時系列で移動する看板44の物体領域とAR画像54との間を結ぶ線分である引き出し線541を表示する。例えば、第5時点の状態では、引き出し線541は、領域95とAR画像54とを結ぶように表示されている。引き出し線の表示によって、運転者が物体とAR画像との関係をより認識しやすくなる。
なお、HUD装置1は、画面5から対象物体が消えた場合、物体領域とAR画像との距離が所定値以上になった場合、またはAR画像を表示してから所定時間が経過した場合等の契機で、そのAR画像の表示を消去する。
上記AR画像の表示位置等の決め方に限らず可能である。例えば、最初、第1時点で、看板44の領域91に関し、AR画像54がその近隣位置に表示される。その後、領域の移動に対し、第1時点の同じ位置にAR画像54が静止されたまま表示される。なおかつ、各時点で、領域とAR画像54とを結ぶ引き出し線が表示される。また、例えば、上記AR画像の表示位置は、静止位置に限らず、画面5内でのAR画像の動きが少なくとも対象物体の動きの速度よりも遅くなるように決定されてもよい。
上記のように、実施の形態2のAR表示装置によれば、運転者の視界内で比較的高速に移動して目視で追うことが難しい物体についても、AR画像を視認しやすく提示できる。
(実施の形態3)
図12及び図13を用いて、実施の形態3のAR表示装置等について説明する。実施の形態3では、視線追跡機能を用いて、運転者の視線の状態に応じて、カメラ2の画像のうちの物体を抽出する対象となる範囲を限定する。これにより、運転者にとって不要な可能性が高い部分の情報を除去して情報量を減らし、必要な可能性が高い部分における物体及びAR画像の視認性を高める。
図12は、実施の形態3のAR表示装置であるHUD装置1の機能ブロック構成を示す。図12の構成は、図1の構成に対し異なる部分として、車載システム100及びHUD装置1は、運転者の視線を追跡する視線追跡機能を有する。視線追跡機能は、公知技術で構成可能である。実施の形態3では、視線追跡機能は、主に運転者撮影部107により実現されるが、これに限らず可能である。視線追跡機能は、運転者撮影部107、ECU101、HUD装置1の制御部10等のいずれかで実現されればよい。
運転者撮影部107は、カメラ3を含む公知の視線追跡機能を有する装置(即ちアイトラッキング装置)であり、運転者の目の位置や視線等を検出する。運転者撮影部107であるアイトラッキング装置は、カメラ3の画像によって、運転者の目等を検出し、視線の方向を計算する。計算方法としては、例えば瞳孔に写った光の点の位置から視線を計算する方法等が公知である。運転者撮影部107は、把握した視線等の情報(視線情報)を出力する。
HUD装置1の制御部10は、運転者撮影部107と連携する視線追跡部17を有する。視線追跡部17は、運転者撮影部107から視線情報を入力し、運転者の視線の状態を把握する。視線追跡部17は、視線の状態から、画面5における視線の先の交点である注視点(言い換えると視線交点、基準点)を把握する。なお、運転者撮影部107で注視点を計算してもよい。視線追跡部17は、リアルタイムで、視線及び注視点を基準として、画面5内に、視線中心範囲を設定する。画像選択部11は、画面5内の視線中心範囲に限定して、物体の抽出を行う。
図13は、画面5における視線中心範囲R10やAR画像表示の例を示す。×印で示す注視点P1は、視線の先の注視点の一例を示す。視線及び注視点は随時変動している。視線追跡部17は、例えば注視点P1を中心点として、所定半径距離の円領域を、視線中心範囲R10として設定する。注視点P1の変動に応じて、視線中心範囲R10も変動する。視線中心範囲R10は、運転者の視点から画面5を見た時の所定の画角に含まれている範囲である。画角と半径が対応関係を持つ。例えば、その画角が30度程度である場合、人の目の有効視野範囲と同等である。物体がその有効視野範囲に対応する視線中心範囲R10に含まれている場合、その物体は運転者からほぼ見えている。また、画角が例えば5度程度である場合、人の目の弁別視野(文字を判読できる注視範囲)と同等である。物体がその弁別視野に対応する視線中心範囲R10に含まれている場合、その物体は、注視されている可能性が高い。視線中心範囲R10は、矩形等で設定されてもよい。
画像選択部11は、視線中心範囲R10を、カメラ2の画像から物体を抽出する対象とする限定された領域として、実施の形態1と同様に物体領域の選択抽出を行う。視線中心範囲R10から物体領域を抽出する場合、運転者が意図的に注視している可能性が高い物体を、限定して抽出でき、その物体領域の画像情報を取得できる。
視線中心範囲R10の設定に関して、詳しくは以下のようにしてもよい。視線追跡部17は、視線及び注視点の把握の際に、時間判断を加え、ある程度以上の時間(例えば所定秒)で画面5内の同じ位置に注視点が留まっている場合に、運転者がその位置付近を注視していると判断してもよい。視線追跡部17は、その注視の判断に基づいて、はじめて視線中心範囲R10を設定してもよい。
視線中心範囲R10の領域内にある物体の視認性については、ケースバイケースであり、例えば看板が小さければ視認性が低い。視認性判断部12は、視線中心範囲R10内にある物体領域、即ち物体領域の中心点が視線中心範囲R10内に含まれるものについて、視認性指標値を計算する。
実施の形態3では、基本的に、視線中心範囲R10の領域内にある物体について、AR画像の表示候補とする。特に、中央領域R1の外側で、視線中心範囲R10の領域内にある場合に、表示候補とする。なお、これに限らず、変形例としては、中央領域R1の内外に依らずに、視線中心範囲R10内であれば表示候補としてもよい。
視認性判断部12は、視線中心範囲R10内にある物体について、視認性指標値に応じて、AR画像の表示有無や加工処理内容等を分類、決定する。この決定の仕方は、実施の形態1等と同様に可能である。AR画像生成部13は、その決定に従い、AR画像を生成する。
図13の例では、視線中心範囲R10の領域内に看板41,42等の物体が含まれている。そのため、例えば看板41は、AR画像の表示候補となる。看板41の視認性については、例えば物体距離が遠いため、視認しにくいと判断され、AR画像を表示するものとして分類される。看板41のAR画像としては、例えば前述と同様に、固定位置方式でのAR画像51a、または近隣位置方式でのAR画像51bを表示する場合とする。このAR画像の内容例としては、前述と同様に拡大処理等が行われている。また、そのAR画像の表示の際には、前述と同様に物体領域とAR画像とを結ぶ引き出し線等を付けてもよい。その引き出し線は、注視点P1の付近をなるべく避けるようにして配置される。同様に、看板42については、斜めの姿勢であり、視認しにくいと判断され、AR画像を表示するものとして分類されている。看板42のAR画像52の内容例として、姿勢変更処理等が行われている。
なお、AR画像51bやAR画像52は、視線中心範囲R10内に一部が含まれる円周上の位置に表示されているが、これに限らず、視線中心範囲R10の外に出る位置に表示されてもよい。
視線及び注視点が移動して他の位置に視線中心範囲R10が設定された例を、視線中心範囲R10bとして示す。この視線中心範囲R10bの領域には、例えば看板44が含まれている。視線中心範囲R10内で、看板44は、視認性が高いと判断されたため、第1分類とされ、AR画像が表示されていない。なお、HUD装置1は、視線及び注視点の移動によって視線中心範囲R10内にあった物体が外に出た場合等の契機で、その物体のAR画像を消去してもよい。
上記のように、実施の形態3のAR表示装置によれば、運転者の視線中心範囲内にある視認しにくい物体について、視認しやすいAR画像を提示できる。処理対象領域が限定されているので、画面5内の情報量を抑え、全体的に視認性を高めることができる。
(実施の形態4)
図14及び図15を用いて、実施の形態4のAR表示装置等について説明する。実施の形態4では、物体に関する関連情報を含むAR画像を、視認性が高い状態で表示する。これにより、運転者に有益な情報を提供して利便性も高める。実施の形態4では、抽出した物体に基づいて、DB部109のDBから関連情報を検索して取得する。実施の形態4では、運転者から見えている物体の記載文字等の情報だけでなく、関連情報による文字情報も提供できる。実施の形態4では、撮影画像内に含まれている物体について、何に関連するかを判断し、関連情報を提供する。実施の形態4では、実際に見える物体の情報と、画像内の物体から得られた関連情報とを組み合わせた情報を、AR画像として表示する。
図14は、実施の形態4のAR表示装置であるHUD装置1の機能ブロック構成を示す。図14の構成は、図1の構成に対し異なる部分として、制御部10は、画像選択部11等と連携する情報検索部18を有する。情報検索部18は、画像から抽出された物体の情報に基づいて、DB部109のDBから関連情報を検索する。
HUD装置1の画像選択部11は、カメラ2の画像から物体(例えば看板)の物体領域を抽出し、また、その物体領域からOCR処理によって文字を認識できる場合にはその文字情報も抽出する。情報検索部18は、画像選択部11で抽出された物体領域の情報を検索条件として用いて、DB部109のDB(またはカーナビ部106のDBや外部の通信網上のDBサーバ等)から、その物体に関する関連情報を検索する。情報検索部18は、その検索結果から、物体の関連情報を得る。関連情報は、例えば何の看板であるか、どの建物が出している看板であるか等であり、DBに登録されている任意の情報である。
情報検索部18は、物体領域から抽出できた文字情報を用いて、DBを検索してもよい。また、情報検索部18は、画像から抽出された物体領域の画像を用いて、DBから画像検索を行ってもよい。この場合、例えば看板の外観から関連情報を検索できる。あるいは、情報検索部18は、物体領域の情報を用いて一旦DBからその物体の基本情報を取得し、その基本情報を用いて、DB部109のDB等から、関連情報の検索を行ってもよい。
DB部109のDBには、例えば通信部104を介して外部の通信網上(例えば事業者のデータセンタ等)から取得された情報が格納されている。なお、前述のように、外部のDBに対する検索を行う形態等、各種の形態が可能である。このDBは、画像検索が可能な画像DBを含む。このDBには、例えば、対象物体に関する画像(物体画像)と、その物体に関する情報(基本情報及び関連情報)とが、関係付けて登録されている。
物体画像は、例えば対象物体である看板に関する正面から見た高品質の基準画像としてもよい。その場合、その基準画像を元データとして用いて、視認性が高いAR画像を生成できる。基本情報は、前述の特徴情報や定義情報の他に、例えば、看板を出しているコンビニやレストラン等の種類を表す情報(図9の情報カテゴリの項目等の情報)を含んでもよい。関連情報は、例えば看板を出している店舗等に関する詳細説明情報等がある。関連情報は、看板に記載されている文字の情報を持たせてもよい。その場合、AR画像を提示する際に、看板を出している店舗等に関する情報を提示できる。
視認性判断部12は、前述と同様に、物体領域に関する視認性を判断し、分類する。AR画像生成部13は、その結果に基づいて、前述と同様に、視認性を高めたAR画像を生成するが、その際、物体の関連情報を用いてAR画像を生成する。AR画像生成部13は、物体領域から直接得た情報と、検索で得た関連情報とを組み合わせて、視認性が高いAR画像を生成する。なお、AR画像生成部13は、AR画像を生成する際に、情報検索部18を用いて検索を行わせてもよい。
情報検索部18は、例えば、物体領域の画像を検索条件としてDB部109の画像DBを画像検索し、その検索結果から、視認性が高い物体画像を得る。例えば、看板の正面が直角四角形で高品質に撮影されている画像が得られる。AR画像生成部13は、その画像を用いて、AR画像を生成する。AR画像生成部13は、画像加工部14を用いて、検索結果の画像に対する画像加工処理を施して、より視認性を高めてもよい。
図15は、画面5の例を示す。本例では、画面5及び画像内で、建物32aにおける道路31の近くの位置に看板45が設置されている。対象物体が例えば看板45であるとする。看板45は、正面が運転者の視点の方に向いているが、比較的遠くの位置にあり、記載文字が視認しにくい状態である。
AR画像55Aは、看板45のAR画像に関する第1表示例を示す。AR画像55Aは、AR画像55A1とAR画像55A2とで構成されている。AR画像55Aは、固定位置方式で下辺領域R3内の位置に表示されている。AR画像55A1は、物体領域から直接得られた情報に基づいたAR画像である。AR画像55A1は、看板45の記載文字が視認しやすいように、加工処理として物体領域に拡大処理等を施して得られたAR画像である。本例では、看板45の物体領域からOCR処理で抽出された文字情報を用いてAR画像55A1が作成されている。看板45の記載文字は、例えば「OPEN10:00〜21:00 現在OPEN」となっており、開店時間、閉店時間、現在の開店状態等の情報を含む場合である。
AR画像55A2は、物体の関連情報に基づいたAR画像である。AR画像55A2は、看板45の関連情報として、例えば文字情報「レストラン XYZ」が得られた場合に、その文字情報を用いて、視認性が高い画像として作成されている。この関連情報は、看板45を出している店舗の種類がレストランであること、及びその店舗の名称「XYZ」を表している。
AR画像55Bは、看板45のAR画像に関する第2表示例を示す。AR画像55Bは、AR画像55B1とAR画像55B2とで構成されている。AR画像55Bは、近隣位置方式で看板45の近隣の位置(例:左側)に引き出し線を付けて表示されている。AR画像55B1は、物体領域から直接得られた情報に基づいたAR画像である。AR画像55B1は、看板45の記載文字が視認しやすいように、加工処理として物体領域に拡大処理等を施して得られたAR画像である。AR画像55B2は、AR画像55A2と同様に、物体の関連情報に基づいたAR画像である。本例では、AR画像55B2は、AR画像55B1の下に、破線枠の領域として表示されている。いずれのAR画像も背景が透過の領域となっている。
上記のように、実施の形態4のAR表示装置によれば、物体の関連情報まで含め、より詳細な情報を、視認しやすいAR画像として提示でき、運転者のAR利用の利便性、付加価値を高めることができる。また、実施の形態4では、画像検索を用いて、元の視認性が低い物体に対して異なる、独立した視認性が高い画像を用いて、視認性が高いAR画像を生成して表示することも可能である。そのため、画像加工処理で視認性が高い画像を得ることが難しい場合でも、好適なAR画像を提示できる。
なお、画像検索の際には、Web上の一般的な画像検索サービスを用いてもよいが、予め、DB部109の画像DBに、視認性が高い物体画像を整備しておけば、高速な処理及び好適なAR画像提示が可能である。更に、変形例としては、DB部109の画像DBに、対象物体に関して予め様々な条件で撮影した複数の画像を登録しておいてもよい。例えば、カメラレンズ性能、撮影距離、天候等の条件が異なる画像である。画像DBに、対象物体に関する視認性が良くない状況での低品質画像と、視認性が良い状況での高品質画像と、他の物体情報とを関係付けて登録しておく。これにより、AR利用時の様々な状況に対応した好適なAR表示が実現できる。撮影状況が良くない時の低品質画像であっても、検索によって高品質画像を得ることができる。
なお、画像選択部11において画像から物体を抽出する判断の際に、情報検索部18の画像検索機能を用いてもよい。即ち、情報検索部18は、物体領域の画像を検索条件として画像DBからの画像検索(言い換えると他の画像群との画像マッチング)を行う。画像選択部11は、その画像検索結果から、所定の物体(例えば看板)を抽出できる。
[変形例(1)]
実施の形態4の変形例として以下が可能である。HUD装置1は、画像内の物体の関連情報を用いて、画像内でその物体(例えば看板)に関連付けられる空間内の他の物体(例えば建物)の有無等を判断する。HUD装置1は、空間内の他の物体が特定できる場合には、それらの物体(看板と建物)を関連付けて、AR画像を提示してもよい。例えば、図15の看板45に関連付けられる建物として、その周辺にある建物32aや建物32bが候補として考えられる。例えば、情報検索部18は、空間内での看板45の位置情報を中心点とした所定半径距離の範囲内にある建物をDBから検索し、検索結果の建物を候補としてもよい。
更に、情報検索部18は、候補の建物の位置情報を用いて、DBからその建物の情報を検索し、対象の看板に関連付けられる建物であるかを判断してもよい。例えば、看板45が建物32aに関連付けられると判断されたとする。
HUD装置1は、看板45に関連付けられる建物32aを特定した場合に、その看板45のAR画像として、関連付けられる建物32aの情報を含むAR画像を生成して表示する。あるいは、HUD装置1は、その建物32aに関する別のAR画像を生成し、看板45のAR画像と、建物32aのAR画像とを、引き出し線等で関連付けて表示してもよい。
[変形例(2)]
実施の形態4の変形例として以下が可能である。この変形例では、DB部109のDBの情報に関して保守更新を行う機能を有する。DB部109のDBが、外部の通信網上、例えばデータセンタのDBサーバに設けられているとする。事業者は、そのDBを管理する。複数の自動車の利用者が同じサービスを利用し、車載システム100がその同じDBを共用するようにアクセスする。そのDBは、各利用者の自動車で撮影された画像から得られた物体の情報に基づいて、最新状態になるように、物体の画像や情報が更新される。
例えば、看板は、設置位置が変わる場合もあるし、記載内容が変わる場合もある。また、建物は、建設中である等、外観の状態が変わる場合もある。カーナビ部106のDBの地図情報等は、登録内容が更新されていない場合には、リアルタイムで現実の最新の物体の情報を得ることはできない。そこで、この変形例では、物体の外観の変化にもなるべくすぐに対応できるように、DB部109のDBの情報内容を最新状態に更新する機能を有する。これにより、各利用者は、AR機能の利用時に、最新状態の物体の情報がAR画像として得られ、利便性が高くなる。それと共に、事業者のDBの保守作業も容易になる。
データセンタのDB部109のDBには、物体の情報や画像として、位置や向きの情報、物体の外観の変更有無や変更日時等の情報、物体の外観が変更された時の最新の物体領域の画像等が、関係付けて登録される。また、DBには、物体画像に関するカメラ2の撮影方向等の情報を登録しておいてもよい。同じ物体を各方向から撮影した複数の物体画像を登録しておいてもよい。
HUD装置1は、カメラ2の画像から最新状態の物体領域を抽出する。情報検索部18は、その物体領域の画像や情報を用いて、通信部104を介してDB部109のDBを検索する。情報検索部18は、データセンタのサーバへ、物体の最新状態の情報を送信する。データセンタのサーバは、その情報を受信し、DBの登録情報を確認し、物体の外観等の変更があると判断した場合、DBの登録情報を最新状態に更新する。
AR提示の際に、DBから取得できた物体情報や物体画像を用いて、視認性が高い最新状態のAR画像を表示できる。また、撮影方向が異なる複数の物体画像を用いる場合、自車から物体への方向に応じた好適なAR画像が生成できる。
[変形例(3)]
実施の形態4の変形例として以下が可能である。この変形例では、実空間内における移動物体の変動する位置を、DB部109のDBの地図情報に反映するように登録させ、自分または自分を含む複数の利用者間で共有可能とする。移動物体として、例えば、運転者の家族や知人等の人が運転する他の自動車を対象として設定することができる。対象の車や人は、予め画像形式で設定可能である。また、応用例としては、車や人の捜索にも利用できる。また、応用例としては、天候や渋滞等の状況の登録にも利用できる。
HUD装置1は、カメラ2で撮影した画像内の物体に関する空間内の位置を検出する。例えば、自車の位置情報と画像内の物体の位置との関係に基づいて、物体の位置をある程度の精度で計算できる。また、地図上の既知の物体の位置を用いれば、対象物体の位置を高精度に検出できる。
HUD装置1は、例えば外部のデータセンタのDB部109のDBの地図情報にアクセスする。そして、HUD装置1は、自車の位置、検出した物体の位置、外観の画像、センサ情報、等を含む情報を、DBの地図情報に登録する。データセンタのサーバは、そのDBの情報の登録や更新、状況の集計等を行う。各利用者の車載システム100は、更新されたDBの地図情報にアクセスして利用できる。各利用者は、他の人の車等の最新情報がAR画像として得られる。
以上、本発明を実施の形態に基づいて具体的に説明したが、本発明は上述した実施の形態に限定されず、その要旨を逸脱しない範囲で種々変更可能である。実施の形態の構成要素の追加や削除、分離や併合、置換、組合せ等が可能である。実施の形態の具体例の数値等は一例である。実施の形態の機能等は、一部または全部が集積回路等のハードウェアで実現されてもよいし、ソフトウェアプログラム処理で実現されてもよい。各ソフトウェアは、製品出荷時点で予め装置内に格納されていてもよいし、製品出荷後に外部装置から通信を介して取得されてもよい。本発明は、車載システムに限らず、各種の用途に適用可能である。
1…HUD装置(AR表示装置)、2…カメラ、3…カメラ、5…画面、9…フロントシールド、10…制御部、11…画像選択部、12…視認性判断部、13…AR画像生成部、14…画像加工部、15…AR表示部、20…表示部、21…表示駆動回路、22…表示素子、23…光源、24…光学系、100…車載システム、101…ECU、102…車外撮影部、103…映像データ記憶部、104…通信部、105…GPS受信器、106…カーナビ部、107…運転者撮影部、108…センサ部、109…DB部。

Claims (15)

  1. 外界の実景を透過する画面に対して拡張現実の画像情報を重畳表示するAR機能を有するAR表示装置であって、
    カメラで撮影された画像を入力し、前記画像から、所定の物体の領域を選択して抽出する画像選択部と、
    前記抽出された前記物体の領域に関する利用者の視認性を指標値に基づいて判断する視認性判断部と、
    前記物体の領域の視認性に基づいて、前記物体の領域に対する前記視認性を高めるための画像加工処理を施すことで、前記物体に関する前記拡張現実の画像情報であるAR画像を生成するAR画像生成部と、
    前記外界の実景を透過する画面に対して前記AR画像を重畳表示するAR表示部と、
    を有し、
    前記視認性に応じて、前記AR画像の表示有無、及び前記画像加工処理の内容を変えるように制御する、
    AR表示装置。
  2. 請求項1記載のAR表示装置において、
    前記物体に関して、前記視認性の前記指標値の大きさに応じて、第1分類、第2分類の少なくとも2つに分類し、
    前記第1分類の前記物体については、前記AR画像を表示しない、または、前記物体の領域の前記画像加工処理を施さずに前記AR画像を生成して表示するように制御し、
    前記第2分類の前記物体については、前記物体の領域の前記画像加工処理を施して前記AR画像を生成して表示するように制御する、
    AR表示装置。
  3. 請求項1記載のAR表示装置において、
    前記物体に関して、前記視認性の前記指標値の大きさに応じて、第1分類、第2分類、第3分類の少なくとも3つに分類し、
    前記第1分類の前記物体については、前記AR画像を表示しない、または、前記物体の領域の前記画像加工処理を施さずに前記AR画像を生成して表示するように制御し、
    前記第2分類の前記物体については、前記物体の領域の第1加工処理を施して前記AR画像を生成して表示するように制御し、
    前記第3分類の前記物体については、前記物体の領域の第2加工処理を施して前記AR画像を生成して表示するように制御する、
    AR表示装置。
  4. 請求項1記載のAR表示装置において、
    前記視認性の前記指標値を、前記カメラまたは前記利用者の視点と前記物体との距離、前記画像内の前記物体のサイズ、または位置、の少なくとも1つを用いて計算する、
    AR表示装置。
  5. 請求項1記載のAR表示装置において、
    前記画面内には中央領域が設定されており、
    前記画面内の前記中央領域の外側の位置に、前記物体の領域と前記AR画像とを結ぶ線を付けた形式で前記AR画像を表示する、
    AR表示装置。
  6. 請求項1記載のAR表示装置において、
    前記画像加工処理は、前記物体の領域の画像を拡大する拡大処理と、前記物体の領域の画像に対する先鋭化処理、コントラスト変更処理、または色調変更処理の少なくとも1つと、を含む、
    AR表示装置。
  7. 請求項1記載のAR表示装置において、
    前記画像加工処理は、前記物体の領域の画像から抽出された文字情報を用いて文字画像を生成するOCR処理を含む、
    AR表示装置。
  8. 請求項1記載のAR表示装置において、
    前記画像加工処理は、前記物体の領域の画像の姿勢を、前記利用者の視点から見て正面の状態になるように変換する姿勢変更処理を含む、
    AR表示装置。
  9. 請求項1記載のAR表示装置において、
    前記画像内で前記物体の領域が移動する際の移動速度を判断し、前記移動速度に応じて、前記AR画像の表示位置を静止位置とするように制御する、
    AR表示装置。
  10. 請求項1記載のAR表示装置において、
    前記利用者の視線を追跡し、前記視線の先の前記画面との交点である注視点を中心として視線中心範囲を設定する視線追跡部を有し、
    前記画像選択部は、前記視線中心範囲から前記物体の領域を抽出する、
    AR表示装置。
  11. 請求項1記載のAR表示装置において、
    前記物体に関する基本情報及び関連情報が登録されているDBに対する検索を行う情報検索部を有し、
    前記画像から抽出された前記物体の領域の情報に基づいて、前記DBを検索し、検索結果情報を用いて、前記物体の前記基本情報または前記関連情報を含む前記AR画像を生成する、
    AR表示装置。
  12. 請求項11記載のAR表示装置において、
    前記DBには、前記物体の物体画像も登録されており、
    前記画像から抽出された前記物体の領域の画像に基づいて、前記DBを画像検索し、検索結果の前記物体画像を用いて、前記AR画像を生成する、
    AR表示装置。
  13. 請求項1記載のAR表示装置において、
    車載システムに搭載されるヘッドアップディスプレイ装置であり、
    自動車のフロントシールドに構成される前記画面に対して投射表示を行う表示部を備える、
    AR表示装置。
  14. 請求項1記載のAR表示装置において、
    前記物体は、看板を含む、
    AR表示装置。
  15. 外界の実景を透過する画面に対して拡張現実の画像情報を重畳表示するAR機能を有するAR表示装置におけるAR表示方法であって、
    カメラで撮影された画像を入力し、前記画像から、所定の物体の領域を選択して抽出する画像選択ステップと、
    前記抽出された前記物体の領域に関する利用者の視認性を指標値に基づいて判断する視認性判断ステップと、
    前記物体の領域の視認性に基づいて、前記物体の領域に対する前記視認性を高めるための画像加工処理を施すことで、前記物体に関する前記拡張現実の画像情報であるAR画像を生成するAR画像生成ステップと、
    前記外界の実景を透過する画面に対して前記AR画像を重畳表示するAR表示ステップと、
    を有し、
    前記視認性に応じて、前記AR画像の表示有無、及び前記画像加工処理の内容を変えるように制御する、
    AR表示方法。
JP2019505663A 2017-03-17 2017-03-17 Ar表示装置及びar表示方法 Active JP6694112B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020073217A JP6947873B2 (ja) 2017-03-17 2020-04-16 Ar表示装置、ar表示方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/011022 WO2018167966A1 (ja) 2017-03-17 2017-03-17 Ar表示装置及びar表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020073217A Division JP6947873B2 (ja) 2017-03-17 2020-04-16 Ar表示装置、ar表示方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2018167966A1 JPWO2018167966A1 (ja) 2019-12-12
JP6694112B2 true JP6694112B2 (ja) 2020-05-13

Family

ID=63521984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019505663A Active JP6694112B2 (ja) 2017-03-17 2017-03-17 Ar表示装置及びar表示方法

Country Status (4)

Country Link
US (2) US11880909B2 (ja)
JP (1) JP6694112B2 (ja)
CN (1) CN110419063A (ja)
WO (1) WO2018167966A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220019824A1 (en) * 2018-12-21 2022-01-20 Volkswagen Aktiengesellschaft Method and Device for Monitoring a Passenger of a Vehicle, and System for Analyzing the Perception of Objects

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140067869A1 (en) * 2012-08-30 2014-03-06 Atheer, Inc. Method and apparatus for content association and history tracking in virtual and augmented reality
US11118930B2 (en) * 2017-07-14 2021-09-14 Lyft, Inc. Providing information to users of a transportation system using augmented reality elements
US20190102923A1 (en) * 2017-10-04 2019-04-04 L3 Technologies, Inc. Combining synthetic imagery with real imagery for vehicular operations
US11227371B2 (en) * 2017-12-14 2022-01-18 Nec Corporation Image processing device, image processing method, and image processing program
US11487359B2 (en) 2018-11-29 2022-11-01 Maxell, Ltd. Video display apparatus and method
JP7245084B2 (ja) * 2019-03-15 2023-03-23 日立Astemo株式会社 自動運転システム
US11373527B2 (en) * 2019-03-25 2022-06-28 Micron Technology, Inc. Driver assistance for non-autonomous vehicle in an autonomous environment
JP7105210B2 (ja) * 2019-03-26 2022-07-22 富士フイルム株式会社 画像処理方法、プログラム、及び画像処理システム
JP6713591B1 (ja) * 2019-04-17 2020-06-24 楽天株式会社 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
JP6781445B1 (ja) * 2019-05-13 2020-11-04 Necプラットフォームズ株式会社 情報処理方法
JP7393179B2 (ja) 2019-10-24 2023-12-06 住友重機械工業株式会社 撮影装置
TWI733245B (zh) * 2019-11-07 2021-07-11 南開科技大學 依互動過程在擴增實境與虛擬實境間切換之系統及方法
KR102490309B1 (ko) * 2019-12-03 2023-01-20 엘지전자 주식회사 Ar 네비게이션의 화면 표시 방법 및 ar 네이게이션 시스템
CN110708533B (zh) * 2019-12-16 2020-04-14 杭州融梦智能科技有限公司 基于增强现实的视觉辅助方法及智能穿戴设备
CN110989166A (zh) 2019-12-25 2020-04-10 歌尔股份有限公司 一种近眼显示设备的眼球追踪系统及近眼显示设备
GB2591745A (en) * 2020-01-31 2021-08-11 Mclaren Automotive Ltd Augmented reality system
CN113467600A (zh) * 2020-03-31 2021-10-01 深圳光峰科技股份有限公司 基于增强现实的信息显示方法、系统、装置及投影设备
CN113686350A (zh) * 2020-05-18 2021-11-23 华为技术有限公司 道路信息的显示方法、装置和智能可穿戴设备
US11410270B2 (en) * 2020-06-03 2022-08-09 University Of Central Florida Research Foundation, Inc. Intelligent object magnification for augmented reality displays
CN112000901B (zh) * 2020-08-26 2023-01-13 北京百度网讯科技有限公司 一种提取地理位置点空间关系的方法和装置
JP2022046316A (ja) * 2020-09-10 2022-03-23 キヤノン株式会社 情報提示システム、その制御方法、および、プログラム
JP7135052B2 (ja) * 2020-10-29 2022-09-12 ソフトバンク株式会社 制御装置、プログラム、及び制御方法
JP7212091B2 (ja) * 2021-03-24 2023-01-24 本田技研工業株式会社 車両用表示装置
JP2022184350A (ja) * 2021-06-01 2022-12-13 マツダ株式会社 ヘッドアップディスプレイ装置
GB2608362A (en) * 2021-06-24 2023-01-04 Continental Automotive Gmbh A method for adapting color of an overlay displayed in a display unit of a vehicle and a system thereof
CN113421346B (zh) * 2021-06-30 2023-02-17 暨南大学 一种增强驾驶感的ar-hud抬头显示界面的设计方法
US11827150B2 (en) 2021-09-21 2023-11-28 International Business Machines Corporation Computer-implemented object visibility improvement by interposing an image in a viewer's line-of-sight
CN114120787A (zh) * 2021-11-23 2022-03-01 中国航空工业集团公司洛阳电光设备研究所 室内体验车载ar-hud模拟器的装置
WO2023146145A1 (ko) * 2022-01-26 2023-08-03 삼성전자 주식회사 전자 장치 및 이의 제어 방법
KR20230127418A (ko) * 2022-02-24 2023-09-01 삼성디스플레이 주식회사 타일형 표시 장치

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003287434A (ja) * 2002-01-25 2003-10-10 Iwane Kenkyusho:Kk 画像情報検索システム
JP2004302903A (ja) * 2003-03-31 2004-10-28 Fuji Photo Film Co Ltd 車両表示装置
JP3860560B2 (ja) 2003-05-30 2006-12-20 日本電信電話株式会社 表示インタフェース方法および装置
JP2005038008A (ja) 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP2005182306A (ja) 2003-12-17 2005-07-07 Denso Corp 車両用表示装置
JP2010066042A (ja) * 2008-09-09 2010-03-25 Toshiba Corp 画像照射システムおよび画像照射方法
US8395529B2 (en) * 2009-04-02 2013-03-12 GM Global Technology Operations LLC Traffic infrastructure indicator on head-up display
JP5198346B2 (ja) * 2009-04-23 2013-05-15 本田技研工業株式会社 車両周辺監視装置
US9691281B2 (en) * 2010-03-24 2017-06-27 Telenav, Inc. Navigation system with image assisted navigation mechanism and method of operation thereof
JP5654269B2 (ja) * 2010-06-24 2015-01-14 東芝アルパイン・オートモティブテクノロジー株式会社 車両用ディスプレイ装置及び車両用ディスプレイの表示方法
JP2012162109A (ja) * 2011-02-03 2012-08-30 Toyota Motor Corp 車両用表示装置
US9547938B2 (en) * 2011-05-27 2017-01-17 A9.Com, Inc. Augmenting a live view
JP5970872B2 (ja) * 2012-03-07 2016-08-17 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JPWO2013161028A1 (ja) * 2012-04-26 2015-12-21 パイオニア株式会社 画像表示装置、画像表示方法、画像表示プログラム、及び記録媒体
DE112013002354T5 (de) * 2012-05-07 2015-04-16 Honda Motor Co., Ltd. Verfahren zum Erzeugen virtueller Anzeigeflächen aus Videobildern einer straßenbasierten Landschaft
CN104272345B (zh) * 2012-05-18 2016-01-06 日产自动车株式会社 车辆用显示装置和车辆用显示方法
JP5991647B2 (ja) * 2013-03-28 2016-09-14 株式会社デンソー 車両用周辺監視制御装置
US20160089980A1 (en) * 2013-05-23 2016-03-31 Pioneer Corproation Display control apparatus
JP6346614B2 (ja) * 2013-09-13 2018-06-20 マクセル株式会社 情報表示システム
US10055013B2 (en) * 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
US9547644B2 (en) * 2013-11-08 2017-01-17 Google Inc. Presenting translations of text depicted in images
JP6364182B2 (ja) * 2013-11-28 2018-07-25 シャープ株式会社 文字列認識装置および文字列認識方法
US20150175068A1 (en) * 2013-12-20 2015-06-25 Dalila Szostak Systems and methods for augmented reality in a head-up display
JP6643659B2 (ja) * 2014-04-09 2020-02-12 パナソニックIpマネジメント株式会社 表示制御装置、表示制御方法、および表示制御プログラム
JP6394940B2 (ja) 2014-05-23 2018-09-26 日本精機株式会社 車両用表示システム
JP2016095688A (ja) 2014-11-14 2016-05-26 株式会社デンソー 車載用情報表示装置
WO2016092650A1 (ja) * 2014-12-10 2016-06-16 三菱電機株式会社 画像処理装置及び車載表示システム及び表示装置及び画像処理方法及び画像処理プログラム
KR20160128119A (ko) * 2015-04-28 2016-11-07 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR102354458B1 (ko) * 2015-08-19 2022-01-21 삼성전자주식회사 디스플레이 장치 및 그의 제어방법
JP6266675B2 (ja) * 2016-03-18 2018-01-24 株式会社Subaru 捜索支援装置、捜索支援方法及び捜索支援プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220019824A1 (en) * 2018-12-21 2022-01-20 Volkswagen Aktiengesellschaft Method and Device for Monitoring a Passenger of a Vehicle, and System for Analyzing the Perception of Objects
US11900699B2 (en) * 2018-12-21 2024-02-13 Volkswagen Aktiengesellschaft Method and device for monitoring a passenger of a vehicle, and system for analyzing the perception of objects

Also Published As

Publication number Publication date
WO2018167966A1 (ja) 2018-09-20
CN110419063A (zh) 2019-11-05
US11880909B2 (en) 2024-01-23
JPWO2018167966A1 (ja) 2019-12-12
US20200090375A1 (en) 2020-03-19
US20240127496A1 (en) 2024-04-18

Similar Documents

Publication Publication Date Title
JP6694112B2 (ja) Ar表示装置及びar表示方法
US10882398B2 (en) System and method for correlating user attention direction and outside view
US9639990B2 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
US20160185219A1 (en) Vehicle-mounted display control device
US20230249618A1 (en) Display system and display method
JP2013112269A (ja) 車載用表示装置
US11836864B2 (en) Method for operating a display device in a motor vehicle
EP3456574A1 (en) Method and system for displaying virtual reality information in a vehicle
JP2023109754A (ja) Ar表示装置、ar表示方法、およびプログラム
JPWO2020105685A1 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
CN112677740A (zh) 处理挡风玻璃使其隐形的装置和方法
JP2007280203A (ja) 情報提示装置、自動車、及び情報提示方法
WO2019031291A1 (ja) 車両用表示装置
JP6939147B2 (ja) 走行情報案内装置及びコンピュータプログラム
JP2021165766A (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP7429875B2 (ja) 表示制御装置、表示装置、表示制御方法、及びプログラム
WO2020084827A1 (ja) 重畳画像表示装置及びコンピュータプログラム
JP2023076045A (ja) 画像表示装置
JP2021160409A (ja) 表示制御装置、画像表示装置、及び方法
CN117882075A (zh) 一种显示方法及装置
JP2023012155A (ja) 表示システム
JP2013026796A (ja) 画像表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200416

R150 Certificate of patent or registration of utility model

Ref document number: 6694112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250