JP2017191378A - 拡張現実情報表示装置および拡張現実情報表示方法 - Google Patents

拡張現実情報表示装置および拡張現実情報表示方法 Download PDF

Info

Publication number
JP2017191378A
JP2017191378A JP2016079055A JP2016079055A JP2017191378A JP 2017191378 A JP2017191378 A JP 2017191378A JP 2016079055 A JP2016079055 A JP 2016079055A JP 2016079055 A JP2016079055 A JP 2016079055A JP 2017191378 A JP2017191378 A JP 2017191378A
Authority
JP
Japan
Prior art keywords
display
information
augmented reality
reality information
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016079055A
Other languages
English (en)
Inventor
智史 曽田
Tomohito Soda
智史 曽田
将嘉 伊井野
Takeyoshi Iino
将嘉 伊井野
智春 山本
Chiharu Yamamoto
智春 山本
悟 池田
Satoru Ikeda
悟 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2016079055A priority Critical patent/JP2017191378A/ja
Priority to US15/460,747 priority patent/US10083546B2/en
Publication of JP2017191378A publication Critical patent/JP2017191378A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/167Vehicle dynamics information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/27Optical features of instruments using semi-transparent optical elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】表示する拡張現実情報に対するユーザの没入感を高めることができる拡張現実情報表示装置および拡張現実情報表示方法を提供すること。【解決手段】実施形態に係る拡張現実情報表示装置は、記憶部と、表示位置決定部と、表示制御部とを備える。記憶部は、現実位置に対応付けられた拡張現実情報を記憶する。表示位置決定部は、透過型表示装置の表示画面を視認するユーザの現実位置、表示画面の現実位置、および表示画面越しの景色中で拡張現実情報が対応付けられた現実位置に基づいて、表示画面における拡張現実情報の表示位置を決定する。表示制御部は、表示位置決定部によって決定される表示位置に、景色中で拡張現実情報が対応付けられた現実位置およびユーザの現実位置の位置関係に応じた態様の拡張現実情報を表示させる。【選択図】図2

Description

本発明は、拡張現実情報表示装置および拡張現実情報表示方法に関する。
従来、透過型表示装置の表示画面に、表示画面を通して見える景色中の現実位置に関する拡張現実情報を重畳させて表示させる装置がある(例えば、特許文献1参照)。
特開2012−068481号公報
しかしながら、従来の装置は、表示画面を通して見える風景中の現実位置に対して、一様な拡張現実情報を表示させるものであったため、拡張現実情報に対するユーザの没入感を高めることが困難であった。
本発明は、上記に鑑みてなされたものであって、表示する拡張現実情報に対するユーザの没入感を高めることができる拡張現実情報表示装置および拡張現実情報表示方法を提供することを目的とする。
実施形態に係る拡張現実情報表示装置は、記憶部と、表示位置決定部と、表示制御部とを備える。記憶部は、現実位置に対応付けられた拡張現実情報を記憶する。表示位置決定部は、透過型表示装置の表示画面を視認するユーザの現実位置、前記表示画面の現実位置、および前記表示画面越しの景色中で前記拡張現実情報が対応付けられた現実位置に基づいて、前記表示画面における当該拡張現実情報の表示位置を決定する。表示制御部は、前記表示位置決定部によって決定される前記表示位置に、景色中で前記拡張現実情報が対応付けられた現実位置および前記ユーザの現実位置の位置関係に応じた態様の前記拡張現実情報を表示させる。
実施形態に係る拡張現実情報表示装置および拡張現実情報表示方法は、表示する拡張現実情報に対するユーザの没入感を高めることができる。
図1は、実施形態に係るAR情報表示方法の説明図である。 図2は、実施形態に係るAR情報表示装置の構成を示す機能ブロック図である。 図3は、実施形態に係るAR情報DBの説明図である。 図4は、実施形態に係る表示制御部が表示させるAR情報の態様の具体例を示す説明図である。 図5は、実施形態に係る表示制御部が表示させるAR情報の態様の具体例を示す説明図である。 図6は、実施形態に係る表示制御部が表示させるAR情報の態様の具体例を示す説明図である。 図7は、実施形態に係る表示制御部が表示させるAR情報の態様の具体例を示す説明図である。 図8は、実施形態に係る表示制御部が表示させるAR情報の態様の具体例を示す説明図である。 図9は、実施形態に係る制御部が実行する処理を示すフローチャートである。 図10は、実施形態に係る制御部が実行する処理を示すフローチャートである。
以下に添付図面を参照して、実施形態に係る拡張現実情報表示装置および拡張現実情報表示方法について詳細に説明する。なお、この実施形態により本発明が限定されるものではない。
本実施形態では、車両の窓ガラスに貼合される透過型表示装置に、拡張現実情報(以下、「AR(Augmented Reality)情報と記載する」)を表示させるAR情報表示装置を例に挙げて説明する。なお、実施形態に係るAR情報表示装置は、例えば、船舶や航空機の窓ガラス、ガラス張りのエレベータの窓ガラスに貼合される透過型表示装置にAR情報を表示させることもできる。
また、実施形態に係るAR情報表示装置は、例えば、乗客がガラス越しに見える景色を視認しながら様々なアトラクションを体感する体感型の遊戯設備の窓ガラスに貼合される透過型表示装置にAR情報を表示させることもできる。
図1は、実施形態に係るAR情報表示装置によるAR情報表示方法の説明図である。なお、図1には、車両の窓ガラスに貼合される透過型表示装置14と、車室内で透過型表示装置14の表示画面(以下、単に「表示画面」と記載する)を視認するユーザuと、AR情報が対応付けられた車両外の現実位置pとの平面視による位置関係を示している。
図1に(a)で示す状況では、ユーザuは、車両の右側後部座席に乗車しており、右側後部の窓ガラスの比較的後側から透過型表示装置14を通して車両外右前方の現実位置pを見ている。
かかる場合に、AR情報表示装置は、ユーザuの現実位置、表示画面の現実位置、および表示画面を通してユーザuから見える景色中でAR情報が対応付けられた現実位置pに基づいて、表示画面におけるAR情報の表示位置を決定する。以下、ユーザuの現実位置をユーザ位置、表示画面の現実位置を画面位置、AR情報が対応付けられた現実位置pをAR対応位置pと称する。
図1に(a)で示す状況では、AR情報表示装置は、景色中のAR対応位置pおよびユーザ位置を結ぶ直線(図1(a)に示す点線)と表示画面との交点を、景色中のAR対応位置pに対応付けられたAR情報d1の表示位置の中心点として決定する。
そして、AR情報表示装置は、決定した表示画面における表示位置に、AR情報d1を表示させる。このとき、AR情報表示装置は、景色中のAR対応位置pおよびユーザ位置の位置関係に応じた態様のAR情報d1を表示させる。
その後、例えば、図1に(b)で示すように、ユーザuが右側後部の窓ガラスの比較的前側へ移動して景色中のAR対応位置pを見る場合がある。かかる場合に、AR情報表示装置は、図1に(b)で示す状況での景色中のAR対応位置pおよびユーザ位置を結ぶ直線(図1(b)に示す点線)と表示画面との交点を、景色中のAR対応位置pに対応付けられたAR情報d2の表示位置の中心点として決定する。
そして、AR情報表示装置は、決定した表示画面における表示位置に、AR情報d2を表示させる。ここでは、AR情報表示装置は、先ほど表示させたAR情報d1とは態様が異なり、図1に(b)で示す状況での景色中のAR対応位置pおよびユーザ位置の位置関係に応じた態様のAR情報d2を表示させる。
その後、例えば、図1に(c)で示すように、車両が前進した場合、景色中のAR対応位置pが相対的に車両の右後方へ移動する。かかる場合に、AR情報表示装置は、図2に(c)で示す状況での景色中のAR対応位置pおよびユーザ位置を結ぶ直線(図1(c)に示す点線)と表示画面との交点を、景色中のAR対応位置pに対応付けられたAR情報d3の表示位置の中心点として決定する。
そして、AR情報表示装置は、決定した表示画面における表示位置に、AR情報d3を表示させる。ここでは、AR情報表示装置は、先ほど表示させたAR情報d2とは態様が異なり、図1に(c)で示す状況での景色中のAR対応位置pおよびユーザ位置の位置関係に応じた態様のAR情報d3を表示させる。なお、実施形態に係るAR情報表示装置が表示させるAR情報の具体的な態様例については、図3〜図8を参照して後述する。
このように、実施形態に係るAR情報表示装置は、ユーザ位置、画面位置、および表示画面を通して見える景色中のAR対応位置pに基づき、表示画面における景色中のAR対応位置pに対応付けられたAR情報d1,d2,d3の表示位置を決定する。
これにより、実施形態に係るAR情報表示装置は、表示画面内でユーザuから見て景色中のAR対応位置pと重なる位置を、景色中のAR対応位置pに対応付けられたAR情報d1,d2,d3の表示位置として決定することができる。
そして、実施形態に係るAR情報表示装置は、決定した表示位置に、景色中のAR対応位置pおよびユーザ位置の位置関係に応じた態様のAR情報d1,d2,d3を表示させる。
これにより、AR情報表示装置は、表示画面を通して見える現実のAR対応位置pに、あたかも存在しているかのような態様のAR情報d1,d2,d3を表示させることができるので、AR情報d1,d2,d3に対するユーザの没入感を高めることができる。
次に、図2を参照し、実施形態に係るAR情報表示装置1の構成について説明する。図2は、実施形態に係るAR情報表示装置1の構成を示す機能ブロック図である。AR情報表示装置1は、車両に搭載され、車両のフロントガラスおよび窓ガラスにAR情報を表示させる装置である。
図2に示すように、AR情報表示装置1は、カーナビゲーション装置10、5台の内部撮像装置11、5台の外部撮像装置12、車速度センサ13、および5台の透過型表示装置14に接続される。
カーナビゲーション装置10は、地図情報を記憶しており、地図情報とGPS(Global Positioning System)を使用して、車両の現在位置から入力される目的地までの経路案内を行う装置である。カーナビゲーション装置10は、自車両が走行中の現実位置を示す情報をAR情報表示装置1へ出力する。
内部撮像装置11は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備えるカメラである。内部撮像装置11は、フロントガラス側から車室内前部の座席のユーザを撮像する位置、車室内前右側の窓ガラス側から車室内前右側の座席のユーザを撮像する位置、および車室前左側の窓ガラス側から車室内前左側の座席のユーザを撮像する位置に配置される。
さらに、内部撮像装置11は、車室内後右側の窓ガラス側から車室内後右側の座席のユーザを撮像する位置、および車室後左側の窓ガラス側から車室内後左側の座席のユーザを撮像する位置に配置される。各内部撮像装置11は、撮像した車内画像をAR情報表示装置1へ出力する。
外部撮像装置12は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備えるカメラである。外部撮像装置12は、フロントガラス越しに見える車外の景色を撮像する位置、車室内前右側の窓ガラス越しに見える車外の景色を撮像する位置、および車室前左側の窓ガラス越しに見える車外の景色を撮像する位置に配置される。
さらに、外部撮像装置12は、車室内後右側の窓ガラス越しに見える車外の景色を撮像する位置、および車室後左側の窓ガラス越しに見える車外の景色を撮像する位置に配置される。各外部撮像装置12は、撮像した車外画像をAR情報表示装置1へ出力する。車速度センサ13は、AR情報表示装置1が搭載される自車両の走行速度を検知するセンサであり、走行速度の検知結果をAR情報表示装置1へ出力する。
透過型表示装置14は、表示画面が光透過性を備えるディスプレイであり、例えば、透明液晶ディスプレイや透明有機EL(Electroluminescence)ディスプレイである。透過型表示装置14は、フロントガラス、車室内前右側の窓ガラス、車室内前左側の窓ガラス、車室内後右側の窓ガラス、および車室内後左側の窓ガラスの全面にそれぞれ貼合される。透過型表示装置14は、AR情報表示装置1から入力されるAR情報を表示させる。
AR情報表示装置1は、制御部2と、記憶部3とを備える。記憶部3は、AR情報表示プログラム31およびAR情報DB(Data Base)32等の情報を記憶する。かかる記憶部3は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、または、HDD(Hard Disk Drive)、光ディスク等の記憶装置である。
ここで、図3を参照し、実施形態に係るAR情報DB32について説明する。図3は、実施形態に係るAR情報DB32の説明図である。図3に示すように、AR情報DB32は、複数のAR対応位置と、各AR対応位置にそれぞれ対応付けられたAR情報とを含む。
AR対応位置は、例えば、緯度および経度によって表される位置情報である。またAR情報は、例えば、AR対応位置に対応付けられた3次元画像情報およびテキスト情報等である。本実施形態では、各AR対応位置に対して、AR対応位置に関する過去の3次元画像情報およびテキスト情報と、AR対応位置に関する現在のテキスト情報と、AR対応位置に関する将来の3次元画像情報およびテキスト情報とが対応付けられる。
過去の3次元画像情報は、例えば、対応付けられたAR対応位置に過去に存在していた建造物や風景を再現した3次元CG(Computer Graphics)の情報である。また、過去のテキスト情報は、対応付けられたAR対応位置に過去に存在していた建造物や地所に関する情報が記載されたテキスト情報である。現在のテキスト情報は、対応付けられたAR対応位置に現在存在する建造物や地所に関する情報が記載されたテキスト情報である。
将来の3次元画像情報は、対応付けられたAR対応位置に将来建設される建造物を再現した3次元CGの情報である。将来のテキスト情報は、対応付けられたAR対応位置に将来建設される建造物や地所に関する情報が記載されたテキスト情報である。なお、図3に示すAR情報DB32は、一例であり、透過型表示装置14の表示画面に表示させる情報であれば、図3に示すAR情報以外の任意のAR情報であってもよい。
図2へ戻り、制御部2は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力ポートなどを有するマイクロコンピュータや各種の回路を含む。
制御部2は、現在位置取得部21、表示位置決定部22、遮蔽物検知部23、速度取得部24、時間算出部25、および表示制御部26を備える。かかる現在位置取得部21、表示位置決定部22、遮蔽物検知部23、速度取得部24、時間算出部25、および表示制御部26の機能は、例えば、上記CPUが記憶部3に記憶されているAR情報表示プログラム31を読み出して実行することにより実現される。
なお、現在位置取得部21、表示位置決定部22、遮蔽物検知部23、速度取得部24、時間算出部25、および表示制御部26は、それぞれ一部または全部がASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。以下、これら現在位置取得部21、表示位置決定部22、遮蔽物検知部23、速度取得部24、時間算出部25、および表示制御部26について具体的に説明する。
現在位置取得部21は、カーナビゲーション装置10から、AR情報表示装置1が搭載される自車両の現在の現実位置を示す情報(以下、「車両位置」と記載する)を取得する。車両位置は、例えば、自車両が走行している緯度および経度を示す情報である。現在位置取得部21は、カーナビゲーション装置10から取得する車両位置を表示位置決定部22へ出力する。
表示位置決定部22は、各内部撮像装置11から入力される車内画像と、各外部撮像装置12から入力される車外画像と、記憶部3に記憶されたAR情報DB32に基づいて、表示画面におけるAR情報の表示位置を決定する処理部である。
かかる表示位置決定部22は、各内部撮像装置11から入力される車内画像毎に、透過型表示装置14の表示画面を視認するユーザの現実位置を特定する。例えば、表示位置決定部22は、車内画像からユーザの顔を抽出し、車内におけるユーザの顔の位置および向きと、現在位置取得部21から入力される車両位置とに基づいて、ユーザ位置を特定する。なお、ユーザ位置を特定する手順は、これに限定されるものではなく、ユーザ位置を特定可能な手順であれば、任意の手順を適用することができる。
また、表示位置決定部22は、例えば、現在位置取得部21から入力される車両位置と、既知である自車両における各透過型表示装置14の表示画面の位置とに基づいて、画面位置を特定する。画面位置を特定する手順は、これに限定されるものではなく、画面位置を特定可能な手順であれば、任意の手順を適用することができる。
また、表示位置決定部22は、各外部撮像装置12から入力される車外画像毎に、表示画面越しの景色中で、AR対応位置を特定する。例えば、表示位置決定部22は、連続して撮像される2フレームの車外画像から建造物等を抽出し、車外画像における建造物等の2フレーム間における位置の差に基づき、ステレオカメラの原理によって外部撮像装置12から建造物等までの距離を算出する。
続いて、表示位置決定部22は、各外部撮像装置12から建造物等までの距離と、カーナビゲーション装置10から取得する車両位置とに基づいて、建造物等の現実位置を特定する。そして、表示位置決定部22は、建造物等の現実位置が対応付けられたAR情報がAR情報DB32中に存在するか否かを判定し、存在する場合に、その建造物等の現実位置をAR対応位置として特定する。
なお、表示位置決定部22は、他の手順によって、AR対応位置を特定する構成であってもよい。例えば、表示位置決定部22は、車両位置と各外部撮像装置12の撮像範囲とに基づいて、各車外画像に含まれる景色の領域に対応する緯度および経度の範囲を算出する。そして、表示位置決定部22は、算出した緯度および経度の範囲内に存在するAR対応位置をAR情報DB32から検索することによって、AR対応位置を特定することもできる。
表示位置決定部22は、こうして特定したユーザ位置、画面位置、およびAR対応位置に基づき、図1を参照して説明した手順に基づいて、表示画面におけるAR情報の表示位置を決定する。そして、表示位置決定部22は、特定したAR対応位置、ユーザ位置、および決定したAR情報の表示位置を示す情報を表示制御部26へ出力する。また、表示位置決定部22は、特定したAR対応位置と決定した表示位置を示す情報とを表示制御部26および遮蔽物検知部23へ出力する。
遮蔽物検知部23は、各外部撮像装置12から入力される車外画像、表示位置決定部22から入力されるAR対応位置、およびAR情報の表示位置とに基づいて、AR情報の表示位置からのAR対応位置の視認を阻害する遮蔽物を検知する処理部である。
遮蔽物検知部23は、検知した遮蔽物に関する情報を時間算出部25および表示制御部26へ出力する。遮蔽物に関する情報は、例えば、遮蔽物の現実位置を示す情報および遮蔽物の大きさを示す情報を含む。
速度取得部24は、車速度センサ13から自車両の走行速度を示す情報を取得して、時間算出部25へ出力する処理部である。時間算出部25は、速度取得部24から入力される走行速度を示す情報と、遮蔽物検知部23から入力される遮蔽物に関する情報とに基づいて、遮蔽物によってAR情報の表示位置からのAR対応位置の視認が阻害される継続時間を算出する処理部である。時間算出部25は、算出した継続時間を示す情報を表示制御部26へ出力する。
表示制御部26は、表示位置決定部22から特定されたAR対応位置、ユーザ位置、および決定されたAR情報の表示位置を示す情報を取得する。また、表示制御部26は、遮蔽物検知部23から検知された遮蔽物に関する情報を取得し、時間算出部25から算出された継続時間を示す情報を取得する。
そして、表示制御部26は、表示位置決定部22から入力される情報に基づいて、表示画面に表示させるAR情報をAR情報DB32から読出して透過型表示装置14へ出力し、表示位置決定部22によって決定された表示位置に表示させる。
このとき、表示制御部26は、表示位置決定部22、遮蔽物検知部23、および時間算出部25から入力される情報に基づいて、AR対応位置およびユーザ位置の位置関係に応じた態様のAR情報を表示させる。
次に、図4〜図8を参照し、実施形態に係る表示制御部26が表示させるAR情報の態様の具体例について説明する。図4〜図8は、実施形態に係る表示制御部26が表示させるAR情報の態様の具体例を示す説明図である。
図4に(a)で示すように、例えば、車両の窓ガラスから見えるAR対応位置Pに、将来建物が建設される場合、表示位置決定部22によって決定される透過型表示装置14の表示位置に、AR対応位置Pに対応付けられたAR情報を表示させる。
このとき、表示制御部26は、ユーザ位置とAR対応位置Pとに基づき、建設予定の建物が建設されていればユーザuから見えるはずの角度に調整された建物の3次元CG情報d11をAR情報として表示させる。
その後、車両が走行すると、図4に(b)で示すように、AR対応位置Pが相対的に自車両の斜め後方へ移動する。このため、表示制御部26は、建設予定の建物が建設されていればユーザuから見えるはずの角度となるように回転させた建物の3次元CG情報d12を表示させる。
このように、表示制御部26は、ユーザ位置およびAR対応位置Pの位置関係に応じて、3次元CG情報d11や、3次元CG情報d11を回転させた3次元CG情報d12等の態様の異なるAR情報を表示させる。
また、表示制御部26は、AR対応位置Pがユーザ位置へ徐々に近付いてくる場合には、表示させるAR情報の大きさを徐々に拡大し、AR対応位置Pがユーザ位置から徐々に遠ざかる場合には、表示させるAR情報の大きさを徐々に縮小する。
これにより、AR情報表示装置1は、表示画面を通して見える現実のAR対応位置Pに、あたかも存在しているかのような態様の3次元CG情報d11,d12をAR情報として表示させることにより、AR情報に対するユーザの没入感を高めることができる。
次に、図5に(a)で示すように、例えば、AR対応位置Pに建設予定の建物の3次元CG情報d13が表示されている場合に、自車両の走行に伴い、透過型表示装置14の表示画面に、AR対応位置Pの視認を阻害する遮蔽物Bが出現する場合がある。かかる場合、表示制御部26は、図5に(b)で示すように、遮蔽物BによってAR対応位置Pの視認が阻害されると、3次元CG情報d13を非表示にする。
例えば、表示制御部26は、建設予定の建物が建設されていれば、建設予定の建物が遮蔽物Bによって視認が阻害されるような状況になると、建設予定の建物の3次元CG情報d13を非表示にする。つまり、表示制御部26は、AR情報の表示および非表示の切り替えを、現実の遮蔽物によるAR対応位置Pの出現および消失と対応させる。
これにより、AR情報表示装置1は、表示画面を通して見える現実のAR対応位置Pに、あたかも建設予定の建物が存在しているかのような印象をユーザuに与えることができるので、AR情報に対するユーザの没入感を高めることができる。
また、表示制御部26は、遮蔽物BによるAR対応位置Pの視認が阻害される継続時間に応じて、AR対応位置Pに対応付けられているAR情報の表示および非表示を切り替える。例えば、表示制御部26は、遮蔽物BによるAR対応位置の視認が阻害される継続時間が閾値以下の場合には、AR情報を非表示とせずに、表示を継続させる。
これにより、AR情報表示装置1は、例えば、短時間内に遮蔽物BによってAR対応位置Pの視認が閾値以下の極短時間繰り返し阻害される場合に、AR情報の閲覧が阻害されることを抑制することができる。
また、AR情報表示装置1は、遮蔽物BによるAR対応位置Pの視認が阻害される継続時間と比較する閾値を、表示させるAR情報に応じて変更する構成であってもよい。かかる構成の場合、AR情報表示装置1は、大きさの異なる複数の閾値を記憶部3に記憶する。そして、AR情報表示装置1は、AR情報DB32に含まれる各AR情報に、情報の重要度を対応付けて記憶する。
そして、表示制御部26は、表示するAR情報の重要度が高いほど大きな閾値と、遮蔽物BによるAR対応位置Pの継続遮蔽時間と比較して、閾値以下の場合に、AR情報を非表示とせずに、表示を継続させる。
一方、表示制御部26は、表示するAR情報の重要度が低いほど小さな閾値と、遮蔽物BによるAR対応位置Pの継続遮蔽時間とを比較して、閾値以下の場合に、AR情報を非表示とせずに、表示を継続させる。これにより、AR情報表示装置1は、重要度の高いAR情報が非表示となる頻度を低減することができる。
また、図6に(a)で示すように、表示制御部26は、遮蔽物BによるAR対応位置Pの視認の阻害が開始される場合、遮蔽物Bによる視認の阻害が開始される側から3次元CG情報d14の像の濃淡を徐々に薄くする。
一方、図6に(b)で示すように、表示制御部26は、遮蔽物BによるAR対応位置Pの視認の阻害が終了される場合、遮蔽物Bによる視認の阻害が終了される側から3次元CG情報d15の像の濃淡を徐々に濃くする。これにより、AR情報表示装置1は、ユーザuの眼の錯覚を利用して、より違和感なく、3次元CG情報d14,d15の出現および消失を再現することができる。
また、図7に示すように、表示制御部26は、遮蔽物BによりAR対応位置Pの視認が阻害される場合、AR情報を非表示とはせず、AR情報の透過像である3次元CG情報d16を表示させることも可能である。
これにより、AR情報表示装置1は、AR情報の内容をユーザuに継続的に認識させることができ、しかも、遮蔽物Bによる遮蔽中に、遮蔽前と同一のAR情報を継続して表示させる場合に比べて、ユーザuに与える違和感を低減することができる。
なお、図4〜図7では、AR情報が3次元CG情報である場合を例に挙げたが、表示制御部26は、図4〜図7に示す状況で、AR情報としてテキスト情報を表示させることもでき、3次元CG画像およびテキスト情報を表示させることもできる。かかる場合、表示制御部26は、図4〜図7を参照して説明した表示態様と同様の表示態様でテキスト情報の表示制御を行う。
また、図8に(a)で示すように、AR対応位置P2に対応付けられたAR情報のテキスト情報d17を表示させると、AR対応位置P2の明度や透過型表示装置14の表示画面越しに見える景色の色彩によってテキスト情報d17の視認性が低下する場合がある。
かかる場合、図8に(b)で示すように、表示制御部26は、AR対応位置P2の明度に応じて、明度を調整し、透過型表示装置14の表示画面越しに見える景色の色彩に応じて、色を調整したテキスト情報d18を表示させる。
なお、図8では、AR情報がテキスト情報である場合を例に挙げたが、表示制御部26は、図8に示す状況で、AR情報として3次元CG情報を表示させることもでき、3次元CG画像およびテキスト情報を表示させることもできる。かかる場合、表示制御部26は、図8を参照して説明した表示態様と同様の表示態様で3次元CG情報の表示制御を行う。
これにより、AR情報表示装置1は、周囲の実環境における明るさに関わらず、常時均一な見易さのAR情報を表示させることができる。また、AR情報表示装置1は、背景色との同化、補色による視認性の低下や眼精疲労の発生を抑制すること、および表示するAR情報から見えにくい色を排除することができる。
さらに、AR情報表示装置1は、混色により本来のAR情報とは異なる色に見える状況の発生を防止することができる。また、AR情報表示装置1は、AR情報の色を予め混色を考慮した配色にすることで、AR情報から見えにくい色を排除することができる。また、AR情報表示装置1は、混色によりAR情報が見えにくくなる場合に、敢えて本来のAR情報の色とは異なる色のAR情報を表示させることができる。
次に、図9および図10を参照し、実施形態に係る制御部2が実行する処理について説明する。図9および図10は、実施形態に係る制御部2が実行する処理を示すフローチャートである。制御部2は、AR情報表示装置1に電源が投入されると、図9に示す処理を繰り返し実行する。
具体的には、図9に示すように、制御部2は、まず、カーナビゲーション装置10から車両位置を取得し(ステップS101)、内部撮像装置11から車内画像を取得する(ステップS102)。さらに、制御部2は、外部撮像装置12から車外画像を取得し(ステップS103)、車速度センサ13から走行速度を取得する(ステップS104)。
続いて、制御部2は、車両位置、車内画像、および車外画像に基づいて、ユーザ位置、画面位置、およびAR対応位置を特定する(ステップS105)。その後、制御部2は、ユーザ位置、画面位置、およびAR対応位置に基づいて、表示画面におけるAR情報の表示位置を決定する(ステップS106)。
続いて、制御部2は、ユーザ位置およびAR対応位置の位置関係に応じたAR情報の態様を決定し(ステップS107)、表示させるAR情報の色および色彩を調整する(ステップS108)。その後、制御部2は、遮蔽物があるか否かの判定を行う(ステップS109)。
そして、制御部2は、遮蔽物なしと判定した場合(ステップS109,No)、特定したAR対応位置に対応付けられたAR情報を、決定した態様、色、および色彩で、決定した表示位置に表示させる(ステップS111)。一方、制御部2は、遮蔽物ありと判定した場合(ステップS109,Yes)、図10に示すAR情報非表示処理を行い(ステップS110)、処理を終了する。
また、制御部2は、AR情報非表示処理を開始すると、図10に示すように、遮蔽物によるAR対応位置の視認阻害部分があるか否かの判定を行う(ステップS201)。そして、制御部2は、遮蔽物によるAR対応位置の視認阻害部分があると判定した場合(ステップS201,Yes)、視認阻害部分に対応する部分のAR情報を非表示にする(ステップS202)。
続いて、制御部2は、遮蔽物によるAR対応位置の視認未阻害部分があるか否かの判定を行う(ステップS203)。そして、制御部2は、視認未阻害部分があると判定した場合(ステップS203,Yes)、視認阻害開始側からAR情報の濃淡を徐々に薄くし(ステップS204)、処理をステップS205へ移す。
一方、制御部2は、視認未阻害部分がないと判定した場合(ステップS203,No)、処理をステップS205へ移す。ステップS205において、制御部2は、遮蔽物によるAR対応位置の視認阻害終了部分があるか否かの判定を行う。
そして、制御部2は、視認阻害終了部分があると判定した場合(ステップS205,Yes)、視認阻害終了側からAR情報の濃淡を徐々に濃くし(ステップS206)、処理を終了する。一方、制御部2は、視認阻害終了部分がないと判定した場合(ステップS205,No)、処理を終了する。
また、制御部2は、ステップS201において、遮蔽物によるAR対応位置の視認阻害部分がないと判定した場合(ステップS201,No)、表示画面中の遮蔽物およびAR対応位置間の距離が閾値以下であるか否かの判定を行う(ステップS207)。
そして、制御部2は、表示画面中の遮蔽物およびAR対応位置間の距離が閾値以下であると判定した場合(ステップS207,Yes)、ステップS204〜ステップS206の処理を行う。
一方、制御部2は、表示画面中の遮蔽物およびAR対応位置間の距離が閾値以下でないと判定した場合(ステップS207,No)、特定したAR対応位置に対応付けられたAR情報を、決定した態様、色、および色彩で、決定した表示位置に表示させ(ステップS208)、処理を終了する。
上述したように、実施形態に係るAR情報表示装置は、記憶部と、表示位置決定部と、表示制御部とを備える。記憶部は、現実位置に対応付けられたAR情報を記憶する。表示位置決定部は、ユーザ位置、画面位置、およびAR対応位置に基づいて、表示画面におけるAR情報の表示位置を決定する。
表示制御部は、表示位置決定部によって決定される表示位置に、AR対応位置およびユーザ位置の位置関係に応じた態様のAR情報を表示させる。これにより、AR情報表示装置は、表示画面を通して見える現実のAR対応位置に、あたかも存在しているかのような態様のAR情報を表示させることにより、AR情報に対するユーザの没入感を高めることができる。
また、実施形態に係るAR情報は、対応付けられた現実位置に関連する3次元画像情報を含む。そして、表示制御部は、ユーザ位置、画面位置、およびAR対応位置に基づいて、表示画面に表示させる3次元画像情報の向きおよび大きさの少なくともいずれか一方を変更する。これにより、AR情報表示装置は、表示画面を通して見える現実のAR対応位置に関連する3次元画像情報を表示させることによって、AR情報に対するユーザの没入感を高めることができる。
また、実施形態に係るAR情報表示装置は、AR情報表示位置からのAR対応位置の視認を阻害する遮蔽物を検知する遮蔽物検知部を備え、表示制御部は、遮蔽物によってAR対応位置の視認が阻害される場合に、AR情報を非表示にする。
これにより、AR情報表示装置は、AR情報の表示および非表示の切り替えを、現実の遮蔽物によるAR対応位置の出現および消失と対応させることにより、AR対応位置に、あたかもAR情報が存在しているかのような印象をユーザに与えることができる。
また、表示制御部は、遮蔽物によってAR対応位置の視認が阻害される場合に、AR情報の透過像を表示させる。これにより、AR情報表示装置は、AR情報の内容をユーザに認識させることができ、しかも、遮蔽物による遮蔽中に、遮蔽前と同一のAR情報を継続して表示させる場合に比べて、ユーザに与える違和感を低減することができる。
また、AR情報表示装置は、表示画面の移動速度を取得する速度取得部と、遮蔽物によってAR対応位置の視認が阻害される継続時間を速度取得部によって取得される移動速度に基づいて算出する時間算出部をさらに備える。
そして、表示制御部は、時間算出部によって算出される継続時間に応じて、AR情報の表示および非表示を切り替える。これにより、AR情報表示装置は、例えば、短時間内に遮蔽物によってAR対応位置の視認が極短時間繰り返し阻害される場合に、AR情報の閲覧が阻害されることを抑制することができる。
また、表示制御部は、表示画面の移動に伴い、遮蔽物によるAR対応位置の視認の阻害が開始される側からAR情報の像の濃淡を徐々に薄くし、視認の阻害が終了される側から像の濃淡を徐々に濃くする。これにより、AR情報表示装置は、ユーザの眼の錯覚を利用して、より違和感なく、AR情報の出現および消失を再現することができる。
また、表示制御部は、AR対応位置の明度に応じて、表示させるAR情報の明度を調整する。これにより、AR情報表示装置は、周囲の実環境における明るさに関わらず、常時均一な見易さのAR情報を表示させることができる。また、AR情報表示装置は、背景色との同化、補色による視認性の低下や眼精疲労の発生を抑制すること、および表示するAR情報から見えにくい色を排除することができる。
また、表示制御部は、表示画面越しの景色の色彩に応じて、表示させるAR情報の色を調整する。これにより、AR情報表示装置は、混色により本来のAR情報とは異なる色に見える状況の発生を防止することができる。また、AR情報表示装置は、AR情報の色を予め混色を考慮した配色にすることで、AR情報から見えにくい色を排除することができる。また、AR情報表示装置は、混色によりAR情報が見えにくくなる場合に、敢えて本来のAR情報の色とは異なる色のAR情報を表示させることができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
符号の説明
1 AR情報表示装置
2 制御部
21 現在位置取得部
22 表示位置決定部
23 遮蔽物検知部
24 速度取得部
25 時間算出部
26 表示制御部
3 記憶部
31 AR情報表示プログラム
32 AR情報DB
10 カーナビゲーション装置
11 内部撮像装置
12 外部撮像装置
13 車速度センサ
14 透過型表示装置

Claims (9)

  1. 現実位置に対応付けられた拡張現実情報を記憶する記憶部と、
    透過型表示装置の表示画面を視認するユーザの現実位置、前記表示画面の現実位置、および前記表示画面越しの景色中で前記拡張現実情報が対応付けられた現実位置に基づいて、前記表示画面における当該拡張現実情報の表示位置を決定する表示位置決定部と、
    前記表示位置決定部によって決定される前記表示位置に、前記景色中で前記拡張現実情報が対応付けられた現実位置および前記ユーザの現実位置の位置関係に応じた態様の前記拡張現実情報を表示させる表示制御部と
    を備える
    ことを特徴とする拡張現実情報表示装置。
  2. 前記拡張現実情報は、
    対応付けられた現実位置に関連する3次元画像情報を含み、
    前記表示制御部は、
    前記ユーザの現実位置、前記表示画面の現実位置、および前記景色中で前記拡張現実情報が対応付けられた現実位置に応じて、前記表示画面に表示させる前記3次元画像情報の向きおよび大きさの少なくともいずれか一方を変更する
    ことを特徴とする請求項1に記載の拡張現実情報表示装置。
  3. 前記景色中で前記拡張現実情報が対応付けられた現実位置の前記表示位置からの視認を阻害する遮蔽物を検知する遮蔽物検知部
    を備え、
    前記表示制御部は、
    前記遮蔽物によって前記視認が阻害される場合に、前記拡張現実情報を非表示にする
    ことを特徴とする請求項1または請求項2に記載の拡張現実情報表示装置。
  4. 前記景色中で前記拡張現実情報が対応付けられた現実位置の前記表示位置からの視認を阻害する遮蔽物を検知する遮蔽物検知部
    を備え、
    前記表示制御部は、
    前記遮蔽物によって前記視認が阻害される場合に、前記拡張現実情報の透過像を表示させる
    ことを特徴とする請求項1または請求項2に記載の拡張現実情報表示装置。
  5. 前記表示画面の移動速度を取得する速度取得部と、
    前記遮蔽物によって前記視認が阻害される継続時間を前記速度取得部によって取得される移動速度に基づいて算出する時間算出部
    をさらに備え、
    前記表示制御部は、
    前記時間算出部によって算出される継続時間に応じて、前記拡張現実情報の表示および非表示を切り替える
    ことを特徴とする請求項3または請求項4に記載の拡張現実情報表示装置。
  6. 前記表示制御部は、
    前記表示画面の移動に伴い、前記遮蔽物による前記視認の阻害が開始される側から前記拡張現実情報の像の濃淡を徐々に薄くし、前記視認の阻害が終了される側から前記像の濃淡を徐々に濃くする
    ことを特徴とする請求項3〜5のいずれか一つに記載の拡張現実情報表示装置。
  7. 前記表示制御部は、
    前記景色中で前記拡張現実情報が対応付けられた現実位置の明度に応じて、表示させる前記拡張現実情報の明度を調整する
    ことを特徴とする請求項1〜6のいずれか一つに記載の拡張現実情報表示装置。
  8. 前記表示制御部は、
    前記景色の色彩に応じて、表示させる前記拡張現実情報の色を調整する
    ことを特徴とする請求項1〜7のいずれか一つに記載の拡張現実情報表示装置。
  9. コンピュータが実行する拡張現実情報表示方法であって、
    現実位置に対応付けられた拡張現実情報を記憶部に記憶する記憶工程と、
    透過型表示装置の表示画面を視認するユーザの現実位置、前記表示画面の現実位置、および前記表示画面越しの景色中で前記拡張現実情報が対応付けられた現実位置に基づいて、前記表示画面における当該拡張現実情報の表示位置を決定する表示位置決定工程と、
    前記表示位置決定工程によって決定される前記表示位置に、前記景色中で前記拡張現実情報が対応付けられた現実位置および前記ユーザの現実位置の位置関係に応じた態様の前記拡張現実情報を表示させる表示制御工程と
    を含む
    ことを特徴とする拡張現実情報表示方法。
JP2016079055A 2016-04-11 2016-04-11 拡張現実情報表示装置および拡張現実情報表示方法 Pending JP2017191378A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016079055A JP2017191378A (ja) 2016-04-11 2016-04-11 拡張現実情報表示装置および拡張現実情報表示方法
US15/460,747 US10083546B2 (en) 2016-04-11 2017-03-16 Augmented reality information displaying device and augmented reality information displaying method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016079055A JP2017191378A (ja) 2016-04-11 2016-04-11 拡張現実情報表示装置および拡張現実情報表示方法

Publications (1)

Publication Number Publication Date
JP2017191378A true JP2017191378A (ja) 2017-10-19

Family

ID=59998293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016079055A Pending JP2017191378A (ja) 2016-04-11 2016-04-11 拡張現実情報表示装置および拡張現実情報表示方法

Country Status (2)

Country Link
US (1) US10083546B2 (ja)
JP (1) JP2017191378A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017252A (ja) * 2018-07-23 2020-01-30 緯創資通股▲ふん▼有限公司Wistron Corporation 拡張現実感システム及びその色補償方法
WO2021172137A1 (ja) * 2020-02-28 2021-09-02 株式会社Nttドコモ コンテンツ共有システム及び端末
JP2022071801A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 情報処理装置及び情報処理方法
WO2022190970A1 (ja) * 2021-03-08 2022-09-15 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び、情報処理システム
WO2024095357A1 (ja) * 2022-11-01 2024-05-10 株式会社バーチャルウインドウ 映像システム
WO2024095358A1 (ja) * 2022-11-01 2024-05-10 株式会社バーチャルウインドウ 画像表示システム、ディスプレイ装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10854002B2 (en) * 2017-09-08 2020-12-01 Verizon Patent And Licensing Inc. Interactive vehicle window system including augmented reality overlays
WO2019067780A1 (en) 2017-09-28 2019-04-04 Dakiana Research Llc METHOD AND DEVICE FOR REPAIRING INTERACTIONS WITH THE PHYSICAL ENVIRONMENT DURING SIMULATED REALITY SESSIONS
CN108153502B (zh) * 2017-12-22 2021-11-12 长江勘测规划设计研究有限责任公司 基于透明屏幕的手持式增强现实显示方法及装置
US20190230317A1 (en) * 2018-01-24 2019-07-25 Blueprint Reality Inc. Immersive mixed reality snapshot and video clip
WO2019217163A1 (en) 2018-05-08 2019-11-14 Zermatt Technologies Llc Techniques for switching between immersion levels
DE102020115055A1 (de) 2020-06-05 2021-12-09 Mohamad Hamed Jalalzada Vorrichtung und Verfahren zur Darstellung von Erweiterte-Realität-Informationen

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234253A (ja) * 2003-01-29 2004-08-19 Canon Inc 複合現実感呈示方法
JP2005098912A (ja) * 2003-09-26 2005-04-14 Mazda Motor Corp 車両用情報提供装置
JP2009123018A (ja) * 2007-11-15 2009-06-04 Canon Inc 画像処理装置、画像処理方法
JP2012068481A (ja) * 2010-09-24 2012-04-05 Asia Air Survey Co Ltd 拡張現実表現システムおよび方法
JP2014039234A (ja) * 2012-08-20 2014-02-27 Au Optronics Corp 娯楽表示システム及びその対話型立体表示方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4775139B2 (ja) 2006-06-28 2011-09-21 トヨタ自動車株式会社 車輌用表示装置
US20100070175A1 (en) * 2008-09-15 2010-03-18 Navteq North America, Llc Method and System for Providing a Realistic Environment for a Traffic Report
JP5804571B2 (ja) 2010-09-06 2015-11-04 国立大学法人 東京大学 車両システム
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
JP2013149029A (ja) 2012-01-18 2013-08-01 Sharp Corp 情報処理装置、情報処理方法
JP2014191718A (ja) * 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
JP6225379B2 (ja) 2013-12-23 2017-11-08 日本精機株式会社 車両情報投影システム
US9264479B2 (en) * 2013-12-30 2016-02-16 Daqri, Llc Offloading augmented reality processing
CN106489177B (zh) * 2014-07-18 2020-06-16 伊奎蒂公司 具有自发光微显示引擎的近眼显示器
US10185775B2 (en) * 2014-12-19 2019-01-22 Qualcomm Technologies, Inc. Scalable 3D mapping system
US10013506B2 (en) * 2015-11-20 2018-07-03 Dassault Systems Solidworks Corporation Annotating real-world objects
US20170169612A1 (en) * 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
US9767606B2 (en) * 2016-01-12 2017-09-19 Lenovo (Singapore) Pte. Ltd. Automatic modification of augmented reality objects

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234253A (ja) * 2003-01-29 2004-08-19 Canon Inc 複合現実感呈示方法
JP2005098912A (ja) * 2003-09-26 2005-04-14 Mazda Motor Corp 車両用情報提供装置
JP2009123018A (ja) * 2007-11-15 2009-06-04 Canon Inc 画像処理装置、画像処理方法
JP2012068481A (ja) * 2010-09-24 2012-04-05 Asia Air Survey Co Ltd 拡張現実表現システムおよび方法
JP2014039234A (ja) * 2012-08-20 2014-02-27 Au Optronics Corp 娯楽表示システム及びその対話型立体表示方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017252A (ja) * 2018-07-23 2020-01-30 緯創資通股▲ふん▼有限公司Wistron Corporation 拡張現実感システム及びその色補償方法
WO2021172137A1 (ja) * 2020-02-28 2021-09-02 株式会社Nttドコモ コンテンツ共有システム及び端末
JP2022071801A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 情報処理装置及び情報処理方法
JP7122408B2 (ja) 2020-10-28 2022-08-19 株式会社日本総合研究所 情報処理装置及び情報処理方法
JP2022171655A (ja) * 2020-10-28 2022-11-11 株式会社日本総合研究所 情報処理装置及びプログラム
JP7340078B2 (ja) 2020-10-28 2023-09-06 株式会社日本総合研究所 情報処理装置及びプログラム
WO2022190970A1 (ja) * 2021-03-08 2022-09-15 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び、情報処理システム
WO2024095357A1 (ja) * 2022-11-01 2024-05-10 株式会社バーチャルウインドウ 映像システム
WO2024095358A1 (ja) * 2022-11-01 2024-05-10 株式会社バーチャルウインドウ 画像表示システム、ディスプレイ装置

Also Published As

Publication number Publication date
US10083546B2 (en) 2018-09-25
US20170294046A1 (en) 2017-10-12

Similar Documents

Publication Publication Date Title
JP2017191378A (ja) 拡張現実情報表示装置および拡張現実情報表示方法
WO2021197189A1 (zh) 基于增强现实的信息显示方法、系统、装置及投影设备
US9639968B2 (en) Generating an augmented view of a location of interest
US9598013B2 (en) Device and method for displaying head-up display (HUD) information
JP5798392B2 (ja) 駐車支援装置
JP6409337B2 (ja) 表示装置
US20090262145A1 (en) Information display device
US20140267282A1 (en) System And Method For Context Dependent Level Of Detail Adjustment For Navigation Maps And Systems
US11525694B2 (en) Superimposed-image display device and computer program
WO2017056210A1 (ja) 車両用表示装置
US11567622B2 (en) Navigation application with novel declutter mode
WO2021197190A1 (zh) 基于增强现实的信息显示方法、系统、装置及投影设备
JP2010185761A (ja) ナビゲーションシステム、道路地図表示方法
WO2018134897A1 (ja) 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法
JP2022095303A (ja) 周辺画像表示装置、表示制御方法
CN114489332A (zh) Ar-hud输出信息的显示方法及系统
JP5007059B2 (ja) 立体視車載表示装置
JP2007230491A (ja) 視覚情報呈示装置及び視覚情報呈示方法
JP2006347451A (ja) 視覚情報呈示装置及び視覚情報呈示方法
JP2005313772A (ja) 車両用ヘッドアップ・ディスプレイ装置
US11938863B2 (en) Peripheral image generation device and display control method
JPWO2011121788A1 (ja) ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体
JP5438172B2 (ja) 情報表示装置、情報表示方法、情報表示プログラムおよび記録媒体
JP2010052553A (ja) 車両周囲画像提供装置および車両周囲画像提供方法
JP2020019369A (ja) 車両用表示装置、方法、及びコンピュータ・プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210105