JP7372230B2 - 表示システム及び表示装置 - Google Patents

表示システム及び表示装置 Download PDF

Info

Publication number
JP7372230B2
JP7372230B2 JP2020210995A JP2020210995A JP7372230B2 JP 7372230 B2 JP7372230 B2 JP 7372230B2 JP 2020210995 A JP2020210995 A JP 2020210995A JP 2020210995 A JP2020210995 A JP 2020210995A JP 7372230 B2 JP7372230 B2 JP 7372230B2
Authority
JP
Japan
Prior art keywords
display
image
virtual object
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020210995A
Other languages
English (en)
Other versions
JP2022097826A (ja
Inventor
一記 小森谷
和実 芹澤
さやか 石川
俊介 谷森
正哉 三浦
康司 田村
清栄 日比野
里菜 向
智也 稲垣
勤莉 狄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Toyota Motor Corp
Original Assignee
NTT Docomo Inc
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc, Toyota Motor Corp filed Critical NTT Docomo Inc
Priority to JP2020210995A priority Critical patent/JP7372230B2/ja
Priority to CN202111519409.0A priority patent/CN114648740A/zh
Priority to US17/552,797 priority patent/US11645822B2/en
Publication of JP2022097826A publication Critical patent/JP2022097826A/ja
Application granted granted Critical
Publication of JP7372230B2 publication Critical patent/JP7372230B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1215Mirror assemblies combined with other articles, e.g. clocks with information displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本明細書では、拡張現実画像(AR画像)を表示可能な表示システム及び当該システムに含まれる表示装置が開示される。
従来から、拡張現実(AR、Augmented Reality)技術を用いた表示装置が知られている。例えば特許文献1では、ナビゲーションシステムにおいて、目的地までの経路に沿って進行するキャラクタの仮想画像を、現実世界の画像に重畳させた、拡張現実画像(AR画像)をディスプレイに表示させている。
特開2014-20863号公報
ところで、例えば特定のテーマ(主題)に基づいて世界観が構成されるテーマパークの利用者に対して、そのテーマパークの退出後にも、当該世界観に基づいたサービスが提供できれば、顧客満足度の向上に繋がる。
そこで本明細書では、テーマパーク等の施設の利用者に対して、その施設の退出後にも、当該施設の世界観に基づいたサービスを提供可能な、表示システム及びそのシステムに含まれる表示装置が開示される。
本明細書では、表示システムが開示される。当該表示システムは、表示装置及びその表示装置と無線接続されるサーバを備える。表示装置は、利用者とともに移動可能となっている。また表示装置は、表示部及び表示制御部を備える。表示制御部は、現実世界の風景に仮想物体の画像を重畳させた拡張現実画像を表示部に表示可能となっている。表示装置は、特定のテーマに基づいて構成される施設を出発地とするときに、当該出発地の施設情報をサーバに送信する。サーバは、記憶部及び送信部を備える。記憶部には、出発地の施設に対して設定されたキャラクタの情報が記憶される。送信部は、出発地の施設に対して設定されたキャラクタを出発地の仮想物体としてその画像データを表示装置に送信する。
上記構成によれば、出発地のテーマパーク等の施設に対して設定されたキャラクタが仮想現実画像に表示されるので、施設の退出後にも、その世界観に基づいたサービスを提供可能となる。
また上記構成において、表示装置は車両に搭載されてよい。この場合、表示部は、車室内の複数の座席を隔てるように配置され、さらに、第一表示面及びこれに背中合わせとなる第二表示面がそれぞれ車室側方に向けられる。また表示装置は、第一撮像器、第二撮像器、及び画像認識部を備える。第一撮像器は、車室の、第二表示面側を撮像してその撮像画像が第一表示面に表示される。第二撮像器は、車室の、第一表示面側を撮像してその撮像画像が第二表示面に表示される。画像認識部は、第一撮像器及び第二撮像器の撮像画像の画像認識を行う。画像認識部が撮像画像中に人物を認識したときに、表示制御部は、認識された人物の画像領域を出発地の仮想物体に置換した撮像画像を生成して第一表示面及び第二表示面に表示させる。
上記構成によれば、表示部を挟んで隣り合う人物(乗客)が仮想物体に置換されて表示されるため、仮想物体と車両に同乗しているかのような体験が得られる。
また上記構成において、表示装置は車両に搭載されてよい。この場合、表示部は、車窓に取り付けられ表示面が車室内に向けられる。表示装置は、撮像器及び画像認識部を備える。撮像器は、車外の風景を撮像する。画像認識部は、撮像器の撮像画像の画像認識を行う。画像認識部が撮像画像中に人物を認識したときに、表示制御部は、認識された人物の画像領域を出発地の仮想物体に置換した撮像画像を生成して表示面に表示させる。
上記構成によれば、車外の人物が仮想物体に置換されて車窓である表示面に表示されるので、テーマパーク等の施設内を車両で移動しているかのような体験が得られる。
また上記構成において、表示制御部は、出発地の施設から離隔するほど、認識された全ての人物の画像領域に対する、出発地の仮想物体に置換される人物の画像領域の割合を減少させてもよい。
上記構成によれば、出発地の施設から離れるほど、乗客を見送る当該施設のキャラクタが減少するといった演出が可能となる。
また上記構成において、記憶部には、目的地である施設に対して設定されたキャラクタの情報が記憶されてよい。この場合、送信部は、目的地の施設に対して設定されたキャラクタを目的地の仮想物体としてその画像データを表示装置に送信する。表示制御部は、目的地の施設に近づくほど、認識された全ての人物の画像領域に対する、目的地の仮想物体に置換される人物の画像領域の割合を増加させる。
上記構成によれば、目的地の施設に近づくほど、乗客を迎える当該施設のキャラクタが増加するといった演出が可能となる。
また上記構成において、記憶部には、出発地の仮想物体及び目的地の仮想物体として、それぞれ複数のキャラクタが設定されてよい。この場合、表示制御部は、時間帯に応じて、置換させる仮想物体のキャラクタを選択する。
上記構成によれば、日中は昼行性の動物を仮想物体として表示させ、日没後には夜行性の動物を仮想物体として表示させるといった演出が可能となる。
また本明細書では、車両に搭載される表示装置が開示される。当該表示装置は、記憶部、抽出部、表示部、及び表示制御部を備える。記憶部には、特定のテーマに基づいて構成される施設に対して設定されたキャラクタの情報が記憶される。抽出部は、出発地として設定された施設に対して設定されたキャラクタを出発地の仮想物体として抽出する。表示部は、表示面が車室内に向けられる。表示制御部は、現実世界の風景に、出発地の仮想物体の画像を重畳させた拡張現実画像を表示部に表示可能となっている。
本明細書で開示される表示システム及び表示装置によれば、テーマパーク等の施設の利用者に対して、その施設の退出後にも、当該世界観に基づいたサービスが提供可能となる。
本実施形態に係る表示システムを含む複合娯楽施設を例示する図である。 連絡通路を走行する車両を例示する斜視図である。 車室内の様子を例示する図である。 本実施形態に係る表示システムの表示装置及びサーバのハードウェア構成を例示する図である。 サーバの機能ブロックを例示する図である。 表示装置の機能ブロックを例示する図である。 出発地グループの仮想物体の置換割合を例示する図である。 車室内の表示部に拡張現実画像が表示される例を示す図である。 拡張現実画像表示の初期設定フローを例示する図である。 拡張現実画像表示フローを説明する図である。 人物の画像領域を仮想物体画像に置換させる工程を説明する図である。 目的地グループの仮想物体の画像が重畳された拡張現実画像が、車窓として設けられた表示部に表示される例を示す図である。 出発地グループ及び目的地グループの仮想物体の置換割合を例示する図である。 出発地グループ及び目的地グループの仮想物体の画像を、拡張現実画像に表示させる際の初期設定フローを例示する図である。 出発地グループ及び目的地グループの仮想物体の画像を、拡張現実画像に表示させる際の、拡張現実画像表示フローを説明する図である。 車両が連絡通路を循環走行する例を示す図である。 表示装置の機能ブロックの別例を示す図である。
<複合娯楽施設の構成>
図1には、複合娯楽施設10が例示される。この施設内で、本実施形態に係る表示システムが利用される。複合娯楽施設10には、複数のテーマパーク12~18が設けられる。テーマパークとは、特定のテーマ(主題)に基づいて世界観が構成され、当該世界観に基づいて、設備、イベント、景観などが総合的に構成され演出された施設を指す。
複合娯楽施設10は、それぞれテーマの異なるテーマパークが設けられる。例えば複合娯楽施設10には、テーマパークとして、アスレチックパーク12、遊園地14、水族館16、及び動物園18が設けられる。それぞれのテーマパーク12~18は、それぞれのテーマに基づいて、仮想物体のキャラクタが設定される。後述される図8のように、この仮想物体は、車両90内の表示部41(車内表示部41A及び車窓表示部41B)に拡張現実画像(AR画像)を表示する際に利用される。
仮想物体のキャラクタは、それぞれのテーマパーク12~18のテーマ及び世界観に沿ったものに設定される。例えばアスレチックパーク12では、冒険家、レンジャー、忍者等の、複数のキャラクタが仮想物体として設定される。例えば遊園地14では、ピエロ、ゴーカート等の複数のキャラクタが仮想物体として設定される。例えば水族館16では、イルカ、金魚、ペンギン等の複数のキャラクタが仮想物体として設定される。さらに例えば動物園18では、象、パンダ、クマ等の複数のキャラクタが仮想物体として設定される。設定されたこれらの仮想物体の情報は、サーバ70のテーマパーク別キャラクタ記憶部82(図5参照)に記憶される。記憶される仮想物体の情報の詳細は後述される。
<車両の構成>
テーマパーク12~18は、連絡通路20により接続される。この連絡通路20を、車両90が走行する。車両90は例えばテーマパーク12~18を結ぶ、乗り合い型の連絡バスであってよい。車両90は運転者により操縦される手動運転が可能であってもよく、また自動運転機能を備えてもよい。自動運転機能について、例えば米国の自動車技術会(SAE)による基準に基づいて、車両90は、レベル4(高度自動運転)やレベル5(完全運転自動化)の運行が可能となっている。
この車両90に、本実施形態に係るAR表示装置30が搭載される。図2には車両90の斜視図が例示される。車両90の両側面91,91には、車外の風景を撮像するAR表示装置30の車外撮像器33Cが設けられる。図3には車両90の車室内の様子が例示される。車室内には車両90の長手方向に複数の座席92が並べられる。また車室には車幅方向中央に通路93が設けられる。通路93は車両長手方向に延設される。この通路93を挟んで、座席92の列が車両長手方向に延設される。
通路93上には、AR表示装置30の車内表示部41Aが設けられる。複数の座席92、具体的には一方の側方に並べられた座席列と、他方の側方に並べられた座席列は、車内表示部41Aに隔てられる。言い換えると、車内表示部41Aにより、車室内の空間は、右側の空間と左側の空間とに仕切られる。車内表示部41Aは板状のディスプレイ装置であって、立設状態で車両前後方向に延設される。車内表示部41Aは、例えば通路93の床から車室の天井に至るまで立設される。
車内表示部41Aは、両面が表示面となっている。すなわち、車内表示部41Aは、それぞれ車室側方を向く(車窓に面する)、第一表示面41A1及びこれと背中合わせ(反対向き)となる第二表示面41A2を備える。後述されるようにこれらの表示面には仮想現実画像が表示される。また、第一表示面41A1及び第二表示面41A2の、車両前後方向の中央部には、フレーム部材94が高さ方向に延設される。このフレーム部材94には、AR表示装置30の第一車内撮像器33A及び第二車内撮像器33Bが設けられる。
第一車内撮像器33Aは、破線で示されるように図3の視点からはフレーム部材94の裏に隠れるように配置されており、車室内の第二表示面41A2側、つまり紙面右側の風景を撮像する。この撮像画像は第一表示面41A1に表示される。同様にして、第二車内撮像器33Bは、車室内の第一表示面41A1側、つまり紙面左側の風景を撮像する。この撮像画像は第二表示面41A2に表示される。
このようにして、紙面左側の乗客は、第一表示面41A1から、車室内の紙面右側の様子を見ることができる。同様にして、紙面右側の乗客は、第二表示面41A2から、車室内の紙面左側の様子を見ることができる。後述されるように、第一表示面41A1及び第二表示面41A2には、第一車内撮像器33A及び第二車内撮像器33Bの撮像画像中の人物が仮想物体に置換された拡張現実画像が表示される。
車両90の車窓として、AR表示装置30の車窓表示部41Bが設けられる。つまり車両90には、車窓としてガラス窓が設けられる代わりに、ディスプレイ装置である車窓表示部41Bが設けられる。車窓表示部41Bは、表示面が車室に向けられるように配置される。
車窓表示部41Bには、AR表示装置30の車外撮像器33C(図2参照)が撮像した撮像画像が表示される。つまり、車窓の風景は車外撮像器33C及び車窓表示部41Bを介して車室内に表示される。後述されるように、車窓表示部41Bには、車外撮像器33Cの撮像画像中の人物が仮想物体に置換された拡張現実画像が表示される。
<サーバの構成>
本実施形態に係る表示システムは、AR表示装置30及びサーバ70を含んで構成される。図4には、AR表示装置30及びサーバ70のハードウェア構成が例示される。サーバ70は、例えばコンピュータから構成される。またサーバ70は、例えば複合娯楽施設10の管理ビル内に設置される。サーバ70は、無線LAN等の通信手段によってAR表示装置30と無線接続される。
サーバ70は、キーボードやマウス等の入力部71、演算装置のCPU72、及びディスプレイ等の表示部73を備える。またサーバ70は記憶装置として、ROM74、RAM75及びハードディスクドライブ76(HDD)を備える。さらにサーバ70は、情報の入出力を管理する入出力コントローラ77を備える。これらの構成部品は内部バス78に接続される。
図5には、サーバ70の機能ブロックが例示される。この機能ブロック図は、例えばROM74やHDD76に記憶されるか、または、DVD等の、非一過性の記憶媒体に記憶されたプログラムをCPU72が実行することで構成される。
サーバ70は、AR表示装置30等の外部機器の信号を受信する受信部83を備える。またサーバ70は、経路探索部84、3Dモデル抽出部85、及び送信部86を備える。さらにサーバ70は、記憶部として、施設マップ記憶部81及びテーマパーク別キャラクタ記憶部82を備える。
施設マップ記憶部81には、複合娯楽施設10内の地図情報が記憶される。例えば連絡通路20を含む複合娯楽施設10内の通路や施設等の位置情報等が記憶される。
テーマパーク別キャラクタ記憶部82には、テーマパーク12~18別に設定されたキャラクタの情報が記憶される。キャラクタの情報とは、例えば各キャラクタの画像データであってよく、この画像データとは、3Dモデルデータであってよい。この3Dモデルデータには例えばキャラクタの形状データ、テクスチャデータ、及びモーションデータが含まれる。
受信部83は、AR表示装置30から、車両90の出発地となるテーマパーク(以下適宜、出発地パークと記載する)の情報を受信する。このテーマパークの情報とは、例えば出発地パークの名称のテキスト情報が含まれる。これを受けて経路探索部84は、施設マップ記憶部81を参照して、目的地となるテーマパーク(以下適宜、目的地パークと記載する)を選択する。例えば出発地パークから最寄りのテーマパーク、または最も遠いテーマパークが目的地テーマパークとなる。さらに経路探索部84は、出発地パークから目的地パークまでの連絡通路20上の経路(案内経路)を作成する。
出発地パークの情報は、経路探索部84の他に3Dモデル抽出部85に送られる。出発地パークの情報に基づいて、3Dモデル抽出部85は、テーマパーク別キャラクタ記憶部82を参照して、出発地パークに対して設定されたキャラクタを抽出する。さらに3Dモデル抽出部85は、この抽出されたキャラクタを出発地グループの仮想物体に設定する。
経路探索部84により求められた案内経路及び3Dモデル抽出部85により抽出された出発地グループの仮想物体の画像データは、送信部86を介してAR表示装置30に送信される。
<AR表示装置の構成>
図1を参照して、AR表示装置30は、車両90の利用者(乗客)に対して、拡張現実画像(AR画像)を表示可能となっている。拡張現実画像とは、現実世界の風景に仮想物体の画像を重畳させた画像を指している。また上述したように、AR表示装置30は車両90に搭載され、利用者(乗客)とともに移動可能となっている。
図4には、AR表示装置30のハードウェア構成が例示される。例えばAR表示装置30は、カメラ等の撮像器が現実世界の風景を撮像し、表示部にその撮像画像を表示する、ビデオ透過型(Video See-Through)ディスプレイである。図4の例では、第一車内撮像器33A、第二車内撮像器33B、及び車外撮像器33Cが撮像器に該当する。また車内表示部41A及び車窓表示部41Bが表示部に該当する。
AR表示装置30は、システムメモリ31、CPU32(中央演算装置)、第一車内撮像器33A、第二車内撮像器33B、車外撮像器33C、GPS受信器34、入出力コントローラ35、ストレージ36、GPU37、フレームメモリ38、RAMDAC39、表示制御部40、車内表示部41A、及び車窓表示部41Bを備える。
システムメモリ31は、CPU32によって実行されるオペレーションシステム(OS)が使用する記憶装置である。ストレージ36は、外部記憶装置であって、例えば後述する、仮想現実画像(AR画像)を表示させるためのプログラムが記憶される。
第一車内撮像器33A、第二車内撮像器33B、及び車外撮像器33Cは、例えばCMOSやCCD等の撮像デバイスを含んで構成される。さらにこれらの撮像器33A~33Cは、現実世界の撮像に加えて、各撮像器33A~33Cからの離隔距離を測定する機能を備えた、いわゆるRGB-Dカメラであってよい。離隔距離を測定する機能として、例えば撮像器33A~33Cには、上述した撮像デバイスに加えて、赤外線を用いた測距機構が設けられる。
車内表示部41A及び車窓表示部41Bは、例えば液晶ディスプレイ装置や有機ELディスプレイ装置であってよい。
GPU37(Graphics Processing Unit)は、画像処理用の演算装置であって、後述する画像認識を行う際に主に稼働される。フレームメモリ38は、第一車内撮像器33A、第二車内撮像器33B、及び車外撮像器33Cにより撮像されさらにGPU37により演算処理された画像を記憶する記憶装置である。RAMDAC39(Random Access Memory Digital-to-Analog Converter)は、フレームメモリ38に記憶された画像データを、車内表示部41A及び車窓表示部41B向けのアナログ信号に変換する。
GPS受信器34は、GPS衛星24(図1参照)から測位信号であるGPS信号を受信する。GPS信号には、緯度、経度、高度の位置座標情報が含まれる。この位置座標情報を得ることで、車両90の現在位置が把握できる。
図6には、AR表示装置30の機能ブロック図が例示される。この機能ブロック図は、例えばシステムメモリ31やストレージ36に記憶されるか、または、DVDやコンピュータのハードディスク等の、非一過性の記憶媒体に記憶された、位置推定プログラムをCPU32やGPU37が実行することで構成される。
図6には、図4にも例示されたハードウェア構成の一部と、機能ブロックとが混在した状態で示される。図6にはハードウェア構成として、第一車内撮像器33A、第二車内撮像器33B、車外撮像器33C、表示制御部40、車内表示部41A、及び車窓表示部41Bが例示される。
また機能ブロックとして、AR表示装置30は、送信部51、位置推定部52、ナビゲーション機能部53、受信部54、画像認識部57、仮想物体データ記憶部55、置換割合記憶部56、及び学習済みモデル記憶部58を備える。これらの機能ブロックは、CPU32、システムメモリ31、ストレージ36、GPU37、及びフレームメモリ38等から構成される。
仮想物体データ記憶部55には、サーバ70の3Dモデル抽出部85(図5参照)により抽出された、出発地グループのキャラクタの仮想物体の画像データ(3Dモデルデータ)が記憶される。
置換割合記憶部56には、図7に例示される置換割合マップが記憶される。置換割合マップは横軸に経路を取り、縦軸に置換割合を取るグラフである。このグラフには、出発地グループの仮想物体の置換割合を示す特性線L1がプロットされる。なお、出発地グループとは、出発地パークに対して設定された複数の仮想物体群(キャラクタ群)を指す。
置換割合とは、画像認識部57によって認識された全ての人物の画像領域に対する、仮想物体に置換する人物の画像領域の割合を示すものである。この置換割合は、例えば出発地パークに車両90がいるときを100%とする。つまり、出発地パークにおいては、画像認識部57によって認識された全ての人物の画像領域が出発地グループの仮想物体に置換される。
置換割合は、出発地パークから離隔するほど減少する。さらに目的地パークにおいては、画像認識部57によって認識されたいずれの人物の画像領域も、仮想物体には置換されない。つまり置換割合は0%となる。このような置換割合を設定することで、出発地パークから離れるほど、乗客を見送る当該テーマパークのキャラクタが減少するといった演出が可能となる。
学習済みモデル記憶部58には、例えば、外部のサーバ等によって学習済みの画像認識用のニューラルネットワークが記憶される。例えば車室内外の画像データであって、画像内の各物体、特に人物のセグメント済み及びアノテーション済みのデータが、訓練用データとして準備される。この訓練用データを用いて、教師有り学習により機械学習された多階層のニューラルネットワークが形成され、学習済みモデル記憶部58に記憶される。このニューラルネットワークは、例えば畳み込みニューラルネットワーク(CNN)であってよい。
画像認識部57は、第一車内撮像器33A、第二車内撮像器33B、及び車外撮像器33Cによる撮像画像データを受信して画像認識を行う。画像認識には、撮像画像中の物体の認識と、当該物体とAR表示装置30との離隔距離の推定が含まれる。このような画像認識に当たり、撮像画像データには例えば上述したように、現実世界の風景を撮像したカラー画像データに加えて、当該カラー画像データ内の各物体の、各撮像器33A~33Cからの離隔距離データが含まれる。
画像認識部57は、学習済みモデル記憶部58に記憶された学習済みの画像認識用のニューラルネットワークを用いて、第一車内撮像器33A、第二車内撮像器33B、及び車外撮像器33Cによる撮像画像に人物が含まれるか否かを判定する。画像認識部57が認識した、撮像画像中の人物画像領域は他の画像領域から区別(セグメンテーション)される。このような加工済みの撮像画像が表示制御部40に送られる。
表示制御部40は、画像認識部57から加工済み(人物認識済み)の撮像画像データを受ける他に、位置推定部52から現在位置情報を取得する。また表示制御部40は、ナビゲーション機能部53から目的地パークまでの案内経路情報を取得する。さらに表示制御部40は、仮想物体データ記憶部55から出発地グループの仮想物体データの画像データ(3Dモデルデータ)を取得し、また置換割合記憶部56から置換割合マップを取得する。
表示制御部40は、位置推定部52から提供された現在位置と、ナビゲーション機能部53から提供された案内経路情報をもとに、現在位置に対応する置換割合マップにおける置換割合を取得する。さらに表示制御部40は、取得した置換割合に基づいて人物の画像領域と仮想物体との置換処理を行う。置換後の画像、つまり拡張現実画像は車内表示部41A及び車窓表示部41Bに表示される。
<出発地グループの仮想物体が表示される拡張現実画像表示プロセス>
図8には、本実施形態に係る表示システムによる、拡張現実画像表示の様子が例示される。この図では、仮想物体画像102が現実世界の撮像画像に重畳された仮想現実画像が、第一表示面41A1及び車窓表示部41Bに表示される。なお、図示を明確にするために、仮想物体画像102は平面的な輪郭線図で示されるが、この形態に限らずに、仮想物体画像102は3D画像であってよい。
図9には、本実施形態に係る表示システムによる拡張現実画像表示プロセスのうち、特に初期設定時のフローチャートが例示される。このフローチャートでは、主にサーバ70により実行される処理が(S)で表され、主に車両90のAR表示装置30により実行される処理が(D)で表される。
図9に例示されるフローは、車両90がいずれかのテーマパーク12~18に到着したとき、言い換えると、いずれかのテーマパーク12~18を出発地とするときに起動される。例えば図1を参照して、車両90が各テーマパーク12~18前の停留所95に停車した際に、このフローが起動される。
車両90のAR表示装置30では、位置推定部52(図6参照)が現在位置を推定し、車両90が停車しているテーマパーク12~18、つまり出発地テーマパークの情報を、送信部51からサーバ70に送信する(S10)。出発地テーマパークの情報には、例えば出発地テーマパークのテキスト情報が含まれる。
サーバ70の受信部83(図5参照)が出発地テーマパークの情報を受信すると、当該情報は経路探索部84及び3Dモデル抽出部85に送信される。経路探索部84は、施設マップ記憶部81に記憶されたパークマップデータを参照して、目的地パークを設定する(S12)。目的地テーマパークは、例えば出発地テーマパークから最寄りのテーマパーク12~18であってよく、また出発地テーマパークから最も離れたテーマパーク12~18であってもよい。
次に経路探索部84は、出発地テーマパークから目的地テーマパークまでの連絡通路20(図1参照)上の経路である案内経路を作成する。作成された案内経路は送信部86を介してAR表示装置30に送信される(S14)。
一方、出発地テーマパークの情報を受けた3Dモデル抽出部85は、テーマパーク別キャラクタ記憶部82を参照して、出発地パークに対して設定されたキャラクタを表示用仮想物体に設定する。出発地パークに対して予め設定されているキャラクタが複数いる場合には、例えばその複数のキャラクタの全てが、出発地グループのキャラクタ(仮想物体)として選出される。表示用仮想物体に設定された、出発地グループのキャラクタを示す仮想物体の3Dモデルデータは、送信部86を介してAR表示装置30に送られる(S16)。
案内経路の情報と表示用仮想物体の3Dモデルデータを受信したAR表示装置30の受信部54は、ナビゲーション機能部53に案内経路情報を送る。また受信部54は、仮想物体データ記憶部55に表示用仮想物体の3Dモデルデータを送る(S18)。
図10には、上記の初期設定後の、拡張現実画像の表示プロセスのフローチャートが例示される。このフローチャートでは、全ての処理(ステップ)が、AR表示装置30により実行される。なおこのフローチャートは、出発地パークから目的地パークに到着するまで繰り返し実行される。画像認識部57は、第一車内撮像器33A、第二車内撮像器33B、及び車外撮像器33Cから撮像画像を取得する(S20)。
さらに画像認識部57は、撮像画像に対して画像認識を行う(S22)。この画像認識において、画像認識部57は、撮像画像中の人物を認識する(S24)。例えば学習済みモデル記憶部58には、着席状態の人物画像や、歩行中の人物画像の教師データが記憶されており、当該教師データによって学習済みのニューラルネットワークが画像認識部57による画像認識に使用される。
撮像画像中に人物が含まれないと認識されると、図10のフローは始点まで戻り、車内表示部41A及び車窓表示部41Bには現実世界の撮像画像が表示される。一方、撮像画像中に人物が含まれると認識されると、画像認識部57は、撮像画像中の人物画像領域を区分けするセグメンテーションを実行するとともに、当該画像領域が人物を示すと解釈するアノテーションを実行する。この、画像認識処理された撮像画像は表示制御部40に送信される。
表示制御部40は、置換割合記憶部56から置換割合マップ(図7参照)を取得する。さらに表示制御部40はナビゲーション機能部53から案内経路情報を取得するとともに、位置推定部52から車両90の現在位置を取得する。
さらに表示制御部40は、現在位置に基づいて、置換割合を求める。例えば表示制御部40は、出発地パークから目的地パークまでの距離に対する、出発地パークから現在位置まで進んだ距離の比を求めて、当該比に対応する置換割合を、置換割合マップから取得する(S26)。
次に表示制御部40は、画像認識部57によって人物を認識された複数の画像領域のうち、仮想物体の画像に置換する画像領域を、置換割合に基づいて選択する(S28)。また表示制御部40は、出発地グループから、置換する仮想物体を選択する(S30)。仮想物体データ記憶部55に記憶された、出発地グループの仮想物体が複数種類に亘る場合、表示制御部40は、例えば任意に仮想物体のキャラクタを選択する。
または、時間帯に応じて、置換させる仮想物体のキャラクタが選択されてもよい。例えば表示制御部40は、現在時刻を確認して、日中であれば昼行性の動物のキャラクタを、置換させる仮想物体として選択する。このような時間帯に応じたキャラクタの選択を行うことで、動物の現実の生態に即した演出が可能となる。
さらに表示制御部40は、選択された人物の画像領域を出発地パークのキャラクタの仮想物体画像に置換する(S32)。
図11にはこの画像置換のプロセスが例示される。乗客画像領域101が撮像画像から削除され、当該削除領域に仮想物体画像102が挿入される。このとき、例えば座席の手摺の一部が仮想物体(ペンギン)の右手に隠されるなどの、いわゆる隠蔽処理が行われてもよい。
また、乗客画像領域101と仮想物体画像102は形状及び面積が同一でないため、仮想物体画像を撮像画像に挿入しても画像の抜け部分が生じる。そこで表示制御部40は基礎画像103から抜け部分を埋める背景画像104(ハッチングで表示される)を抜き出して、加工中の撮像画像に挿入する。基礎画像103は例えば乗客のいない状態の車内や連絡通路20の撮像画像であって、AR表示装置30の記憶部に記憶される。
表示制御部40は、上記のようにして形成された、人物が出発地パークのキャラクタに置換された拡張現実画像を、車内表示部41A及び車窓表示部41Bに表示させる(S34)。このように、本実施形態に係る表示システムによれば、出発地のテーマパークに対して設定されたキャラクタが仮想現実画像に表示されるので、テーマパークの退出後にも、その世界観に基づいたサービスを提供可能となる。
<出発地及び目的地グループの仮想物体が表示される拡張現実画像表示プロセス>
上述した拡張現実画像表示プロセスでは、出発地グループの仮想物体が現実世界の画像に重畳されていたが、これに加えて目的地パークに対して設定された仮想物体のグループ(以下適宜目的地グループと記載する)の仮想物体を現実世界の画像に重畳させてもよい。
例えば図12には、出発地パークが水族館であり、目的地パークが動物園に設定されたときの、現実拡張画像の表示例が示される。この図では、車内表示部41Aの第一表示面41A1には出発地グループの仮想物体画像102(ペンギン)が表示されているのに対して、車窓表示部41Bには目的地グループの仮想物体画像105(クマ)が示される。このような、出発地グループの仮想物体の画像データ、及び目的地グループの仮想物体の画像データは、サーバ70のテーマパーク別キャラクタ記憶部82に記憶される。
このような仮想物体の表示を行うに当たり、置換割合記憶部56には、図13に例示されるような置換割合マップが記憶される。このマップでは、図7にも示された出発地グループの仮想物体の置換割合を示す特性線L1に加えて、目的地グループの仮想物体の置換割合を示す特性線L2がプロットされる。例えば、特性線L1,L2によって得られる置換割合は、どの地点においても総和が100%となるように設定されていてよい。
特性線L2では、例えば出発地パークにおける置換割合が0%に設定され、目的地パークにおける置換割合が100%に設定される。またこれらの間は目的地パークに向かって一次関数的に増加する。
この特性線L2によれば、画像認識部57によって認識された全ての人物の画像領域に対する、目的地グループの仮想物体に置換する人物の画像領域の割合(置換割合)は、目的地パークに近づくほど増加する。このような置換割合を設定することで、目的地パークに近づくほど、乗客を迎える当該テーマパークのキャラクタが増加するといった演出が可能となる。
図14には、図13に示される置換割合マップを用いた場合の、拡張現実画像表示プロセスのうち、特に初期設定時のフローチャートが例示される。なお以下では、図9に示されたステップと同一符号のステップについては、内容が同一であるため、適宜説明が省略される。
このフローでは、サーバ70(図5参照)において、経路探索部84は、案内経路情報を、送信部86に加えて3Dモデル抽出部85にも送信する。3Dモデル抽出部85は、出発地グループの仮想物体を選択する(S16)とともに、目的地グループの仮想物体を選択する(S17)。選択された出発地グループ及び目的地グループの仮想物体の画像データは、送信部86からAR表示装置30の受信部54を経て、仮想物体データ記憶部55に記憶される。
図15には、上記の初期設定後の、拡張現実画像の表示プロセスのフローチャートが例示される。なお以下では、図10に示されたステップと同一符号のステップについては、内容が同一であるため、説明が適宜省略される。
ステップS24において、画像認識部57(図6参照)が、第一車内撮像器33A、第二車内撮像器33B、及び車外撮像器33Cによる撮像画像中に、人物を認識する(S24)と、表示制御部40は、現在位置に基づいて、出発地グループ及び目的地グループの置換割合を求める(S46)。さらにステップS28にて、それぞれの置換割合に基づいて、仮想物体の画像に置換する画像領域が選択されると、表示制御部40は、出発地グループ及び目的地グループから、置換する仮想物体を選択する(S50)。上述したように、仮想物体データ記憶部55に記憶された、出発地グループ及び目的地グループの仮想物体が複数種類に亘る場合、表示制御部40は、時間帯に応じて仮想物体(キャラクタ)を選択してもよい。
<表示装置単体で表示システムが構築される例>
上述の実施形態では、AR表示装置30とサーバ70とによって表示システムが構成されていたが、本明細書にて開示される表示システムは、この形態に限られない。例えばサーバ70の機能がAR表示装置30に搭載されてもよい。
上述の実施形態において、サーバ70の主な役割は、出発地パークに基づいて目的地パークを定め、案内経路を作成することと、出発地パークと目的地パークに基づいた仮想物体のグループを抽出することであった。
ここで例えば、車両90の運行が、図16に例示されるような循環運行であって、予め出発地と目的地が定められている(固定値として設定されている)ような場合には、サーバ70に目的地を選択させる必要は無い。したがって、仮想現実画像の表示プロセス、特に図9、図14の初期設定において、一部の処理(ステップ)をサーバ70に実行させる代わりに、AR表示装置30が全ての処理を実行してもよい。
図17には、単体にて(サーバ70無しにて)拡張現実画像の表示が可能な、AR表示装置30の機能ブロックが例示されている。図5、図6と比較して、サーバ70に設けられていた、テーマパーク別キャラクタ記憶部82と施設マップ記憶部81が、AR表示装置30に設けられる。これにより、例えば図9、図14のような初期設定フローでは、全ての処理(ステップ)をAR表示装置30にて実行することが出来る。また初期設定後、図10、図15に例示された拡張現実画像の表示フローでは、AR表示装置30単体にて全ての処理(ステップ)を実行することができる。なおこの場合、サーバ70の3Dモデル抽出部85(図5)の機能は、AR表示装置30の表示制御部40が担うことが出来る。
10 複合娯楽施設、12 アスレチックパーク、14 遊園地、16 水族館、18 動物園、20 連絡通路、30 AR表示装置、33A 第一車内撮像器(第一撮像器)、33B 第二車内撮像器(第二撮像器)、33C 車外撮像器、40 表示制御部、41A 車内表示部、41A1 第一表示面、41A2 第二表示面、41B 車窓表示部、52 位置推定部、53 ナビゲーション機能部、55 仮想物体データ記憶部、56 置換割合記憶部、57 画像認識部、58 学習済みモデル記憶部、70 サーバ、81 施設マップ記憶部、82 テーマパーク別キャラクタ記憶部、83 サーバの受信部、84 経路探索部、85 3Dモデル抽出部、86 サーバの送信部、90 車両、92 座席、93 通路、94 フレーム部材、101 乗客画像領域、102,105 仮想物体画像。

Claims (7)

  1. 表示部と、現実世界の風景に仮想物体の画像を重畳させた拡張現実画像を前記表示部に表示可能な表示制御部と、を備える、利用者とともに移動可能な表示装置と、
    前記表示装置と無線接続されるサーバと、
    を備え、
    前記表示装置は、特定のテーマに基づいて構成される施設を出発地とするときに、当該出発地の施設情報を前記サーバに送信し、
    前記サーバは、
    前記出発地の施設に対して設定されたキャラクタの情報が記憶された記憶部と、
    前記出発地の施設に対して設定された前記キャラクタを前記出発地の仮想物体として当該出発地の仮想物体の画像データを前記表示装置に送信する送信部と、
    を備え
    前記表示装置は車両に搭載され、
    前記表示部は、車室内の複数の座席を隔てるように配置され、さらに、第一表示面及び当該第一表示面に背中合わせとなる第二表示面がそれぞれ車室側方に向けられ、
    前記表示装置は、
    前記第一表示面に表示される撮像画像として、車室の、前記第二表示面側を撮像する、第一撮像器と、
    前記第二表示面に表示される撮像画像として、車室の、前記第一表示面側を撮像する、第二撮像器と、
    前記第一撮像器及び前記第二撮像器の撮像画像の画像認識を行う画像認識部と、
    を備え、
    前記画像認識部が前記撮像画像中に人物を認識したときに、前記表示制御部は、認識された人物の画像領域を前記出発地の仮想物体に置換した前記撮像画像を生成して前記第一表示面及び前記第二表示面に表示させる、
    表示システム。
  2. 表示部と、現実世界の風景に仮想物体の画像を重畳させた拡張現実画像を前記表示部に表示可能な表示制御部と、を備える、利用者とともに移動可能な表示装置と、
    前記表示装置と無線接続されるサーバと、
    を備え、
    前記表示装置は、特定のテーマに基づいて構成される施設を出発地とするときに、当該出発地の施設情報を前記サーバに送信し、
    前記サーバは、
    前記出発地の施設に対して設定されたキャラクタの情報が記憶された記憶部と、
    前記出発地の施設に対して設定された前記キャラクタを前記出発地の仮想物体として当該出発地の仮想物体の画像データを前記表示装置に送信する送信部と、
    を備え、
    前記表示装置は車両に搭載され、
    前記表示部は、車窓に取り付けられるとともに表示面が車室内に向けられ、
    前記表示装置は、
    車外の風景を撮像する撮像器と、
    前記撮像器の撮像画像の画像認識を行う画像認識部と、
    を備え、
    前記画像認識部が前記撮像画像中に人物を認識したときに、前記表示制御部は、認識された人物の画像領域を前記出発地の仮想物体に置換した前記撮像画像を生成して前記表示面に表示させる、
    表示システム。
  3. 請求項またはに記載の表示システムであって、
    前記表示制御部は、前記出発地の施設から離隔するほど、認識された全ての人物の画像領域に対する、前記出発地の仮想物体に置換される人物の画像領域の割合を減少させる、
    表示システム。
  4. 請求項に記載の表示システムであって、
    前記記憶部には、目的地である施設に対して設定されたキャラクタの情報が記憶され、
    前記送信部は、前記目的地の施設に対して設定されたキャラクタを前記目的地の仮想物体として、当該目的地の仮想物体の画像データを前記表示装置に送信し、
    前記表示制御部は、前記目的地の施設に近づくほど、認識された全ての人物の画像領域に対する、前記目的地の仮想物体に置換される人物の画像領域の割合を増加させる、
    表示システム。
  5. 請求項に記載の表示システムであって、
    前記記憶部には、前記出発地の仮想物体及び前記目的地の仮想物体として、それぞれ複数のキャラクタが設定され、
    前記表示制御部は、時間帯に応じて、置換させる仮想物体のキャラクタを選択する、
    表示システム。
  6. 車両に搭載される表示装置であって、
    特定のテーマに基づいて構成される施設に対して設定されたキャラクタの情報が記憶された記憶部と、
    出発地として設定された施設に対して設定されたキャラクタを前記出発地の仮想物体として抽出する抽出部と、
    車室内の複数の座席を隔てるように配置され、さらに、第一表示面及び当該第一表示面に背中合わせとなる第二表示面がそれぞれ車室側方に向けられた、表示部と、
    現実世界の風景に、前記出発地の仮想物体の画像を重畳させた拡張現実画像を前記表示部に表示可能な表示制御部と
    前記第一表示面に表示される撮像画像として、車室の、前記第二表示面側を撮像する、第一撮像器と、
    前記第二表示面に表示される撮像画像として、車室の、前記第一表示面側を撮像する、第二撮像器と、
    前記第一撮像器及び前記第二撮像器の撮像画像の画像認識を行う画像認識部と、
    を備え、
    前記画像認識部が前記撮像画像中に人物を認識したときに、前記表示制御部は、認識された人物の画像領域を前記出発地の仮想物体に置換した前記撮像画像を生成して前記第一表示面及び前記第二表示面に表示させる、
    表示装置。
  7. 車両に搭載される表示装置であって、
    特定のテーマに基づいて構成される施設に対して設定されたキャラクタの情報が記憶された記憶部と、
    出発地として設定された施設に対して設定されたキャラクタを前記出発地の仮想物体として抽出する抽出部と、
    車窓に取り付けられるとともに表示面が車室内に向けられた、表示部と、
    現実世界の風景に、前記出発地の仮想物体の画像を重畳させた拡張現実画像を前記表示部に表示可能な表示制御部と、
    車外の風景を撮像する撮像器と、
    前記撮像器の撮像画像の画像認識を行う画像認識部と、
    を備え、
    前記画像認識部が前記撮像画像中に人物を認識したときに、前記表示制御部は、認識された人物の画像領域を前記出発地の仮想物体に置換した前記撮像画像を生成して前記表示面に表示させる、
    表示装置。
JP2020210995A 2020-12-21 2020-12-21 表示システム及び表示装置 Active JP7372230B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020210995A JP7372230B2 (ja) 2020-12-21 2020-12-21 表示システム及び表示装置
CN202111519409.0A CN114648740A (zh) 2020-12-21 2021-12-13 显示系统以及显示装置
US17/552,797 US11645822B2 (en) 2020-12-21 2021-12-16 Display system and display device for rendering of a virtual object of a departure point

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020210995A JP7372230B2 (ja) 2020-12-21 2020-12-21 表示システム及び表示装置

Publications (2)

Publication Number Publication Date
JP2022097826A JP2022097826A (ja) 2022-07-01
JP7372230B2 true JP7372230B2 (ja) 2023-10-31

Family

ID=81992004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020210995A Active JP7372230B2 (ja) 2020-12-21 2020-12-21 表示システム及び表示装置

Country Status (3)

Country Link
US (1) US11645822B2 (ja)
JP (1) JP7372230B2 (ja)
CN (1) CN114648740A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005266143A (ja) 2004-03-17 2005-09-29 Mitsubishi Electric Corp 映像投影システム
JP2007248162A (ja) 2006-03-14 2007-09-27 Kenwood Corp ナビゲーション装置、プログラム及び方法
WO2012033095A1 (ja) 2010-09-06 2012-03-15 国立大学法人東京大学 車両システム
WO2019097918A1 (ja) 2017-11-14 2019-05-23 マクセル株式会社 ヘッドアップディスプレイ装置およびその表示制御方法
JP2020053795A (ja) 2018-09-26 2020-04-02 株式会社Jvcケンウッド 表示制御装置、映像管理サーバ装置、表示システム、表示制御方法およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6025433B2 (ja) * 2012-07-17 2016-11-16 株式会社ゼンリンデータコム 携帯ナビゲーション装置
US9311544B2 (en) * 2012-08-24 2016-04-12 Jeffrey T Haley Teleproctor reports use of a vehicle and restricts functions of drivers phone
US9269003B2 (en) 2013-04-30 2016-02-23 Qualcomm Incorporated Diminished and mediated reality effects from reconstruction
WO2017208718A1 (ja) * 2016-06-02 2017-12-07 ソニー株式会社 表示制御装置及び表示制御方法、表示装置、並びに移動体装置
US10043316B2 (en) * 2016-08-05 2018-08-07 Uber Technologies, Inc. Virtual reality experience for a vehicle
KR102310340B1 (ko) * 2019-08-20 2021-10-07 엘지전자 주식회사 차량의 주행 정보를 이용하는 게임 시스템 및 차량 내에서의 게임 서비스 제공 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005266143A (ja) 2004-03-17 2005-09-29 Mitsubishi Electric Corp 映像投影システム
JP2007248162A (ja) 2006-03-14 2007-09-27 Kenwood Corp ナビゲーション装置、プログラム及び方法
WO2012033095A1 (ja) 2010-09-06 2012-03-15 国立大学法人東京大学 車両システム
WO2019097918A1 (ja) 2017-11-14 2019-05-23 マクセル株式会社 ヘッドアップディスプレイ装置およびその表示制御方法
JP2020053795A (ja) 2018-09-26 2020-04-02 株式会社Jvcケンウッド 表示制御装置、映像管理サーバ装置、表示システム、表示制御方法およびプログラム

Also Published As

Publication number Publication date
JP2022097826A (ja) 2022-07-01
US11645822B2 (en) 2023-05-09
CN114648740A (zh) 2022-06-21
US20220198761A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
EP3563567B1 (en) Systems, methods, and computer-readable media for using a video capture device to alleviate motion sickness via an augmented display for a passenger
US10043316B2 (en) Virtual reality experience for a vehicle
CN103246543B (zh) 显示控制设备,显示控制方法和程序
CN111480194B (zh) 信息处理装置、信息处理方法、程序、显示系统和移动物体
KR102310340B1 (ko) 차량의 주행 정보를 이용하는 게임 시스템 및 차량 내에서의 게임 서비스 제공 방법
CN105749548A (zh) 信息处理装置、信息处理方法以及程序
US11293772B2 (en) Traveling path providing system, method of controlling same, and non-transitory computer readable medium
WO2017208718A1 (ja) 表示制御装置及び表示制御方法、表示装置、並びに移動体装置
US11397322B2 (en) Image providing system for vehicle, server system, and image providing method for vehicle
US20210192851A1 (en) Remote camera augmented reality system
JP7372230B2 (ja) 表示システム及び表示装置
US11836874B2 (en) Augmented in-vehicle experiences
US20230286532A1 (en) Autonomous vehicle interactive experience platform
US20180293796A1 (en) Method and device for guiding a user to a virtual object
EP4261764A1 (en) Method for providing continuous transport and content service
CN113641248A (zh) 一种车内增强现实娱乐的实现系统及方法
JP2021005215A (ja) 興味推定システム
US11694377B2 (en) Editing device and editing method
US11816803B2 (en) Guidance display system and server of guidance display system
CN111566706A (zh) 图像生成系统、图像生成方法及程序
JP7122408B2 (ja) 情報処理装置及び情報処理方法
JP6739017B1 (ja) 観光支援装置、該装置が搭載されたロボット、観光支援システム、及び観光支援方法
US20240087339A1 (en) Information processing device, information processing system, and information processing method
JP2023073150A (ja) 表示制御方法及び表示制御装置
JP2021060321A (ja) 車両、情報処理システム、プログラム及び制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231019

R151 Written notification of patent or utility model registration

Ref document number: 7372230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151