JP2015149032A - 拡張現実提供システム、プログラムおよび拡張現実提供方法 - Google Patents

拡張現実提供システム、プログラムおよび拡張現実提供方法 Download PDF

Info

Publication number
JP2015149032A
JP2015149032A JP2014022949A JP2014022949A JP2015149032A JP 2015149032 A JP2015149032 A JP 2015149032A JP 2014022949 A JP2014022949 A JP 2014022949A JP 2014022949 A JP2014022949 A JP 2014022949A JP 2015149032 A JP2015149032 A JP 2015149032A
Authority
JP
Japan
Prior art keywords
information
augmented reality
state
user
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014022949A
Other languages
English (en)
Inventor
裕介 佐々木
Yusuke Sasaki
裕介 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2014022949A priority Critical patent/JP2015149032A/ja
Priority to PCT/JP2015/052916 priority patent/WO2015119092A1/ja
Publication of JP2015149032A publication Critical patent/JP2015149032A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザや周囲の環境といった様々な状況を的確に判断することにより、より柔軟性、汎用性に富んだ拡張現実を実現する技術を提供する。
【解決手段】拡張現実提供システムに、コンテンツ情報112を記憶する記憶装置21と、ユーザにより携帯される携帯端末装置2の現在位置を示す位置情報215を取得するとともに、携帯端末装置2の状態を示す状態情報216を取得する位置状態取得部201と、取得された位置情報215および取得された状態情報216に応じて、記憶装置21に記憶されたコンテンツ情報112から拡張現実を構成する架空情報217を選択する拡張現実構成部202と、選択された架空情報217を出力することにより、拡張現実を表現する表示部23とを設ける。
【選択図】図5

Description

本発明は、現実環境を拡張した拡張現実を提供するに際して、当該拡張現実のバリエーションを豊かにする技術に関する。
従来より、現実の環境における情報(あるいは現実の風景)に、コンピュータ等で作成した情報を付与することで、現実環境を拡張する拡張現実(AR:Augmented Reality)を実現する技術が知られている。拡張現実は、位置情報に基づいて、表示する仮想物体の内容や、現実環境における表示位置を決定し、現実の視覚情報と仮想物体とを合成表示する技術である。
拡張現実においては位置を把握することが必要になるが、例えば、特許文献1には、位置を把握する技術として、GPS(Global Positioning System)を利用する技術が記載されている。特許文献1に記載された技術では、GPSより取得した位置情報から周囲の地物情報をデータベースより取得して、透過型ディスプレイに仮想物体を描画することで現実環境と仮想物体との合成を実現する。
また、例えば、撮影画像を利用した拡張現実技術も知られている。撮影画像を利用した拡張現実技術は、現実空間に専用の識別情報を有する画像(マーカ)を設置し、撮影画像内にマーカが存在すればマーカ上に仮想物体を描画する方法や、画像内の特定の図形(人体など)を認識し仮想物体を描画する方法などがある。例えば、特許文献2には、現実環境に存在するマーカを利用して仮想物体の重畳表示を可能とする技術が記載されている。
さらに、例えば、特許文献3には、現実環境に実物体としてのマーカを用いることなく、既知である現実空間の配置物を識別して仮想物体の表示を可能とする技術が記載されている。
特開2012−068481号公報 特開2012−141779号公報 特開2003−256876号公報
ところが、特許文献1ないし3に記載された技術では、ユーザが画面を見ていないときにも仮想物体を表示してしまうという問題があった。また、マーカや設置物体、現在位置(特に、視点位置)によって出力内容が固定されてしまい、他の要因(状況)に応じた、より効果的な拡張現実を提供できないという問題があった。
本発明は、上記課題に鑑みてなされたものであり、ユーザ自身や周囲の環境といった様々な状況を的確に判断することにより、より柔軟性、汎用性に富んだ拡張現実を実現する技術を提供することを目的とする。
上記の課題を解決するため、請求項1の発明は、拡張現実提供システムであって、コンテンツ情報を記憶する記憶手段と、ユーザにより携帯される端末装置の現在位置を示す位置情報を取得する位置取得手段と、前記端末装置の状態を示す状態情報を取得する状態取得手段と、前記位置取得手段により取得された前記位置情報および前記状態取得手段により取得された前記状態情報に応じて、前記記憶手段に記憶されたコンテンツ情報から拡張現実を構成する架空情報を選択する情報選択手段と、前記情報選択手段により選択された架空情報を出力することにより、前記拡張現実を表現する出力手段とを備える。
また、請求項2の発明は、請求項1の発明に係る拡張現実提供システムであって、前記端末装置の周辺の環境情報を取得する環境取得手段をさらに備え、前記情報選択手段は、前記環境取得手段により検出された前記環境情報に応じて、前記記憶手段に記憶されたコンテンツ情報から拡張現実を構成する架空情報を選択する。
また、請求項3の発明は、請求項1または2の発明に係る拡張現実提供システムであって、時間情報を取得する時間取得手段をさらに備え、前記情報選択手段は、前記時間取得手段により取得された前記時間情報に応じて、前記記憶手段に記憶されたコンテンツ情報から拡張現実を構成する架空情報を選択する。
また、請求項4の発明は、請求項1ないし3のいずれかの発明に係る拡張堅実システムであって、前記状態取得手段は、前記位置取得手段により取得された位置情報に基づいて、前記状態情報を取得する。
また、請求項5の発明は、請求項1ないし4のいずれかの発明に係る拡張現実提供システムであって、前記端末装置の運動に関する慣性情報を取得する運動検出手段をさらに備える。
また、請求項6の発明は、請求項5の発明に係る拡張現実提供システムであって、前記状態取得手段は、前記運動検出手段により取得された慣性情報に基づいて、前記状態情報を取得する。
また、請求項7の発明は、請求項5または6の発明に係る拡張現実提供システムであって、前記位置取得手段は、前記運動検出手段により取得された慣性情報に基づいて、前記位置情報を特定する。
また、請求項8の発明は、請求項1ないし7のいずれかの発明に係る拡張現実提供システムであって、前記出力手段は、画像情報を表示するディスプレイを備え、前記情報選択手段は、前記状態取得手段により取得された前記状態情報において、前記端末装置を携帯するユーザの前記ディスプレイに対する閲覧状態に応じて、前記架空情報としての画像情報の選択を禁止する。
また、請求項9の発明は、ユーザにより携帯されるコンピュータ読み取り可能なプログラムであって、前記コンピュータによって実行されることにより、前記コンピュータを、コンテンツ情報を記憶する記憶手段と、前記コンピュータの現在位置を示す位置情報を特定する位置取得手段と、前記コンピュータの状態を示す状態情報を取得する状態取得手段と、前記位置取得手段により特定された前記位置情報および前記状態取得手段により取得された前記状態情報に応じて、前記記憶手段に記憶されたコンテンツ情報から拡張現実を構成する架空情報を選択する情報選択手段と、前記情報選択手段により選択された架空情報を出力することにより、前記拡張現実を表現する出力手段とを備えるコンピュータとして機能させる。
また、請求項10の発明は、拡張現実提供方法であって、コンテンツ情報を記憶手段に記憶する工程と、ユーザにより携帯される端末装置の現在位置を示す位置情報を特定する工程と、前記端末装置の状態を示す状態情報を取得する工程と、前記位置情報および前記状態情報に応じて、前記記憶手段に記憶されたコンテンツ情報から拡張現実を構成する架空情報を選択する工程と、選択された前記架空情報を出力することにより、前記拡張現実を表現する工程とを有する。
請求項1ないし10に記載の発明は、ユーザにより携帯される端末装置の現在位置を示す位置情報を取得するとともに、端末装置の状態を示す状態情報を取得し、位置情報および状態情報に応じて、記憶されたコンテンツ情報から拡張現実を構成する架空情報を選択して、選択された架空情報を出力することにより、拡張現実を表現する。これにより、豊富なコンテンツ情報から適切な架空情報を選択することができる。したがって、よりリアルに拡張現実を表現することができる。あるいは、提供可能な拡張現実の幅が広がる。
拡張現実提供システムを示す図である。 携帯端末装置、基準位置提供装置およびデータベースサーバのブロック図である。 センサ群に含まれる構成を示す図である。 収集情報に含まれる情報を示す図である。 携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。 拡張現実提供方法を示す流れ図である。 拡張現実提供方法を示す流れ図である。 拡張現実空間において拡張現実としてのお化け屋敷を提供するアプリケーションにおける表示例を示す図である。 図8における位置において、ユーザが下を向いているときの表示例を示す図である。 図8における位置において、ユーザが下を向いているときの拡張現実提供システムにおける表示例を示す図である。 図8における位置において、ユーザが上を向いているときの拡張現実提供システムにおける表示例を示す図である。 お化け屋敷のアプリケーションにおける表示更新例を示す図である。 お化け屋敷のアプリケーションにおける表示更新例を示す図である。 拡張現実空間において拡張現実として「宝探しゲーム」を提供するアプリケーションをユーザが体験している様子を概念的に示す図である。 拡張現実空間において拡張現実として「宝探しゲーム」を提供するアプリケーションをユーザが体験している様子を概念的に示す図である。 ユーザと「宝箱」とが近く、かつ、ユーザが画面を閲覧しているときの表示例を示す図である。 ユーザと「宝箱」とが近く、かつ、ユーザが画面を閲覧しているときの表示例を示す図である。 宝探しゲームをユーザが体験している様子を概念的に示す図である。 宝探しゲームをユーザが体験している様子を概念的に示す図である。 図19に示す位置にユーザが存在しているときに画面に表示される画像を示す図である。 状態情報が「ハンドル操作済み」と書き換えられた状態で、ユーザが図19に示す位置に移動した状態を概念的に示す図である。
以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。ただし、以下の説明において特に断らない限り、方向や向きに関する記述は、当該説明の便宜上、図面に対応するものであり、例えば実施品、製品または権利範囲等を限定するものではない。
<1. 実施の形態>
図1は、拡張現実提供システム1を示す図である。図1に示す拡張現実空間9は、拡張現実提供システム1による拡張現実が提供されるエリアを概念的に図示したものである。
拡張現実提供システム1は、携帯端末装置2と、絶対位置が既知であり位置が当該絶対位置に固定される設置型の装置として構成される基準位置提供装置10と、データベースサーバ11とを備えている。なお、携帯端末装置2、基準位置提供装置10およびデータベースサーバ11の数は、図1に示す数に限定されるものではない。
拡張現実提供システム1において、基準位置提供装置10およびデータベースサーバ11は、システム運営者によって提供され設置される装置を想定している。一方で、携帯端末装置2としては、システム運営者が拡張現実を提供しようとするエリアを訪れたユーザによって所有される装置を想定しており、個人所有の携帯電話、スマートフォン、あるいは、PDA端末などが該当する。
図2は、携帯端末装置2、基準位置提供装置10およびデータベースサーバ11のブロック図である。
携帯端末装置2は、CPU20、記憶装置21、操作部22、表示部23、センサ群24、撮像部25、非接触ICカード部26、通信部27およびスピーカ28を備えている。携帯端末装置2は、ユーザによって携帯される装置であり、対象物としてのユーザに付随して移動する装置(位置が可変の装置)として構成されている。また、携帯端末装置2がセンサ群24を備えていることにより、携帯端末装置2がユーザに携帯されている状態において、当該センサ群24も対象物としてのユーザに付随した状態となる。
CPU20は、記憶装置21に格納されているプログラム210を読み取りつつ実行し、各種データの演算や制御信号の生成等を行う。これにより、CPU20は、携帯端末装置2が備える各構成を制御するとともに、各種データを演算し作成する機能を有している。すなわち、携帯端末装置2は、一般的なコンピュータとして構成されている。
記憶装置21は、携帯端末装置2において各種データを記憶する機能を提供する。特に、本実施の形態における記憶装置21は、プログラム210、基準情報103、オーナー情報211、収集情報212、撮像画像情報213、位置情報215、状態情報216およびコンテンツ情報112(架空情報217)を記憶するために使用される。
記憶装置21としては、CPU20の一時的なワーキングエリアとして使用されるRAMやバッファ、読み取り専用のROM、不揮発性のメモリ(例えばNANDメモリなど)、比較的大容量のデータを記憶するハードディスク、専用の読み取り装置に装着された可搬性の記憶媒体(PCカード、SDカード、USBメモリなど)等が該当する。図1においては、記憶装置21を、あたかも1つの構造物であるかのように図示している。しかし、通常、記憶装置21は、上記例示した各種装置(あるいは媒体)のうち、必要に応じて採用される複数種類の装置から構成されるものである。すなわち、記憶装置21は、データを記憶する機能を有する装置群の総称である(後述する記憶装置101,110についても同様。)。
また、現実のCPU20は高速にアクセス可能なRAMを内部に備えた電子回路である。しかし、このようなCPU20が備える記憶装置も、説明の都合上、記憶装置21に含めて説明する。すなわち、本実施の形態においては、一時的にCPU20自体が記憶するデータも、記憶装置21が記憶するとして説明する。
記憶装置21に格納されるオーナー情報211とは、操作部22が操作されることによりユーザによって入力される当該ユーザに関する情報であって、より詳細にはユーザの特性に関する情報である。具体的には、携帯端末装置2を所有するユーザの年齢、性別、職業、住所、趣味、趣向、行動(購買)履歴、病歴(アレルギーの有無など)、婚姻状況、家族構成、所有物(車、家など)といった個人情報である。これらの情報は、操作部22から直接入力される情報に限定されるものではなく、他のアプリケーションによって自動的に収集されてもよい。
なお、基準情報103、収集情報212、撮像画像情報213、位置情報215、状態情報216およびコンテンツ情報112(架空情報217)については、適宜、後述する。
操作部22は、ユーザが携帯端末装置2(拡張現実提供システム1)に対して指示を入力するために操作されるハードウエアである。操作部22としては、例えば、各種キーやボタン類、タッチパネル、ポインティングデバイス、あるいは、ジョグダイヤルなどが該当する。
表示部23は、各種データを表示することにより出力する機能を有するハードウェアである。表示部23としては、例えば、ランプやLED、液晶ディスプレイや液晶パネルなどが該当する。特に、本実施の形態における表示部23は、画像を画面に表示する液晶ディスプレイを備えており、架空情報217を出力することにより拡張現実を表現する機能を有している。すなわち、表示部23は、本発明に係る出力手段に相当する。
図3は、センサ群24に含まれる構成を示す図である。図4は、収集情報212に含まれる情報を示す図である。
図3に示すように、センサ群24は、加速度センサ240、ジャイロセンサ241、時間取得部242、磁気センサ243、マイク244、温度センサ245、照度センサ246、湿度センサ247および気圧センサ248を備えている。また、収集情報212には、加速度情報2120、角速度情報2121、時間情報2122、磁気情報2123、音声情報2124、温度情報2125、照度情報2126、湿度情報2127および気圧情報2128を含んでいる。
加速度センサ240は、携帯端末装置2における加速度を検出して、加速度情報2120を取得する。なお、加速度センサ240は、携帯端末装置2について定義された座標系(例えば、3軸座標系)に従って表現された出力値を加速度情報2120として作成する。
ジャイロセンサ241は、携帯端末装置2における角速度を測定して角速度情報2121を取得する。本実施の形態におけるジャイロセンサ241は、いわゆる3軸のジャイロセンサとして構成されており、互いに垂直な3つの軸(例えば、X,Y,Z軸)方向回りの角速度を測定し、当該測定値を角速度情報2121として出力する。
加速度センサ240により取得される加速度情報2120およびジャイロセンサ241により取得される角速度情報2121は、携帯端末装置2の運動に関する慣性情報2129である。すなわち、加速度センサ240およびジャイロセンサ241は、本発明における運動検出部に相当する。
厳密に言えば、慣性情報2129は、携帯端末装置2の運動に関する情報である。したがって、厳密に言えば、慣性情報2129を解析して得られる運動状態は、携帯端末装置2の運動状態である。しかし、一方で、すでに説明したように、本実施の形態における拡張現実提供システム1においては、ユーザが携帯端末装置2を携帯することにより、センサ群24(加速度センサ240およびジャイロセンサ241)が対象物としてのユーザに付随した状態となる。これにより、加速度センサ240およびジャイロセンサ241は、ユーザの動きを反映した情報を測定することになる。すなわち、加速度センサ240およびジャイロセンサ241は、間接的に、ユーザの動作の状態を観測することができる。
時間取得部242は、いわゆるタイマであり、時間の経過を計測する機能を有している。予め記憶されている基準時およびカレンダー情報と、時間取得部242により計測される基準時からの経過時間とに基づいて、携帯端末装置2では、現在の年月日や季節、曜日、時間等を取得することが可能であり、これらの情報は時間情報2122として記録される。
磁気センサ243は、周辺の磁気を測定して、磁気情報2123を取得する機能を有している。磁気情報2123を参照して、磁気センサ243によって測定される磁気(磁力)を解析することにより、現在位置における地磁気を検出することが可能であり、方位を得ることができる。
マイク244は、携帯端末装置2の周辺の音声を録音して、音声情報2124を取得する。
温度センサ245は、携帯端末装置2の周辺の温度を測定して、温度情報2125を取得する。
照度センサ246は、携帯端末装置2の周辺の照度(明るさ)を測定して、照度情報2126を取得する。
湿度センサ247は、携帯端末装置2の周辺の湿度を測定して、湿度情報2127を取得する。
気圧センサ248は、携帯端末装置2の周辺の気圧を測定して、気圧情報2128を取得する。
磁気センサ243、マイク244、温度センサ245、照度センサ246、湿度センサ247および気圧センサ248によって収集される情報は、携帯端末装置2の周辺の環境を示す情報(以下、これらの「環境情報」と称する場合がある。)である。すなわち、収集情報212には、環境情報が含まれている。磁気センサ243、マイク244、温度センサ245、照度センサ246、湿度センサ247および気圧センサ248は、環境取得部に相当する。
なお、センサ群24に含まれるセンサ(検出装置)は、上記に示した例に限定されるものではない。また、本実施の形態に示した全ての検出装置を備えていなければならないわけでもない。すなわち、提供される拡張現実の内容や装置コスト等に応じて、これらの装置が適宜、選択されてもよい。
図2に戻って、撮像部25は、レンズなどの光学素子と、CCDなどの光電変換素子を備え、撮像範囲内にある被写体を撮像して、当該被写体の現実の外観を表現した撮像画像情報213を取得する機能を有している。すなわち、撮像部25は、一般的なデジタルカメラとしての構成および機能を有している。
詳細は後述するが、表示部23は、周囲に現実に存在する被写体の現実の外観を表現した撮像画像情報213と、周囲に存在しない事物(文字などを含む。)を表現したコンテンツ情報112から選択される架空情報217とを合成して表示することにより、画面に拡張現実を表現する。また、以下の説明では、特に断らない限り、撮像画像情報213は、複数のフレーム画像から構成されるカラーの動画像である。なお、携帯端末装置2が提供する拡張現実においては、撮像画像情報213に含まれる情報が全て再現されなくてもよい。例えば、撮像された現実の事物の一部が当該拡張現実においては、あたかも存在しないかのように表現されてもよい。
非接触ICカード部26は、一般的な非接触ICカードの構成および機能を有している。これにより、携帯端末装置2は、基準位置提供装置10の非接触ICカードリーダー部100との間で、近接無線通信を行うことが可能とされている。なお、非接触ICカード部26の回路構成および機能等は、従来技術(各種標準規格等)を適宜採用可能である。したがって、非接触ICカード部26の回路構成および機能についての詳細な説明は、省略する。
このように、携帯端末装置2が非接触ICカード部26を備えているため、ユーザは、携帯端末装置2を基準位置提供装置10の非接触ICカードリーダー部100に近接させてかざすことにより、基準位置提供装置10から必要な情報を、非接触ICカード部26側に取得することができる。特に、本実施の形態における携帯端末装置2は、基準情報103およびコンテンツ情報112を、基準位置提供装置10から取得する。なお、以下の説明では、ユーザが、携帯端末装置2を非接触ICカードリーダー部100に近接させてかざす一連の動作を「通信可能化動作」と称する。
通信部27は、携帯端末装置2が外部の装置との間で無線による通信を行う機能を提供する。通信部27が提供する通信は、データ通信に限定されるものではなく、通話であってもよい。
スピーカ28は、音声情報(主に架空情報217に含まれる情報)を再生して、音声を出力する装置である。
基準位置提供装置10は、すでに説明したように、絶対位置が既知であり、当該絶対位置に固定される設置型の装置として構成されている。基準位置提供装置10は、拡張現実を提供するエリアの近傍に設置することが好ましい。
図2に示すように、基準位置提供装置10は、非接触ICカードリーダー部100および記憶装置101を備えている。なお、図2では、基準位置提供装置10の詳細な構成の図示を省略しているが、基準位置提供装置10は、CPUや操作部、表示部および通信部などを備えており、一般的なコンピュータとして構成されている。
非接触ICカードリーダー部100は、一般的な非接触ICカードとの間で近接無線通信を行い、当該非接触ICカードに記憶されている様々な情報を読み取ることが可能であるとともに、当該非接触ICカードに様々な情報を送信することも可能である。このような非接触ICカードリーダー部100としては、従来の技術を適用できるため、詳細な説明は省略する。本実施の形態における非接触ICカードリーダー部100は、携帯端末装置2が備える非接触ICカード部26との間で近接無線通信を行う。
基準位置提供装置10の外表面を構成する筐体は、図1に示すように、ユーザが通信可能化動作を行うために適した外面形状となっている。すなわち、ユーザが携帯端末装置2を用いて通信可能化動作を実行するときにおいては、当該携帯端末装置2(センサ群24)の位置および姿勢とが明確に規定される外面形状となっている。具体的には、非接触ICカードリーダー部100の位置において、筐体の外表面が水平面に対して傾斜した平面形状となっており、かつ、当該外表面の色彩が他の部分と異なるように図案化されている。これにより、ユーザは、混乱することなく、かつ、正確に通信可能化動作を実行することができる。
ユーザが通信可能化動作を実行しているときの携帯端末装置2の位置および姿勢は、先述のように、基準位置提供装置10の筐体によって規定される。また、基準位置提供装置10の絶対位置は既知であり、かつ、基準位置提供装置10が設置型の装置であることから当該絶対位置は容易に変化することはない。したがって、基準位置提供装置10の非接触ICカードリーダー部100と、携帯端末装置2の非接触ICカード部26とが、互いにデータ通信を行っているときにおいて、携帯端末装置2(センサ群24)の位置および姿勢は既知とみなせる。
本実施の形態における拡張現実提供システム1は、基準位置提供装置10の非接触ICカードリーダー部100と、携帯端末装置2の非接触ICカード部26とが互いにデータ通信を行っているときの携帯端末装置2(センサ群24)の位置を「基準位置」とし、当該基準位置におけるセンサ群24の姿勢(向き)を「基準姿勢」とする。
基準位置および基準姿勢は、いずれも基準位置提供装置10を設置する際に各基準位置提供装置10ごとに予め測定し、基準情報103として記憶しておくことができる。すなわち、基準情報103は、基準位置提供装置10の個別情報に相当し、非接触ICカードリーダー部100と非接触ICカード部26とが互いにデータ通信を行っているときのセンサ群24の位置および姿勢(向き)を示す情報である。また、本実施の形態における基準位置には、水平面内における位置(例えば、緯度および経度)に関する情報だけでなく、高さ位置(例えば、海抜)に関する情報も含まれている。
記憶装置101は、基準位置提供装置10において情報を記憶する機能を有する装置の総称である。特に、記憶装置101は、基準位置提供装置10のCPU(図示せず)によって実行されるプログラム102、基準位置提供装置10の個別情報としての基準情報103、および、データベースサーバ11から取得されるコンテンツ情報112を記憶するために使用される。
基準位置提供装置10は、ユーザが通信可能化動作を行っているときに、基準情報103およびコンテンツ情報112を、非接触ICカードリーダー部100を介して、携帯端末装置2(非接触ICカード部26)に送信する。
データベースサーバ11は、図2に示すように、記憶装置110を備えている。なお、図2では、データベースサーバ11の詳細な構成の図示を省略しているが、データベースサーバ11は、CPUや操作部、表示部および通信部などを備えており、一般的なコンピュータとして構成されている。
データベースサーバ11の設置場所としては、例えばシステム運営者のセンターやバックヤードなどが想定される。データベースサーバ11は、LANやインターネット、公衆網などのネットワークを介して基準位置提供装置10と接続されており、必要に応じてコンテンツ情報112を基準位置提供装置10に送信する。
記憶装置110は、データベースサーバ11において情報を記憶する機能を有する装置の総称である。特に、記憶装置110は、データベースサーバ11のCPU(図示せず)によって実行されるプログラム111、および、コンテンツ情報112を記憶するために使用される。
コンテンツ情報112は、データベースサーバ11のオペレータやデザイナ、プログラマ等により作成され、記憶装置110に格納される。コンテンツ情報112は、拡張現実を提供し、表現するために必要となる情報の総称である。
コンテンツ情報112には、拡張現実を表現するために出力される情報(出力候補情報)と、出力候補情報の中から実際に出力する情報を選択するために参照される情報(検索情報)とが含まれる。出力候補情報としては、例えば、仮想物体のグラフィック情報や拡張現実を表現するために出力される音声情報などが該当するが、完全に仮想的な情報に限定されるものではなく、現実を抽象化した情報なども含まれる。検索情報としては、各仮想物体を出力するときの条件を示す情報であり、例えば、位置や姿勢、状態、時間、季節、天気、温度、照度、湿度、気圧などである。
コンテンツ情報112は、一般には、提供される拡張現実ごとに異なる情報であり、それぞれの基準位置提供装置10ごとにデータベースサーバ11から送信される。また、提供中の拡張現実の内容を変更するときには、データベースサーバ11においてコンテンツ情報112が更新され、基準位置提供装置10に向けてアップロードされる。
本実施の形態では、コンテンツ情報112は、基準位置提供装置10を経由して、携帯端末装置2に送信され記憶される。しかし、データベースサーバ11と携帯端末装置2との間の通信により、コンテンツ情報112が携帯端末装置2に送信され記憶されてもよい。
図5は、携帯端末装置2が備える機能ブロックをデータの流れとともに示す図である。図5に示すカード制御部200、位置状態取得部201および拡張現実構成部202は、CPU20がプログラム210に従って動作することにより実現される機能ブロックである。
カード制御部200は、非接触ICカード部26を制御することにより、基準位置提供装置10との間の近接無線通信を制御する機能を有している。すなわち、カード制御部200は、非接触ICカード部26との間のインタフェースを構成しており、非接触ICカード部26が受信した基準情報103およびコンテンツ情報112を記憶装置21に転送し、記憶させる。
なお、図5では、記憶装置21から何らかの情報が読み出されて非接触ICカード部26から送信されることについては図示していないが、そのような情報が存在していてもよい。すなわち、カード制御部200は、記憶装置21に対して、情報の書き込み専用でなくてもよい。記憶装置21からカード制御部200によって読み出され、非接触ICカード部26から送信される情報としては、例えば、認証用のパスワードなどが想定される。
本実施の形態では、ユーザが通信可能化動作を行ったときに、非接触ICカード部26と、基準位置提供装置10の非接触ICカードリーダー部100との間で近接無線通信が開始される。その時点で、携帯端末装置2(センサ群24)は、位置が固定(既知)された基準位置提供装置10の非接触ICカードリーダー部100に近接した状態である。したがって、通信可能化動作が行われたときの携帯端末装置2の位置は、正確に特定することができる。すなわち、基準情報103を受信したとカード制御部200が認識したときが、携帯端末装置2(センサ群24)が基準位置(基準情報103に示される位置)に存在するときである。
また、ユーザが通信可能化動作を行ったときの携帯端末装置2の姿勢は、基準位置提供装置10の筐体の形状により、所定の姿勢に規定される。したがって、基準情報103を受信したとカード制御部200が認識したときの携帯端末装置2(センサ群24)の姿勢(基準姿勢)は、既知である。すでに説明したように、基準姿勢を示す情報は、基準情報103に含まれている。
位置状態取得部201は、基準情報103および収集情報212を参照して、所定の演算を実行することにより、姿勢情報214および位置情報215を取得する。
姿勢情報214とは、携帯端末装置2の姿勢を示す情報である。
位置情報215とは、携帯端末装置2(ユーザ)の位置を示す情報である。本実施の形態においては、位置情報215は、水平面内の位置を示す情報のみならず、高度に関する位置を示す情報も含んでいる。
位置状態取得部201は、主に、収集情報212のうちの時間情報2122、磁気情報2123および慣性情報2129(加速度情報2120および角速度情報2121)を用いて、姿勢情報214および位置情報215を求める。
すでに説明したように、拡張現実提供システム1は、通信可能化動作が行われたときに、携帯端末装置2が基準位置に基準姿勢で存在しているものとみなす。したがって、位置状態取得部201は、通信可能化動作が実行されたときからの相対的な変化(姿勢の変化および位置の変化)を慣性情報2129に基づいて演算することによって姿勢情報214および位置情報215を求める。
すなわち、位置状態取得部201は、加速度センサ240およびジャイロセンサ241により取得された慣性情報2129に基づいて、姿勢情報214および位置情報215を取得する機能を有している。このようにして、姿勢情報214および位置情報215を求める手法は、従来の技術を、適宜、採用することができるため、ここでは詳細な説明を省略する。なお、姿勢情報214や位置情報215は、現在の姿勢や位置の情報に限定されるものではない。過去の情報を、例えば、経路情報等として記録しておいてもよい。
位置状態取得部201は、慣性情報2129以外の情報を用いて、姿勢情報214および位置情報215の精度を高めることも可能とされている。例えば、磁気情報2123により、姿勢や移動方向を補正することができる。また、ユーザの移動中の経路(推定された経路)と、地図情報(コンテンツ情報112)と重畳させることにより、姿勢や位置を補正してもよい。また、高さ位置に関しては、気圧情報2128を参照し、基準位置からの変化量に応じて特定する。さらに、オーナー情報211に記録されているユーザ固有の情報(歩幅や歩行速度など)を用いても、姿勢情報214および位置情報215の精度を高めることが可能である。
また、位置状態取得部201は、基準情報103、収集情報212、姿勢情報214および位置情報215を参照しつつ、状態を判定して、状態情報216を生成することにより、当該状態情報216を取得する。
ここで、状態情報216に示される「状態」とは、ユーザの状態、携帯端末装置2の状態、周辺の環境の状態、あるいは、履歴状態などが想定される。
ユーザの状態とは、ユーザの行動状態であって、例えば、歩行状態、搭乗状態あるいは静止状態などの区別である。歩行状態においても、歩行速度や迷走状態(進行方向の切り替わり頻度が多い状態)等によって状態を複数に分類してもよい。搭乗状態とは、何らかの装置(エスカレータやエレベータ)や乗り物(車や電車)等に乗っている状態である。
携帯端末装置2を携帯しているユーザが歩行状態か否かは、主に、加速度センサ240およびジャイロセンサ241から得られる慣性情報2129に基づいて判定することが可能である。人の歩行動作は、左右の足を交互に踏み出す運動であるため、慣性情報2129を解析することにより、例えば、上下方向に周期的な動きが検出される。
ユーザが搭乗状態であるか否かは、歩行状態でないにもかかわらず位置情報215における位置(特に水平面内の位置)が移動していることにより検出することができる。また、エスカレータ上で歩行しながら搭乗している場合には、歩行運動の周期等から求められる歩行速度よりも移動速度が速いことなどから検出することができる。あるいは、エスカレータの位置が既知であれば、位置情報215を参照することにより、検出することも可能である。
なお、ユーザの行動状態は、厳密には携帯端末装置2がどのような運動状態にあるかによって間接的に取得される。言い換えれば、検出されるユーザの行動状態の多くは、携帯端末装置2の(運動)状態から推定される状態である。すなわち、広い意味の携帯端末装置2の状態には、ユーザの状態が含まれる。
また、ユーザの状態とは、ここに示した例に限定されるものではない。例えば、あまり想定されないが、ユーザが足踏みしている状態など、ユーザの位置は移動しないが、何らかの動作を実行している状態をユーザの状態に含めてもよい。すなわち、ユーザの状態とは、位置状態取得部201がユーザの行動を推定することにより取得される情報である。 慣性情報2129に基づいて人の様々な行動状態を推定する手法は、従来の技術を適用することが可能であるため、ここではこれ以上詳しい説明を省略する。
また、携帯端末装置2の状態とは、携帯端末装置2がユーザによってどのように携帯されているかを示す携帯状態である。具体例を挙げるとすれば、手振り状態、手持ち状態(閲覧状態と非閲覧状態とがある。)、装着状態等である。手振り状態とは、ユーザが携帯端末装置2を手に所持しつつ、所持した当該手を前後に振って歩行等をしている状態である。手持ち状態とは、ユーザが携帯端末装置2を手に所持しつつ、当該手を自身の顔に対して概ね固定し、いつでも携帯端末装置2の表示部23を閲覧可能な状態に維持している状態である。手持ち状態における閲覧状態とは、ユーザが携帯端末装置2の表示部23を注視して、何らかの情報を閲覧している状態である。手持ち状態における非閲覧状態とは、手持ち状態であるが、表示部23を注視していない状態である。装着状態とは、ユーザが携帯端末装置2をポケットに挿入したり、腰のホルダー等に固定したりしている状態であって、携帯端末装置2がユーザの体にほぼ固定されている状態である。
手振り状態は、例えば、ユーザの歩行中の手の動き(手を前後に振る動き)による運動が観測されることにより検出することが可能である。
手持ち状態は、例えば、表示部23の画面がユーザの顔(特に、目)の方向に向いており、かつ、携帯端末装置2とユーザの体との相対的な位置関係の変化が手振り状態に比べて少ないことにより検出することができる。
手持ち状態には、手持ち状態における閲覧状態と、非閲覧状態との区別は、ユーザの体との相対的な位置関係の変化により判定することができる。人は、自身の手に所持した物に注目している場合には、当該物と自分の目との相対的な位置関係を維持しつづけるように、無意識に手を動かすことが知られている。すなわち、携帯端末装置2の動きにおいて、ユーザの手によるこのような補正動作が観測されたとき、閲覧状態と判定することができる。
装着状態は、例えば、ユーザの体との相対的な位置関係がほぼ固定されていることにより検出することができる。装着状態にある携帯端末装置2は、手持ち状態に比べても、ユーザの体との相対的な位置関係の変化は少ない。
なお、携帯端末装置2の状態とは、ここに示した例に限定されるものではない。この他にも、ユーザが携帯端末装置2を、鞄などに収納しつつ携帯している状態(格納状態)なども存在する。拡張現実の提供を受けようとするユーザが携帯端末装置2を格納状態におくことはあまり想定できないが、もちろん、このような状態を想定し、検出するように構成してもよい。
周辺の環境の状態とは、例えば、季節、天気、湿度、温度、音の状態、昼夜の区別、屋内か野外かの区別などである。位置状態取得部201は、収集情報212(特に、時間情報2122、音声情報2124、温度情報2125、照度情報2126、湿度情報2127および気圧情報2128)に基づいて周辺の環境の状態を判定し、状態情報216に記録する。
履歴状態とは、ユーザの行動等に関する履歴の状態である。例えば、特定の経路を通過したか否かや、所定のアイテムを所持しているか否か、あるいは、所定の操作を実行したかなどである。履歴状態には、ユーザが意図して実行した事象に限定されるわけではなく、ユーザが意図しない事象についても記録される。
なお、位置状態取得部201が検出する「状態」として、ここに挙げた状態以外の状態をさらに定義してもよい。また、位置状態取得部201が、どのような収集情報212が得られた場合に、どのような状態であると判定するかについては、利用するアプリケーションによって異なってもよい。
拡張現実構成部202は、オーナー情報211、収集情報212、撮像画像情報213、姿勢情報214、位置情報215および状態情報216に応じて、コンテンツ情報112から拡張現実を構成する架空情報217を選択する機能を有している。
架空情報217は、表示部23において、液晶ディスプレイの画面に表示される情報を含んでおり、提供される拡張現実において現実を拡張するための情報に相当する。表示部23は、架空情報217を撮像画像情報213に重ねて(合成して)あるいは追加して表示することにより、当該画面に拡張現実を表現する。
また、図5において図示を省略しているが、コンテンツ情報112から選択される架空情報217は、音声情報を含んでいる。音声情報としての架空情報217は、スピーカ28によって再生され、提供される拡張現実において現実を拡張するための情報に相当する。
なお、架空情報217は、コンテンツ情報112から選択されるときに、拡張現実構成部202によって加工されてもよい。すなわち、そのような加工手順に関する情報も、コンテンツ情報112に含まれていてもよい。
以上が拡張現実提供システム1の構成および機能の説明である。次に、拡張現実提供システム1を用いて、ユーザに対して、拡張現実を提供する方法について具体的に説明する。
図6および図7は、拡張現実提供方法を示す流れ図である。なお、図6に示す各工程が開始されるまでに、携帯端末装置2が起動され、所定の初期設定が完了し、記憶装置21にオーナー情報211が記憶されているものとする。また、基準位置提供装置10の記憶装置101に、コンテンツ情報112がすでに記憶されているものとする。また、図6および図7では、説明の都合上、1人のユーザに対する各工程を示しているが、拡張現実提供システム1は同時に複数のユーザ(複数の携帯端末装置2)に対して拡張現実を提供することが可能である。
ユーザは、拡張現実空間9の近傍に到着する(ステップS1)と、持参した携帯端末装置2を用いて、当該拡張現実空間9の入り口付近に設置されている基準位置提供装置10に対して通信可能化動作を行う(ステップS2)。
ユーザが通信可能化動作を行わなければ、携帯端末装置2が基準情報103およびコンテンツ情報112を取得することはできない。その場合、拡張現実提供システム1は、当該ユーザに対して拡張現実を提供することは困難である。したがって、ユーザに通信可能化動作を確実に実行させる仕組みを設けておくことが好ましい。例えば、通信可能化動作を行ったか否かを判定して、拡張現実空間9に入場するためのゲートが開くように構成するといった手法が考えられる。
ユーザにより通信可能化動作(ステップS2)が実行されることで、携帯端末装置2の非接触ICカード部26と、基準位置提供装置10の非接触ICカードリーダー部100との間で通信リンクが確立され、近接無線通信が開始される。
ステップS2が実行され、近接無線通信が開始されることにより、携帯端末装置2のCPU20(カード制御部200)は、ステップS3においてYesと判定する。すなわち、カード制御部200は、ステップS3においてYesと判定した時点で、携帯端末装置2(センサ群24)が基準位置に基準姿勢で存在すると判定する。
近接無線通信が開始されると、携帯端末装置2は、基準位置提供装置10から基準情報103およびコンテンツ情報112を取得する(ステップS4)。
これにより、記憶装置21に基準情報103およびコンテンツ情報112が格納される。また、ステップS4において取得されたコンテンツ情報112に応じて、拡張現実空間9において提供される拡張現実に応じたアプリケーションが起動される。
次に、撮像部25が、周囲(拡張現実空間9内)の撮像を開始する(ステップS5)。これにより、以後、撮像周期に応じて撮像画像情報213が取得される状態となる。なお、本実施の形態ではステップS5の処理は、通信可能化動作後の一連の工程として自動的に開始されるが、もちろん、ユーザの指示(操作部22に対するユーザ操作)により開始するように構成してもよい。
ステップS5の処理と並行して、センサ群24が測定を開始する(ステップS6)。これにより、以後、センサ群24の測定周期に応じて収集情報212が更新される状態となる。なお、時間情報2122については、携帯端末装置2が時計機能を提供するために、通常、ステップS6に関係なく、時間取得部242による計測が行われている。また、ステップS6において、CPU20は、必ずしもセンサ群24に含まれる全ての検出装置を起動させる必要はない。提供される拡張現実の内容に応じて、情報の収集が必要な検出装置のみ、測定を開始するようにしてもよい。
ステップS4ないしS6が実行されると、位置状態取得部201は、携帯端末装置2の現在位置および現在の姿勢を特定し(ステップS11)、姿勢情報214および位置情報215を作成する。このとき、位置状態取得部201は、基準情報103(移動経路の始点に関する情報)、および、収集情報212に基づいて、姿勢および位置を特定する。ただし、すでに説明したように、コンテンツ情報112やオーナー情報211を参照してもよい。
次に、位置状態取得部201は、現在の状態を判定し、状態情報216を作成する(ステップS12)。位置状態取得部201は、あらかじめ想定されている複数の状態の中から、現在の状態を特定(推定)し、状態情報216とする。なお、状態情報216に格納される「状態」の種別(識別子)は、1つに限られるものではない。例えば、ユーザの状態として「歩行状態」が格納されるとともに、携帯端末装置2の状態として「手振り状態」が格納されるといったことも想定される。
ステップS12が実行されて、状態情報216が作成(更新)されると、拡張現実構成部202は、表示部23による表示を禁止すべき状態か否かを判定する(ステップS13)。
本実施の形態では、状態情報216において、携帯端末装置2の状態が「手持ち状態(閲覧状態のみならず非閲覧状態を含む。)」でないときに、拡張現実構成部202はステップS13においてYesと判定する。非閲覧状態は、ユーザが表示部23の画面を閲覧していないと推定される状態である。しかし、この状態は、ユーザにとって表示部23を閲覧するための準備状態といえる。したがって、非閲覧状態において表示部23による表示を禁止すると、ユーザが表示部23に目を移したときには表示部23が消えていることになる。この場合、閲覧したいと所望するユーザに、何らかの操作を強いることとなり、ユーザの負担が増大する。したがって、拡張現実提供システム1では、非閲覧状態であっても、手持ち状態であれば、表示部23による表示を禁止すべき状態ではないと判定する。ただし、非閲覧状態を、表示部23による表示を禁止すべき状態とみなしてもよい。
ステップS13においてYesと判定されたとき、CPU20は、画面を消すように表示部23を制御する。これに応じて、表示部23は、画面の表示を消す(ステップS14)。したがって、無駄な表示を抑制することができ、省電力および演算速度の向上が達成される。
このように、拡張現実構成部202は、位置状態取得部201により取得された状態情報216において、携帯端末装置2を携帯するユーザの表示部23に対する閲覧状態に応じて、架空情報217としての画像情報の選択を禁止する。したがって、無駄な表示を抑制することができ、省電力および演算速度の向上が達成される。
ステップS14の処理と並行して、CPU20は、撮像部25による撮像を停止させる(ステップS15)。ステップS14が実行されると、拡張現実が表示部23に表現されることはなくなるので、撮像画像情報213の取得も不要になるからである。これにより、無駄な撮像を抑制することができ、省電力および演算速度の向上が達成される。
次に、拡張現実構成部202は、画像情報(表示部23に表示すべき情報)を除いたコンテンツ情報112から架空情報217を選択する(ステップS16)。これにより、拡張現実提供システム1において、架空情報217としての画像情報の選択が禁止される。
このように、拡張現実構成部202は、位置状態取得部201により取得された状態情報216において、携帯端末装置2を携帯するユーザの表示部23に対する閲覧状態に応じて、架空情報217としての画像情報の選択を禁止する。したがって、無駄な表示を抑制することができ、省電力および演算速度の向上が達成される。
なお、本実施の形態においては、ステップS16において選択される架空情報217は、音声情報に限定されることとなる。
一方、表示部23における表示を禁止する状態でない場合(ステップS13においてNo。)、拡張現実構成部202は、画像情報を含む全てのコンテンツ情報112から架空情報217を選択する(ステップS17)。なお、ステップS13においてNoと判定されたときにおいて、すでにステップS14,S15が実行されていた場合には、ステップS17を実行する前に、CPU20は、表示部23の画面を付ける(表示を再開させる)処理と、撮像部25による撮像を再開させる処理とを実行する。
架空情報217の選択は、様々な条件に基づいて行うことが可能である。まず、従来の技術と同様に位置情報215により選択することができる。ただし、拡張現実提供システム1における拡張現実構成部202は、位置情報215のみによって架空情報217を選択するのではなく、他の情報を重畳的に用いて、架空情報217を選択する。
例えば、拡張現実構成部202は、位置情報215によって架空情報217となる候補の情報を複数抽出してから、さらに他の情報を参照することにより、これら複数の候補の情報の中から1つに絞って、これを架空情報217とする。すなわち、コンテンツ情報112には、同じ位置において架空情報217として選択されうる情報(候補の情報)が複数用意されており、他の条件によりこれら複数の情報の中から適切なものが絞り込まれて架空情報217として選択されるのである。
ただし、コンテンツ情報112には、位置情報215のみで選択される架空情報217が含まれていてもよい。また、架空情報217を選択するときの詳細については、具体例を用いて後述する。
次に、拡張現実構成部202は、姿勢情報214および位置情報215に応じて、拡張現実空間9における絶対位置と姿勢とを決定し、当該拡張現実における視点および視線方向を決定する。
視点および視線方向が決まれば、拡張現実空間9における視野を決定することができる。そして、拡張現実空間9における視野が決まれば、当該視野に対応して仮想的に表示させるべき事物の大きさや形状などが決まる。このようにして拡張現実構成部202は、架空情報217を表示部23に表示させることができる。
拡張現実構成部202が決定する「視点および視線方向」が、撮像部25による「撮像点(撮像範囲の中心点)および撮像方向」と一致するほど、架空情報217と撮像画像情報213とを合成表示したときのユーザの違和感が抑制される。したがって、位置状態取得部201は、この点(携帯端末装置2における撮像部25の位置や向き)を考慮して、位置情報215を作成することが好ましい。
また、拡張現実構成部202は、スピーカ28に再生させる音声情報としての架空情報217について、ボリューム(ユーザに感じられる音源までの距離に応じた出力。)や、左右の強弱(ユーザに感じられる音源方向に応じた出力。)を決定して出力させる。
このように、拡張現実構成部202の制御により、表示部23およびスピーカ28に架空情報217が出力されて、拡張現実が表現される(ステップS18)。ただし、ステップS16が実行されているときには、架空情報217が表示部23に表示されることはないので、ステップS18において拡張現実における視点および視線方向を決定する処理は不要である。
以後、拡張現実の提供を終了させるか否かを判定しつつ(ステップS19)、終了させる指示があるまでステップS11ないしS19の処理を繰り返す。
なお、拡張現実の提供を終了させる指示は、ユーザが操作部22を操作することにより入力する。ただし、拡張現実の提供を終了させる指示を取得する手法は、このような手法に限定されるものではない。例えば、ユーザが拡張現実空間9から退出したことを位置情報215に基づいてCPU20により検出し、これをCPU20が終了指示と解釈することにより、終了指示を自動的に取得するように構成してもよい。このように構成することにより、拡張現実提供システム1は、ユーザに特に意識させることなく、拡張現実の提供を終了することができる。
次に、具体例を用いて、位置状態取得部201による状態推定(状態情報216の取得)、および、拡張現実構成部202による架空情報217の選択について説明する。
図8は、拡張現実空間9において拡張現実としてのお化け屋敷を提供するアプリケーションにおける表示例である。図8において、撮像画像情報213aは、撮像部25により撮像された現実部分を表現した画像である。また、図8において、樹木画像217aおよび怪物画像217bは、拡張現実構成部202によってコンテンツ情報112から選択された架空情報217である。
図8は、携帯端末装置2が「手持ち状態」であり、かつ、ユーザが前方に向いていると判定したときの表示例を示す図である。ユーザが前方に向いているか否かは、例えば、閲覧されている携帯端末装置2(表示部23の画面)の水平面に対する傾きにより判定することができる。
図8に示す例では、現実部分を表現した撮像画像情報213aに、仮想的な情景物体を表現した樹木画像217aと、ユーザを驚かすための仮想的な事物を表現した怪物画像217bとが合成されて表示されている。
図9は、図8における位置において、ユーザが下を向いているときの表示例を示す図である。ユーザが下を向いていることにより、図8に示した場合と比べて撮像領域が変化し、撮像画像情報213として撮像画像情報213bが表示されている。また、ユーザの視野(表示対象領域:撮像画像情報213b)が図8に示す場合と変化したことにより、樹木画像217aおよび怪物画像217bの一部が画面から切れてしまっている。
ここに示すアプリケーションの例において、情景物体としての樹木画像217aについては、このように表現されることにあまり問題はない。逆に、図9に示す場合において、樹木画像217aの全体が視認できるように、樹木画像217aの表示位置を変更すると、ユーザには樹木画像217aが移動したように感じられて拡張現実空間9における現実味が低下する。
一方で、怪物画像217bについても、図9に示すように表示された方が現実味は向上する。しかしながら、ユーザを驚かせるという目的からすれば、怪物画像217bの一部しか表示されない状態は好ましいとは言えない。かといって、例えば、怪物画像217bをその全体が表示領域に含まれるように画面内における表示位置を変更すると、ユーザにとっては「怪物」が地面に寝そべっている(張り付いている)かのように感じられ、現実味が低下する。
図10は、図8における位置において、ユーザが下を向いているときの拡張現実提供システム1における表示例を示す図である。
拡張現実提供システム1(拡張現実構成部202)は、ユーザが下を向いている状態であると判定した場合には、怪物画像217bではなく、虫画像217cを架空情報217として選択する。このように、ユーザが下を向いている状態のときには、地面を這う「虫」を表現した虫画像217cを選択することにより、表示部23に表示する。さらに、拡張現実構成部202は、状態情報216における周辺の環境の状態に基づいて、季節が「冬」であれば、虫画像217cを選択せずに、他の画像(冬に適した事物)を選択するように構成してもよい。
これにより、拡張現実提供システム1は、現実味を低下させることなく、状態に応じて、効果的にユーザを驚かせることができる。なお、図10に示す例において、虫が這いずり回る音を架空情報217として選択し、スピーカ28によって再生してもよい。
図11は、図8における位置において、ユーザが上を向いているときの拡張現実提供システム1における表示例を示す図である。ユーザが上を向いていることにより、図8に示した場合と比べて撮像領域が変化し、現実部分を表現するものとして、撮像画像情報213としての撮像画像情報213cが表示されている。
拡張現実提供システム1(拡張現実構成部202)は、ユーザが上を向いている状態であると判定した場合には、怪物画像217bや虫画像217cではなく、コウモリ群画像217dを架空情報217として選択する。このように、拡張現実構成部202は、ユーザが上を向いている状態のときには、空を飛ぶ「コウモリ」を表現したコウモリ群画像217dを架空情報217として選択する。したがって、コウモリ群画像217dと撮像画像情報213cとが合成されて表示部23に表示される。
これにより、拡張現実提供システム1は、現実味を低下させることなく、効果的にユーザを驚かせることができる。なお、図11に示す例において、「コウモリが羽ばたくときの音」を架空情報217として選択し、スピーカ28によって再生してもよい。
図12および図13は、お化け屋敷のアプリケーションにおける表示更新例を示す図である。図12および図13において、現実部分を表現する撮像画像情報213は、図8と同様の撮像画像情報213aである。
図12に示すノイズ画像217eは、拡張現実構成部202により選択された架空情報217である。拡張現実構成部202は、状態情報216を参照し、ユーザが歩行状態であり、かつ、表示部23を閲覧している状態である場合に、ノイズ画像217eを表示させ、一旦、画面を見づらくすることによってユーザの注意を喚起する。
このような場合、ユーザは、画面を注視するために歩行を止めて静止状態になるか、あるいは、画面を鮮明にするために携帯端末装置2の操作部22を操作したりすると予想される。このようなユーザ状態を検出すると、拡張現実構成部202は、ユーザが表示部23に注視している状態であるとみなして、ノイズ画像217eの代わりに、怪物画像217bを選択し、画面を更新して表示させる(図13)。
このように、拡張現実提供システム1では、ユーザの注意を引いた後に(ユーザが注視状態であるとみなせるときに)、効果的な架空情報217を表示させることも可能である。すなわち、単に、位置情報215に基づいて決まった画像を表示するのではなく、表示するタイミングについても様々な表現が可能となる。
図14および図15は、拡張現実空間9において拡張現実として「宝探しゲーム」を提供するアプリケーションをユーザが体験している様子を概念的に示す図である。図14および図15に示されている「宝箱」は、現実にその場所に置かれているものではなく、仮想的な事物としてアプリケーション(コンテンツ情報112)内で定義されているものである。また、図14および図15において、迷路を形成している壁は、現実物体としての壁である。さらに、図14は、ユーザと「宝箱」(厳密には「宝箱」が定義されている位置)との距離が比較的遠い状態を示している。また、図15は、ユーザと「宝箱」との距離が比較的近い状態を示している。
拡張現実提供システム1は、図14に示すように、ユーザと「宝箱」とが離れている状態のときには、「宝箱」を表現したコンテンツ情報112を架空情報217として選択することはなく、例え、ユーザが表示部23を閲覧していたとしても表示されるのは撮像画像情報213のみである。一方で、図15に示すように、ユーザと「宝箱」とが近いとき、拡張現実提供システム1は、ユーザの行動状態に応じて、架空情報217を選択して、拡張現実を提供する。
例えば、図15に示すように、ユーザと宝箱とが近いときにおいて、ユーザが携帯端末装置2(表示部23の画面)を閲覧していない状態(例えば、手振り状態)であれば、拡張現実構成部202は、架空情報217として、音声情報を選択し、スピーカ28から再生する。これにより、ユーザに「宝箱」の接近を報知することができ、ユーザは携帯端末装置2の表示部23の画面を閲覧する。なお、すでに説明したように、ユーザが携帯端末装置2を閲覧していない状態のとき、拡張現実提供システム1は表示部23への表示を禁止する(図7:ステップS14参照)。
図16および図17は、ユーザと「宝箱」とが近く、かつ、ユーザが画面を閲覧しているときの表示例を示す図である。すなわち、図16および図17は、ユーザが図15に示す位置に存在しているときに表示する画面の例である。
図16は、携帯端末装置2が下を向いている状態のときの表示例である。位置状態取得部201は、携帯端末装置2の姿勢情報214を解析することにより、携帯端末装置2が下を向いている状態を検出することが可能である。その場合、位置状態取得部201は、状態情報216に「下向き状態」を記録する。拡張現実構成部202は、当該状態情報216を参照することにより、携帯端末装置2が前方に向けられているのではないと判定して、例えば、レーダー画像217fおよび宝箱画像217gを架空情報217として選択する。これにより、図16に示すように、撮像された床画像213d(現実部分を表現した画像)に、レーダー画像217fおよび宝箱画像217hが合成されて表示され、拡張現実が表現される。
図17は、携帯端末装置2が前方を向いている状態(部屋の内部に向けられている状態)のときの表示例である。図17では、部屋の内部の様子が撮像された撮像画像情報213eが現実部分を表現する画像として表示されている。さらに、宝箱画像217hが架空情報217として選択され、撮像画像情報213eに合成され表示されている。これにより、部屋の内部に「宝箱」が置かれた画像が表示部23の画面に表示され、拡張現実が表現されている。
このように、拡張現実提供システム1では、ユーザの存在する位置が同一であっても、ユーザが画面を閲覧していない状態、閲覧しているが下を向いている状態、あるいは、閲覧しながら前方を観察している状態に応じて、提供する拡張現実を変更することができる。したがって、従来の技術に比べて、拡張現実において、現実味のある、バラエティー豊かな表現が可能となる。
図18および図19は、宝探しゲームをユーザが体験している様子を概念的に示す図である。図18および図19に示す例においても、図14および図15に示した例と同様に「宝箱」が仮想的な事物として定義されている。
しかし、ここに示す例では、「宝箱」に加えて、「壁」と「ハンドル」とが定義されている。「壁」は、「宝箱」が定義されている部屋の入り口付近に定義されている。また、「壁」を表現するコンテンツ情報112は、状態情報216における履歴状態が「ハンドル未操作(初期値)」のときにのみ拡張現実構成部202によって架空情報217として選択される。一方で、状態情報216における履歴状態が「ハンドル未操作(初期値)」のとき、拡張現実構成部202は、架空情報217として宝箱画像217hを選択しない。さらに、「ハンドル」は、「宝箱」から少し離れた場所に定義されている。
ユーザが図18に示す位置(図15に示す位置と同じ位置)に到着したとしても、状態情報216が「ハンドル未操作」のままであれば、「壁」の画像が架空情報217として選択され、入り口を塞ぐように表示される。すなわち、図17に示すような画像は表示されず、ユーザは「宝箱」を発見することはできない。
図19は、ユーザが「ハンドル」が定義されている位置に移動した状態を概念的に示している。図20は、図19に示す位置にユーザが存在しているときに画面に表示される画像を示す図である。すなわち、ユーザが図19に示す位置に到着すると、現実に存在する壁を撮像した撮像画像情報213fに、架空情報217としてのハンドル画像217iおよびメッセージ画像217jが合成され、表示される。
図20に示す表示を見たユーザは、メッセージ画像217jの指示に従って、携帯端末装置2を回転させる。位置状態取得部201は、姿勢情報214および位置情報215を解析することにより、ユーザが所定の操作(携帯端末装置2を回転させる操作)を所定の位置(図19に示す位置)において実行したことを検出し、状態情報216の履歴状態を「ハンドル操作済み」と書き換える。
図21は、状態情報216が「ハンドル操作済み」と書き換えられた状態で、ユーザが図19に示す位置に移動した状態を概念的に示す図である。状態情報216に「ハンドル操作済み」と記録された状態でユーザが図21に示す位置(図18に示す位置と同じ。)に移動すると、拡張現実構成部202は、架空情報217として「壁」の画像を選択せずに、宝箱画像217hを選択する。これにより、図17と同様の表示がされることになり、ユーザは「宝箱」を発見することができる。
このように、拡張現実提供システム1は、履歴状態に応じて、架空情報217を選択することにより、さらに、柔軟な表現が可能となる。なお、架空情報217として表示される「壁」は実在しないため、ユーザは当該「壁」を無視して、仮想的な事物としての「ハンドル」を操作することなく、部屋に入ることは可能である。このような場合には、宝箱画像217hの代わりに他の画像(例えば、ガラクタの画像)を選択したり、あるいは、何も表示しないことが好ましい。拡張現実構成部202は、不正に侵入したユーザについては、状態情報216を参照することにより、「ハンドル未操作」状態であることを検出することができる。したがって、そのような場合に、宝箱画像217hを表示しないように構成することもできる。
拡張現実提供システム1が提供する拡張現実としては、ショッピングモールや地下街において、道案内(店舗案内)を行うアプリケーションも考えられる。
このようなアプリケーションでは、ユーザの高さ位置(どの階に存在しているか。)も重要な位置情報215となる。拡張現実提供システム1では、基準位置提供装置10が設置されている高さ位置(基準情報103)に基づいて、気圧センサ248を補正することができる。したがって、気圧情報2128に基づいて、ユーザの居る階を検出し、状態情報216に格納することもできる。これにより、ユーザの居る階に応じた売り場案内を画像として表示することもできる。
また、コンテンツ情報112内の地図情報と、位置情報215とを照合することにより、エスカレータに搭乗状態のユーザを検出することもできる。したがって、例えば、2階から3階に移動しているユーザに対しては、予め3階の売り場案内を表示させることもできる。エスカレータに搭乗状態となっているユーザは、商品を見ている可能性は低く、表示部23の画面を注視している可能性が高い。したがって、このようなユーザ状態を検出して架空情報217を表示することにより、効果的なタイミングを逃さず、より有効な拡張現実を提供することができる。
また、時間情報2122と状態情報216を用いれば、昼食時に未だレストランに入場していないユーザを履歴状態から検出して、当該ユーザをレストランに導くように案内することもできる。また、季節(時間情報2122)や天気(周辺の環境の状態)、好み(オーナー情報211)等により、おすすめのレストランを表現した架空情報217を選択して表示させてもよい。
以上のように、拡張現実提供システム1は、コンテンツ情報112を記憶する記憶装置21と、ユーザにより携帯される携帯端末装置2の現在位置を示す位置情報215を取得するとともに、携帯端末装置2の状態を示す状態情報216を取得する位置状態取得部201と、位置情報215および状態情報216に応じて、記憶装置21に記憶されたコンテンツ情報112から拡張現実を構成する架空情報217を選択する拡張現実構成部202と、選択された架空情報217を出力することにより、拡張現実を表現する表示部23およびスピーカ28とを備える。これにより、豊富なコンテンツ情報112から適切な架空情報217を選択することができる。したがって、よりリアルに拡張現実を表現することができるとともに、提供可能な拡張現実の幅が広がる。
また、拡張現実提供システム1は、携帯端末装置2の周辺の環境情報(磁気情報2123、音声情報2124、温度情報2125、照度情報2126、湿度情報2127および気圧情報2128)を取得し、拡張現実構成部202は、当該環境情報に応じて、前記記憶装置21に記憶されたコンテンツ情報112から拡張現実を構成する架空情報217を選択する。これにより、さらに適切な架空情報217を選択することができる。したがって、よりリアルに拡張現実を表現することができる。
また、拡張現実提供システム1は、時間情報2122を取得する時間取得部242をさらに備え、拡張現実構成部202は、時間取得部242により取得された時間情報2122に応じて、記憶装置21に記憶されたコンテンツ情報112から拡張現実を構成する架空情報217を選択する。これによっても、さらに適切な架空情報217を選択することができる。したがって、よりリアルに拡張現実を表現することができる。
位置状態取得部201は、取得された位置情報215に基づいて、状態情報216を取得する。これにより、例えば、位置が変化していることにより、移動状態を検出できる。また、エスカレータの位置に存在していれば、エスカレータに搭乗状態であることも検出できる。したがって、検出可能な状態のバリエーションが増えるため、さらにバラエティー豊かな拡張現実を提供することができる。
また、携帯端末装置2の運動に関する慣性情報2129を取得する加速度センサ240およびジャイロセンサ241をさらに備え、位置状態取得部201は、取得された慣性情報2129に基づいて、状態情報216を取得する。これによっても、検出可能な状態のバリエーションが増えるため、さらにバラエティー豊かな拡張現実を提供することができる。
また、位置状態取得部201は、取得された慣性情報2129に基づいて、位置情報215を特定する。自蔵センサを位置取得に流用することができ、位置精度が向上する。
さらに、拡張現実構成部202は、位置状態取得部201により取得された状態情報216において、携帯端末装置2を携帯するユーザの表示部23に対する閲覧状態に応じて、架空情報217としての画像情報の選択を禁止する。これにより、無駄な表示を抑制することができ、省電力および演算速度の向上が達成される。
<2. 変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
例えば、上記実施の形態に示した各工程は、あくまでも例示であって、上記に示した順序や内容に限定されるものではない。すなわち、同様の効果が得られるならば、適宜、順序や内容が変更されてもよい。例えば、撮像部25が撮像を開始する工程(ステップS5)と、センサ群24が測定を開始する工程(ステップS6)とを入れ替えてもよい。
また、上記実施の形態に示した機能ブロック(カード制御部200や位置状態取得部201、拡張現実構成部202など)は、CPU20がプログラム210に従って動作することにより、ソフトウェア的に実現されると説明した。しかし、これらの機能ブロックの一部または全部を専用の論理回路で構成し、ハードウェア的に実現してもよい。
また、上記実施の形態におけるユーザの状態とは、位置状態取得部201がユーザの行動を推定することにより取得される情報であると説明した。しかし、例えば、センサ群24に生体センサ(体温センサや脈拍センサ、発汗センサ、呼吸数計測センサなど)を含め、生体センサから得られる情報に応じてユーザの状態を判定してもよい。生体センサから得られる情報によるユーザの状態とは、行動状態に限定されるものではなく、例えば、大きく驚いている状態や、平静状態、あるいは、疲労状態等が考えられる。
また、位置を特定する構成としては、加速度センサ240およびジャイロセンサ241を用いた慣性航行による位置推定に限定されるものではない。例えば、慣性航行による位置推定の代わりに、GPS(Global Positioning System)による測位を採用する構成(GPS受信装置)としてもよい。また、GPS測位と、慣性航行による位置推定とを併用してもよい。ただし、ユーザや携帯端末装置2の様々な状態を検出するためには、加速度センサ240およびジャイロセンサ241によって慣性情報2129を取得することが好ましい。したがって、本発明は、慣性航行による位置推定を行う構成との親和性が高いと言える。
また、架空情報217は、表示部23に表示される画像情報やスピーカ28から再生される音声情報に限定されるものではない。例えば、携帯端末装置2をバイブレータ(図示せず)により振動させるといった表現も可能である。
また、携帯端末装置2は、HMD(Head Mounted Display)型の装置として構成することも可能である。HMD型の装置は、ユーザが頭部に装着することにより、当該ユーザに付随して移動する装置である。この場合、現実部分を表現した画像(撮像画像情報213)を表示する必要はなく、架空情報217の表示のみで拡張現実を提供することができる。
また、指標となる物体は、基準位置提供装置10のような装置に限定されるものではなく、基準位置や基準姿勢に関する情報を表現したバーコードでもよい。例えば、基準位置において特定の姿勢で読み取るバーコードを拡張現実空間9の近傍に設け、これを撮像部25で撮像し読み取るように構成してもよい。
また、上記実施の形態では、センサ群24と出力手段(表示部23およびスピーカ28)とが同一の装置に設けられている例について説明した。しかし、これらは別の装置に存在してもよい。例えば、ペット(対象物)にセンサ群24を取り付けて、拡張現実空間9内に放し、当該ペットの動きに応じて、ユーザが携帯する装置に設けられた出力手段に仮想物体を表示することにより拡張現実を提供してもよい。あるいは、センサ群24を内蔵したボール(対象物)を拡張現実空間9内でユーザが投げ、投げられた瞬間の位置および加速度に応じて、当該ボールの軌道を計算し、当該ボールに対応した仮想物体(例えば、槍や魔法による火の玉など)の軌道や標的となった敵の様子をユーザの手元の装置(出力手段)に表示するといったアプリケーションも想定される。
また、架空情報217としては、所定のエフェクト(処理効果)を定義した情報でもよい。例えば、現実を表現する撮像画像情報213の一部または全部に、選択されたエフェクトを施して、仮想事物として表示してもよい。このようなエフェクトとしては、現実の物体が徐々に歪んでいく演出(変形)や、色彩が失われていく演出(変色)などが考えられる。すなわち、本来であれば現実部分を表現する撮像画像情報213を仮想的に変化させて、拡張現実を表現してもよい。
1 拡張現実提供システム
10 基準位置提供装置
100 非接触ICカードリーダー部
101,110,21 記憶装置
102,111,210 プログラム
103 基準情報
11 データベースサーバ
112 コンテンツ情報
112 候補情報
2 携帯端末装置
20 CPU
200 カード制御部
201 位置状態取得部
202 拡張現実構成部
211 オーナー情報
212 収集情報
2120 加速度情報
2121 角速度情報
2122 時間情報
2123 磁気情報
2124 音声情報
2125 温度情報
2126 照度情報
2127 湿度情報
2128 気圧情報
2129 慣性情報
213,213a,213b,213c,213e,213f 撮像画像情報
213d 床画像
214 姿勢情報
215 位置情報
216 状態情報
217 架空情報
217a 樹木画像
217b 怪物画像
217c 虫画像
217d コウモリ群画像
217e ノイズ画像
217f レーダー画像
217g,217h 宝箱画像
217i ハンドル画像
217j メッセージ画像
22 操作部
23 表示部
24 センサ群
240 加速度センサ
241 ジャイロセンサ
242 時間取得部
243 磁気センサ
244 マイク
245 温度センサ
246 照度センサ
247 湿度センサ
248 気圧センサ
25 撮像部
26 非接触ICカード部
27 通信部
28 スピーカ
9 拡張現実空間

Claims (10)

  1. コンテンツ情報を記憶する記憶手段と、
    ユーザにより携帯される端末装置の現在位置を示す位置情報を取得する位置取得手段と、
    前記端末装置の状態を示す状態情報を取得する状態取得手段と、
    前記位置取得手段により取得された前記位置情報および前記状態取得手段により取得された前記状態情報に応じて、前記記憶手段に記憶されたコンテンツ情報から拡張現実を構成する架空情報を選択する情報選択手段と、
    前記情報選択手段により選択された架空情報を出力することにより、前記拡張現実を表現する出力手段と、
    を備える拡張現実提供システム。
  2. 請求項1に記載の拡張現実提供システムであって、
    前記端末装置の周辺の環境情報を取得する環境取得手段をさらに備え、
    前記情報選択手段は、前記環境取得手段により検出された前記環境情報に応じて、前記記憶手段に記憶されたコンテンツ情報から拡張現実を構成する架空情報を選択する拡張現実提供システム。
  3. 請求項1または2に記載の拡張現実提供システムであって、
    時間情報を取得する時間取得手段をさらに備え、
    前記情報選択手段は、前記時間取得手段により取得された前記時間情報に応じて、前記記憶手段に記憶されたコンテンツ情報から拡張現実を構成する架空情報を選択する拡張現実提供システム。
  4. 請求項1ないし3のいずれかに記載の拡張堅実システムであって、
    前記状態取得手段は、前記位置取得手段により取得された位置情報に基づいて、前記状態情報を取得する拡張現実提供システム。
  5. 請求項1ないし4のいずれかに記載の拡張現実提供システムであって、
    前記端末装置の運動に関する慣性情報を取得する運動検出手段をさらに備える拡張現実提供システム。
  6. 請求項5に記載の拡張現実提供システムであって、
    前記状態取得手段は、前記運動検出手段により取得された慣性情報に基づいて、前記状態情報を取得する拡張現実提供システム。
  7. 請求項5または6に記載の拡張現実提供システムであって、
    前記位置取得手段は、前記運動検出手段により取得された慣性情報に基づいて、前記位置情報を特定する拡張現実提供システム。
  8. 請求項1ないし7のいずれかに記載の拡張現実提供システムであって、
    前記出力手段は、画像情報を表示するディスプレイを備え、
    前記情報選択手段は、前記状態取得手段により取得された前記状態情報において、前記端末装置を携帯するユーザの前記ディスプレイに対する閲覧状態に応じて、前記架空情報としての画像情報の選択を禁止する拡張現実提供システム。
  9. ユーザにより携帯されるコンピュータ読み取り可能なプログラムであって、前記コンピュータによって実行されることにより、前記コンピュータを、
    コンテンツ情報を記憶する記憶手段と、
    前記コンピュータの現在位置を示す位置情報を特定する位置取得手段と、
    前記コンピュータの状態を示す状態情報を取得する状態取得手段と、
    前記位置取得手段により特定された前記位置情報および前記状態取得手段により取得された前記状態情報に応じて、前記記憶手段に記憶されたコンテンツ情報から拡張現実を構成する架空情報を選択する情報選択手段と、
    前記情報選択手段により選択された架空情報を出力することにより、前記拡張現実を表現する出力手段と、
    を備えるコンピュータとして機能させるプログラム。
  10. コンテンツ情報を記憶手段に記憶する工程と、
    ユーザにより携帯される端末装置の現在位置を示す位置情報を特定する工程と、
    前記端末装置の状態を示す状態情報を取得する工程と、
    前記位置情報および前記状態情報に応じて、前記記憶手段に記憶されたコンテンツ情報から拡張現実を構成する架空情報を選択する工程と、
    選択された前記架空情報を出力することにより、前記拡張現実を表現する工程と、
    を有する拡張現実提供方法。
JP2014022949A 2014-02-10 2014-02-10 拡張現実提供システム、プログラムおよび拡張現実提供方法 Pending JP2015149032A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014022949A JP2015149032A (ja) 2014-02-10 2014-02-10 拡張現実提供システム、プログラムおよび拡張現実提供方法
PCT/JP2015/052916 WO2015119092A1 (ja) 2014-02-10 2015-02-03 拡張現実提供システム、記録媒体および拡張現実提供方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014022949A JP2015149032A (ja) 2014-02-10 2014-02-10 拡張現実提供システム、プログラムおよび拡張現実提供方法

Publications (1)

Publication Number Publication Date
JP2015149032A true JP2015149032A (ja) 2015-08-20

Family

ID=53777897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014022949A Pending JP2015149032A (ja) 2014-02-10 2014-02-10 拡張現実提供システム、プログラムおよび拡張現実提供方法

Country Status (2)

Country Link
JP (1) JP2015149032A (ja)
WO (1) WO2015119092A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6213752B1 (ja) * 2016-09-26 2017-10-18 株式会社Pfu 誘導システム、誘導方法、及びプログラム
JP2019150579A (ja) * 2019-02-28 2019-09-12 合同会社ユー・エス・ジェイ 仮想現実装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016119640A1 (de) * 2016-10-14 2018-04-19 Uniqfeed Ag System zur Erzeugung angereicherter Bilder
JP2020108416A (ja) * 2017-03-30 2020-07-16 株式会社村田製作所 ゲーム用のプログラムおよび携帯端末
CN113918014B (zh) * 2021-09-28 2024-07-12 深圳市慧鲤科技有限公司 虚拟物体控制方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012070595A1 (ja) * 2010-11-23 2012-05-31 日本電気株式会社 位置情報提供装置、位置情報提供システム、位置情報提供方法、プログラム及び記録媒体
JP2013059573A (ja) * 2011-09-14 2013-04-04 Namco Bandai Games Inc プログラム、情報記憶媒体およびゲーム装置
WO2013128510A1 (ja) * 2012-03-02 2013-09-06 Necカシオモバイルコミュニケーションズ株式会社 起動用uiを提示可能な機器、その提示方法および提示プログラムを格納した非一時的なコンピュータ可読媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005066133A (ja) * 2003-08-26 2005-03-17 Sony Computer Entertainment Inc 情報端末

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012070595A1 (ja) * 2010-11-23 2012-05-31 日本電気株式会社 位置情報提供装置、位置情報提供システム、位置情報提供方法、プログラム及び記録媒体
JP2013059573A (ja) * 2011-09-14 2013-04-04 Namco Bandai Games Inc プログラム、情報記憶媒体およびゲーム装置
WO2013128510A1 (ja) * 2012-03-02 2013-09-06 Necカシオモバイルコミュニケーションズ株式会社 起動用uiを提示可能な機器、その提示方法および提示プログラムを格納した非一時的なコンピュータ可読媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6213752B1 (ja) * 2016-09-26 2017-10-18 株式会社Pfu 誘導システム、誘導方法、及びプログラム
JP2018055148A (ja) * 2016-09-26 2018-04-05 株式会社Pfu 誘導システム、誘導方法、及びプログラム
JP2019150579A (ja) * 2019-02-28 2019-09-12 合同会社ユー・エス・ジェイ 仮想現実装置

Also Published As

Publication number Publication date
WO2015119092A1 (ja) 2015-08-13

Similar Documents

Publication Publication Date Title
WO2014136700A1 (ja) 拡張現実提供システム、記録媒体および拡張現実提供方法
US10169923B2 (en) Wearable display system that displays a workout guide
EP2791908B1 (en) Augmented reality personalization
US7584158B2 (en) User support apparatus
WO2015119092A1 (ja) 拡張現実提供システム、記録媒体および拡張現実提供方法
CN109844454A (zh) 用于在全球定位系统(gps)拒止环境中进行导航的方法、系统和软件
CN107208836B (zh) 用于支持具有不同效果的摄影术的系统和方法
CN107850443A (zh) 信息处理装置、信息处理方法以及程序
JP2005315802A (ja) ユーザ支援装置
CN102388406A (zh) 使用便携式电子设备记录产生三维模型
KR101790592B1 (ko) 관광드론을 이용한 증강현실 관광 시스템 및 방법
KR101213022B1 (ko) 이동 통신 단말을 이용한 가상 보물찾기 시스템 및 방법
WO2016002284A1 (ja) 情報処理装置、情報処理方法およびプログラム
KR102578119B1 (ko) 모바일 디바이스와 연동하는 스마트 안경 작동 방법
JP2003134510A (ja) 画像情報配信システム
JP2010039256A (ja) 表示システム、表示方法,及び移動体
JP2019109739A (ja) 情報処理装置及びプログラム
JP6475776B2 (ja) 拡張現実システムおよび拡張現実提供方法
JP2015019936A (ja) ネットワークシステム、端末、サーバー、プログラム、並びにトレーニング支援方法
JP2019075126A (ja) 情報処理装置及びプログラム
US10650037B2 (en) Enhancing information in a three-dimensional map
US20150358782A1 (en) Catch the screen
JP6754893B2 (ja) 画像生成装置及び画像生成方法
WO2024090065A1 (ja) 情報処理装置、方法及びプログラム
KR20180095400A (ko) Vr/ar 교구를 활용한 시-공간 융합 컨텐츠 제공 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180807