JP6475776B2 - Augmented reality system and augmented reality providing method - Google Patents
Augmented reality system and augmented reality providing method Download PDFInfo
- Publication number
- JP6475776B2 JP6475776B2 JP2017087902A JP2017087902A JP6475776B2 JP 6475776 B2 JP6475776 B2 JP 6475776B2 JP 2017087902 A JP2017087902 A JP 2017087902A JP 2017087902 A JP2017087902 A JP 2017087902A JP 6475776 B2 JP6475776 B2 JP 6475776B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- sensor
- augmented reality
- terminal device
- reference position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、現実環境を拡張した拡張現実を実現する技術に関する。 The present invention relates to a technology for realizing augmented reality by extending a real environment.
従来より、現実の環境における情報に、コンピュータ等で作成した情報を付与することで、現実環境を拡張する拡張現実(AR:Augmented Reality)を実現する技術が知られている。拡張現実は視覚的に与えられるのが一般的である。そのため拡張現実を実現するためには、コンピュータが拡張現実を体感するユーザの視野を知得する必要があり、ユーザの位置を把握する必要がある。 2. Description of the Related Art Conventionally, a technology for realizing augmented reality (AR) that augments a real environment by adding information created by a computer or the like to information in the real environment is known. Augmented reality is generally given visually. Therefore, in order to realize augmented reality, it is necessary for the computer to know the field of view of the user experiencing the augmented reality, and it is necessary to grasp the position of the user.
そこで、位置を把握する技術として、GPS(Global Positioning System)を利用した拡張現実技術が提案されている。例えば、特許文献1に記載されている技術は、GPSにより取得した位置情報を基にして、表示する仮想物体の内容や、現実環境における表示位置を決定し、現実の視覚情報と仮想物体とを合成表示する技術である。特許文献1では、GPSより取得した位置情報から周囲の地物情報をデータベースより取得し、透過型ディスプレイに仮想物体を描画することで現実環境と仮想物体との合成を実現している。
Therefore, an augmented reality technique using GPS (Global Positioning System) has been proposed as a technique for grasping the position. For example, the technique described in
また、例えば、撮影画像を利用した拡張現実技術も知られている。撮影画像を利用した拡張現実技術は、現実空間に専用の識別情報を有する画像(マーカ)を設置し、撮影画像内にマーカが存在すればマーカ上に仮想物体を描画する方法や、画像内の特定の図形(人体など)を認識し仮想物体を描画する方法などがある。例えば、特許文献2には、現実環境に存在するマーカを利用して仮想物体の重畳表示を可能とする技術が記載されている。また、特許文献3には、現実環境に実物体としてのマーカを必要とせず、既知である現実空間の配置物を識別して仮想物体の表示を可能とする技術が記載されている。
Also, for example, augmented reality technology using captured images is also known. Augmented reality technology using photographed images installs an image (marker) having dedicated identification information in real space, and if a marker exists in the photographed image, a method of drawing a virtual object on the marker, There is a method of recognizing a specific figure (such as a human body) and drawing a virtual object. For example,
ところが、特許文献1に記載された技術では、GPS信号が微弱な環境下ではGPS測位精度の低下により、仮想物体の表示位置がずれるという問題があった。そもそも特許文献1に記載された技術では、GPS信号を受信できない環境下において、仮想物体を表示することすらできないという問題があった。特に、拡張現実は屋内で提供されることが普通であり、屋内はGPS信号が微弱になりやすいという特性がある。したがって、拡張現実とGPSとは相性が悪いという事情がある。また、拡張現実は可搬性の出力装置により実現されるが、GPS信号を利用する場合、常に、GPS信号を受信しつつ処理せねばならず、バッテリ駆動を余儀なくされる可搬性の出力装置にとって消費電力の増大を招くという問題もある。
However, the technique described in
また、特許文献2,3に記載された技術では、マーカや配置物の状態によっては、認識に失敗する可能性があるという問題がある。また、現実空間に特定のマーカや配置物の設置が必要となり、景観を損ねるという問題もある。また、仮想物体の表示内容を変更するときには、現実環境におけるマーカや配置物の移動が必要となり汎用性が低下するという問題もある。さらには、拡張現実を実行している間、常に撮影画像に対する画像認識処理を必要とするため、演算量が多く、コンピュータに対する負荷および消費電力が大きいという問題もある。
In addition, the techniques described in
本発明は、上記課題に鑑みてなされたものであり、GPS信号が受信できないような環境下においても、専用のマーカを必要とすることなく、拡張現実を実現する技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide a technique for realizing augmented reality without requiring a dedicated marker even in an environment where GPS signals cannot be received. To do.
上記の課題を解決するため、請求項1の発明は、拡張現実システムであって、位置が可変の携帯端末装置と、絶対位置が既知の指標手段とを備え、動きに関する情報を測定するセンサと、前記センサの基準位置および前記基準位置における前記センサの姿勢を記憶する第1記憶手段と、前記指標手段の個別情報を取得する取得手段と、前記センサが前記基準位置に存在しているか否かを判定する判定手段と、前記判定手段により前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する位置特定手段と、前記判定手段により前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在の姿勢を特定する姿勢特定手段と、前記位置特定手段により特定された前記センサの現在位置と前記姿勢特定手段により特定された前記センサの現在の姿勢とに応じて出力情報を出力することにより拡張現実を表現する出力手段とをさらに備え、前記指標手段は、前記センサが前記基準位置に存在しているときの前記センサの姿勢を、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢となるように規定する筐体を備え、前記センサおよび前記取得手段は、前記携帯端末装置に設けられており、前記判定手段は、前記取得手段により前記指標手段の個別情報が取得されたときに前記センサが前記基準位置に存在していると判定する。
In order to solve the above-mentioned problem, the invention of
また、請求項2の発明は、請求項1の発明に係る拡張現実システムであって、複数の前記携帯端末装置を備え、前記携帯端末装置は、拡張現実空間内に存在する他の携帯端末装置との間で無線によるデータ通信を行う第2通信手段と、前記出力手段とを備え、前記第2通信手段は、前記他の携帯端末装置が備える前記センサの現在位置を無線によるデータ通信により受信し、前記出力手段は、前記第2通信手段により受信した前記他の携帯端末装置が備える前記センサの現在位置に応じて出力情報を出力する。
The invention of
また、請求項3の発明は、請求項1の発明に係る拡張現実システムであって、前記携帯端末装置は、拡張現実空間内に存在する端末装置との間で無線によるデータ通信を行う第3通信手段と、前記出力手段とを備え、前記第3通信手段は、前記端末装置に関する固有の情報を無線によるデータ通信により受信し、前記出力手段は、前記第3通信手段により受信した前記端末装置に関する固有の情報に応じて出力情報を出力する。
The invention of claim 3 is the augmented reality system according to the invention of
また、請求項4の発明は、請求項1ないし3のいずれかの発明に係る拡張現実システムであって、前記センサが付随する対象物に関する情報を記憶する第2記憶手段をさらに備え、前記出力手段は、前記第2記憶手段に記憶された前記対象物に関する情報に応じた出力情報を出力する。
The invention according to claim 4 is the augmented reality system according to any one of
また、請求項5の発明は、請求項1ないし4のいずれかの発明に係る拡張現実システムであって、生体に関する生体情報を測定する生体センサをさらに備え、前記出力手段は、前記生体センサにより測定された生体情報に応じた出力情報を出力する。
The invention according to claim 5 is the augmented reality system according to any one of
また、請求項6の発明は、位置が可変の携帯端末装置による拡張現実提供方法であって、動きに関する情報をセンサによって測定する工程と、前記センサの基準位置および前記基準位置における前記センサの姿勢を第1記憶手段に記憶させる工程と、外部に存在する絶対位置が既知の指標手段の個別情報を取得する工程と、前記センサが前記基準位置に存在しているときの前記センサの姿勢を、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢となるように前記指標手段が備える筐体によって規定する工程と、前記センサが前記基準位置に存在しているか否かを判定する工程と、前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する工程と、前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在の姿勢を特定する工程と、特定された前記センサの現在位置と特定された前記センサの現在の姿勢とに応じて出力情報を出力することにより拡張現実を表現する工程とを有し、前記指標手段の個別情報が取得されたときに、前記判定する工程において、前記センサが前記基準位置に存在していると判定する。
Further, the invention of
請求項1ないし5に記載の発明は、動きに関する情報を測定するセンサと、センサの基準位置および基準位置におけるセンサの姿勢を記憶する第1記憶手段と、指標手段の個別情報を取得する取得手段と、センサが基準位置に存在しているか否かを判定する判定手段と、判定手段によりセンサが基準位置に存在していると判定された後において、第1記憶手段に記憶された基準位置と、センサにより測定された動きに関する情報とに基づいて、センサの現在位置を特定する位置特定手段と、判定手段によりセンサが基準位置に存在していると判定された後において、第1記憶手段に記憶された基準位置におけるセンサの姿勢と、センサにより測定された動きに関する情報とに基づいて、センサの現在の姿勢を特定する姿勢特定手段と、位置特定手段により特定されたセンサの現在位置と姿勢特定手段により特定されたセンサの現在の姿勢とに応じて出力情報を出力することにより拡張現実を表現する出力手段とを備え、指標手段は、センサが基準位置に存在しているときのセンサの姿勢を、第1記憶手段に記憶された基準位置におけるセンサの姿勢となるように規定する筐体を備え、判定手段は、取得手段により指標手段の個別情報が取得されたときにセンサが基準位置に存在していると判定する。これにより、GPS信号が受信できない環境下においても、マーカなどを設置することなく、拡張現実を実現することができる。
The invention according to
また、請求項6に記載の発明は、動きに関する情報をセンサによって測定する工程と、センサの基準位置および基準位置におけるセンサの姿勢を第1記憶手段に記憶させる工程と、外部に存在する絶対位置が既知の指標手段の個別情報を取得する工程と、センサが基準位置に存在しているときのセンサの姿勢を、第1記憶手段に記憶された基準位置におけるセンサの姿勢となるように指標手段が備える筐体によって規定する工程と、センサが基準位置に存在しているか否かを判定する工程と、センサが基準位置に存在していると判定された後において、第1記憶手段に記憶された基準位置と、センサにより測定された動きに関する情報とに基づいて、センサの現在位置を特定する工程と、センサが基準位置に存在していると判定された後において、第1記憶手段に記憶された基準位置におけるセンサの姿勢と、センサにより測定された動きに関する情報とに基づいて、センサの現在の姿勢を特定する工程と、特定されたセンサの現在位置と特定されたセンサの現在の姿勢とに応じて出力情報を出力することにより拡張現実を表現する工程とを有し、指標手段の個別情報が取得されたときに、判定する工程において、センサが基準位置に存在していると判定する。これにより、GPS信号が受信できない環境下においても、マーカなどを設置することなく、拡張現実を実現することができる。 According to the sixth aspect of the present invention, the step of measuring information relating to movement by the sensor, the step of storing the reference position of the sensor and the attitude of the sensor at the reference position in the first storage means, and the absolute position existing outside Acquiring the individual information of the known index means, and the index means so that the orientation of the sensor when the sensor is present at the reference position becomes the orientation of the sensor at the reference position stored in the first storage means Stored in the first storage means after it is determined that the sensor is present at the reference position, the step of determining whether the sensor is present at the reference position, and the step of determining whether the sensor is present at the reference position. The step of identifying the current position of the sensor based on the measured reference position and information on the movement measured by the sensor, and after determining that the sensor is present at the reference position. The step of identifying the current posture of the sensor based on the posture of the sensor at the reference position stored in the first storage means and the information related to the movement measured by the sensor, and the current position of the identified sensor, Outputting augmented reality by outputting output information according to the current posture of the identified sensor, and when the individual information of the index means is acquired, the sensor determines the reference It is determined that it exists at the position. Thereby, even in an environment where GPS signals cannot be received, augmented reality can be realized without installing a marker or the like.
以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。ただし、以下の説明において特に断らない限り、方向や向きに関する記述は、当該説明の便宜上、図面に対応するものであり、例えば実施品、製品または権利範囲等を限定するものではない。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. However, unless otherwise specified in the following description, descriptions of directions and orientations correspond to the drawings for the convenience of the description, and do not limit, for example, a product, a product, or a scope of rights.
<1. 第1の実施の形態>
図1は、第1の実施の形態における拡張現実システム1を示す図である。図1に示す拡張現実空間9は、拡張現実システム1による拡張現実が提供されるエリアを概念的に図示したものである。
<1. First Embodiment>
FIG. 1 is a diagram illustrating an
拡張現実システム1は、携帯端末装置2と、絶対位置が既知であり位置が当該絶対位置に固定される設置型の装置として構成される基準位置取得装置10と、データベースサーバ11とを備えている。なお、携帯端末装置2、基準位置取得装置10およびデータベースサーバ11の数は、図1に示す数に限定されるものではない。
The
第1の実施の形態における拡張現実システム1において、基準位置取得装置10およびデータベースサーバ11は、システム運営者によって提供され設置される装置を想定している。一方で、携帯端末装置2としては、システム運営者が拡張現実を提供しようとするエリアを訪れたユーザによって所有される装置を想定しており、個人所有の携帯電話、スマートフォン、PDA端末などが該当する。
In the
図2は、第1の実施の形態における携帯端末装置2、基準位置取得装置10およびデータベースサーバ11のブロック図である。
FIG. 2 is a block diagram of the mobile
携帯端末装置2は、CPU20、記憶装置21、操作部22、表示部23、センサ群24、撮像部25、非接触ICカード部26および通信部27を備えている。携帯端末装置2は、ユーザに携帯されることにより、対象物としてのユーザに付随して移動する装置(位置が可変の装置)として構成されている。また、携帯端末装置2がセンサ群24を備えていることにより、当該センサ群24も対象物としてのユーザに付随した状態となっている。
The mobile
CPU20は、記憶装置21に格納されているプログラム210を読み取りつつ実行し、各種データの演算や制御信号の生成等を行う。これにより、CPU20は、携帯端末装置2が備える各構成を制御するとともに、各種データを演算し作成する機能を有している。すなわち、携帯端末装置2は、一般的なコンピュータとして構成されている。
The
記憶装置21は、携帯端末装置2において各種データを記憶する機能を提供する。特に、本実施の形態における記憶装置21は、プログラム210、基準情報103、候補情報112、測定情報212、位置情報214、出力情報215、撮像画像情報213およびオーナー情報211を記憶するために使用される。
The
記憶装置21としては、CPU20の一時的なワーキングエリアとして使用されるRAMやバッファ、読み取り専用のROM、不揮発性のメモリ(例えばNANDメモリなど)、比較的大容量のデータを記憶するハードディスク、専用の読み取り装置に装着された可搬性の記憶媒体(CD−ROM、PCカード、SDカード、USBメモリなど)等が該当する。図1においては、記憶装置21を、あたかも1つの構造物であるかのように図示している。しかし、通常、記憶装置21は、上記例示した各種装置(あるいは媒体)のうち、必要に応じて採用される複数種類の装置から構成されるものである。すなわち、記憶装置21は、データを記憶する機能を有する装置群の総称である(後述する記憶装置101,110についても同様)。
As the
また、現実のCPU20は高速にアクセス可能なRAMを内部に備えた電子回路である。しかし、このようなCPU20が備える記憶装置も、説明の都合上、記憶装置21に含めて説明する。すなわち、本実施の形態においては、一時的にCPU20自体が記憶するデータも、記憶装置21が記憶するとして説明する。
The
操作部22は、ユーザが携帯端末装置2(拡張現実システム1)に対して指示を入力するために操作されるハードウェアである。操作部22としては、例えば、各種キーやボタン類、タッチパネル、ポインティングデバイスなどが該当する。
The
表示部23は、各種データを表示することにより出力する機能を有するハードウェアである。表示部23としては、例えば、ランプやLED、液晶ディスプレイや液晶パネルなどが該当する。特に、本実施の形態における表示部23は、画像を画面に表示する液晶ディスプレイを備えており、出力情報215を出力することにより拡張現実を表現する機能を有している。すなわち、第1の実施の形態における表示部23は、本発明に係る出力手段に相当する。
The
センサ群24は、動きに関する情報を測定する複数のセンサで構成されている。センサ群24に含まれるセンサとしては、加速度センサ、ジャイロセンサ、地磁気センサなど、相対的な測位を実行するための検出装置が該当する。センサ群24からの出力(測定値)は、記憶装置21に転送され、測定情報212として記憶される。詳細は後述するが、CPU20は、測定情報212に基づいて、「動き」による移動経路を演算する。
The
センサ群24によって測定された測定情報212に基づいて演算される移動経路は、厳密にはセンサ群24の移動経路である。しかし、すでに説明したように、本実施の形態における拡張現実システム1においては、ユーザが携帯端末装置2を携帯することにより、センサ群24が対象物としてのユーザに付随した状態となる。これにより、センサ群24は、主に、ユーザの動きを反映した情報を測定することになる。したがって、拡張現実システム1は、センサ群24の移動経路を、当該センサ群24が付随しているユーザの移動経路とみなす。以下の説明では、特に断らない限り、センサ群24の移動経路と対象物の移動経路とを区別せずに、単に「移動経路」と称する。
The movement path calculated based on the
なお、従来の技術を採用して、センサ群24の移動経路を適宜補正、修正し、より精度の高い対象物の移動経路としてもよい。例えば、ユーザの歩行状態を表す測定情報212が得られている間のユーザの移動経路については、測定情報212を用いて演算するのではなく、ユーザの平均的な歩幅や歩行速度といった情報(ユーザ情報)を採用して演算してもよい。また、センサ群24に含まれるセンサは、上記に示した例に限定されるものではない。
In addition, it is good also as employ | adopting a prior art and correct | amending and correcting suitably the movement path | route of the
撮像部25は、レンズなどの光学素子と、CCDなどの光電変換素子を備え、撮像範囲内にある被写体を撮像して、当該被写体の現実の外観を表現した撮像画像情報213を取得する機能を有している。すなわち、撮像部25は、一般的なデジタルカメラとしての構成および機能を有している。
The
詳細は後述するが、第1の実施の形態において、表示部23は、周囲に現実に存在する被写体の現実の外観を表現した撮像画像情報213と、周囲に存在しない事物(文字などを含む。)を表現した候補情報112から選択される出力情報215とを合成して表示することにより、画面に拡張現実を表現する。また、以下の説明では、特に断らない限り、撮像画像情報213は、複数のフレーム画像から構成されるカラーの動画像である。
Although details will be described later, in the first embodiment, the
非接触ICカード部26は、一般的な非接触ICカードの構成および機能を有している。これにより、携帯端末装置2は、基準位置取得装置10の非接触ICカードリーダ部100との間で、近接無線通信を行うことが可能とされている。なお、非接触ICカード部26の回路構成および機能等は、従来技術(各種標準規格等)を適宜採用可能である。したがって、非接触ICカード部26の回路構成および機能についての詳細な説明は、省略する。
The non-contact
このように、携帯端末装置2が非接触ICカード部26を備えているため、ユーザは、携帯端末装置2を基準位置取得装置10の非接触ICカードリーダ部100に近接させてかざすことにより、基準位置取得装置10から必要な情報を、非接触ICカード部26側に取得することができる。特に、本実施の形態における携帯端末装置2は、基準情報103および候補情報112を、基準位置取得装置10から取得する。なお、以下の説明では、ユーザが、携帯端末装置2を非接触ICカードリーダ部100に近接させてかざす一連の動作を「通信可能化動作」と称する。
Thus, since the mobile
通信部27は、携帯端末装置2が外部の装置との間で無線による通信を行う機能を提供する。通信部27が提供する通信は、データ通信に限定されるものではなく、通話であってもよい。
The
基準位置取得装置10は、拡張現実を提供するエリアの近傍に設置される装置である。基準位置取得装置10は、絶対位置が既知であり、当該絶対位置に固定される設置型の装置として構成されている。図2に示すように、基準位置取得装置10は、非接触ICカードリーダ部100および記憶装置101を備えている。なお、図2では、基準位置取得装置10の詳細な構成の図示を省略しているが、基準位置取得装置10は、CPUや操作部、表示部および通信部などを備えており、一般的なコンピュータとして構成されている。
The reference
非接触ICカードリーダ部100は、一般的な非接触ICカードとの間で近接無線通信を行い、当該非接触ICカードに記憶されている様々な情報を読み取ることが可能であるとともに、当該非接触ICカードに様々な情報を送信することも可能である。このような非接触ICカードリーダ部100としては、従来の技術を適用できるため、詳細な説明は省略する。本実施の形態における非接触ICカードリーダ部100は、携帯端末装置2が備える非接触ICカード部26との間で近接無線通信を行う。
The non-contact IC
基準位置取得装置10の外表面を構成する筐体は、図1に示すように、ユーザが通信可能化動作を行うために適した外観となっている。すなわち、ユーザが通信可能化動作を実行するときの携帯端末装置2(センサ群24)の位置および姿勢とが明確に規定される外観となっている。具体的には、非接触ICカードリーダ部100の位置において、筐体の外表面が水平面に対して傾斜した平面形状となっており、かつ、当該外表面の色彩が他の部分と異なるように図案化されている。これにより、ユーザは、混乱することなく、かつ、正確に通信可能化動作を実行することができる。
As shown in FIG. 1, the casing constituting the outer surface of the reference
ユーザが通信可能化を実行しているときの携帯端末装置2の位置および姿勢は、先述のように、基準位置取得装置10の筐体によって規定される。また、基準位置取得装置10の絶対位置は既知であり、かつ、基準位置取得装置10が設置型の装置であることから当該絶対位置は容易に変化することはない。したがって、基準位置取得装置10の非接触ICカードリーダ部100と、携帯端末装置2の非接触ICカード部26とが、互いにデータ通信を行っているときにおいて、携帯端末装置2(センサ群24)の位置および姿勢は既知とみなせる。
The position and orientation of the mobile
本実施の形態における拡張現実システム1は、基準位置取得装置10の非接触ICカードリーダ部100と、携帯端末装置2の非接触ICカード部26とが互いにデータ通信を行っているときの携帯端末装置2(センサ群24)の位置を「基準位置」とし、当該基準位置におけるセンサ群24の姿勢(向き)を「基準位置における姿勢」とする。
The
基準位置および基準位置における姿勢は、いずれも基準位置取得装置10を設置する際に各基準位置取得装置10ごとに予め測定し、基準情報103として記憶しておくことができる。すなわち、基準情報103は、基準位置取得装置10の個別情報に相当し、非接触ICカードリーダ部100と非接触ICカード部26とが互いにデータ通信を行っているときのセンサ群24の位置および姿勢(向き)を示す情報である。
Both the reference position and the posture at the reference position can be measured in advance for each reference
記憶装置101は、基準位置取得装置10において情報を記憶する機能を有する装置の総称である。特に、記憶装置101は、基準位置取得装置10のCPU(図示せず)によって実行されるプログラム102、基準位置取得装置10の個別情報としての基準情報103、および、データベースサーバ11から取得される候補情報112を記憶するために使用される。
The
データベースサーバ11は、図2に示すように、記憶装置110を備えている。なお、図2では、データベースサーバ11の詳細な構成の図示を省略しているが、データベースサーバ11は、CPUや操作部、表示部および通信部などを備えており、一般的なコンピュータとして構成されている。
As shown in FIG. 2, the
データベースサーバ11は、基準位置取得装置10と異なり、拡張現実を提供するエリアの近傍に限定されることなく設置される装置である。データベースサーバ11の設置場所としては、例えばシステム運営者のセンタやバックヤードなどが想定される。データベースサーバ11は、LANやインターネット、公衆網などのネットワークを介して基準位置取得装置10と接続されており、必要に応じて候補情報112を基準位置取得装置10に送信する。
Unlike the reference
記憶装置110は、データベースサーバ11において情報を記憶する機能を有する装置の総称である。特に、記憶装置110は、データベースサーバ11のCPU(図示せず)によって実行されるプログラム111、および、候補情報112を記憶するために使用される。
The
候補情報112は、拡張現実を提供するときに使用される素材(コンテンツ)に関する情報であり、データベースサーバ11のオペレータやデザイナ、プログラマ等により作成され、記憶装置110に格納される。具体的には、候補情報112は、拡張現実において表示される仮想物体のグラフィック情報、位置に関する情報、時間に関する情報、あるいは、拡張現実空間9における地図情報(レイアウトデータ)などである。なお、候補情報112に含まれる各情報には、出力情報215として選択する際に参照されるタグ(分類、説明など)が付加されている。
The
候補情報112は、一般には、基準位置取得装置10の周辺で提供される拡張現実ごとに異なる情報であり、それぞれの基準位置取得装置10ごとにデータベースサーバ11から送信される。また、提供中の拡張現実の内容を変更するときには、データベースサーバ11において候補情報112が更新され、基準位置取得装置10に向けてアップロードされる。
The
図3は、第1の実施の形態における携帯端末装置2が備える機能ブロックをデータの流れとともに示す図である。図3に示すカード制御部200、位置姿勢特定部201および拡張現実構成部202は、CPU20がプログラム210に従って動作することにより実現される機能ブロックである。
FIG. 3 is a diagram illustrating functional blocks included in the mobile
カード制御部200は、非接触ICカード部26を制御することにより、基準位置取得装置10との間の近接無線通信を制御する機能を有している。すなわち、カード制御部200は、非接触ICカード部26との間のインタフェースを構成しており、非接触ICカード部26が受信した基準情報103および候補情報112を記憶装置21に転送し、記憶させる。なお、図3では、記憶装置21から何らかの情報が読み出されて非接触ICカード部26から送信されることについては図示していないが、そのような情報が存在していてもよい。すなわち、非接触ICカード部26は書き込み専用でなくてもよい。
The
先述のように、本実施の形態では、非接触ICカード部26と、基準位置取得装置10の非接触ICカードリーダ部100との間で近接無線通信が開始されたことにより、携帯端末装置2(センサ群24)が基準位置に存在すると判定する。すなわち、非接触ICカード部26により基準情報103が受信されたとカード制御部200が判定したときが、携帯端末装置2(センサ群24)が基準位置に存在するときである。したがって、第1の実施の形態におけるカード制御部200が、本発明に係る判定手段に相当する。
As described above, in the present embodiment, the close proximity wireless communication is started between the non-contact
位置姿勢特定部201は、センサ群24により測定された測定情報212に基づいて、相対的な測位の結果としての移動経路を演算する。なお、センサ群24によって観測される「移動に関する情報」には回転移動に関する情報も含まれる。したがって、位置姿勢特定部201によって演算される移動経路には、位置の変化履歴(移動軌跡)のみならず、姿勢の変化に関する情報も含まれる。
The position /
また、位置姿勢特定部201は、演算により求めた移動経路の始点の絶対位置に基づいて、当該移動経路の終点の位置を絶対位置に変換することにより、携帯端末装置2(センサ群24)の現在位置を特定するとともに、携帯端末装置2(センサ群24)の現在の姿勢を特定する。なお、移動経路の始点の絶対位置とは、基準情報103に含まれる基準位置である。
Further, the position /
すなわち、位置姿勢特定部201は、基準情報103の受信後において、記憶装置21に記憶された基準情報103と、測定情報212とに基づいて、携帯端末装置2の現在位置を特定するとともに、携帯端末装置2の現在の姿勢を特定する機能を有している。本実施の形態において、基準情報103の受信後とは、カード制御部200によりセンサ群24が基準位置に存在していると判定された後である。また、測定情報212は、センサ群24により測定された動きに関する情報である。すなわち、第1の実施の形態における位置姿勢特定部201は、本発明に係る位置特定手段および姿勢特定手段に相当する機能を有している。
That is, the position /
位置姿勢特定部201によって特定された携帯端末装置2の現在位置および現在の姿勢は、位置情報214として記憶装置21に記憶される。
The current position and current posture of the mobile
拡張現実構成部202は、位置姿勢特定部201により求められた位置情報214と、オーナー情報211とを参照して、拡張現実を表現するための素材である候補情報112から出力情報215を抽出する機能を有している。
The augmented
なお、オーナー情報211とは、操作部22が操作されることによりユーザによって入力される当該ユーザに関する情報であって、より詳細には対象物の特性に関する情報である。具体的には、携帯端末装置2を所有するユーザの年齢、性別、職業、住所、趣味、趣向、行動(購買)履歴、病歴(アレルギーの有無など)、婚姻状況、家族構成、所有物(車、家など)といった個人情報である。これらの情報は、操作部22から直接入力される情報に限定されるものではなく、他のアプリケーションによって自動的に収集されてもよい。
The
また、出力情報215は、本実施の形態では、表示部23において、液晶ディスプレイの画面に表示される情報であり、提供される拡張現実において現実を拡張するための情報に相当する。表示部23は、出力情報215を撮像画像情報213に重ねて(合成して)あるいは追加して表示することにより、当該画面に拡張現実を表現する。なお、出力情報215は、候補情報112から抽出されるときに、拡張現実構成部202によって加工されてもよい。すなわち、そのような加工手順に関する情報も、候補情報112に含まれていてもよい。
Further, in the present embodiment, the
以上が第1の実施の形態における拡張現実システム1の構成および機能の説明である。次に、拡張現実システム1を用いて、ユーザに対して、拡張現実を提供する方法について具体的に説明する。
The above is the description of the configuration and functions of the
図4は、第1の実施の形態における拡張現実提供方法を示す流れ図である。本実施の形態においては、拡張現実を用いて、百貨店やショッピングモールなどの集合店舗における店舗案内を実現する例について説明する。すなわち、集合店舗内を拡張現実空間9として、ユーザを目的の店舗に案内するアプリケーションを例に説明する。したがって、本実施の形態における候補情報112には、集合店舗の見取り図、見取り図内に配置される各店舗の位置情報、広告情報、クーポン情報などが含まれている。
FIG. 4 is a flowchart showing an augmented reality providing method according to the first embodiment. In the present embodiment, an example will be described in which augmented reality is used to realize store guidance at a collective store such as a department store or a shopping mall. That is, an application that guides the user to a target store with the inside of the collective store as an
なお、図4に示す各工程が開始されるまでに、携帯端末装置2が起動され、所定の初期設定が完了し、記憶装置21にオーナー情報211が記憶されているものとする。また、基準位置取得装置10の記憶装置101に、候補情報112がすでに記憶されているものとする。また、図4では、説明の都合上、1人のユーザに対する各工程を示しているが、拡張現実システム1は同時に複数のユーザ(複数の携帯端末装置2)に対して拡張現実を提供することが可能である。
It is assumed that the portable
ユーザは、集合店舗(拡張現実空間9)に到着する(ステップS1)と、持参した携帯端末装置2を用いて、入り口に設置されている基準位置取得装置10に対して通信可能化動作を行う(ステップS2)。
When the user arrives at the collective store (augmented reality space 9) (step S1), the user performs communication enabling operation with respect to the reference
第1の実施の形態では、ユーザが通信可能化動作を行わなければ、拡張現実システム1は、当該ユーザに対して拡張現実を提供することは困難である。したがって、来店時等において、ユーザに通信可能化動作を確実に実行させる仕組みを設けておくことが好ましい。
In the first embodiment, if the user does not perform the communication enabling operation, it is difficult for the
このような仕組みとして、例えば、通信可能化動作により、携帯端末装置2に来店ポイントが付加されるように構成することが考えられる。このように構成すれば、来店ポイントを貯めたいユーザの通信可能化動作をより促進することができる。もちろん、入り口付近に、顧客(ユーザ)に対して通信可能化動作を促すポスターを掲示するなどしてもよい。
As such a mechanism, for example, it is conceivable that a store visit point is added to the mobile
ユーザにより通信可能化動作(ステップS2)が実行されることで、携帯端末装置2の非接触ICカード部26と、基準位置取得装置10の非接触ICカードリーダ部100との間で近接無線通信が開始される。これにより、携帯端末装置2のCPU20(カード制御部200)は、ステップS3においてYesと判定する。すなわち、カード制御部200は、ステップS3においてYesと判定した時点で、携帯端末装置2(センサ群24)が基準位置に存在すると判定する。
Proximity wireless communication between the non-contact
無線通信が開始されると、携帯端末装置2は、基準位置取得装置10から基準情報103および候補情報112を取得する(ステップS4)。これにより、記憶装置21に基準情報103および候補情報112が格納される。
When the wireless communication is started, the mobile
ステップS4の処理と並行して、撮像部25は、周囲(拡張現実空間9内)の撮像を開始する(ステップS5)。これにより、以後、撮像周期に応じて撮像画像情報213が取得される状態となる。なお、本実施の形態ではステップS5の処理は、通信可能化動作により自動的に開始されるが、もちろん、ユーザの指示(操作部22に対するユーザ操作)により開始するように構成してもよい。
In parallel with the process of step S4, the
ステップS5の処理と並行して、センサ群24は、移動に関する情報の測定を開始する(ステップS6)。これにより、以後、センサ群24の測定周期に応じて測定情報212が更新される状態となる。すなわち、拡張現実空間9内におけるユーザ(携帯端末装置2)の移動に関する情報がセンサ群24によって測定情報212として収集され続ける状態となる。
In parallel with the process in step S5, the
ステップS4ないしS6が実行されると、位置姿勢特定部201は、基準情報103(移動経路の始点に関する情報)、および、測定情報212(移動経路を求めるための情報)に基づいて、携帯端末装置2の現在位置および現在の姿勢を特定し(ステップS7)、位置情報214を作成する。
When Steps S4 to S6 are executed, the position /
次に、拡張現実構成部202が、位置情報214に応じて、拡張現実空間9における絶対位置と姿勢とを決定し、当該拡張現実における視点および視線方向を決定する。さらに、拡張現実構成部202は、決定した視点および視線方向に応じて、候補情報112から出力情報215を抽出する(ステップS8)。
Next, the augmented
視点および視線方向が決まれば、拡張現実空間9における視野を決定することができる。そして、拡張現実空間9における視野が決まれば、当該視野に対応して仮想的に表示させるべき事物(仮想物体)および当該事物の形状などが決まる。このようにして拡張現実構成部202は、候補情報112から適切な出力情報215を選択することができる。なお、位置情報214が作成された後に、当該位置情報214に基づいて出力情報215を選択する原理は、従来の技術を適宜適用することも可能である。
If the viewpoint and the line-of-sight direction are determined, the visual field in the
第1の実施の形態では、拡張現実構成部202が決定する「視点および視線方向」が、撮像部25による「撮像点(撮像範囲の中心点)および撮像方向」と一致するほど、出力情報215と撮像画像情報213とを合成表示したときのユーザの違和感が抑制される。したがって、位置姿勢特定部201は、この点(携帯端末装置2における撮像部25の位置や向き)を考慮して、位置情報214を作成することが好ましい。
In the first embodiment, the
集合店舗における店舗案内においては、ユーザの現在位置(位置情報214)が同じであっても、ユーザの目的地が異なれば、表示する仮想物体(案内経路など)を変更する必要がある。すなわち、目的地など、位置情報214とは異なる情報に応じて、出力情報215を選択しなければならない。したがって、第1の実施の形態における拡張現実構成部202は、位置情報214のみならず、オーナー情報211を参照して出力情報215を抽出する。
In store guidance at a collective store, even if the user's current position (position information 214) is the same, if the user's destination is different, it is necessary to change a virtual object (such as a guidance route) to be displayed. In other words, the
まず、拡張現実構成部202は、オーナー情報211に応じて、集合店舗内の複数の店舗の中から、ユーザが目的とする店舗を決定する。このような決定を行うための情報としては、例えば、オーナー情報211に含まれるユーザの趣味、購買履歴、来店履歴、店舗検索履歴、目的地として入力された店舗名などを利用することができる。一般にオーナー情報211として記録されている情報は不定である。したがって、拡張現実構成部202は、オーナー情報211に存在する蓋然性の高い情報に予め重み付け(優先順位付け)を行っておき、参照時に実際に格納されていた各情報の重みを加算した評価を実行して、ユーザの目的の店舗を決定する。
First, the augmented
システム運営者によって提供される装置であれば、ユーザの個人情報であるオーナー情報211を網羅的に収集することには困難を伴う。個人情報の流出を危惧するユーザが他人の装置に自分の個人情報を提供することに消極的となるためである。しかし、第1の実施の形態における携帯端末装置2は、ユーザ所有であるため、個人情報を入力することに対してユーザの抵抗感は少ないと予測される。したがって、予めオーナー情報211を正確かつ詳細に収集しておくことが可能である。また、状況に応じてアプリケーションから必要な情報の入力を促すことも可能である。これにより、第1の実施の形態における拡張現実構成部202は、ユーザの望む店舗を正確に予測することができる。
In the case of an apparatus provided by a system operator, it is difficult to comprehensively collect
ユーザの望む店舗が予測できれば、拡張現実構成部202は、位置情報214に基づいて決定した拡張現実空間9における視野と、予測した店舗名とに応じて、候補情報112から適切な出力情報215を特定することができる。なお、拡張現実構成部202は、時間などの公共的な情報を用いてユーザの目的の店舗を決定してもよい。例えば、お昼時であれば、レストランを優先的に選択するといった手法も考えられる。
If the store desired by the user can be predicted, the augmented
ステップS8が実行されて、出力情報215が作成されると、表示部23は、出力情報215と撮像画像情報213とを液晶ディスプレイの画面に合成表示する(ステップS9)。これにより、表示部23が、拡張現実を液晶ディスプレイの画面に表現し、ユーザに対して拡張現実を提供する。
When the
以後、拡張現実の提供を終了させるか否かを判定しつつ(ステップS10)、終了させる指示があるまでステップS7ないしS10の処理を繰り返す。 Thereafter, while determining whether to end the provision of augmented reality (step S10), the processes of steps S7 to S10 are repeated until an instruction to end is given.
図5および図6は、第1の実施の形態においてユーザに対して提供される拡張現実空間9の景観の表示例を示す図である。すなわち、図5および図6は、表示部23に表示される拡張現実表示画面の例である。
FIG. 5 and FIG. 6 are diagrams showing a display example of the landscape of the
図5は、液晶ディスプレイの画面に、店舗内画像213aと、仮想物体である経路215a、広告215b,215c,215dとが表示されている様子を示している。
FIG. 5 shows a state in which an in-
店舗内画像213aは、撮像部25によって撮像された撮像画像情報213であり、拡張現実空間9における現実部分を表現した画像である。
The in-
また、経路215a、広告215b,215c,215dは、候補情報112から選択された出力情報215であり、拡張現実空間9における拡張部分(仮想部分)を表現した画像である。
The
携帯端末装置2は、図5に示すように、現実環境の景観(店舗内画像213a)に、仮想物体で構成された拡張環境の景観(経路215a、広告215b,215c,215d)を重ねて拡張現実表示画面を作成し提供することができる。
As illustrated in FIG. 5, the mobile
ユーザは、経路215aを視認することにより、店舗Dに向かって案内されていることを知得することができるとともに、店舗Dまでの経路および距離等を、地図などで示される場合に比べて、容易に、かつ、直感的に知得することができる。また、ユーザが地図などを注視している場合、通行人等に衝突する危険がある。しかし、拡張現実システム1が提供する拡張現実では、通行人も店舗内画像213aとして表示されるので、画面を注視していても、ユーザは衝突する危険を容易に察知し回避することができる。
By visually recognizing the
また、ユーザは、経路を確認するついでに、広告215b,215c,215dを視認することになり、経路周辺の店舗の新鮮な情報を得ることも可能である。広告215b,215c,215dは、現実の店舗前に設置されるポップ広告等に比べて、画面に正対するユーザにとって見やすい位置、角度、大きさに容易に調整することができるとともに、アニメーション効果などを持たせることも容易であるため、広告主の店舗にとっても効果的な情報発信が可能となる。すなわち、店舗にとっての広告媒体としても優れた効果を発揮する。
Further, the user can visually recognize the
一方で、拡張現実構成部202は、ユーザが望まない店舗に関する情報を、オーナー情報211により判断し、店舗D以外の店舗の広告215b,215c,215dの表示を禁止することも可能である。あるいは、それに加えて、目的の店舗D以外の店舗部分を視認不能にする(例えば、他の店舗の現実の位置に白壁画像を表示する。)といった表現方法も可能である。これによって、不要な情報が表示されることによるユーザの混乱を抑制することができ、ユーザに適した使いやすいアプリケーションを提供できる。
On the other hand, the augmented
図6は、液晶ディスプレイの画面に、店舗内画像215eと、仮想物体である経路215f、星印215g、クーポン215h,215iとが表示されている様子を示している。
FIG. 6 shows a state in which an in-
店舗内画像215eは、撮像部25によって撮像された撮像画像情報213ではなく、現実の店舗内をデフォルメした地図画像であり、拡張現実空間9における現実部分を表現した画像である。すなわち、拡張現実構成部202は、候補情報112に含まれる拡張現実空間9のレイアウトや地図に応じて、店舗内画像215eを作成することも可能である。すなわち、出力情報215は必ずしも仮想物体のみを表現した情報に限定されるものでない。
The in-
また、経路215fは、位置情報214、オーナー情報211および候補情報112(地図情報)に基づいて拡張現実構成部202により計算された情報を、候補情報112から選択された出力情報215(線図案)で表現した情報である。経路215fは、拡張現実空間9における拡張部分(仮想部分)を表現した画像である。
Further, the
さらに、星印215gおよびクーポン215h,215iは、候補情報112から選択された出力情報215であり、拡張現実空間9における拡張部分(仮想部分)を表現した画像である。
Furthermore, the
携帯端末装置2は、図6に示すように、現実環境の景観(店舗内画像215e)に、仮想物体で構成された拡張環境の景観(経路215f、星印215g、クーポン215h,215i)を重ねて拡張現実表示画面を作成し提供することができる。
As illustrated in FIG. 6, the mobile
ユーザは、経路215fを視認することにより、店舗Dまでの全行程を確認することができる。また、星印215gを視認することにより、集合店舗内における現在位置も確認することができる。
The user can confirm the entire process up to the store D by viewing the
さらに、ユーザは、経路を確認するついでに、クーポン215h,215iを視認することにより、店舗C,Dにおいてクーポンが発行されていることを知得することができる。このようなクーポンは、候補情報112に含まれており、該当する店舗のレジなどに正対したときに、出力情報215として選択され、仮想物体として具体的内容が画面に表示される。すなわち、支払い時にユーザが逐一操作して表示させてから、店員に提示する必要はない。
Further, the user can know that the coupon is issued at the stores C and D by visually checking the
なお、携帯端末装置2は、図5に示す画面と図6に示す画面とをユーザの指示に応じて切り替えることができる。ただし、図5に示す画面と図6に示す画面とを並べて同時に表示してもよい。また、携帯端末装置2は、ユーザが目的の店舗に到着したことを位置情報214により検出したときは、次の目的地となる店舗を決定して、当該店舗に対する案内を開始してもよい。また、次の目的地となる店舗に対する案内の開始は、最初の店舗からユーザが退出したタイミングで開始してもよい。
Note that the mobile
以上のように、第1の実施の形態における拡張現実システム1は、測定情報212を測定するセンサ群24と、センサ群24の基準位置を記憶する記憶装置21(記憶装置101,110)と、センサ群24が基準位置に存在しているか否かを判定するカード制御部200と、カード制御部200によりセンサ群24が基準位置に存在していると判定された後において、記憶装置21に記憶された基準位置と、センサ群24により測定された測定情報212とに基づいて、センサ群24の現在位置を特定する位置姿勢特定部201と、位置姿勢特定部201により特定されたセンサ群24の現在位置に応じて出力情報215を出力することにより拡張現実を表現する表示部23とを備える。これにより、拡張現実システム1は、GPS信号が受信できない環境下においても、マーカなどを設置することなく、拡張現実を実現することができる。
As described above, the
また、記憶装置21は、基準位置におけるセンサの姿勢を記憶しており、位置姿勢特定部201が、カード制御部200によりセンサ群24が基準位置に存在していると判定された後において、記憶装置21に記憶された基準位置におけるセンサ群24の姿勢と、センサ群24により測定された測定情報212とに基づいて、センサ群24の現在の姿勢を特定し、表示部23は、位置姿勢特定部201により特定されたセンサ群24の現在の姿勢に応じて出力情報215を出力する。すなわち、GPSと異なり、拡張現実システム1は、ユーザの絶対位置だけでなく、ユーザの姿勢や向きを決定することが可能である。そして、これらの情報に応じて、ユーザの視線の先に効果的な仮想物体(出力情報215)を表示することができる。したがって、これにより、さらに現実味のある拡張現実を表現することができる。
Further, the
また、絶対位置に固定される設置型の装置としての基準位置取得装置10を備えるとともに、携帯端末装置2はセンサ群24が基準位置に存在するときに基準位置取得装置10との間で近接無線通信を行う非接触ICカード部26を備える。これにより、拡張現実の提供を開始する直前に利用可能な位置に基準位置取得装置10を設置しておけば、拡張現実を提供する直前にセンサ群24をリセットできる。したがって、時間経過によるセンサ群24の誤差累積を抑制することができる。
In addition, the mobile
また、基準位置取得装置10は、携帯端末装置2と基準位置取得装置10との間で近接無線通信が行われているときに、基準情報103を携帯端末装置2に送信する。これにより、携帯端末装置2が予め基準情報103を取得しておく必要がない。
The reference
基準位置取得装置10は、携帯端末装置2と基準位置取得装置10との間で近接無線通信が行われているときに、出力情報215の候補となる候補情報112を携帯端末装置2に送信する。これにより、携帯端末装置2が予め候補情報112を取得しておく必要がない。また、利用する直前に候補情報112を取得することになるので、比較的新しい状態の候補情報112を取得することができる。
The reference
また、拡張現実システム1は、センサ群24が付随する対象物に関する情報としてオーナー情報211を記憶し、表示部23は、記憶されたオーナー情報211に応じた出力情報215を出力する。これにより、対象物に応じた拡張現実を提供することができる。例えば、対象物が個人である場合、個人ごとに当該個人に適した拡張現実を提供することができる。
Further, the
なお、第1の実施の形態における基準情報103は、基準位置取得装置10において作成され、記憶装置101に記憶されると説明した。しかし、例えば、データベースサーバ11において基準情報103に相当する情報を作成し、候補情報112とともに各基準位置取得装置10に向けて送信するように構成してもよい。
Note that the
また、基準位置取得装置10とデータベースサーバ11とを、1台のコンピュータで構成してもよい。
Further, the reference
また、候補情報112は、携帯端末装置2の通信部27とデータベースサーバ11との間のデータ通信により、予め携帯端末装置2にダウンロードされていてもよい。すなわち、候補情報112は、必ずしも基準位置取得装置10から取得されなくてもよい。一般に、非接触ICカード部26と非接触ICカードリーダ部100との間の近接無線通信によるデータ通信は、膨大な量のデータを送受信するには不向きである。したがって、比較的データ量の多い候補情報112に関しては、一般的なネットワーク(インターネットなど)を介したデータ通信により送受信することが好ましい。ユーザは、基準位置取得装置10の周囲において拡張現実の提供を受ける前に、所有する携帯端末装置2を操作してデータベースサーバ11にアクセスし、当該基準位置取得装置10の周囲で提供される拡張現実用の候補情報112を予めダウンロードしておけばよい。なお、この場合、基準情報103も候補情報112とともにデータベースサーバ11から携帯端末装置2に向けて送信することが好ましい。
The
また、拡張現実構成部202がユーザの購買行動を予測して適切な出力情報215を抽出するためには、周囲の環境を示す温度や湿度といった情報が有効な場合もある。したがって、温度センサや湿度センサなどの環境センサを携帯端末装置2に設けて、拡張現実構成部202がこれらのセンサによって収集された情報を参照するように構成してもよい。
In addition, in order for the augmented
<2. 第2の実施の形態>
第1の実施の形態における携帯端末装置2は、拡張現実空間9内において、拡張現実を提供するためのデータ通信を行っていなかった。しかし、本発明はこのような形態に限定されるものではない。
<2. Second Embodiment>
The mobile
図7は、第2の実施の形態における拡張現実システム1aを示す図である。なお、携帯端末装置2aおよび端末装置12の数は、図7に示される数に限定されるものではない。また、拡張現実空間9内における携帯端末装置2aの通信相手としては、他の携帯端末装置2aまたは端末装置12の少なくともいずれかが存在していればよい。
FIG. 7 is a diagram illustrating an
拡張現実システム1aは、その構成として、携帯端末装置2の代わりに携帯端末装置2aを備えている点と、据え置き型の端末装置12を備えている点とが、第1の実施の形態における拡張現実システム1の構成と異なっている。以下、第2の実施の形態における拡張現実システム1aについては、第1の実施の形態における拡張現実システム1と同様の構成については同符号を付し、適宜説明を省略する。
The
図8は、第2の実施の形態における携帯端末装置2aが備える機能ブロックをデータの流れとともに示す図である。
FIG. 8 is a diagram illustrating functional blocks included in the mobile
携帯端末装置2aは、携帯端末装置2とほぼ同様の構成を有する装置であり、拡張現実空間9内を、ユーザに携帯されつつ移動する。ただし、携帯端末装置2aの通信部27は、定期的に周囲の通信デバイスを探索し、拡張現実空間9内に存在する他の携帯端末装置2aおよび端末装置12との間で近接無線通信によるデータ通信を行う。ここで採用する無線通信方式としては、例えば、Bluetooth(登録商標)のような近接無線通信方式が適している。ただし、Bluetooth(登録商標)に限定されるものではない。
The mobile
携帯端末装置2aの通信部27は、拡張現実空間9内の通信デバイスとして検出した他の携帯端末装置2aおよび端末装置12に向けて、自機の記憶装置21に記憶されているオーナー情報211および位置情報214を送信する。なお、通信部27により外部に送信されるオーナー情報211は、個人情報の漏洩を防止するため、ユーザにより許可された情報に限定される。
The
また、携帯端末装置2aの通信部27は、他の携帯端末装置2aや端末装置12から受信した情報については、候補情報112として自機の記憶装置21に格納する。すなわち、第2の実施の形態においては、候補情報112は、基準位置取得装置10から取得された情報に限定されるのではなく、他の携帯端末装置2aや端末装置12から収集された情報が含まれる。
Further, the
端末装置12は、一般的な据え置き型のコンピュータであり、拡張現実空間9内において、その絶対位置が固定される装置である。第2の実施の形態における候補情報112は、端末装置12の識別情報と絶対位置(配置位置)に関する情報とを含んでいる。また、端末装置12は、携帯端末装置2aの通信部27との間で近接無線通信によるデータ通信を行う機能を有しており、自機に固有の情報(詳細後述)を携帯端末装置2aに向けて送信する。
The
以下、第2の実施の形態における拡張現実システム1aについて、多数のゲーム機(端末装置12)が設置されたゲームセンターを拡張現実空間9とするアプリケーションの例で説明する。ただし、説明を理解しやすくするために、携帯端末装置2aが他の携帯端末装置2aと無線通信を行うことにより実現される拡張現実の例と、携帯端末装置2aが端末装置12と無線通信を行うことにより実現される拡張現実の例とを分けて説明する。
Hereinafter, the
まず、拡張現実システム1aにおいて、携帯端末装置2aが他の携帯端末装置2aと無線通信を行うことにより実現される拡張現実の例について説明する。
First, an example of augmented reality that is realized by the mobile
図9は、携帯端末装置2a間の無線通信により実現される拡張現実の例を示す図である。図9に示す例では、携帯端末装置2aの表示部23に、ゲームセンター内画像213b、アバター画像215jおよびメッセージ215kが表示されている。
FIG. 9 is a diagram illustrating an example of augmented reality realized by wireless communication between the mobile
ゲームセンター内画像213bは、携帯端末装置2aの撮像部25によって撮像されたゲームセンター(拡張現実空間9)内の映像(撮像画像情報213)である。すなわち、ゲームセンター内画像213bは、拡張現実において、現実部分を表現した画像である。ここでは、3台の端末装置12が撮像されている。
The
アバター画像215jおよびメッセージ215kは、拡張現実構成部202によって候補情報112から選択された出力情報215を表示した画像である。すなわち、アバター画像215jおよびメッセージ215kは、現実には存在しない仮想的な事物を表現した画像であり、拡張現実において、拡張部分を表現した画像である。
The
アバター画像215jおよびメッセージ215kは、いずれも候補情報112から選択された情報ではあるが、いずれも基準位置取得装置10から取得した情報ではない。これらは、他の携帯端末装置2aから受信したオーナー情報211および位置情報214に基づいて作成された情報である。
The
第2の実施の形態において、ユーザは、第1の実施の形態と同様に、拡張現実空間9の入り口で、基準位置取得装置10から基準情報103および候補情報112を取得し、ゲームセンター内に入場する。また、ユーザは、任意のタイミングで(すなわち、ゲームセンターの内外)、オーナー情報211を編集し、自分のアバターや各種メッセージ、ゲームセンター内に設置されているゲーム(端末装置12により提供される。)のプレイ履歴、あるいは、自己プロフィールなどを設定する。
In the second embodiment, the user acquires the
ゲームセンター内では、通信部27が付近の通信デバイス(他の携帯端末装置2a)を探索して、検出した他の携帯端末装置2aとの間で通信を開始する。携帯端末装置2aは、他の携帯端末装置2aとの間でオーナー情報211および位置情報214を互いに交換する。そして、受信した他の携帯端末装置2aのオーナー情報211および位置情報214に基づいて候補情報112を作成し、自機の記憶装置21に格納する。
In the game center, the
拡張現実構成部202は、第1の実施の形態と同様に、拡張現実空間9内における視野が求まると、候補情報112から出力情報215を選択する。このとき、当該視野内に他の携帯端末装置2aが存在する場合、当該他の携帯端末装置2aから受信したオーナー情報211に基づいて作成された候補情報112から出力情報215が選択される。なお、他の携帯端末装置2aの現在位置は、当該他の携帯端末装置2aから受信する位置情報214(より詳しくは、当該位置情報214に由来する候補情報112)により判定できる。
The augmented
このようにして、携帯端末装置2aは、他の携帯端末装置2aのユーザがオーナー情報211に設定しておいたアバター(アバター画像215j)を、当該ユーザの現在位置に、当該ユーザの実画像に上書きして表示する。また、当該他の携帯端末装置2aから受信したオーナー情報211に設定されているメッセージ(メッセージ215k)を表示することもできる。
In this way, the mobile
このように、第2の実施の形態における拡張現実システム1aは、複数の携帯端末装置2a間において、互いにオーナー情報211および位置情報214を交換させる。これにより、ゲームセンターを訪れたユーザは、ユーザ間でメッセージや絵文字、キャラクター(アバター)、ゲームのプレイ履歴を利用した各ユーザの紹介文(格闘ゲームの達人、音楽ゲーム初心者など)などを仮想物体としてやり取りして表示し楽しむことができる。
As described above, the
次に、拡張現実システム1aにおいて、携帯端末装置2aが端末装置12と無線通信を行うことにより実現される拡張現実の例について説明する。
Next, an example of augmented reality that is realized by the mobile
図10は、携帯端末装置2aと端末装置12との間の無線通信により実現される拡張現実の例を示す図である。図10に示す例では、携帯端末装置2aの表示部23に、ゲームセンター内画像213c、キャラクター画像215m,215n、および、メッセージ215pが表示されている。
FIG. 10 is a diagram illustrating an example of augmented reality realized by wireless communication between the mobile
ゲームセンター内画像213cは、携帯端末装置2aの撮像部25によって撮像されたゲームセンター(拡張現実空間9)内の映像(撮像画像情報213)である。すなわち、ゲームセンター内画像213cは、拡張現実において、現実部分を表現した画像である。ここでは、4台の端末装置12が撮像されている。なお、図10に示す例では、各端末装置12を区別するために、それぞれの符号にアルファベットを付加し、端末装置12a,12b,12c,12dとする。
The
キャラクター画像215m,215n、および、メッセージ215pは、拡張現実構成部202によって候補情報112から選択された出力情報215を表示した画像である。すなわち、キャラクター画像215m,215n、および、メッセージ215pは、現実には存在しない仮想的な事物を表現した画像であり、拡張現実において、拡張部分を表現した画像である。
The
キャラクター画像215m,215n、および、メッセージ215pは、いずれも候補情報112から選択された情報ではあるが、いずれも基準位置取得装置10から取得した情報ではない。これらは、携帯端末装置2aが受信した各端末装置12a,12b,12cに固有の情報に基づいて作成された情報である。
The
すでに説明したように、第2の実施の形態において、ゲームセンター内では、通信部27が付近の通信デバイスを探索する。このとき、端末装置12が検出されると、通信部27は、検出した端末装置12との間で通信を開始する。携帯端末装置2aは、通信が開始された端末装置12から当該端末装置12に固有の情報を受信する。そして、受信した固有の情報に基づいて候補情報112を作成し、自機の記憶装置21に格納する。
As already described, in the second embodiment, the
なお、端末装置12の位置は、基準位置取得装置10から取得した候補情報112に含まれている。したがって、携帯端末装置2aは、近接無線通信が成立した全ての端末装置12から固有の情報を受信するのではなく、予め取得されている端末装置12の位置に基づいてユーザの視野内に存在すると判定された端末装置12からのみ固有の情報を受信するようにしてもよい。これにより、データ通信において送受信される情報量を抑制することができる。
Note that the position of the
第1の実施の形態における携帯端末装置2と同様に、携帯端末装置2aもユーザの視点や視線方向を決めることにより、拡張現実空間9内におけるユーザの視野を決定することができる。したがって、拡張現実構成部202は、ユーザの視野内に存在する端末装置12に由来する候補情報112(当該端末装置12から受信した固有の情報に基づいて作成された候補情報112)の中から、出力情報215を選択することができる。
Similarly to the mobile
このようにして、携帯端末装置2aは、各端末装置12の固有の情報を、各端末装置12の位置に応じた位置に表示する。図10に示す例では、端末装置12aのプレイ状況に応じたキャラクター画像215mと、端末装置12bのプレイ状況に応じたキャラクター画像215nと、端末装置12cの受付状況を示すメッセージ215pとが表示されている。
In this way, the mobile
このように、第2の実施の形態における拡張現実システム1aは、携帯端末装置2aにおいて、拡張現実空間9内に存在する端末装置12の固有の情報を収集する。これにより、ゲームセンターを訪れたユーザは、近くに存在する端末装置12から、提供されているゲームのプレイ情報やデモ情報、遊び方などの情報を受信して、仮想物体として表示することができる。また、単に近いだけではなく、拡張現実空間9内のユーザの視野を決定して、ユーザの視線の先に仮想物体を表示することができる。したがって、リアルな拡張現実を表現できるとともに、第1の実施の形態に比べて、よりリアルタイムな情報に基づいて拡張現実を表現できる。また、プレイ状況を拡張現実として表現することにより、プレイ風景(キャラクター画像215m,215n)が表示され、観客としてもゲームを楽しむことができる。
As described above, the
なお、デモ情報や遊び方など、頻繁に変更されることのない情報については、基準位置取得装置10から候補情報112として受信するように構成してもよい。すなわち、出力情報215は、他の携帯端末装置2aや端末装置12から受信した情報に限定されるものではない。
Information that is not frequently changed, such as demo information and how to play, may be received from the reference
<3. 第3の実施の形態>
上記実施の形態では、対象物に関して収集される情報は、オーナー情報211および位置情報214のみであったが、これらの情報に限定されるものではない。また、上記実施の形態では、提供される拡張現実において、現実部分も画像情報として表示部23に表示される例について説明した。しかし、拡張現実における現実部分は必ずしも画像情報として表示されなければならないものではない。
<3. Third Embodiment>
In the above embodiment, the information collected regarding the object is only the
図11は、第3の実施の形態における拡張現実システム1bを示す図である。拡張現実システム1bは、携帯端末装置2の代わりに携帯端末装置2bを備えている点と、基準位置取得装置10およびデータベースサーバ11に相当する構成を備えていない点とが、第1の実施の形態における拡張現実システム1と異なっている。以下、第3の実施の形態における拡張現実システム1bについては、第1の実施の形態における拡張現実システム1と同様の構成については同符号を付し、適宜説明を省略する。
FIG. 11 is a diagram illustrating an
図11に示すように、携帯端末装置2bは、HMD(Head Mounted Display)型の装置として構成されており、ユーザが頭部に装着することにより、当該ユーザに付随して移動する。第1の実施の形態に示したように、手持ち式の携帯端末装置2を採用する場合、ユーザの手持ちの状態によって、ユーザと携帯端末装置2との間の相対的な位置関係が変化し、これがセンサ群24の位置(位置情報214)から求められる拡張現実における視点と撮像部25の撮像点との間の誤差の原因となる。しかし、本実施の形態における拡張現実システム1bは、装着型の携帯端末装置2bを採用することにより、手持ち式の携帯端末装置2を採用する場合に比べて、現実部分と拡張部分との視覚上の一致精度が向上する。したがって、提供される拡張現実の真実味(リアリティ)が向上する。
As shown in FIG. 11, the portable
図12は、第3の実施の形態における携帯端末装置2bのブロック図である。
FIG. 12 is a block diagram of the mobile
携帯端末装置2bは、通常は、システム運営者が所有する専用の装置である。したがって、図12に示すように、記憶装置21には、ユーザに関するオーナー情報211に相当する情報は格納されていない。
The mobile
また、携帯端末装置2bは、透過型のディスプレイを有する表示部23aを備えている。拡張現実空間9に配置されている現実の事物は、当該ディスプレイを透過した光に基づいて、ユーザの視覚に捉えられ知覚されることになる。したがって、第3の実施の形態における拡張現実システム1bにおいては、拡張現実を提供するにあたって、現実部分の画像情報を表示することはない。一方で、表示部23aは、出力情報215を当該ディスプレイの所定の位置に表示させることにより、仮想物体(拡張部分)を、現実部分に適宜重畳させる。
The portable
また、携帯端末装置2bは、撮像部25を備えておらず、周囲を撮像する機能は有していない。したがって、第3の実施の形態においては、撮像画像情報213に相当する情報は作成されない。これは、すでに説明したように、携帯端末装置2bにおいては、現実部分を画面に表示する必要がないからである。
Further, the mobile
さらに、携帯端末装置2bは、非接触ICカード部26および通信部27に相当する構成を備えておらず、スタンドアロン型の装置として構成されている。携帯端末装置2bの記憶装置21には、プログラム210とともに、予め基準情報103および候補情報112が格納されている。
Furthermore, the mobile
携帯端末装置2bは、センサ群24のみならず、さらに生体センサ28を備えている。生体センサ28は、生体に関する生体情報216を測定する機能を備えた装置である。生体センサ28としては、例えば、ユーザの心拍数を測定する心拍数センサや、ユーザの呼吸数など呼吸に関する情報を計測する呼吸センサ、ユーザの発生音を計測するマイクなどが想定される。ただし、生体センサ28は、このような装置に限定されるものではなく、ユーザの現在の生理状況を判定するために利用可能な情報を収集する機能を有する装置であればよい。
The portable
また、携帯端末装置2bは、音声に関する情報に基づいて音声を再生するスピーカ29を備えている。特に、スピーカ29は、出力情報215に含まれる音声に関する情報を音声として出力する出力手段として用いられる。
The mobile
図13は、第3の実施の形態における携帯端末装置2bが備える機能ブロックをデータの流れとともに示す図である。携帯端末装置2bは、カード制御部200を備えておらず、位置姿勢特定部201および拡張現実構成部202の代わりに位置姿勢特定部201aおよび拡張現実構成部202aを備えている点が、携帯端末装置2と異なっている。
FIG. 13 is a diagram illustrating functional blocks included in the mobile
位置姿勢特定部201aは、操作部22からの入力情報に応じて、携帯端末装置2b(センサ群24)が基準位置に存在し、かつ、現在の姿勢が基準位置における姿勢となっていると判定する。本実施の形態では、操作部22のリセットボタンが操作されたときの携帯端末装置2bの現在位置および現在姿勢が、基準情報103によってリセットされる。すなわち、第3の実施の形態においては、位置姿勢特定部201aが本発明に係る判定手段に相当する機能を有している。
The position /
拡張現実構成部202aは、第1の実施の形態と同様に、位置情報214に応じて、候補情報112から出力情報215を抽出する。ただし、第3の実施の形態においては、オーナー情報211に相当する情報が存在しないので、拡張現実構成部202aは、出力情報215を抽出する際に、オーナー情報211を参照することはない。代わりに、拡張現実構成部202は、生体情報216に応じて出力情報215を抽出する。これにより、第3の実施の形態における拡張現実システム1b(表示部23aおよびスピーカ29)は、生体センサ28により測定された生体情報216に応じた出力情報215を出力する。
The augmented
以下、第3の実施の形態における拡張現実システム1bについて、お化け屋敷を拡張現実空間9とするアプリケーションの例で説明する。
Hereinafter, an
図14は、第3の実施の形態における拡張現実提供方法を示す流れ図である。 FIG. 14 is a flowchart showing an augmented reality providing method according to the third embodiment.
まず、お化け屋敷の窓口担当者は、携帯端末装置2bを、所定の位置に所定の姿勢で静止させた状態で、リセットボタン(操作部22)を操作(ステップS11)し、当該携帯端末装置2bをユーザに渡せる状態(以下、「スタンバイ状態」と称する。)にしておく。
First, the person in charge of the haunted house operates the reset button (operation unit 22) (step S11) with the portable
なお、所定の位置とは、基準情報103に格納されている基準位置に一致する位置である。また、所定の姿勢とは、基準情報103に格納されている姿勢(基準位置における姿勢として規定されている姿勢)である。すなわち、第3の実施の形態では、第1の実施の形態における通信可能化動作に相当する動作を窓口担当者が実行することになる。
The predetermined position is a position that matches the reference position stored in the
ステップS11が実行されることにより、センサ群24は測定情報212の測定を開始し(ステップS12)、位置姿勢特定部201aは基準情報103および測定情報212に基づいて位置情報214の作成を開始する(ステップS13)。
By executing step S11, the
次に、お化け屋敷の入り口にユーザが到着すると、窓口担当者はスタンバイ状態の携帯端末装置2bを当該ユーザに手渡す。そして、当該ユーザは、受け取った携帯端末装置2bを装着する(ステップS14)。これにより、表示部23aはユーザの目の前方に配置され、スピーカ29はユーザの耳の近傍に配置され、生体センサ28はユーザの体に装着される。
Next, when the user arrives at the entrance of the haunted house, the person in charge of the window hands over the portable
ユーザは、携帯端末装置2bを装着した状態で、お化け屋敷(拡張現実空間9)に入場する(ステップS15)。
The user enters the haunted house (augmented reality space 9) while wearing the mobile
拡張現実構成部202aは、位置情報214に応じてユーザ(携帯端末装置2b)が拡張現実空間9内に存在しているか否かを判定し(ステップS16)、存在していない場合はさらにフラグがONか否かを判定する(ステップS17)。フラグとは、ユーザが拡張現実空間9内に入場したことがあるか否かを示す情報であり、入場したことがある場合に「ON」にセットされ、入場したことがない場合に「OFF」にセットされる。
The augmented
ステップS17においてNoの場合は、ユーザが未だ拡張現実空間9に入場したことがないことを示しているので、ユーザの入場行動が未だ完了していないとみなして、ステップS16の処理に戻る。
In the case of No in step S17, it indicates that the user has not yet entered the
一方、ユーザが拡張現実空間9内に存在している場合(ステップS16においてYes。)、CPU20はフラグをONにセットする(ステップS18)。そして、拡張現実構成部202aは、位置情報214および生体情報216に基づいて、出力情報215を作成する(ステップS19)。
On the other hand, when the user exists in the augmented reality space 9 (Yes in step S16), the
ステップS19が実行されると、表示部23aおよびスピーカ29が当該出力情報215を出力する(ステップS20)ことにより、拡張現実を表現する。ステップS16ないしS20の処理は、ユーザが拡張現実空間9内に存在しない(出口から出た)と判定されるまで継続される。
When step S19 is executed, the
ステップS17においてYesと判定されると、一旦、拡張現実空間9内に入場したユーザが当該拡張現実空間9から出たとみなして、CPU20はフラグをOFFにセットし(ステップS21)、携帯端末装置2bによる拡張現実の提供を終了する。その後、窓口担当者は、ユーザから携帯端末装置2bを回収する。
If it is determined Yes in step S17, it is assumed that the user who has entered the
次に、本実施の形態において、生体情報216がどのように出力情報215の選択に利用されるかを説明する。
Next, how the
図15は、第3の実施の形態における拡張現実システム1bにより実現される拡張現実の例を示す図である。図15に示す柳画像215qおよび幽霊画像215rは、いずれも出力情報215である。逆に、柳画像215qおよび幽霊画像215r以外の事物は、透過型のディスプレイを透過した光により知覚される現実に存在している事物である。
FIG. 15 is a diagram illustrating an example of augmented reality realized by the
図16は、拡張現実空間9内の幽霊画像215rの表示位置を例示する図である。図16に示す例では、拡張現実空間9内に幽霊画像215rを表示させる箇所が8箇所設定されている。言い換えれば、候補情報112には、予め、8箇所において表示する幽霊画像215rが準備されている。また、図16に示す円90は、判定位置(後述)を示す。さらに、図16に示す網掛けを施した部分は現実の壁や柱を示している。
FIG. 16 is a diagram illustrating the display position of the
図17ないし図19は、幽霊画像215rの表示例を示す図である。図17ないし図19において太線で示す矢印は、拡張現実空間9内におけるユーザの経路を示す。
17 to 19 are diagrams showing display examples of the
第3の実施の形態における拡張現実システム1bは、ユーザが判定位置(円90)に到達したときの当該ユーザの生理状況に応じて、幽霊画像215rを実際に表示する位置を変更する。すなわち、判定位置における生体情報216により、心拍数が120[bpm]より大きいときは図17に示す位置にのみ幽霊画像215rを表示し、心拍数が90〜120[bpm]のときは図18に示す位置にのみ幽霊画像215rを表示し、心拍数が90[bpm]未満のときは図19に示す位置にのみ幽霊画像215rを表示する。
The
このように、生体情報216を解析することにより大きく驚いていると判定されたユーザについては、比較的短距離かつ単純な移動経路(図17)となるように幽霊画像215rを表示する。また、遭遇する幽霊(幽霊画像215r)も最も少ないようになっている。
As described above, for the user who is determined to be greatly surprised by analyzing the
一方、あまり驚いていないと判定されたユーザについては、比較的長距離かつ複雑な移動経路(図18,図19)となるように幽霊画像215rを表示する。また、遭遇する幽霊(幽霊画像215r)も増えるように設定する。
On the other hand, the
このように、第3の実施の形態における拡張現実システム1bは、生体センサ28により測定された生体情報216に応じた出力情報215を出力することにより、生体の生理的状況に応じた拡張現実を提供することができる。
As described above, the
なお、ユーザが驚いている程度は、例えば、加速度センサを使用して、加速度が大きく変化した回数を数えることによっても判定できる。例えば、入場してから判定位置までの間に、2回以上驚いたユーザについては図17の表示パターンを適用し、1回のユーザについては図18の表示パターンを適用し、0回のユーザについては図19の表示パターンを適用するといった方法が考えられる。 Note that the extent to which the user is surprised can also be determined by, for example, using an acceleration sensor and counting the number of times the acceleration has changed significantly. For example, the display pattern of FIG. 17 is applied to a user who has been surprised twice or more between the time of entry and the determination position, the display pattern of FIG. A method of applying the display pattern of FIG. 19 is conceivable.
図20は、第3の実施の形態において、幽霊画像215rの表示を変更する場合における変形例を示す図である。図20における破線矢印は、幽霊画像215rの表示位置を順次変更した場合の軌跡を示す。
FIG. 20 is a diagram illustrating a modification in the case where the display of the
図17ないし図19では、生体情報216に基づいて各幽霊画像215rを表示するか否かを判定した。しかし、ほとんど驚いていないとみなせるユーザについては、例えば、図20に示すように、幽霊画像215rがユーザを追跡してくるかのように、特定の幽霊画像215rの表示位置を順次変更させてもよい。
17 to 19, it is determined whether or not to display each
なお、本実施の形態では、仮想物体としての「幽霊」の表示を変更することによりユーザの経路を変化させたが、経路を変更する手法はこれに限定されるものではない。例えば、現実の事物である壁と壁との間に、仮想の事物としての壁を表示することにより、あたかも壁が連なっており、通行できないように見せて経路を変更させてもよい。 In this embodiment, the user's route is changed by changing the display of “ghost” as a virtual object, but the method of changing the route is not limited to this. For example, by displaying a wall as a virtual thing between the walls that are real things, it is possible to change the route so that the walls are connected so that they cannot pass.
また、第3の実施の形態における拡張現実システム1bにおいても、第1の実施の形態における拡張現実システム1と同様に、基準位置取得装置10およびデータベースサーバ11に相当する装置を設け、携帯端末装置2bに非接触ICカード部26および通信部27を設けてもよい。このように構成することにより、第3の実施の形態における拡張現実システム1bにおいても、基準情報103および候補情報112の更新に容易に対応可能となる。
In the
特に、第3の実施の形態に示した「お化け屋敷」を模したアプリケーションでは、リピータを呼び込むために、現実のレイアウトや仮想物体の表示形態等を比較的短いサイクルで変更することが好ましい。その場合には、基準情報103や候補情報112の更新が必要になる場合も想定される。ただし、このような場合においても、SDカードなどの可搬性の記録媒体に更新された基準情報103および候補情報112を格納して、携帯端末装置2bに供給するようにして対応することも可能である。
In particular, in the application imitating the “haunted house” shown in the third embodiment, it is preferable to change the actual layout, the display form of the virtual object, and the like in a relatively short cycle in order to call the repeater. In that case, it is assumed that the
<4. 第4の実施の形態>
本発明が適用されるアプリケーションは上記実施の形態に示したものに限定されるものではなく、さらに多くのバリエーションが考えられる。
<4. Fourth Embodiment>
The application to which the present invention is applied is not limited to that shown in the above embodiment, and many more variations are conceivable.
図21および図22は、第4の実施の形態における拡張現実システム1cによって提供される探索アプリケーションの拡張現実の表示例である。探索アプリケーションとは、ユーザが携帯端末装置2を用いて拡張現実空間9内に設置された宝箱などの目的物(仮想物体)を探索するものである。第4の実施の形態における拡張現実システム1cは、例えば、第1の実施の形態における拡張現実システム1と同様の構成で実現できる。
FIGS. 21 and 22 are augmented reality display examples of the search application provided by the augmented reality system 1c according to the fourth embodiment. The search application is for the user to search for an object (virtual object) such as a treasure box installed in the
図21に示すように、表示部23には、現実部分の撮像画像情報213dと、目的物である宝箱画像215sと、探索の手がかりとなる情報を示すメッセージ215tおよび羅針盤画像215uとが合成されて表示される。ここで、宝箱画像215s、メッセージ215tおよび羅針盤画像215uは、候補情報112から選択される出力情報215である。
As shown in FIG. 21, the
探索アプリケーションが提供する拡張現実空間9では、ユーザは携帯端末装置2に出力されるメッセージ215tや羅針盤画像215uを頼りに、仮想物体(宝箱)の探索を行う。
In the
そして、ユーザの現在位置と現在姿勢とが所定の範囲内に収まると、目的物の発見となる。すなわち、位置情報214が所定の範囲内に収まることを条件に拡張現実構成部202が宝箱画像215sを出力情報215として選択し、図22に示されるような画面が表示される。図22に示す例では、現実部分を表現する撮像画像213eとともに、宝箱画像215sと、宝箱が発見されたことを示すメッセージ215vとが表示されている。
Then, when the current position and current posture of the user are within a predetermined range, the object is found. That is, on the condition that the
なお、第4の実施の形態では、宝箱を目的物として探索する例について説明したが、目的物はこれに限定されるものではない。例えば、目的物を仮想物体として表現される動物とすることも可能である。その場合は、当該動物の鳴き声を、ユーザの位置情報214に応じて調整して、探索の手がかりとなる情報としてスピーカ29から出力することが好ましい。鳴き声などの音声の調整とは、目的物としての動物とユーザとの距離に応じた音量調整だけでなく、ユーザの左右の耳に到達する音量を相互に調整することによってユーザが知得する音源方向を調整することも有効である。
In the fourth embodiment, an example in which a treasure chest is searched as an object has been described. However, the object is not limited to this. For example, the target object can be an animal expressed as a virtual object. In that case, it is preferable to adjust the cry of the animal according to the
<5. 変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
<5. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made.
例えば、上記実施の形態に示した各工程は、あくまでも例示であって、上記に示した順序や内容に限定されるものではない。すなわち、同様の効果が得られるならば、適宜、順序や内容が変更されてもよい。例えば、撮像部25が撮像を開始する工程(ステップS5)と、センサ群24が測定を開始する工程(ステップS6)とを入れ替えてもよい。
For example, each process shown in the above embodiment is merely an example, and is not limited to the order and contents shown above. That is, as long as the same effect can be obtained, the order and contents may be changed as appropriate. For example, the step (step S5) in which the
また、上記実施の形態に示した機能ブロック(カード制御部200や位置姿勢特定部201、拡張現実構成部202など)は、CPU20がプログラム210に従って動作することにより、ソフトウェア的に実現されると説明した。しかし、これらの機能ブロックの一部または全部を専用の論理回路で構成し、ハードウェア的に実現してもよい。
In addition, the functional blocks (the
また、指標手段は、基準位置や基準位置における姿勢に関する情報を表現したバーコードでもよい。例えば、基準位置において特定の姿勢で読み取るバーコードを拡張現実空間の近傍に設け、これを撮像部25で撮像し読み取るように構成してもよい。
Further, the index means may be a bar code expressing information on the reference position and the posture at the reference position. For example, a barcode that is read in a specific posture at the reference position may be provided in the vicinity of the augmented reality space, and this may be configured to be imaged and read by the
また、上記実施の形態では、センサ群24と出力手段(表示部23,23aおよびスピーカ29)とが同一の装置に設けられている例について説明した。しかし、これらは別の装置に存在してもよい。例えば、ペット(対象物)にセンサ群24を取り付けて、拡張現実空間9内に放し、当該ペットの動きに応じて、ユーザが携帯する装置に設けられた出力手段に仮想物体を表示することにより拡張現実を提供してもよい。あるいは、センサ群24を内蔵したボール(対象物)を拡張現実空間9内でユーザが投げ、投げられた瞬間の位置および加速度に応じて、当該ボールの軌道を計算し、当該ボールに対応した仮想物体(例えば、槍や魔法による火の玉など)の軌道や標的となった敵の様子をユーザの手元の装置(出力手段)に表示するといったアプリケーションも想定される。
In the above-described embodiment, the example in which the
1,1a,1b,1c 拡張現実システム
10 基準位置取得装置
100 非接触ICカードリーダ部
21,101,110 記憶装置
102,111,210 プログラム
103 基準情報
11 データベースサーバ
112 候補情報
12,12a,12b,12c,12d 端末装置
2,2a,2b 携帯端末装置
20 CPU
200 カード制御部
201,201a 位置姿勢特定部
202,202a 拡張現実構成部
211 オーナー情報
212 測定情報
213,213d 撮像画像情報
213a 店舗内画像
213b,213c ゲームセンター内画像
214 位置情報
215 出力情報
215a 経路
215b,215c,215d 広告
215e 店舗内画像
215f 経路
215g 星印
215h,215i クーポン
215j アバター画像
215k,215p,215t,215v メッセージ
215m,215n キャラクター画像
215q 柳画像
215r 幽霊画像
215s 宝箱画像
215u 羅針盤画像
216 生体情報
22 操作部
23,23a 表示部
24 センサ群
25 撮像部
26 非接触ICカード部
27 通信部
28 生体センサ
29 スピーカ
9 拡張現実空間
90 円
1, 1a, 1b, 1c
200
Claims (6)
絶対位置が既知の指標手段と、
を備え、
動きに関する情報を測定するセンサと、
前記センサの基準位置および前記基準位置における前記センサの姿勢を記憶する第1記憶手段と、
前記指標手段の個別情報を取得する取得手段と、
前記センサが前記基準位置に存在しているか否かを判定する判定手段と、
前記判定手段により前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する位置特定手段と、
前記判定手段により前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在の姿勢を特定する姿勢特定手段と、
前記位置特定手段により特定された前記センサの現在位置と前記姿勢特定手段により特定された前記センサの現在の姿勢とに応じて出力情報を出力することにより拡張現実を表現する出力手段と、
をさらに備え、
前記指標手段は、前記センサが前記基準位置に存在しているときの前記センサの姿勢を、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢となるように規定する筐体を備え、
前記センサおよび前記取得手段は、前記携帯端末装置に設けられており、
前記判定手段は、前記取得手段により前記指標手段の個別情報が取得されたときに前記センサが前記基準位置に存在していると判定する拡張現実システム。 A mobile terminal device whose position is variable;
An indicator means whose absolute position is known;
With
A sensor that measures information about movement;
First storage means for storing a reference position of the sensor and an attitude of the sensor at the reference position;
Obtaining means for obtaining individual information of the indicator means;
Determination means for determining whether or not the sensor is present at the reference position;
After the determination means determines that the sensor is present at the reference position, based on the reference position stored in the first storage means and information on the movement measured by the sensor. Position specifying means for specifying the current position of the sensor;
After the determination means determines that the sensor is present at the reference position, the attitude of the sensor at the reference position stored in the first storage means and the movement measured by the sensor Posture identifying means for identifying the current posture of the sensor based on the information;
Output means for expressing augmented reality by outputting output information according to the current position of the sensor specified by the position specifying means and the current attitude of the sensor specified by the attitude specifying means;
Further comprising
The indicator means includes a housing that defines an attitude of the sensor when the sensor is present at the reference position so as to be an attitude of the sensor at the reference position stored in the first storage means. Prepared,
The sensor and the acquisition unit are provided in the mobile terminal device,
The augmented reality system in which the determination unit determines that the sensor is present at the reference position when the acquisition unit acquires the individual information of the index unit.
複数の前記携帯端末装置を備え、
前記携帯端末装置は、
拡張現実空間内に存在する他の携帯端末装置との間で無線によるデータ通信を行う第2通信手段と、
前記出力手段と、
を備え、
前記第2通信手段は、前記他の携帯端末装置が備える前記センサの現在位置を無線によるデータ通信により受信し、
前記出力手段は、前記第2通信手段により受信した前記他の携帯端末装置が備える前記センサの現在位置に応じて出力情報を出力する拡張現実システム。 The augmented reality system according to claim 1,
A plurality of the mobile terminal devices;
The portable terminal device
A second communication means for performing wireless data communication with another portable terminal device existing in the augmented reality space;
The output means;
With
The second communication means receives the current position of the sensor included in the other mobile terminal device by wireless data communication,
The augmented reality system in which the output means outputs output information according to a current position of the sensor included in the other portable terminal device received by the second communication means.
前記携帯端末装置は、
拡張現実空間内に存在する端末装置との間で無線によるデータ通信を行う第3通信手段と、
前記出力手段と、
を備え、
前記第3通信手段は、前記端末装置に関する固有の情報を無線によるデータ通信により受信し、
前記出力手段は、前記第3通信手段により受信した前記端末装置に関する固有の情報に応じて出力情報を出力する拡張現実システム。 The augmented reality system according to claim 1,
The portable terminal device
Third communication means for performing wireless data communication with a terminal device existing in the augmented reality space;
The output means;
With
The third communication means receives specific information about the terminal device by wireless data communication,
The augmented reality system in which the output means outputs output information according to specific information about the terminal device received by the third communication means.
前記センサが付随する対象物に関する情報を記憶する第2記憶手段をさらに備え、
前記出力手段は、前記第2記憶手段に記憶された前記対象物に関する情報に応じた出力情報を出力する拡張現実システム。 An augmented reality system according to any one of claims 1 to 3,
Further comprising second storage means for storing information relating to the object associated with the sensor;
The augmented reality system in which the output means outputs output information corresponding to information on the object stored in the second storage means.
生体に関する生体情報を測定する生体センサをさらに備え、
前記出力手段は、前記生体センサにより測定された生体情報に応じた出力情報を出力する拡張現実システム。 An augmented reality system according to any one of claims 1 to 4,
A biological sensor for measuring biological information about the living body;
The output means is an augmented reality system that outputs output information corresponding to biological information measured by the biological sensor.
動きに関する情報をセンサによって測定する工程と、
前記センサの基準位置および前記基準位置における前記センサの姿勢を第1記憶手段に記憶させる工程と、
外部に存在する絶対位置が既知の指標手段の個別情報を取得する工程と、
前記センサが前記基準位置に存在しているときの前記センサの姿勢を、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢となるように前記指標手段が備える筐体によって規定する工程と、
前記センサが前記基準位置に存在しているか否かを判定する工程と、
前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する工程と、
前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在の姿勢を特定する工程と、
特定された前記センサの現在位置と特定された前記センサの現在の姿勢とに応じて出力情報を出力することにより拡張現実を表現する工程と、
を有し、
前記指標手段の個別情報が取得されたときに、前記判定する工程において、前記センサが前記基準位置に存在していると判定する拡張現実提供方法。 An augmented reality providing method using a mobile terminal device whose position is variable,
Measuring information about movement with a sensor;
Storing a reference position of the sensor and a posture of the sensor at the reference position in a first storage unit;
Obtaining the individual information of the indicator means whose absolute position existing outside is known;
The orientation of the sensor when the sensor is present at the reference position is defined by a housing provided in the indicator means so as to be the orientation of the sensor at the reference position stored in the first storage means. Process,
Determining whether the sensor is present at the reference position;
After it is determined that the sensor is present at the reference position, based on the reference position stored in the first storage unit and information on the movement measured by the sensor, the sensor A process of identifying the current position;
After determining that the sensor is present at the reference position, based on the attitude of the sensor at the reference position stored in the first storage unit and information on the movement measured by the sensor. Identifying the current posture of the sensor;
Expressing augmented reality by outputting output information according to the current position of the identified sensor and the current posture of the identified sensor;
Have
An augmented reality providing method for determining that the sensor is present at the reference position in the determining step when the individual information of the index means is acquired .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017087902A JP6475776B2 (en) | 2017-04-27 | 2017-04-27 | Augmented reality system and augmented reality providing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017087902A JP6475776B2 (en) | 2017-04-27 | 2017-04-27 | Augmented reality system and augmented reality providing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013043838A Division JP2014174589A (en) | 2013-03-06 | 2013-03-06 | Augmented reality system, program and augmented reality provision method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017194969A JP2017194969A (en) | 2017-10-26 |
JP6475776B2 true JP6475776B2 (en) | 2019-02-27 |
Family
ID=60156057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017087902A Expired - Fee Related JP6475776B2 (en) | 2017-04-27 | 2017-04-27 | Augmented reality system and augmented reality providing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6475776B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6946203B2 (en) * | 2018-01-23 | 2021-10-06 | 東芝テック株式会社 | Transmitter search device and its program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006079313A (en) * | 2004-09-09 | 2006-03-23 | Nippon Telegr & Teleph Corp <Ntt> | Information processing device |
JP2008170309A (en) * | 2007-01-12 | 2008-07-24 | Seiko Epson Corp | Portable navigation system, portable navigation method, and program for portable navigation, and portable terminal |
JP2009289035A (en) * | 2008-05-29 | 2009-12-10 | Jiro Makino | Image display system, portable display, server computer, and archaeological sightseeing system |
JP2011102707A (en) * | 2009-11-10 | 2011-05-26 | Seiko Epson Corp | Positioning device and positioning method |
WO2012070595A1 (en) * | 2010-11-23 | 2012-05-31 | 日本電気株式会社 | Position information presentation device, position information presentation system, position information presentation method, program, and recording medium |
JP6020446B2 (en) * | 2011-04-20 | 2016-11-02 | 日本電気株式会社 | Image display system, image display apparatus, image display method, and program |
JP5681050B2 (en) * | 2011-06-28 | 2015-03-04 | 日本電信電話株式会社 | Route search device, route search method, and route search program |
-
2017
- 2017-04-27 JP JP2017087902A patent/JP6475776B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017194969A (en) | 2017-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014136700A1 (en) | Augmented reality provision system, recording medium, and augmented reality provision method | |
US10499002B2 (en) | Information processing apparatus and information processing method | |
US11854133B2 (en) | Display of a live scene and auxiliary object | |
JP6635037B2 (en) | Information processing apparatus, information processing method, and program | |
KR101894021B1 (en) | Method and device for providing content and recordimg medium thereof | |
JP6020446B2 (en) | Image display system, image display apparatus, image display method, and program | |
CN108293171B (en) | Information processing apparatus, information processing method, and storage medium | |
KR20210046591A (en) | Augmented reality data presentation method, device, electronic device and storage medium | |
EP3151202A1 (en) | Information processing device and information processing method | |
JP6228392B2 (en) | Panorama image display program, panorama image display device, panorama image display system, and panorama image display method | |
WO2018142756A1 (en) | Information processing device and information processing method | |
KR20130137968A (en) | System, apparatus, method and computer readable recording medium for providing an event on the augmented reality using a user terminal | |
JP6342024B1 (en) | Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program | |
KR102388939B1 (en) | Method for providing feedback service for user's motion correction | |
WO2015119092A1 (en) | Augmented reality provision system, recording medium, and augmented reality provision method | |
WO2012007764A1 (en) | Augmented reality system | |
KR101213022B1 (en) | System and method of searching a virtual treasure using a mobile terminal | |
JP6475776B2 (en) | Augmented reality system and augmented reality providing method | |
KR20180075099A (en) | Head mounted display apparatus and control method thereof | |
KR102578119B1 (en) | Smart glasses operation method interworking to mobile device | |
US20230162433A1 (en) | Information processing system, information processing method, and information processing program | |
KR101914660B1 (en) | Method and apparatus for controlling displaying of augmented reality contents based on gyro sensor | |
KR102443016B1 (en) | Apparatus and method for implementing advertising using augmented technology | |
WO2018008096A1 (en) | Information display device and program | |
EP2917847B1 (en) | Method and digital device for displaying a path in a map with a thickness corresponding to a distance within a section |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180501 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180702 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6475776 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |