JP6475776B2 - Augmented reality system and augmented reality providing method - Google Patents

Augmented reality system and augmented reality providing method Download PDF

Info

Publication number
JP6475776B2
JP6475776B2 JP2017087902A JP2017087902A JP6475776B2 JP 6475776 B2 JP6475776 B2 JP 6475776B2 JP 2017087902 A JP2017087902 A JP 2017087902A JP 2017087902 A JP2017087902 A JP 2017087902A JP 6475776 B2 JP6475776 B2 JP 6475776B2
Authority
JP
Japan
Prior art keywords
information
sensor
augmented reality
terminal device
reference position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017087902A
Other languages
Japanese (ja)
Other versions
JP2017194969A (en
Inventor
裕介 佐々木
裕介 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2017087902A priority Critical patent/JP6475776B2/en
Publication of JP2017194969A publication Critical patent/JP2017194969A/en
Application granted granted Critical
Publication of JP6475776B2 publication Critical patent/JP6475776B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、現実環境を拡張した拡張現実を実現する技術に関する。   The present invention relates to a technology for realizing augmented reality by extending a real environment.

従来より、現実の環境における情報に、コンピュータ等で作成した情報を付与することで、現実環境を拡張する拡張現実(AR:Augmented Reality)を実現する技術が知られている。拡張現実は視覚的に与えられるのが一般的である。そのため拡張現実を実現するためには、コンピュータが拡張現実を体感するユーザの視野を知得する必要があり、ユーザの位置を把握する必要がある。   2. Description of the Related Art Conventionally, a technology for realizing augmented reality (AR) that augments a real environment by adding information created by a computer or the like to information in the real environment is known. Augmented reality is generally given visually. Therefore, in order to realize augmented reality, it is necessary for the computer to know the field of view of the user experiencing the augmented reality, and it is necessary to grasp the position of the user.

そこで、位置を把握する技術として、GPS(Global Positioning System)を利用した拡張現実技術が提案されている。例えば、特許文献1に記載されている技術は、GPSにより取得した位置情報を基にして、表示する仮想物体の内容や、現実環境における表示位置を決定し、現実の視覚情報と仮想物体とを合成表示する技術である。特許文献1では、GPSより取得した位置情報から周囲の地物情報をデータベースより取得し、透過型ディスプレイに仮想物体を描画することで現実環境と仮想物体との合成を実現している。   Therefore, an augmented reality technique using GPS (Global Positioning System) has been proposed as a technique for grasping the position. For example, the technique described in Patent Document 1 determines the content of a virtual object to be displayed and the display position in a real environment based on position information acquired by GPS, and obtains real visual information and a virtual object. This is a composite display technology. In patent document 1, the surrounding feature information is acquired from the position information acquired from GPS from a database, and the virtual environment is drawn on the transmissive display to realize the synthesis of the real environment and the virtual object.

また、例えば、撮影画像を利用した拡張現実技術も知られている。撮影画像を利用した拡張現実技術は、現実空間に専用の識別情報を有する画像(マーカ)を設置し、撮影画像内にマーカが存在すればマーカ上に仮想物体を描画する方法や、画像内の特定の図形(人体など)を認識し仮想物体を描画する方法などがある。例えば、特許文献2には、現実環境に存在するマーカを利用して仮想物体の重畳表示を可能とする技術が記載されている。また、特許文献3には、現実環境に実物体としてのマーカを必要とせず、既知である現実空間の配置物を識別して仮想物体の表示を可能とする技術が記載されている。   Also, for example, augmented reality technology using captured images is also known. Augmented reality technology using photographed images installs an image (marker) having dedicated identification information in real space, and if a marker exists in the photographed image, a method of drawing a virtual object on the marker, There is a method of recognizing a specific figure (such as a human body) and drawing a virtual object. For example, Patent Document 2 describes a technique that enables a virtual object to be superimposed and displayed using a marker that exists in a real environment. Japanese Patent Application Laid-Open No. 2004-228561 describes a technique that enables display of a virtual object by identifying a known real space arrangement without requiring a marker as a real object in the real environment.

特開2012−068481号公報JP 2012-068481 A 特開2012−141779号公報JP 2012-141777 A 特開2003−256876号公報JP 2003-256876 A

ところが、特許文献1に記載された技術では、GPS信号が微弱な環境下ではGPS測位精度の低下により、仮想物体の表示位置がずれるという問題があった。そもそも特許文献1に記載された技術では、GPS信号を受信できない環境下において、仮想物体を表示することすらできないという問題があった。特に、拡張現実は屋内で提供されることが普通であり、屋内はGPS信号が微弱になりやすいという特性がある。したがって、拡張現実とGPSとは相性が悪いという事情がある。また、拡張現実は可搬性の出力装置により実現されるが、GPS信号を利用する場合、常に、GPS信号を受信しつつ処理せねばならず、バッテリ駆動を余儀なくされる可搬性の出力装置にとって消費電力の増大を招くという問題もある。   However, the technique described in Patent Document 1 has a problem that the display position of the virtual object is shifted due to a decrease in GPS positioning accuracy in an environment where the GPS signal is weak. In the first place, the technique described in Patent Document 1 has a problem that even a virtual object cannot be displayed in an environment where GPS signals cannot be received. In particular, augmented reality is usually provided indoors, and indoors have a characteristic that GPS signals tend to be weak. Therefore, there is a situation where augmented reality and GPS are not compatible. Augmented reality is realized by a portable output device. However, when using a GPS signal, the GPS signal must always be received and processed, which is consumed by a portable output device that is forced to be driven by a battery. There is also a problem of increasing the power.

また、特許文献2,3に記載された技術では、マーカや配置物の状態によっては、認識に失敗する可能性があるという問題がある。また、現実空間に特定のマーカや配置物の設置が必要となり、景観を損ねるという問題もある。また、仮想物体の表示内容を変更するときには、現実環境におけるマーカや配置物の移動が必要となり汎用性が低下するという問題もある。さらには、拡張現実を実行している間、常に撮影画像に対する画像認識処理を必要とするため、演算量が多く、コンピュータに対する負荷および消費電力が大きいという問題もある。   In addition, the techniques described in Patent Documents 2 and 3 have a problem that recognition may fail depending on the state of the marker or the arrangement. In addition, it is necessary to install a specific marker or arrangement in the real space, and there is a problem that the landscape is damaged. In addition, when changing the display content of the virtual object, there is a problem in that the versatility is deteriorated because it is necessary to move the marker or the arrangement object in the real environment. Furthermore, since an image recognition process is always required for a captured image while augmented reality is being executed, there is a problem that the amount of calculation is large, and the load on the computer and the power consumption are large.

本発明は、上記課題に鑑みてなされたものであり、GPS信号が受信できないような環境下においても、専用のマーカを必要とすることなく、拡張現実を実現する技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a technique for realizing augmented reality without requiring a dedicated marker even in an environment where GPS signals cannot be received. To do.

上記の課題を解決するため、請求項1の発明は、拡張現実システムであって、位置が可変の携帯端末装置と、絶対位置が既知の指標手段とを備え、動きに関する情報を測定するセンサと、前記センサの基準位置および前記基準位置における前記センサの姿勢を記憶する第1記憶手段と、前記指標手段の個別情報を取得する取得手段と、前記センサが前記基準位置に存在しているか否かを判定する判定手段と、前記判定手段により前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する位置特定手段と、前記判定手段により前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在の姿勢を特定する姿勢特定手段と、前記位置特定手段により特定された前記センサの現在位置と前記姿勢特定手段により特定された前記センサの現在の姿勢とに応じて出力情報を出力することにより拡張現実を表現する出力手段とをさらに備え、前記指標手段は、前記センサが前記基準位置に存在しているときの前記センサの姿勢を、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢となるように規定する筐体を備え、前記センサおよび前記取得手段は、前記携帯端末装置に設けられており、前記判定手段は、前記取得手段により前記指標手段の個別情報が取得されたときに前記センサが前記基準位置に存在していると判定する。 In order to solve the above-mentioned problem, the invention of claim 1 is an augmented reality system comprising a mobile terminal device whose position is variable and an index means whose absolute position is known, and a sensor for measuring information relating to movement; A first storage means for storing a reference position of the sensor and an attitude of the sensor at the reference position; an acquisition means for acquiring individual information of the index means; and whether the sensor is present at the reference position A determination means for determining the reference position stored in the first storage means after the determination means determines that the sensor is present at the reference position, and the measurement by the sensor. A position specifying unit that specifies the current position of the sensor based on information relating to movement; and after the determination unit determines that the sensor is present at the reference position And an attitude specifying means for specifying the current attitude of the sensor based on the attitude of the sensor at the reference position stored in the first storage means and information on the movement measured by the sensor; An output means for expressing augmented reality by outputting output information according to the current position of the sensor specified by the position specifying means and the current posture of the sensor specified by the attitude specifying means; And the indicator means defines the orientation of the sensor when the sensor is present at the reference position to be the orientation of the sensor at the reference position stored in the first storage means. comprising a body, said sensor and said acquisition means, said provided in the portable terminal apparatus, the determining means, number of the index means by the acquisition unit It determines that said sensor when the information is acquired is present in the reference position.

また、請求項2の発明は、請求項1の発明に係る拡張現実システムであって、複数の前記携帯端末装置を備え、前記携帯端末装置は、拡張現実空間内に存在する他の携帯端末装置との間で無線によるデータ通信を行う第2通信手段と、前記出力手段とを備え、前記第2通信手段は、前記他の携帯端末装置が備える前記センサの現在位置を無線によるデータ通信により受信し、前記出力手段は、前記第2通信手段により受信した前記他の携帯端末装置が備える前記センサの現在位置に応じて出力情報を出力する。   The invention of claim 2 is an augmented reality system according to the invention of claim 1, comprising a plurality of the mobile terminal devices, and the mobile terminal device is another mobile terminal device existing in an augmented reality space. A second communication unit that performs wireless data communication with the mobile station, and the output unit, wherein the second communication unit receives the current position of the sensor included in the other mobile terminal device by wireless data communication. Then, the output means outputs output information according to a current position of the sensor included in the other portable terminal device received by the second communication means.

また、請求項3の発明は、請求項1の発明に係る拡張現実システムであって、前記携帯端末装置は、拡張現実空間内に存在する端末装置との間で無線によるデータ通信を行う第3通信手段と、前記出力手段とを備え、前記第3通信手段は、前記端末装置に関する固有の情報を無線によるデータ通信により受信し、前記出力手段は、前記第3通信手段により受信した前記端末装置に関する固有の情報に応じて出力情報を出力する。   The invention of claim 3 is the augmented reality system according to the invention of claim 1, wherein the mobile terminal device performs wireless data communication with a terminal device existing in the augmented reality space. The terminal device includes communication means and the output means, wherein the third communication means receives specific information regarding the terminal device by wireless data communication, and the output means receives the third communication means. Output information according to the specific information about.

また、請求項4の発明は、請求項1ないし3のいずれかの発明に係る拡張現実システムであって、前記センサが付随する対象物に関する情報を記憶する第2記憶手段をさらに備え、前記出力手段は、前記第2記憶手段に記憶された前記対象物に関する情報に応じた出力情報を出力する。   The invention according to claim 4 is the augmented reality system according to any one of claims 1 to 3, further comprising second storage means for storing information relating to the object to which the sensor is attached, wherein the output The means outputs output information corresponding to information on the object stored in the second storage means.

また、請求項5の発明は、請求項1ないし4のいずれかの発明に係る拡張現実システムであって、生体に関する生体情報を測定する生体センサをさらに備え、前記出力手段は、前記生体センサにより測定された生体情報に応じた出力情報を出力する。   The invention according to claim 5 is the augmented reality system according to any one of claims 1 to 4, further comprising a biological sensor for measuring biological information related to a living body, wherein the output means is configured by the biological sensor. Output information corresponding to the measured biological information is output.

また、請求項6の発明は、位置が可変の携帯端末装置による拡張現実提供方法であって、動きに関する情報をセンサによって測定する工程と、前記センサの基準位置および前記基準位置における前記センサの姿勢を第1記憶手段に記憶させる工程と、外部に存在する絶対位置が既知の指標手段の個別情報を取得する工程と、前記センサが前記基準位置に存在しているときの前記センサの姿勢を、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢となるように前記指標手段が備える筐体によって規定する工程と、前記センサが前記基準位置に存在しているか否かを判定する工程と、前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する工程と、前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在の姿勢を特定する工程と、特定された前記センサの現在位置と特定された前記センサの現在の姿勢とに応じて出力情報を出力することにより拡張現実を表現する工程とを有し、前記指標手段の個別情報が取得されたときに、前記判定する工程において、前記センサが前記基準位置に存在していると判定する。 Further, the invention of claim 6 is a method for providing augmented reality by a mobile terminal device whose position is variable, the step of measuring information relating to movement by a sensor, the reference position of the sensor, and the attitude of the sensor at the reference position Storing in the first storage means, obtaining the individual information of the indicator means whose absolute position existing outside is known, and the attitude of the sensor when the sensor is present at the reference position, A step of defining by a housing of the indicator means so as to be an attitude of the sensor at the reference position stored in the first storage means, and determining whether the sensor is present at the reference position A step, and after the determination that the sensor is present at the reference position, the reference position stored in the first storage means and the measurement by the sensor The step of identifying the current position of the sensor based on the information relating to the movement, and after determining that the sensor is present at the reference position, the information stored in the first storage means The step of identifying the current posture of the sensor based on the posture of the sensor at a reference position and the information on the movement measured by the sensor, and the sensor identified as the current position of the identified sensor Outputting augmented reality by outputting output information according to the current posture of the sensor, and when the individual information of the indicator means is acquired, in the determining step, the sensor It is determined that it exists at the position.

請求項1ないしに記載の発明は、動きに関する情報を測定するセンサと、センサの基準位置および基準位置におけるセンサの姿勢を記憶する第1記憶手段と、指標手段の個別情報を取得する取得手段と、センサが基準位置に存在しているか否かを判定する判定手段と、判定手段によりセンサが基準位置に存在していると判定された後において、第1記憶手段に記憶された基準位置と、センサにより測定された動きに関する情報とに基づいて、センサの現在位置を特定する位置特定手段と、判定手段によりセンサが基準位置に存在していると判定された後において、第1記憶手段に記憶された基準位置におけるセンサの姿勢と、センサにより測定された動きに関する情報とに基づいて、センサの現在の姿勢を特定する姿勢特定手段と、位置特定手段により特定されたセンサの現在位置と姿勢特定手段により特定されたセンサの現在の姿勢とに応じて出力情報を出力することにより拡張現実を表現する出力手段とを備え、指標手段は、センサが基準位置に存在しているときのセンサの姿勢を、第1記憶手段に記憶された基準位置におけるセンサの姿勢となるように規定する筐体を備え、判定手段は、取得手段により指標手段の個別情報が取得されたときにセンサが基準位置に存在していると判定する。これにより、GPS信号が受信できない環境下においても、マーカなどを設置することなく、拡張現実を実現することができる。 The invention according to claims 1 to 5, a first storage means for storing a sensor for measuring information about the motion, the posture of the ruse capacitors put in the reference position and standards position of the sensor, a separate indicator means An acquisition means for acquiring information, a determination means for determining whether or not the sensor is present at the reference position, and after the determination means determines that the sensor is present at the reference position, the first storage means After determining that the sensor is present at the reference position by the position specifying means for specifying the current position of the sensor based on the stored reference position and the information on the movement measured by the sensor, and the determining means A position specifying means for specifying the current position of the sensor on the basis of the position of the sensor at the reference position stored in the first storage means and information on the movement measured by the sensor; And output means for representing the augmented reality by outputting the output information in accordance with the current posture of the sensor specified by the current position and the posture identifying means of the sensor specified by means, indicator means, sensor A housing is provided that defines the orientation of the sensor when present at the reference position to be the orientation of the sensor at the reference position stored in the first storage means. It is determined that the sensor is present at the reference position when the information is acquired. Thereby, even in an environment where GPS signals cannot be received, augmented reality can be realized without installing a marker or the like.

また、請求項6に記載の発明は、動きに関する情報をセンサによって測定する工程と、センサの基準位置および基準位置におけるセンサの姿勢を第1記憶手段に記憶させる工程と、外部に存在する絶対位置が既知の指標手段の個別情報を取得する工程と、センサが基準位置に存在しているときのセンサの姿勢を、第1記憶手段に記憶された基準位置におけるセンサの姿勢となるように指標手段が備える筐体によって規定する工程と、センサが基準位置に存在しているか否かを判定する工程と、センサが基準位置に存在していると判定された後において、第1記憶手段に記憶された基準位置と、センサにより測定された動きに関する情報とに基づいて、センサの現在位置を特定する工程と、センサが基準位置に存在していると判定された後において、第1記憶手段に記憶された基準位置におけるセンサの姿勢と、センサにより測定された動きに関する情報とに基づいて、センサの現在の姿勢を特定する工程と、特定されたセンサの現在位置と特定されたセンサの現在の姿勢とに応じて出力情報を出力することにより拡張現実を表現する工程とを有し、指標手段の個別情報が取得されたときに、判定する工程において、センサが基準位置に存在していると判定する。これにより、GPS信号が受信できない環境下においても、マーカなどを設置することなく、拡張現実を実現することができる。 According to the sixth aspect of the present invention, the step of measuring information relating to movement by the sensor, the step of storing the reference position of the sensor and the attitude of the sensor at the reference position in the first storage means, and the absolute position existing outside Acquiring the individual information of the known index means, and the index means so that the orientation of the sensor when the sensor is present at the reference position becomes the orientation of the sensor at the reference position stored in the first storage means Stored in the first storage means after it is determined that the sensor is present at the reference position, the step of determining whether the sensor is present at the reference position, and the step of determining whether the sensor is present at the reference position. The step of identifying the current position of the sensor based on the measured reference position and information on the movement measured by the sensor, and after determining that the sensor is present at the reference position. The step of identifying the current posture of the sensor based on the posture of the sensor at the reference position stored in the first storage means and the information related to the movement measured by the sensor, and the current position of the identified sensor, Outputting augmented reality by outputting output information according to the current posture of the identified sensor, and when the individual information of the index means is acquired, the sensor determines the reference It is determined that it exists at the position. Thereby, even in an environment where GPS signals cannot be received, augmented reality can be realized without installing a marker or the like.

第1の実施の形態における拡張現実システムを示す図である。It is a figure which shows the augmented reality system in 1st Embodiment. 第1の実施の形態における携帯端末装置、基準位置取得装置およびデータベースサーバのブロック図である。It is a block diagram of the portable terminal device, reference position acquisition apparatus, and database server in 1st Embodiment. 第1の実施の形態における携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block with which the portable terminal device in 1st Embodiment is provided with the flow of data. 第1の実施の形態における拡張現実提供方法を示す流れ図である。It is a flowchart which shows the augmented reality provision method in 1st Embodiment. 第1の実施の形態においてユーザに対して提供される拡張現実空間の景観の表示例を示す図である。It is a figure which shows the example of a display of the landscape of the augmented reality space provided with respect to a user in 1st Embodiment. 第1の実施の形態においてユーザに対して提供される拡張現実空間の景観の表示例を示す図である。It is a figure which shows the example of a display of the landscape of the augmented reality space provided with respect to a user in 1st Embodiment. 第2の実施の形態における拡張現実システムを示す図である。It is a figure which shows the augmented reality system in 2nd Embodiment. 第2の実施の形態における携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block with which the portable terminal device in 2nd Embodiment is provided with the flow of data. 携帯端末装置間の無線通信により実現される拡張現実の例を示す図である。It is a figure which shows the example of the augmented reality implement | achieved by the radio | wireless communication between portable terminal devices. 携帯端末装置と端末装置との間の無線通信により実現される拡張現実の例を示す図である。It is a figure which shows the example of the augmented reality implement | achieved by the wireless communication between a portable terminal device and a terminal device. 第3の実施の形態における拡張現実システムを示す図である。It is a figure which shows the augmented reality system in 3rd Embodiment. 第3の実施の形態における携帯端末装置のブロック図である。It is a block diagram of the portable terminal device in 3rd Embodiment. 第3の実施の形態における携帯端末装置が備える機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block with which the portable terminal device in 3rd Embodiment is provided with the flow of data. 第3の実施の形態における拡張現実提供方法を示す流れ図である。It is a flowchart which shows the augmented reality provision method in 3rd Embodiment. 第3の実施の形態における拡張現実システムにより実現される拡張現実の例を示す図である。It is a figure which shows the example of the augmented reality implement | achieved by the augmented reality system in 3rd Embodiment. 拡張現実空間内の幽霊画像の表示位置を例示する図である。It is a figure which illustrates the display position of the ghost image in augmented reality space. 幽霊画像の表示例を示す図である。It is a figure which shows the example of a display of a ghost image. 幽霊画像の表示例を示す図である。It is a figure which shows the example of a display of a ghost image. 幽霊画像の表示例を示す図である。It is a figure which shows the example of a display of a ghost image. 第3の実施の形態において、幽霊画像の表示を変更する場合における変形例を示す図である。In 3rd Embodiment, it is a figure which shows the modification in the case of changing the display of a ghost image. 第4の実施の形態における拡張現実システムによって提供される探索アプリケーションの拡張現実の表示例である。It is a display example of the augmented reality of the search application provided by the augmented reality system in 4th Embodiment. 第4の実施の形態における拡張現実システムによって提供される探索アプリケーションの拡張現実の表示例である。It is a display example of the augmented reality of the search application provided by the augmented reality system in 4th Embodiment.

以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。ただし、以下の説明において特に断らない限り、方向や向きに関する記述は、当該説明の便宜上、図面に対応するものであり、例えば実施品、製品または権利範囲等を限定するものではない。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. However, unless otherwise specified in the following description, descriptions of directions and orientations correspond to the drawings for the convenience of the description, and do not limit, for example, a product, a product, or a scope of rights.

<1. 第1の実施の形態>
図1は、第1の実施の形態における拡張現実システム1を示す図である。図1に示す拡張現実空間9は、拡張現実システム1による拡張現実が提供されるエリアを概念的に図示したものである。
<1. First Embodiment>
FIG. 1 is a diagram illustrating an augmented reality system 1 according to the first embodiment. The augmented reality space 9 shown in FIG. 1 conceptually illustrates an area where augmented reality by the augmented reality system 1 is provided.

拡張現実システム1は、携帯端末装置2と、絶対位置が既知であり位置が当該絶対位置に固定される設置型の装置として構成される基準位置取得装置10と、データベースサーバ11とを備えている。なお、携帯端末装置2、基準位置取得装置10およびデータベースサーバ11の数は、図1に示す数に限定されるものではない。   The augmented reality system 1 includes a portable terminal device 2, a reference position acquisition device 10 configured as an installation type device whose absolute position is known and whose position is fixed to the absolute position, and a database server 11. . The numbers of the mobile terminal device 2, the reference position acquisition device 10, and the database server 11 are not limited to the numbers shown in FIG.

第1の実施の形態における拡張現実システム1において、基準位置取得装置10およびデータベースサーバ11は、システム運営者によって提供され設置される装置を想定している。一方で、携帯端末装置2としては、システム運営者が拡張現実を提供しようとするエリアを訪れたユーザによって所有される装置を想定しており、個人所有の携帯電話、スマートフォン、PDA端末などが該当する。   In the augmented reality system 1 in the first embodiment, the reference position acquisition device 10 and the database server 11 are assumed to be devices provided and installed by a system operator. On the other hand, the portable terminal device 2 is assumed to be a device owned by a user who visits an area where the system operator wants to provide augmented reality, and includes a personally owned mobile phone, smartphone, PDA terminal, etc. To do.

図2は、第1の実施の形態における携帯端末装置2、基準位置取得装置10およびデータベースサーバ11のブロック図である。   FIG. 2 is a block diagram of the mobile terminal device 2, the reference position acquisition device 10, and the database server 11 in the first embodiment.

携帯端末装置2は、CPU20、記憶装置21、操作部22、表示部23、センサ群24、撮像部25、非接触ICカード部26および通信部27を備えている。携帯端末装置2は、ユーザに携帯されることにより、対象物としてのユーザに付随して移動する装置(位置が可変の装置)として構成されている。また、携帯端末装置2がセンサ群24を備えていることにより、当該センサ群24も対象物としてのユーザに付随した状態となっている。   The mobile terminal device 2 includes a CPU 20, a storage device 21, an operation unit 22, a display unit 23, a sensor group 24, an imaging unit 25, a non-contact IC card unit 26 and a communication unit 27. The mobile terminal device 2 is configured as a device (device whose position is variable) that moves with the user as a target object when the mobile terminal device 2 is carried by the user. In addition, since the mobile terminal device 2 includes the sensor group 24, the sensor group 24 is also attached to the user as the object.

CPU20は、記憶装置21に格納されているプログラム210を読み取りつつ実行し、各種データの演算や制御信号の生成等を行う。これにより、CPU20は、携帯端末装置2が備える各構成を制御するとともに、各種データを演算し作成する機能を有している。すなわち、携帯端末装置2は、一般的なコンピュータとして構成されている。   The CPU 20 reads and executes the program 210 stored in the storage device 21, and performs various data calculations, control signal generation, and the like. Thereby, CPU20 has a function which calculates and produces various data while controlling each structure with which the portable terminal device 2 is provided. That is, the mobile terminal device 2 is configured as a general computer.

記憶装置21は、携帯端末装置2において各種データを記憶する機能を提供する。特に、本実施の形態における記憶装置21は、プログラム210、基準情報103、候補情報112、測定情報212、位置情報214、出力情報215、撮像画像情報213およびオーナー情報211を記憶するために使用される。   The storage device 21 provides a function of storing various data in the mobile terminal device 2. In particular, the storage device 21 in the present embodiment is used to store the program 210, the reference information 103, the candidate information 112, the measurement information 212, the position information 214, the output information 215, the captured image information 213, and the owner information 211. The

記憶装置21としては、CPU20の一時的なワーキングエリアとして使用されるRAMやバッファ、読み取り専用のROM、不揮発性のメモリ(例えばNANDメモリなど)、比較的大容量のデータを記憶するハードディスク、専用の読み取り装置に装着された可搬性の記憶媒体(CD−ROM、PCカード、SDカード、USBメモリなど)等が該当する。図1においては、記憶装置21を、あたかも1つの構造物であるかのように図示している。しかし、通常、記憶装置21は、上記例示した各種装置(あるいは媒体)のうち、必要に応じて採用される複数種類の装置から構成されるものである。すなわち、記憶装置21は、データを記憶する機能を有する装置群の総称である(後述する記憶装置101,110についても同様)。   As the storage device 21, a RAM or buffer used as a temporary working area of the CPU 20, a read-only ROM, a non-volatile memory (such as a NAND memory), a hard disk for storing a relatively large amount of data, a dedicated memory A portable storage medium (a CD-ROM, a PC card, an SD card, a USB memory, or the like) mounted on the reading device is applicable. In FIG. 1, the storage device 21 is illustrated as if it were one structure. However, the storage device 21 is usually composed of a plurality of types of devices that are employed as necessary among the various devices (or media) exemplified above. That is, the storage device 21 is a generic name for a group of devices having a function of storing data (the same applies to storage devices 101 and 110 described later).

また、現実のCPU20は高速にアクセス可能なRAMを内部に備えた電子回路である。しかし、このようなCPU20が備える記憶装置も、説明の都合上、記憶装置21に含めて説明する。すなわち、本実施の形態においては、一時的にCPU20自体が記憶するデータも、記憶装置21が記憶するとして説明する。   The actual CPU 20 is an electronic circuit provided with a RAM that can be accessed at high speed. However, the storage device included in the CPU 20 is also included in the storage device 21 for convenience of explanation. That is, in the present embodiment, description will be made assuming that the storage device 21 also stores data temporarily stored in the CPU 20 itself.

操作部22は、ユーザが携帯端末装置2(拡張現実システム1)に対して指示を入力するために操作されるハードウェアである。操作部22としては、例えば、各種キーやボタン類、タッチパネル、ポインティングデバイスなどが該当する。   The operation unit 22 is hardware that is operated by a user to input an instruction to the mobile terminal device 2 (augmented reality system 1). Examples of the operation unit 22 include various keys and buttons, a touch panel, and a pointing device.

表示部23は、各種データを表示することにより出力する機能を有するハードウェアである。表示部23としては、例えば、ランプやLED、液晶ディスプレイや液晶パネルなどが該当する。特に、本実施の形態における表示部23は、画像を画面に表示する液晶ディスプレイを備えており、出力情報215を出力することにより拡張現実を表現する機能を有している。すなわち、第1の実施の形態における表示部23は、本発明に係る出力手段に相当する。   The display unit 23 is hardware having a function of outputting various data by displaying them. Examples of the display unit 23 include a lamp, an LED, a liquid crystal display, a liquid crystal panel, and the like. In particular, the display unit 23 in this embodiment includes a liquid crystal display that displays an image on a screen, and has a function of expressing augmented reality by outputting output information 215. That is, the display unit 23 in the first embodiment corresponds to an output unit according to the present invention.

センサ群24は、動きに関する情報を測定する複数のセンサで構成されている。センサ群24に含まれるセンサとしては、加速度センサ、ジャイロセンサ、地磁気センサなど、相対的な測位を実行するための検出装置が該当する。センサ群24からの出力(測定値)は、記憶装置21に転送され、測定情報212として記憶される。詳細は後述するが、CPU20は、測定情報212に基づいて、「動き」による移動経路を演算する。   The sensor group 24 includes a plurality of sensors that measure information related to movement. The sensors included in the sensor group 24 include detection devices for executing relative positioning, such as acceleration sensors, gyro sensors, and geomagnetic sensors. An output (measured value) from the sensor group 24 is transferred to the storage device 21 and stored as measurement information 212. Although details will be described later, the CPU 20 calculates a movement path by “movement” based on the measurement information 212.

センサ群24によって測定された測定情報212に基づいて演算される移動経路は、厳密にはセンサ群24の移動経路である。しかし、すでに説明したように、本実施の形態における拡張現実システム1においては、ユーザが携帯端末装置2を携帯することにより、センサ群24が対象物としてのユーザに付随した状態となる。これにより、センサ群24は、主に、ユーザの動きを反映した情報を測定することになる。したがって、拡張現実システム1は、センサ群24の移動経路を、当該センサ群24が付随しているユーザの移動経路とみなす。以下の説明では、特に断らない限り、センサ群24の移動経路と対象物の移動経路とを区別せずに、単に「移動経路」と称する。   The movement path calculated based on the measurement information 212 measured by the sensor group 24 is strictly the movement path of the sensor group 24. However, as already explained, in the augmented reality system 1 according to the present embodiment, when the user carries the mobile terminal device 2, the sensor group 24 is attached to the user as the object. Thereby, the sensor group 24 mainly measures information reflecting the movement of the user. Therefore, the augmented reality system 1 regards the movement path of the sensor group 24 as the movement path of the user associated with the sensor group 24. In the following description, unless otherwise specified, the movement route of the sensor group 24 and the movement route of the object are not distinguished from each other and are simply referred to as “movement route”.

なお、従来の技術を採用して、センサ群24の移動経路を適宜補正、修正し、より精度の高い対象物の移動経路としてもよい。例えば、ユーザの歩行状態を表す測定情報212が得られている間のユーザの移動経路については、測定情報212を用いて演算するのではなく、ユーザの平均的な歩幅や歩行速度といった情報(ユーザ情報)を採用して演算してもよい。また、センサ群24に含まれるセンサは、上記に示した例に限定されるものではない。   In addition, it is good also as employ | adopting a prior art and correct | amending and correcting suitably the movement path | route of the sensor group 24, and it is good also as a movement path | route of a more accurate target object. For example, the user's movement route while the measurement information 212 representing the user's walking state is obtained is not calculated using the measurement information 212 but information such as the user's average stride and walking speed (user Information) may be employed for calculation. Further, the sensors included in the sensor group 24 are not limited to the examples shown above.

撮像部25は、レンズなどの光学素子と、CCDなどの光電変換素子を備え、撮像範囲内にある被写体を撮像して、当該被写体の現実の外観を表現した撮像画像情報213を取得する機能を有している。すなわち、撮像部25は、一般的なデジタルカメラとしての構成および機能を有している。   The imaging unit 25 includes an optical element such as a lens and a photoelectric conversion element such as a CCD, and has a function of imaging a subject within the imaging range and acquiring captured image information 213 that represents the actual appearance of the subject. Have. That is, the imaging unit 25 has a configuration and a function as a general digital camera.

詳細は後述するが、第1の実施の形態において、表示部23は、周囲に現実に存在する被写体の現実の外観を表現した撮像画像情報213と、周囲に存在しない事物(文字などを含む。)を表現した候補情報112から選択される出力情報215とを合成して表示することにより、画面に拡張現実を表現する。また、以下の説明では、特に断らない限り、撮像画像情報213は、複数のフレーム画像から構成されるカラーの動画像である。   Although details will be described later, in the first embodiment, the display unit 23 includes captured image information 213 that represents the actual appearance of a subject that actually exists in the surroundings, and things (characters and the like) that do not exist in the surroundings. The augmented reality is represented on the screen by combining and displaying the output information 215 selected from the candidate information 112 representing the). In the following description, unless otherwise specified, the captured image information 213 is a color moving image composed of a plurality of frame images.

非接触ICカード部26は、一般的な非接触ICカードの構成および機能を有している。これにより、携帯端末装置2は、基準位置取得装置10の非接触ICカードリーダ部100との間で、近接無線通信を行うことが可能とされている。なお、非接触ICカード部26の回路構成および機能等は、従来技術(各種標準規格等)を適宜採用可能である。したがって、非接触ICカード部26の回路構成および機能についての詳細な説明は、省略する。   The non-contact IC card unit 26 has the configuration and functions of a general non-contact IC card. Thereby, the portable terminal device 2 can perform close proximity wireless communication with the non-contact IC card reader unit 100 of the reference position acquisition device 10. It should be noted that conventional techniques (such as various standards) can be appropriately employed as the circuit configuration and functions of the non-contact IC card unit 26. Therefore, a detailed description of the circuit configuration and functions of the non-contact IC card unit 26 is omitted.

このように、携帯端末装置2が非接触ICカード部26を備えているため、ユーザは、携帯端末装置2を基準位置取得装置10の非接触ICカードリーダ部100に近接させてかざすことにより、基準位置取得装置10から必要な情報を、非接触ICカード部26側に取得することができる。特に、本実施の形態における携帯端末装置2は、基準情報103および候補情報112を、基準位置取得装置10から取得する。なお、以下の説明では、ユーザが、携帯端末装置2を非接触ICカードリーダ部100に近接させてかざす一連の動作を「通信可能化動作」と称する。   Thus, since the mobile terminal device 2 includes the non-contact IC card unit 26, the user holds the mobile terminal device 2 close to the non-contact IC card reader unit 100 of the reference position acquisition device 10, Necessary information can be acquired from the reference position acquisition device 10 to the non-contact IC card unit 26 side. In particular, the mobile terminal device 2 in the present embodiment acquires the reference information 103 and the candidate information 112 from the reference position acquisition device 10. In the following description, a series of operations in which the user holds the mobile terminal device 2 close to the non-contact IC card reader unit 100 is referred to as “communication enabling operation”.

通信部27は、携帯端末装置2が外部の装置との間で無線による通信を行う機能を提供する。通信部27が提供する通信は、データ通信に限定されるものではなく、通話であってもよい。   The communication unit 27 provides a function in which the mobile terminal device 2 performs wireless communication with an external device. The communication provided by the communication unit 27 is not limited to data communication, and may be a call.

基準位置取得装置10は、拡張現実を提供するエリアの近傍に設置される装置である。基準位置取得装置10は、絶対位置が既知であり、当該絶対位置に固定される設置型の装置として構成されている。図2に示すように、基準位置取得装置10は、非接触ICカードリーダ部100および記憶装置101を備えている。なお、図2では、基準位置取得装置10の詳細な構成の図示を省略しているが、基準位置取得装置10は、CPUや操作部、表示部および通信部などを備えており、一般的なコンピュータとして構成されている。   The reference position acquisition device 10 is a device installed in the vicinity of an area that provides augmented reality. The reference position acquisition device 10 has a known absolute position and is configured as an installation type device that is fixed to the absolute position. As shown in FIG. 2, the reference position acquisition device 10 includes a non-contact IC card reader unit 100 and a storage device 101. In FIG. 2, the detailed configuration of the reference position acquisition device 10 is not illustrated, but the reference position acquisition device 10 includes a CPU, an operation unit, a display unit, a communication unit, and the like. It is configured as a computer.

非接触ICカードリーダ部100は、一般的な非接触ICカードとの間で近接無線通信を行い、当該非接触ICカードに記憶されている様々な情報を読み取ることが可能であるとともに、当該非接触ICカードに様々な情報を送信することも可能である。このような非接触ICカードリーダ部100としては、従来の技術を適用できるため、詳細な説明は省略する。本実施の形態における非接触ICカードリーダ部100は、携帯端末装置2が備える非接触ICカード部26との間で近接無線通信を行う。   The non-contact IC card reader unit 100 performs proximity wireless communication with a general non-contact IC card and can read various information stored in the non-contact IC card. It is also possible to transmit various information to the contact IC card. As such a non-contact IC card reader unit 100, since a conventional technique can be applied, detailed description is omitted. The non-contact IC card reader unit 100 in the present embodiment performs close proximity wireless communication with the non-contact IC card unit 26 provided in the mobile terminal device 2.

基準位置取得装置10の外表面を構成する筐体は、図1に示すように、ユーザが通信可能化動作を行うために適した外観となっている。すなわち、ユーザが通信可能化動作を実行するときの携帯端末装置2(センサ群24)の位置および姿勢とが明確に規定される外観となっている。具体的には、非接触ICカードリーダ部100の位置において、筐体の外表面が水平面に対して傾斜した平面形状となっており、かつ、当該外表面の色彩が他の部分と異なるように図案化されている。これにより、ユーザは、混乱することなく、かつ、正確に通信可能化動作を実行することができる。   As shown in FIG. 1, the casing constituting the outer surface of the reference position acquisition device 10 has an appearance suitable for the user to perform the communication enabling operation. In other words, the appearance is such that the position and orientation of the mobile terminal device 2 (sensor group 24) when the user performs the communication enabling operation are clearly defined. Specifically, at the position of the non-contact IC card reader unit 100, the outer surface of the housing has a planar shape inclined with respect to the horizontal plane, and the color of the outer surface is different from the other parts. It has been designed. As a result, the user can accurately execute the communication enabling operation without being confused.

ユーザが通信可能化を実行しているときの携帯端末装置2の位置および姿勢は、先述のように、基準位置取得装置10の筐体によって規定される。また、基準位置取得装置10の絶対位置は既知であり、かつ、基準位置取得装置10が設置型の装置であることから当該絶対位置は容易に変化することはない。したがって、基準位置取得装置10の非接触ICカードリーダ部100と、携帯端末装置2の非接触ICカード部26とが、互いにデータ通信を行っているときにおいて、携帯端末装置2(センサ群24)の位置および姿勢は既知とみなせる。   The position and orientation of the mobile terminal device 2 when the user is enabling communication are defined by the casing of the reference position acquisition device 10 as described above. In addition, since the absolute position of the reference position acquisition device 10 is known and the reference position acquisition device 10 is an installation type device, the absolute position does not easily change. Therefore, when the non-contact IC card reader unit 100 of the reference position acquisition device 10 and the non-contact IC card unit 26 of the mobile terminal device 2 perform data communication with each other, the mobile terminal device 2 (sensor group 24). The position and orientation of can be regarded as known.

本実施の形態における拡張現実システム1は、基準位置取得装置10の非接触ICカードリーダ部100と、携帯端末装置2の非接触ICカード部26とが互いにデータ通信を行っているときの携帯端末装置2(センサ群24)の位置を「基準位置」とし、当該基準位置におけるセンサ群24の姿勢(向き)を「基準位置における姿勢」とする。   The augmented reality system 1 according to the present embodiment is a portable terminal when the non-contact IC card reader unit 100 of the reference position acquisition device 10 and the non-contact IC card unit 26 of the portable terminal device 2 perform data communication with each other. The position of the device 2 (sensor group 24) is referred to as “reference position”, and the posture (orientation) of the sensor group 24 at the reference position is referred to as “posture at the reference position”.

基準位置および基準位置における姿勢は、いずれも基準位置取得装置10を設置する際に各基準位置取得装置10ごとに予め測定し、基準情報103として記憶しておくことができる。すなわち、基準情報103は、基準位置取得装置10の個別情報に相当し、非接触ICカードリーダ部100と非接触ICカード部26とが互いにデータ通信を行っているときのセンサ群24の位置および姿勢(向き)を示す情報である。   Both the reference position and the posture at the reference position can be measured in advance for each reference position acquisition device 10 when the reference position acquisition device 10 is installed, and stored as reference information 103. That is, the reference information 103 corresponds to individual information of the reference position acquisition device 10, and the position of the sensor group 24 when the non-contact IC card reader unit 100 and the non-contact IC card unit 26 perform data communication with each other. This is information indicating a posture (orientation).

記憶装置101は、基準位置取得装置10において情報を記憶する機能を有する装置の総称である。特に、記憶装置101は、基準位置取得装置10のCPU(図示せず)によって実行されるプログラム102、基準位置取得装置10の個別情報としての基準情報103、および、データベースサーバ11から取得される候補情報112を記憶するために使用される。   The storage device 101 is a generic name for devices having a function of storing information in the reference position acquisition device 10. In particular, the storage device 101 includes a program 102 executed by a CPU (not shown) of the reference position acquisition device 10, reference information 103 as individual information of the reference position acquisition device 10, and candidates acquired from the database server 11. Used to store information 112.

データベースサーバ11は、図2に示すように、記憶装置110を備えている。なお、図2では、データベースサーバ11の詳細な構成の図示を省略しているが、データベースサーバ11は、CPUや操作部、表示部および通信部などを備えており、一般的なコンピュータとして構成されている。   As shown in FIG. 2, the database server 11 includes a storage device 110. In FIG. 2, the detailed configuration of the database server 11 is not shown, but the database server 11 includes a CPU, an operation unit, a display unit, a communication unit, and the like, and is configured as a general computer. ing.

データベースサーバ11は、基準位置取得装置10と異なり、拡張現実を提供するエリアの近傍に限定されることなく設置される装置である。データベースサーバ11の設置場所としては、例えばシステム運営者のセンタやバックヤードなどが想定される。データベースサーバ11は、LANやインターネット、公衆網などのネットワークを介して基準位置取得装置10と接続されており、必要に応じて候補情報112を基準位置取得装置10に送信する。   Unlike the reference position acquisition device 10, the database server 11 is a device that is installed without being limited to the vicinity of an area that provides augmented reality. As the installation location of the database server 11, for example, the center or backyard of the system operator is assumed. The database server 11 is connected to the reference position acquisition apparatus 10 via a network such as a LAN, the Internet, or a public network, and transmits candidate information 112 to the reference position acquisition apparatus 10 as necessary.

記憶装置110は、データベースサーバ11において情報を記憶する機能を有する装置の総称である。特に、記憶装置110は、データベースサーバ11のCPU(図示せず)によって実行されるプログラム111、および、候補情報112を記憶するために使用される。   The storage device 110 is a general term for devices having a function of storing information in the database server 11. In particular, the storage device 110 is used to store a program 111 executed by a CPU (not shown) of the database server 11 and candidate information 112.

候補情報112は、拡張現実を提供するときに使用される素材(コンテンツ)に関する情報であり、データベースサーバ11のオペレータやデザイナ、プログラマ等により作成され、記憶装置110に格納される。具体的には、候補情報112は、拡張現実において表示される仮想物体のグラフィック情報、位置に関する情報、時間に関する情報、あるいは、拡張現実空間9における地図情報(レイアウトデータ)などである。なお、候補情報112に含まれる各情報には、出力情報215として選択する際に参照されるタグ(分類、説明など)が付加されている。   The candidate information 112 is information related to materials (contents) used when providing augmented reality, and is created by an operator, a designer, a programmer, or the like of the database server 11 and stored in the storage device 110. Specifically, the candidate information 112 is, for example, graphic information of a virtual object displayed in augmented reality, information about a position, information about time, or map information (layout data) in the augmented reality space 9. Note that each information included in the candidate information 112 has a tag (classification, description, etc.) that is referred to when selecting it as the output information 215.

候補情報112は、一般には、基準位置取得装置10の周辺で提供される拡張現実ごとに異なる情報であり、それぞれの基準位置取得装置10ごとにデータベースサーバ11から送信される。また、提供中の拡張現実の内容を変更するときには、データベースサーバ11において候補情報112が更新され、基準位置取得装置10に向けてアップロードされる。   The candidate information 112 is generally different information for each augmented reality provided around the reference position acquisition device 10 and is transmitted from the database server 11 for each reference position acquisition device 10. Further, when changing the contents of the augmented reality being provided, the candidate information 112 is updated in the database server 11 and uploaded to the reference position acquisition apparatus 10.

図3は、第1の実施の形態における携帯端末装置2が備える機能ブロックをデータの流れとともに示す図である。図3に示すカード制御部200、位置姿勢特定部201および拡張現実構成部202は、CPU20がプログラム210に従って動作することにより実現される機能ブロックである。   FIG. 3 is a diagram illustrating functional blocks included in the mobile terminal device 2 according to the first embodiment, together with a data flow. The card control unit 200, the position / orientation specifying unit 201, and the augmented reality configuration unit 202 illustrated in FIG. 3 are functional blocks realized by the CPU 20 operating according to the program 210.

カード制御部200は、非接触ICカード部26を制御することにより、基準位置取得装置10との間の近接無線通信を制御する機能を有している。すなわち、カード制御部200は、非接触ICカード部26との間のインタフェースを構成しており、非接触ICカード部26が受信した基準情報103および候補情報112を記憶装置21に転送し、記憶させる。なお、図3では、記憶装置21から何らかの情報が読み出されて非接触ICカード部26から送信されることについては図示していないが、そのような情報が存在していてもよい。すなわち、非接触ICカード部26は書き込み専用でなくてもよい。   The card control unit 200 has a function of controlling the proximity wireless communication with the reference position acquisition device 10 by controlling the non-contact IC card unit 26. That is, the card control unit 200 constitutes an interface with the non-contact IC card unit 26, transfers the reference information 103 and the candidate information 112 received by the non-contact IC card unit 26 to the storage device 21, and stores them. Let In FIG. 3, it is not illustrated that some information is read from the storage device 21 and transmitted from the non-contact IC card unit 26, but such information may exist. That is, the non-contact IC card unit 26 may not be dedicated to writing.

先述のように、本実施の形態では、非接触ICカード部26と、基準位置取得装置10の非接触ICカードリーダ部100との間で近接無線通信が開始されたことにより、携帯端末装置2(センサ群24)が基準位置に存在すると判定する。すなわち、非接触ICカード部26により基準情報103が受信されたとカード制御部200が判定したときが、携帯端末装置2(センサ群24)が基準位置に存在するときである。したがって、第1の実施の形態におけるカード制御部200が、本発明に係る判定手段に相当する。   As described above, in the present embodiment, the close proximity wireless communication is started between the non-contact IC card unit 26 and the non-contact IC card reader unit 100 of the reference position acquisition device 10. It is determined that (sensor group 24) exists at the reference position. That is, the time when the card control unit 200 determines that the reference information 103 is received by the non-contact IC card unit 26 is when the mobile terminal device 2 (sensor group 24) is present at the reference position. Therefore, the card control unit 200 in the first embodiment corresponds to a determination unit according to the present invention.

位置姿勢特定部201は、センサ群24により測定された測定情報212に基づいて、相対的な測位の結果としての移動経路を演算する。なお、センサ群24によって観測される「移動に関する情報」には回転移動に関する情報も含まれる。したがって、位置姿勢特定部201によって演算される移動経路には、位置の変化履歴(移動軌跡)のみならず、姿勢の変化に関する情報も含まれる。   The position / orientation specifying unit 201 calculates a movement path as a result of relative positioning based on the measurement information 212 measured by the sensor group 24. Note that “information relating to movement” observed by the sensor group 24 includes information relating to rotational movement. Therefore, the movement path calculated by the position / orientation specifying unit 201 includes not only the position change history (movement locus) but also information related to the attitude change.

また、位置姿勢特定部201は、演算により求めた移動経路の始点の絶対位置に基づいて、当該移動経路の終点の位置を絶対位置に変換することにより、携帯端末装置2(センサ群24)の現在位置を特定するとともに、携帯端末装置2(センサ群24)の現在の姿勢を特定する。なお、移動経路の始点の絶対位置とは、基準情報103に含まれる基準位置である。   Further, the position / orientation specifying unit 201 converts the position of the end point of the movement route to the absolute position based on the absolute position of the start point of the movement route obtained by the calculation, thereby allowing the mobile terminal device 2 (sensor group 24) to While specifying a present position, the present attitude | position of the portable terminal device 2 (sensor group 24) is specified. The absolute position of the starting point of the movement route is a reference position included in the reference information 103.

すなわち、位置姿勢特定部201は、基準情報103の受信後において、記憶装置21に記憶された基準情報103と、測定情報212とに基づいて、携帯端末装置2の現在位置を特定するとともに、携帯端末装置2の現在の姿勢を特定する機能を有している。本実施の形態において、基準情報103の受信後とは、カード制御部200によりセンサ群24が基準位置に存在していると判定された後である。また、測定情報212は、センサ群24により測定された動きに関する情報である。すなわち、第1の実施の形態における位置姿勢特定部201は、本発明に係る位置特定手段および姿勢特定手段に相当する機能を有している。   That is, the position / orientation specifying unit 201 specifies the current position of the mobile terminal device 2 based on the reference information 103 stored in the storage device 21 and the measurement information 212 after receiving the reference information 103, It has a function of specifying the current attitude of the terminal device 2. In the present embodiment, “after receiving the reference information 103” is after the card control unit 200 determines that the sensor group 24 exists at the reference position. The measurement information 212 is information related to the movement measured by the sensor group 24. That is, the position / orientation specifying unit 201 in the first embodiment has a function corresponding to the position specifying unit and the attitude specifying unit according to the present invention.

位置姿勢特定部201によって特定された携帯端末装置2の現在位置および現在の姿勢は、位置情報214として記憶装置21に記憶される。   The current position and current posture of the mobile terminal device 2 identified by the position / orientation identifying unit 201 are stored in the storage device 21 as position information 214.

拡張現実構成部202は、位置姿勢特定部201により求められた位置情報214と、オーナー情報211とを参照して、拡張現実を表現するための素材である候補情報112から出力情報215を抽出する機能を有している。   The augmented reality configuration unit 202 refers to the position information 214 obtained by the position / orientation specifying unit 201 and the owner information 211 and extracts the output information 215 from the candidate information 112 that is a material for expressing augmented reality. It has a function.

なお、オーナー情報211とは、操作部22が操作されることによりユーザによって入力される当該ユーザに関する情報であって、より詳細には対象物の特性に関する情報である。具体的には、携帯端末装置2を所有するユーザの年齢、性別、職業、住所、趣味、趣向、行動(購買)履歴、病歴(アレルギーの有無など)、婚姻状況、家族構成、所有物(車、家など)といった個人情報である。これらの情報は、操作部22から直接入力される情報に限定されるものではなく、他のアプリケーションによって自動的に収集されてもよい。   The owner information 211 is information related to the user that is input by the user when the operation unit 22 is operated. More specifically, the owner information 211 is information related to the characteristics of the object. Specifically, the age, gender, occupation, address, hobbies, preferences, behavior (purchasing) history, medical history (such as allergy) of the user who owns the mobile terminal device 2, marital status, family composition, property (car) Personal information such as home. These pieces of information are not limited to information directly input from the operation unit 22, and may be automatically collected by other applications.

また、出力情報215は、本実施の形態では、表示部23において、液晶ディスプレイの画面に表示される情報であり、提供される拡張現実において現実を拡張するための情報に相当する。表示部23は、出力情報215を撮像画像情報213に重ねて(合成して)あるいは追加して表示することにより、当該画面に拡張現実を表現する。なお、出力情報215は、候補情報112から抽出されるときに、拡張現実構成部202によって加工されてもよい。すなわち、そのような加工手順に関する情報も、候補情報112に含まれていてもよい。   Further, in the present embodiment, the output information 215 is information displayed on the screen of the liquid crystal display in the display unit 23, and corresponds to information for extending reality in the augmented reality provided. The display unit 23 displays the augmented reality on the screen by displaying the output information 215 superimposed (synthesized) or added to the captured image information 213. The output information 215 may be processed by the augmented reality configuration unit 202 when extracted from the candidate information 112. That is, information regarding such a processing procedure may also be included in the candidate information 112.

以上が第1の実施の形態における拡張現実システム1の構成および機能の説明である。次に、拡張現実システム1を用いて、ユーザに対して、拡張現実を提供する方法について具体的に説明する。   The above is the description of the configuration and functions of the augmented reality system 1 in the first embodiment. Next, a method for providing augmented reality to the user using the augmented reality system 1 will be specifically described.

図4は、第1の実施の形態における拡張現実提供方法を示す流れ図である。本実施の形態においては、拡張現実を用いて、百貨店やショッピングモールなどの集合店舗における店舗案内を実現する例について説明する。すなわち、集合店舗内を拡張現実空間9として、ユーザを目的の店舗に案内するアプリケーションを例に説明する。したがって、本実施の形態における候補情報112には、集合店舗の見取り図、見取り図内に配置される各店舗の位置情報、広告情報、クーポン情報などが含まれている。   FIG. 4 is a flowchart showing an augmented reality providing method according to the first embodiment. In the present embodiment, an example will be described in which augmented reality is used to realize store guidance at a collective store such as a department store or a shopping mall. That is, an application that guides the user to a target store with the inside of the collective store as an augmented reality space 9 will be described as an example. Therefore, the candidate information 112 in the present embodiment includes a floor plan of the collective store, location information of each store arranged in the floor plan, advertisement information, coupon information, and the like.

なお、図4に示す各工程が開始されるまでに、携帯端末装置2が起動され、所定の初期設定が完了し、記憶装置21にオーナー情報211が記憶されているものとする。また、基準位置取得装置10の記憶装置101に、候補情報112がすでに記憶されているものとする。また、図4では、説明の都合上、1人のユーザに対する各工程を示しているが、拡張現実システム1は同時に複数のユーザ(複数の携帯端末装置2)に対して拡張現実を提供することが可能である。   It is assumed that the portable terminal device 2 is activated, a predetermined initial setting is completed, and the owner information 211 is stored in the storage device 21 before each process shown in FIG. 4 is started. Further, it is assumed that the candidate information 112 is already stored in the storage device 101 of the reference position acquisition device 10. 4 shows each process for one user for convenience of explanation, the augmented reality system 1 provides augmented reality to a plurality of users (a plurality of portable terminal devices 2) at the same time. Is possible.

ユーザは、集合店舗(拡張現実空間9)に到着する(ステップS1)と、持参した携帯端末装置2を用いて、入り口に設置されている基準位置取得装置10に対して通信可能化動作を行う(ステップS2)。   When the user arrives at the collective store (augmented reality space 9) (step S1), the user performs communication enabling operation with respect to the reference position acquisition device 10 installed at the entrance using the portable terminal device 2 that he / she brought. (Step S2).

第1の実施の形態では、ユーザが通信可能化動作を行わなければ、拡張現実システム1は、当該ユーザに対して拡張現実を提供することは困難である。したがって、来店時等において、ユーザに通信可能化動作を確実に実行させる仕組みを設けておくことが好ましい。   In the first embodiment, if the user does not perform the communication enabling operation, it is difficult for the augmented reality system 1 to provide augmented reality to the user. Therefore, it is preferable to provide a mechanism for allowing the user to reliably perform the communication enabling operation when visiting the store.

このような仕組みとして、例えば、通信可能化動作により、携帯端末装置2に来店ポイントが付加されるように構成することが考えられる。このように構成すれば、来店ポイントを貯めたいユーザの通信可能化動作をより促進することができる。もちろん、入り口付近に、顧客(ユーザ)に対して通信可能化動作を促すポスターを掲示するなどしてもよい。   As such a mechanism, for example, it is conceivable that a store visit point is added to the mobile terminal device 2 by a communication enabling operation. If comprised in this way, the communication enabling operation | movement of the user who wants to accumulate a store visit point can be promoted more. Of course, a poster that prompts the customer (user) to enable communication may be posted near the entrance.

ユーザにより通信可能化動作(ステップS2)が実行されることで、携帯端末装置2の非接触ICカード部26と、基準位置取得装置10の非接触ICカードリーダ部100との間で近接無線通信が開始される。これにより、携帯端末装置2のCPU20(カード制御部200)は、ステップS3においてYesと判定する。すなわち、カード制御部200は、ステップS3においてYesと判定した時点で、携帯端末装置2(センサ群24)が基準位置に存在すると判定する。   Proximity wireless communication between the non-contact IC card unit 26 of the mobile terminal device 2 and the non-contact IC card reader unit 100 of the reference position acquisition device 10 by the communication enabling operation (step S2) performed by the user. Is started. Thereby, CPU20 (card | curd control part 200) of the portable terminal device 2 determines with Yes in step S3. That is, the card control unit 200 determines that the mobile terminal device 2 (sensor group 24) is present at the reference position when it determines Yes in step S3.

無線通信が開始されると、携帯端末装置2は、基準位置取得装置10から基準情報103および候補情報112を取得する(ステップS4)。これにより、記憶装置21に基準情報103および候補情報112が格納される。   When the wireless communication is started, the mobile terminal device 2 acquires the reference information 103 and the candidate information 112 from the reference position acquisition device 10 (step S4). As a result, the reference information 103 and the candidate information 112 are stored in the storage device 21.

ステップS4の処理と並行して、撮像部25は、周囲(拡張現実空間9内)の撮像を開始する(ステップS5)。これにより、以後、撮像周期に応じて撮像画像情報213が取得される状態となる。なお、本実施の形態ではステップS5の処理は、通信可能化動作により自動的に開始されるが、もちろん、ユーザの指示(操作部22に対するユーザ操作)により開始するように構成してもよい。   In parallel with the process of step S4, the imaging unit 25 starts imaging of the surroundings (in the augmented reality space 9) (step S5). Thereby, thereafter, the captured image information 213 is obtained according to the imaging cycle. In the present embodiment, the process of step S5 is automatically started by the communication enabling operation, but of course, it may be configured to start by a user instruction (user operation on the operation unit 22).

ステップS5の処理と並行して、センサ群24は、移動に関する情報の測定を開始する(ステップS6)。これにより、以後、センサ群24の測定周期に応じて測定情報212が更新される状態となる。すなわち、拡張現実空間9内におけるユーザ(携帯端末装置2)の移動に関する情報がセンサ群24によって測定情報212として収集され続ける状態となる。   In parallel with the process in step S5, the sensor group 24 starts measuring information related to movement (step S6). Thereby, thereafter, the measurement information 212 is updated according to the measurement cycle of the sensor group 24. That is, information regarding the movement of the user (mobile terminal device 2) in the augmented reality space 9 is continuously collected as the measurement information 212 by the sensor group 24.

ステップS4ないしS6が実行されると、位置姿勢特定部201は、基準情報103(移動経路の始点に関する情報)、および、測定情報212(移動経路を求めるための情報)に基づいて、携帯端末装置2の現在位置および現在の姿勢を特定し(ステップS7)、位置情報214を作成する。   When Steps S4 to S6 are executed, the position / orientation specifying unit 201, based on the reference information 103 (information on the start point of the movement route) and the measurement information 212 (information for obtaining the movement route), the mobile terminal device 2 is identified (step S7), and position information 214 is created.

次に、拡張現実構成部202が、位置情報214に応じて、拡張現実空間9における絶対位置と姿勢とを決定し、当該拡張現実における視点および視線方向を決定する。さらに、拡張現実構成部202は、決定した視点および視線方向に応じて、候補情報112から出力情報215を抽出する(ステップS8)。   Next, the augmented reality configuration unit 202 determines the absolute position and orientation in the augmented reality space 9 according to the position information 214, and determines the viewpoint and line-of-sight direction in the augmented reality. Further, the augmented reality configuration unit 202 extracts the output information 215 from the candidate information 112 according to the determined viewpoint and line-of-sight direction (step S8).

視点および視線方向が決まれば、拡張現実空間9における視野を決定することができる。そして、拡張現実空間9における視野が決まれば、当該視野に対応して仮想的に表示させるべき事物(仮想物体)および当該事物の形状などが決まる。このようにして拡張現実構成部202は、候補情報112から適切な出力情報215を選択することができる。なお、位置情報214が作成された後に、当該位置情報214に基づいて出力情報215を選択する原理は、従来の技術を適宜適用することも可能である。   If the viewpoint and the line-of-sight direction are determined, the visual field in the augmented reality space 9 can be determined. When the field of view in the augmented reality space 9 is determined, an object (virtual object) to be displayed virtually corresponding to the field of view and the shape of the object are determined. In this way, the augmented reality configuration unit 202 can select appropriate output information 215 from the candidate information 112. It should be noted that the conventional technique can be appropriately applied to the principle of selecting the output information 215 based on the position information 214 after the position information 214 is created.

第1の実施の形態では、拡張現実構成部202が決定する「視点および視線方向」が、撮像部25による「撮像点(撮像範囲の中心点)および撮像方向」と一致するほど、出力情報215と撮像画像情報213とを合成表示したときのユーザの違和感が抑制される。したがって、位置姿勢特定部201は、この点(携帯端末装置2における撮像部25の位置や向き)を考慮して、位置情報214を作成することが好ましい。   In the first embodiment, the output information 215 increases as the “viewpoint and line-of-sight direction” determined by the augmented reality configuration unit 202 matches the “imaging point (center point of the imaging range) and imaging direction” by the imaging unit 25. And the sensed discomfort when the captured image information 213 is combined and displayed are suppressed. Therefore, it is preferable that the position / orientation specifying unit 201 creates the position information 214 in consideration of this point (the position and orientation of the imaging unit 25 in the mobile terminal device 2).

集合店舗における店舗案内においては、ユーザの現在位置(位置情報214)が同じであっても、ユーザの目的地が異なれば、表示する仮想物体(案内経路など)を変更する必要がある。すなわち、目的地など、位置情報214とは異なる情報に応じて、出力情報215を選択しなければならない。したがって、第1の実施の形態における拡張現実構成部202は、位置情報214のみならず、オーナー情報211を参照して出力情報215を抽出する。   In store guidance at a collective store, even if the user's current position (position information 214) is the same, if the user's destination is different, it is necessary to change a virtual object (such as a guidance route) to be displayed. In other words, the output information 215 must be selected according to information different from the position information 214 such as the destination. Therefore, the augmented reality configuration unit 202 in the first embodiment extracts the output information 215 with reference to the owner information 211 as well as the position information 214.

まず、拡張現実構成部202は、オーナー情報211に応じて、集合店舗内の複数の店舗の中から、ユーザが目的とする店舗を決定する。このような決定を行うための情報としては、例えば、オーナー情報211に含まれるユーザの趣味、購買履歴、来店履歴、店舗検索履歴、目的地として入力された店舗名などを利用することができる。一般にオーナー情報211として記録されている情報は不定である。したがって、拡張現実構成部202は、オーナー情報211に存在する蓋然性の高い情報に予め重み付け(優先順位付け)を行っておき、参照時に実際に格納されていた各情報の重みを加算した評価を実行して、ユーザの目的の店舗を決定する。   First, the augmented reality configuration unit 202 determines a store intended by the user from a plurality of stores in the collective store according to the owner information 211. As information for making such a determination, for example, a user's hobby, purchase history, store visit history, store search history, store name input as a destination, and the like included in the owner information 211 can be used. In general, information recorded as the owner information 211 is indefinite. Therefore, the augmented reality configuration unit 202 performs weighted (prioritized) in advance on highly probable information existing in the owner information 211, and performs evaluation by adding the weight of each information actually stored at the time of reference. Then, the user's target store is determined.

システム運営者によって提供される装置であれば、ユーザの個人情報であるオーナー情報211を網羅的に収集することには困難を伴う。個人情報の流出を危惧するユーザが他人の装置に自分の個人情報を提供することに消極的となるためである。しかし、第1の実施の形態における携帯端末装置2は、ユーザ所有であるため、個人情報を入力することに対してユーザの抵抗感は少ないと予測される。したがって、予めオーナー情報211を正確かつ詳細に収集しておくことが可能である。また、状況に応じてアプリケーションから必要な情報の入力を促すことも可能である。これにより、第1の実施の形態における拡張現実構成部202は、ユーザの望む店舗を正確に予測することができる。   In the case of an apparatus provided by a system operator, it is difficult to comprehensively collect owner information 211 that is personal information of the user. This is because a user who is worried about leakage of personal information is reluctant to provide his / her personal information to another person's device. However, since the mobile terminal device 2 in the first embodiment is owned by the user, it is predicted that the user's resistance to inputting personal information is small. Therefore, it is possible to collect the owner information 211 in advance accurately and in detail. It is also possible to prompt the user to input necessary information depending on the situation. Thereby, the augmented reality configuration unit 202 in the first embodiment can accurately predict the store desired by the user.

ユーザの望む店舗が予測できれば、拡張現実構成部202は、位置情報214に基づいて決定した拡張現実空間9における視野と、予測した店舗名とに応じて、候補情報112から適切な出力情報215を特定することができる。なお、拡張現実構成部202は、時間などの公共的な情報を用いてユーザの目的の店舗を決定してもよい。例えば、お昼時であれば、レストランを優先的に選択するといった手法も考えられる。   If the store desired by the user can be predicted, the augmented reality configuration unit 202 outputs appropriate output information 215 from the candidate information 112 according to the field of view in the augmented reality space 9 determined based on the position information 214 and the predicted store name. Can be identified. Note that the augmented reality configuration unit 202 may determine a user's target store using public information such as time. For example, a method of preferentially selecting a restaurant at noon is also conceivable.

ステップS8が実行されて、出力情報215が作成されると、表示部23は、出力情報215と撮像画像情報213とを液晶ディスプレイの画面に合成表示する(ステップS9)。これにより、表示部23が、拡張現実を液晶ディスプレイの画面に表現し、ユーザに対して拡張現実を提供する。   When the output information 215 is created by executing step S8, the display unit 23 displays the output information 215 and the captured image information 213 in a synthesized manner on the screen of the liquid crystal display (step S9). Thereby, the display unit 23 expresses the augmented reality on the screen of the liquid crystal display, and provides the augmented reality to the user.

以後、拡張現実の提供を終了させるか否かを判定しつつ(ステップS10)、終了させる指示があるまでステップS7ないしS10の処理を繰り返す。   Thereafter, while determining whether to end the provision of augmented reality (step S10), the processes of steps S7 to S10 are repeated until an instruction to end is given.

図5および図6は、第1の実施の形態においてユーザに対して提供される拡張現実空間9の景観の表示例を示す図である。すなわち、図5および図6は、表示部23に表示される拡張現実表示画面の例である。   FIG. 5 and FIG. 6 are diagrams showing a display example of the landscape of the augmented reality space 9 provided to the user in the first embodiment. That is, FIGS. 5 and 6 are examples of the augmented reality display screen displayed on the display unit 23.

図5は、液晶ディスプレイの画面に、店舗内画像213aと、仮想物体である経路215a、広告215b,215c,215dとが表示されている様子を示している。   FIG. 5 shows a state in which an in-store image 213a, a route 215a that is a virtual object, and advertisements 215b, 215c, and 215d are displayed on the screen of the liquid crystal display.

店舗内画像213aは、撮像部25によって撮像された撮像画像情報213であり、拡張現実空間9における現実部分を表現した画像である。   The in-store image 213a is captured image information 213 captured by the imaging unit 25, and is an image representing a real part in the augmented reality space 9.

また、経路215a、広告215b,215c,215dは、候補情報112から選択された出力情報215であり、拡張現実空間9における拡張部分(仮想部分)を表現した画像である。   The route 215a and the advertisements 215b, 215c, and 215d are output information 215 selected from the candidate information 112, and are images that represent the augmented part (virtual part) in the augmented reality space 9.

携帯端末装置2は、図5に示すように、現実環境の景観(店舗内画像213a)に、仮想物体で構成された拡張環境の景観(経路215a、広告215b,215c,215d)を重ねて拡張現実表示画面を作成し提供することができる。   As illustrated in FIG. 5, the mobile terminal device 2 extends a landscape (route 215 a, advertisements 215 b, 215 c, and 215 d) composed of virtual objects over a real environment landscape (store image 213 a). A reality display screen can be created and provided.

ユーザは、経路215aを視認することにより、店舗Dに向かって案内されていることを知得することができるとともに、店舗Dまでの経路および距離等を、地図などで示される場合に比べて、容易に、かつ、直感的に知得することができる。また、ユーザが地図などを注視している場合、通行人等に衝突する危険がある。しかし、拡張現実システム1が提供する拡張現実では、通行人も店舗内画像213aとして表示されるので、画面を注視していても、ユーザは衝突する危険を容易に察知し回避することができる。   By visually recognizing the route 215a, the user can know that he / she is being guided toward the store D, and the route and distance to the store D can be easily compared with the case where the route is indicated on a map or the like. In addition, it is possible to know intuitively. Further, when the user is watching a map or the like, there is a risk of colliding with a passerby. However, in the augmented reality provided by the augmented reality system 1, a passerby is also displayed as the in-store image 213a, so that the user can easily perceive and avoid the danger of collision even when watching the screen.

また、ユーザは、経路を確認するついでに、広告215b,215c,215dを視認することになり、経路周辺の店舗の新鮮な情報を得ることも可能である。広告215b,215c,215dは、現実の店舗前に設置されるポップ広告等に比べて、画面に正対するユーザにとって見やすい位置、角度、大きさに容易に調整することができるとともに、アニメーション効果などを持たせることも容易であるため、広告主の店舗にとっても効果的な情報発信が可能となる。すなわち、店舗にとっての広告媒体としても優れた効果を発揮する。   Further, the user can visually recognize the advertisements 215b, 215c, and 215d when confirming the route, and can also obtain fresh information on stores around the route. The advertisements 215b, 215c, and 215d can be easily adjusted to a position, angle, and size that are easy to see for the user facing the screen as compared to a pop advertisement or the like installed in front of an actual store, and have animation effects and the like. Since it can be easily provided, it is possible to effectively transmit information to the advertiser's store. In other words, it exhibits an excellent effect as an advertising medium for the store.

一方で、拡張現実構成部202は、ユーザが望まない店舗に関する情報を、オーナー情報211により判断し、店舗D以外の店舗の広告215b,215c,215dの表示を禁止することも可能である。あるいは、それに加えて、目的の店舗D以外の店舗部分を視認不能にする(例えば、他の店舗の現実の位置に白壁画像を表示する。)といった表現方法も可能である。これによって、不要な情報が表示されることによるユーザの混乱を抑制することができ、ユーザに適した使いやすいアプリケーションを提供できる。   On the other hand, the augmented reality configuration unit 202 can also prohibit the display of the advertisements 215b, 215c, and 215d of stores other than the store D by determining information related to stores that the user does not want from the owner information 211. Alternatively, in addition to this, an expression method of making a store portion other than the target store D invisible (for example, displaying a white wall image at an actual position of another store) is also possible. Thereby, user confusion due to unnecessary information being displayed can be suppressed, and an easy-to-use application suitable for the user can be provided.

図6は、液晶ディスプレイの画面に、店舗内画像215eと、仮想物体である経路215f、星印215g、クーポン215h,215iとが表示されている様子を示している。   FIG. 6 shows a state in which an in-store image 215e, a virtual object route 215f, a star 215g, and coupons 215h and 215i are displayed on the screen of the liquid crystal display.

店舗内画像215eは、撮像部25によって撮像された撮像画像情報213ではなく、現実の店舗内をデフォルメした地図画像であり、拡張現実空間9における現実部分を表現した画像である。すなわち、拡張現実構成部202は、候補情報112に含まれる拡張現実空間9のレイアウトや地図に応じて、店舗内画像215eを作成することも可能である。すなわち、出力情報215は必ずしも仮想物体のみを表現した情報に限定されるものでない。   The in-store image 215e is not a captured image information 213 imaged by the imaging unit 25 but a map image in which the actual store is deformed, and is an image representing a real part in the augmented reality space 9. In other words, the augmented reality configuration unit 202 can also create the in-store image 215e according to the layout and map of the augmented reality space 9 included in the candidate information 112. That is, the output information 215 is not necessarily limited to information representing only a virtual object.

また、経路215fは、位置情報214、オーナー情報211および候補情報112(地図情報)に基づいて拡張現実構成部202により計算された情報を、候補情報112から選択された出力情報215(線図案)で表現した情報である。経路215fは、拡張現実空間9における拡張部分(仮想部分)を表現した画像である。   Further, the route 215f is output information 215 (schematic diagram) selected from the candidate information 112 based on the information calculated by the augmented reality configuration unit 202 based on the position information 214, the owner information 211, and the candidate information 112 (map information). It is information expressed in. The path 215f is an image representing an augmented part (virtual part) in the augmented reality space 9.

さらに、星印215gおよびクーポン215h,215iは、候補情報112から選択された出力情報215であり、拡張現実空間9における拡張部分(仮想部分)を表現した画像である。   Furthermore, the star mark 215g and the coupons 215h and 215i are output information 215 selected from the candidate information 112, and are images representing an augmented part (virtual part) in the augmented reality space 9.

携帯端末装置2は、図6に示すように、現実環境の景観(店舗内画像215e)に、仮想物体で構成された拡張環境の景観(経路215f、星印215g、クーポン215h,215i)を重ねて拡張現実表示画面を作成し提供することができる。   As illustrated in FIG. 6, the mobile terminal device 2 superimposes the landscape of the extended environment (path 215f, star 215g, coupons 215h, 215i) configured with virtual objects on the landscape of the real environment (in-store image 215e). The augmented reality display screen can be created and provided.

ユーザは、経路215fを視認することにより、店舗Dまでの全行程を確認することができる。また、星印215gを視認することにより、集合店舗内における現在位置も確認することができる。   The user can confirm the entire process up to the store D by viewing the route 215f. Further, by visually recognizing the star 215g, the current position in the collective store can also be confirmed.

さらに、ユーザは、経路を確認するついでに、クーポン215h,215iを視認することにより、店舗C,Dにおいてクーポンが発行されていることを知得することができる。このようなクーポンは、候補情報112に含まれており、該当する店舗のレジなどに正対したときに、出力情報215として選択され、仮想物体として具体的内容が画面に表示される。すなわち、支払い時にユーザが逐一操作して表示させてから、店員に提示する必要はない。   Further, the user can know that the coupon is issued at the stores C and D by visually checking the coupons 215h and 215i when confirming the route. Such a coupon is included in the candidate information 112, and is selected as output information 215 when facing a cash register of the corresponding store, and specific contents are displayed on the screen as a virtual object. That is, there is no need to present to the store clerk after the user operates and displays each one at the time of payment.

なお、携帯端末装置2は、図5に示す画面と図6に示す画面とをユーザの指示に応じて切り替えることができる。ただし、図5に示す画面と図6に示す画面とを並べて同時に表示してもよい。また、携帯端末装置2は、ユーザが目的の店舗に到着したことを位置情報214により検出したときは、次の目的地となる店舗を決定して、当該店舗に対する案内を開始してもよい。また、次の目的地となる店舗に対する案内の開始は、最初の店舗からユーザが退出したタイミングで開始してもよい。   Note that the mobile terminal device 2 can switch between the screen shown in FIG. 5 and the screen shown in FIG. 6 in accordance with a user instruction. However, the screen shown in FIG. 5 and the screen shown in FIG. 6 may be displayed side by side simultaneously. Further, when the mobile terminal device 2 detects that the user has arrived at the target store based on the position information 214, the mobile terminal device 2 may determine the next destination store and start guidance for the store. In addition, the start of guidance for the next destination store may be started when the user leaves the first store.

以上のように、第1の実施の形態における拡張現実システム1は、測定情報212を測定するセンサ群24と、センサ群24の基準位置を記憶する記憶装置21(記憶装置101,110)と、センサ群24が基準位置に存在しているか否かを判定するカード制御部200と、カード制御部200によりセンサ群24が基準位置に存在していると判定された後において、記憶装置21に記憶された基準位置と、センサ群24により測定された測定情報212とに基づいて、センサ群24の現在位置を特定する位置姿勢特定部201と、位置姿勢特定部201により特定されたセンサ群24の現在位置に応じて出力情報215を出力することにより拡張現実を表現する表示部23とを備える。これにより、拡張現実システム1は、GPS信号が受信できない環境下においても、マーカなどを設置することなく、拡張現実を実現することができる。   As described above, the augmented reality system 1 according to the first embodiment includes the sensor group 24 that measures the measurement information 212, the storage device 21 (storage devices 101 and 110) that stores the reference position of the sensor group 24, and the like. The card control unit 200 that determines whether or not the sensor group 24 is present at the reference position, and the card control unit 200 stores the data in the storage device 21 after the sensor group 24 is determined to be present at the reference position. Based on the measured reference position and the measurement information 212 measured by the sensor group 24, the position / orientation specifying unit 201 for specifying the current position of the sensor group 24 and the sensor group 24 specified by the position / orientation specifying unit 201 And a display unit 23 for expressing augmented reality by outputting output information 215 according to the current position. As a result, the augmented reality system 1 can realize augmented reality without installing a marker or the like even in an environment where GPS signals cannot be received.

また、記憶装置21は、基準位置におけるセンサの姿勢を記憶しており、位置姿勢特定部201が、カード制御部200によりセンサ群24が基準位置に存在していると判定された後において、記憶装置21に記憶された基準位置におけるセンサ群24の姿勢と、センサ群24により測定された測定情報212とに基づいて、センサ群24の現在の姿勢を特定し、表示部23は、位置姿勢特定部201により特定されたセンサ群24の現在の姿勢に応じて出力情報215を出力する。すなわち、GPSと異なり、拡張現実システム1は、ユーザの絶対位置だけでなく、ユーザの姿勢や向きを決定することが可能である。そして、これらの情報に応じて、ユーザの視線の先に効果的な仮想物体(出力情報215)を表示することができる。したがって、これにより、さらに現実味のある拡張現実を表現することができる。   Further, the storage device 21 stores the posture of the sensor at the reference position, and after the position / posture specifying unit 201 determines that the sensor group 24 exists at the reference position by the card control unit 200, the storage device 21 stores the posture. Based on the posture of the sensor group 24 at the reference position stored in the device 21 and the measurement information 212 measured by the sensor group 24, the current posture of the sensor group 24 is specified, and the display unit 23 specifies the position and posture. Output information 215 is output according to the current posture of the sensor group 24 specified by the unit 201. That is, unlike the GPS, the augmented reality system 1 can determine not only the absolute position of the user but also the posture and orientation of the user. And according to such information, an effective virtual object (output information 215) can be displayed at the tip of the user's line of sight. Therefore, this makes it possible to express more realistic augmented reality.

また、絶対位置に固定される設置型の装置としての基準位置取得装置10を備えるとともに、携帯端末装置2はセンサ群24が基準位置に存在するときに基準位置取得装置10との間で近接無線通信を行う非接触ICカード部26を備える。これにより、拡張現実の提供を開始する直前に利用可能な位置に基準位置取得装置10を設置しておけば、拡張現実を提供する直前にセンサ群24をリセットできる。したがって、時間経過によるセンサ群24の誤差累積を抑制することができる。   In addition, the mobile terminal device 2 includes a reference position acquisition device 10 as an installation type device that is fixed at an absolute position, and the mobile terminal device 2 is in close proximity to the reference position acquisition device 10 when the sensor group 24 exists at the reference position. A non-contact IC card unit 26 that performs communication is provided. Thus, if the reference position acquisition device 10 is installed at a usable position immediately before the provision of augmented reality is started, the sensor group 24 can be reset immediately before providing the augmented reality. Therefore, error accumulation of the sensor group 24 over time can be suppressed.

また、基準位置取得装置10は、携帯端末装置2と基準位置取得装置10との間で近接無線通信が行われているときに、基準情報103を携帯端末装置2に送信する。これにより、携帯端末装置2が予め基準情報103を取得しておく必要がない。   The reference position acquisition device 10 transmits the reference information 103 to the mobile terminal device 2 when close proximity wireless communication is performed between the mobile terminal device 2 and the reference position acquisition device 10. This eliminates the need for the mobile terminal device 2 to acquire the reference information 103 in advance.

基準位置取得装置10は、携帯端末装置2と基準位置取得装置10との間で近接無線通信が行われているときに、出力情報215の候補となる候補情報112を携帯端末装置2に送信する。これにより、携帯端末装置2が予め候補情報112を取得しておく必要がない。また、利用する直前に候補情報112を取得することになるので、比較的新しい状態の候補情報112を取得することができる。   The reference position acquisition device 10 transmits candidate information 112 that is a candidate for the output information 215 to the mobile terminal device 2 when close proximity wireless communication is performed between the mobile terminal device 2 and the reference position acquisition device 10. . Thereby, it is not necessary for the mobile terminal device 2 to acquire the candidate information 112 in advance. Moreover, since the candidate information 112 is acquired immediately before use, the candidate information 112 in a relatively new state can be acquired.

また、拡張現実システム1は、センサ群24が付随する対象物に関する情報としてオーナー情報211を記憶し、表示部23は、記憶されたオーナー情報211に応じた出力情報215を出力する。これにより、対象物に応じた拡張現実を提供することができる。例えば、対象物が個人である場合、個人ごとに当該個人に適した拡張現実を提供することができる。   Further, the augmented reality system 1 stores owner information 211 as information related to the object to which the sensor group 24 is attached, and the display unit 23 outputs output information 215 corresponding to the stored owner information 211. Thereby, the augmented reality according to the target object can be provided. For example, when the object is an individual, augmented reality suitable for the individual can be provided for each individual.

なお、第1の実施の形態における基準情報103は、基準位置取得装置10において作成され、記憶装置101に記憶されると説明した。しかし、例えば、データベースサーバ11において基準情報103に相当する情報を作成し、候補情報112とともに各基準位置取得装置10に向けて送信するように構成してもよい。   Note that the reference information 103 in the first embodiment has been described as being created in the reference position acquisition device 10 and stored in the storage device 101. However, for example, information corresponding to the reference information 103 may be created in the database server 11 and transmitted to each reference position acquisition apparatus 10 together with the candidate information 112.

また、基準位置取得装置10とデータベースサーバ11とを、1台のコンピュータで構成してもよい。   Further, the reference position acquisition device 10 and the database server 11 may be configured by a single computer.

また、候補情報112は、携帯端末装置2の通信部27とデータベースサーバ11との間のデータ通信により、予め携帯端末装置2にダウンロードされていてもよい。すなわち、候補情報112は、必ずしも基準位置取得装置10から取得されなくてもよい。一般に、非接触ICカード部26と非接触ICカードリーダ部100との間の近接無線通信によるデータ通信は、膨大な量のデータを送受信するには不向きである。したがって、比較的データ量の多い候補情報112に関しては、一般的なネットワーク(インターネットなど)を介したデータ通信により送受信することが好ましい。ユーザは、基準位置取得装置10の周囲において拡張現実の提供を受ける前に、所有する携帯端末装置2を操作してデータベースサーバ11にアクセスし、当該基準位置取得装置10の周囲で提供される拡張現実用の候補情報112を予めダウンロードしておけばよい。なお、この場合、基準情報103も候補情報112とともにデータベースサーバ11から携帯端末装置2に向けて送信することが好ましい。   The candidate information 112 may be downloaded to the mobile terminal device 2 in advance by data communication between the communication unit 27 of the mobile terminal device 2 and the database server 11. That is, the candidate information 112 does not necessarily have to be acquired from the reference position acquisition device 10. In general, data communication by proximity wireless communication between the non-contact IC card unit 26 and the non-contact IC card reader unit 100 is not suitable for transmitting and receiving a huge amount of data. Therefore, it is preferable to transmit / receive candidate information 112 having a relatively large amount of data by data communication via a general network (such as the Internet). Before the user receives provision of augmented reality around the reference position acquisition device 10, the user accesses the database server 11 by operating the mobile terminal device 2 that he / she owns, and provides the augmentation provided around the reference position acquisition device 10. The actual candidate information 112 may be downloaded in advance. In this case, it is preferable to transmit the reference information 103 together with the candidate information 112 from the database server 11 to the mobile terminal device 2.

また、拡張現実構成部202がユーザの購買行動を予測して適切な出力情報215を抽出するためには、周囲の環境を示す温度や湿度といった情報が有効な場合もある。したがって、温度センサや湿度センサなどの環境センサを携帯端末装置2に設けて、拡張現実構成部202がこれらのセンサによって収集された情報を参照するように構成してもよい。   In addition, in order for the augmented reality configuration unit 202 to predict the purchase behavior of the user and extract appropriate output information 215, information such as temperature and humidity indicating the surrounding environment may be effective. Therefore, environment sensors such as a temperature sensor and a humidity sensor may be provided in the mobile terminal device 2 so that the augmented reality configuration unit 202 refers to information collected by these sensors.

<2. 第2の実施の形態>
第1の実施の形態における携帯端末装置2は、拡張現実空間9内において、拡張現実を提供するためのデータ通信を行っていなかった。しかし、本発明はこのような形態に限定されるものではない。
<2. Second Embodiment>
The mobile terminal device 2 in the first embodiment does not perform data communication for providing augmented reality in the augmented reality space 9. However, the present invention is not limited to such a form.

図7は、第2の実施の形態における拡張現実システム1aを示す図である。なお、携帯端末装置2aおよび端末装置12の数は、図7に示される数に限定されるものではない。また、拡張現実空間9内における携帯端末装置2aの通信相手としては、他の携帯端末装置2aまたは端末装置12の少なくともいずれかが存在していればよい。   FIG. 7 is a diagram illustrating an augmented reality system 1a according to the second embodiment. In addition, the number of the portable terminal device 2a and the terminal device 12 is not limited to the number shown by FIG. In addition, as a communication partner of the mobile terminal device 2a in the augmented reality space 9, at least one of the other mobile terminal device 2a and the terminal device 12 may exist.

拡張現実システム1aは、その構成として、携帯端末装置2の代わりに携帯端末装置2aを備えている点と、据え置き型の端末装置12を備えている点とが、第1の実施の形態における拡張現実システム1の構成と異なっている。以下、第2の実施の形態における拡張現実システム1aについては、第1の実施の形態における拡張現実システム1と同様の構成については同符号を付し、適宜説明を省略する。   The augmented reality system 1a has the configuration in which the mobile terminal device 2a is provided instead of the mobile terminal device 2 and the stationary terminal device 12 is provided in the first embodiment. This is different from the configuration of the real system 1. Hereinafter, for the augmented reality system 1a according to the second embodiment, the same reference numerals are given to the same configurations as those of the augmented reality system 1 according to the first embodiment, and description thereof will be omitted as appropriate.

図8は、第2の実施の形態における携帯端末装置2aが備える機能ブロックをデータの流れとともに示す図である。   FIG. 8 is a diagram illustrating functional blocks included in the mobile terminal device 2a according to the second embodiment, together with a data flow.

携帯端末装置2aは、携帯端末装置2とほぼ同様の構成を有する装置であり、拡張現実空間9内を、ユーザに携帯されつつ移動する。ただし、携帯端末装置2aの通信部27は、定期的に周囲の通信デバイスを探索し、拡張現実空間9内に存在する他の携帯端末装置2aおよび端末装置12との間で近接無線通信によるデータ通信を行う。ここで採用する無線通信方式としては、例えば、Bluetooth(登録商標)のような近接無線通信方式が適している。ただし、Bluetooth(登録商標)に限定されるものではない。   The mobile terminal device 2a is a device having substantially the same configuration as the mobile terminal device 2 and moves in the augmented reality space 9 while being carried by the user. However, the communication unit 27 of the mobile terminal device 2a periodically searches for surrounding communication devices, and performs data by proximity wireless communication between the other mobile terminal device 2a and the terminal device 12 existing in the augmented reality space 9. Communicate. As the wireless communication method adopted here, for example, a proximity wireless communication method such as Bluetooth (registered trademark) is suitable. However, it is not limited to Bluetooth (registered trademark).

携帯端末装置2aの通信部27は、拡張現実空間9内の通信デバイスとして検出した他の携帯端末装置2aおよび端末装置12に向けて、自機の記憶装置21に記憶されているオーナー情報211および位置情報214を送信する。なお、通信部27により外部に送信されるオーナー情報211は、個人情報の漏洩を防止するため、ユーザにより許可された情報に限定される。   The communication unit 27 of the mobile terminal device 2a has the owner information 211 stored in its own storage device 21 and the other mobile terminal device 2a and the terminal device 12 detected as communication devices in the augmented reality space 9 and The position information 214 is transmitted. The owner information 211 transmitted to the outside by the communication unit 27 is limited to information permitted by the user in order to prevent leakage of personal information.

また、携帯端末装置2aの通信部27は、他の携帯端末装置2aや端末装置12から受信した情報については、候補情報112として自機の記憶装置21に格納する。すなわち、第2の実施の形態においては、候補情報112は、基準位置取得装置10から取得された情報に限定されるのではなく、他の携帯端末装置2aや端末装置12から収集された情報が含まれる。   Further, the communication unit 27 of the mobile terminal device 2a stores information received from the other mobile terminal device 2a or the terminal device 12 as candidate information 112 in the storage device 21 of the own device. In other words, in the second embodiment, the candidate information 112 is not limited to the information acquired from the reference position acquisition device 10, but information collected from other mobile terminal devices 2a and terminal devices 12 is used. included.

端末装置12は、一般的な据え置き型のコンピュータであり、拡張現実空間9内において、その絶対位置が固定される装置である。第2の実施の形態における候補情報112は、端末装置12の識別情報と絶対位置(配置位置)に関する情報とを含んでいる。また、端末装置12は、携帯端末装置2aの通信部27との間で近接無線通信によるデータ通信を行う機能を有しており、自機に固有の情報(詳細後述)を携帯端末装置2aに向けて送信する。   The terminal device 12 is a general stationary computer, and is a device whose absolute position is fixed in the augmented reality space 9. The candidate information 112 in the second embodiment includes identification information of the terminal device 12 and information on the absolute position (arrangement position). Further, the terminal device 12 has a function of performing data communication by proximity wireless communication with the communication unit 27 of the mobile terminal device 2a, and information (details will be described later) unique to the own device is stored in the mobile terminal device 2a. Send to.

以下、第2の実施の形態における拡張現実システム1aについて、多数のゲーム機(端末装置12)が設置されたゲームセンターを拡張現実空間9とするアプリケーションの例で説明する。ただし、説明を理解しやすくするために、携帯端末装置2aが他の携帯端末装置2aと無線通信を行うことにより実現される拡張現実の例と、携帯端末装置2aが端末装置12と無線通信を行うことにより実現される拡張現実の例とを分けて説明する。   Hereinafter, the augmented reality system 1a according to the second embodiment will be described with an example of an application in which a game center where a large number of game machines (terminal devices 12) are installed is an augmented reality space 9. However, for easy understanding of the explanation, an example of augmented reality realized by the mobile terminal device 2a performing wireless communication with another mobile terminal device 2a, and the mobile terminal device 2a performing wireless communication with the terminal device 12 are described. A description will be given separately from an example of augmented reality realized by doing.

まず、拡張現実システム1aにおいて、携帯端末装置2aが他の携帯端末装置2aと無線通信を行うことにより実現される拡張現実の例について説明する。   First, an example of augmented reality that is realized by the mobile terminal device 2a performing wireless communication with another mobile terminal device 2a in the augmented reality system 1a will be described.

図9は、携帯端末装置2a間の無線通信により実現される拡張現実の例を示す図である。図9に示す例では、携帯端末装置2aの表示部23に、ゲームセンター内画像213b、アバター画像215jおよびメッセージ215kが表示されている。   FIG. 9 is a diagram illustrating an example of augmented reality realized by wireless communication between the mobile terminal devices 2a. In the example shown in FIG. 9, an in-game center image 213b, an avatar image 215j, and a message 215k are displayed on the display unit 23 of the mobile terminal device 2a.

ゲームセンター内画像213bは、携帯端末装置2aの撮像部25によって撮像されたゲームセンター(拡張現実空間9)内の映像(撮像画像情報213)である。すなわち、ゲームセンター内画像213bは、拡張現実において、現実部分を表現した画像である。ここでは、3台の端末装置12が撮像されている。   The game center image 213b is a video (captured image information 213) in the game center (augmented reality space 9) captured by the imaging unit 25 of the mobile terminal device 2a. That is, the in-game center image 213b is an image representing a real part in augmented reality. Here, three terminal apparatuses 12 are imaged.

アバター画像215jおよびメッセージ215kは、拡張現実構成部202によって候補情報112から選択された出力情報215を表示した画像である。すなわち、アバター画像215jおよびメッセージ215kは、現実には存在しない仮想的な事物を表現した画像であり、拡張現実において、拡張部分を表現した画像である。   The avatar image 215j and the message 215k are images in which the output information 215 selected from the candidate information 112 by the augmented reality configuration unit 202 is displayed. That is, the avatar image 215j and the message 215k are images that represent virtual things that do not exist in reality, and are images that represent an extended portion in augmented reality.

アバター画像215jおよびメッセージ215kは、いずれも候補情報112から選択された情報ではあるが、いずれも基準位置取得装置10から取得した情報ではない。これらは、他の携帯端末装置2aから受信したオーナー情報211および位置情報214に基づいて作成された情報である。   The avatar image 215j and the message 215k are both information selected from the candidate information 112, but are not information acquired from the reference position acquisition device 10. These are information created based on the owner information 211 and the position information 214 received from the other mobile terminal device 2a.

第2の実施の形態において、ユーザは、第1の実施の形態と同様に、拡張現実空間9の入り口で、基準位置取得装置10から基準情報103および候補情報112を取得し、ゲームセンター内に入場する。また、ユーザは、任意のタイミングで(すなわち、ゲームセンターの内外)、オーナー情報211を編集し、自分のアバターや各種メッセージ、ゲームセンター内に設置されているゲーム(端末装置12により提供される。)のプレイ履歴、あるいは、自己プロフィールなどを設定する。   In the second embodiment, the user acquires the reference information 103 and the candidate information 112 from the reference position acquisition device 10 at the entrance of the augmented reality space 9 as in the first embodiment, and enters the game center. enter. Further, the user edits the owner information 211 at an arbitrary timing (that is, inside and outside the game center), and is provided by the user's avatar and various messages and a game (terminal device 12) installed in the game center. ) Play history or self profile.

ゲームセンター内では、通信部27が付近の通信デバイス(他の携帯端末装置2a)を探索して、検出した他の携帯端末装置2aとの間で通信を開始する。携帯端末装置2aは、他の携帯端末装置2aとの間でオーナー情報211および位置情報214を互いに交換する。そして、受信した他の携帯端末装置2aのオーナー情報211および位置情報214に基づいて候補情報112を作成し、自機の記憶装置21に格納する。   In the game center, the communication unit 27 searches for a nearby communication device (another portable terminal device 2a) and starts communication with the detected other portable terminal device 2a. The portable terminal device 2a exchanges the owner information 211 and the position information 214 with each other with the other portable terminal device 2a. Then, candidate information 112 is created based on the received owner information 211 and position information 214 of the other portable terminal device 2a, and stored in the storage device 21 of the own device.

拡張現実構成部202は、第1の実施の形態と同様に、拡張現実空間9内における視野が求まると、候補情報112から出力情報215を選択する。このとき、当該視野内に他の携帯端末装置2aが存在する場合、当該他の携帯端末装置2aから受信したオーナー情報211に基づいて作成された候補情報112から出力情報215が選択される。なお、他の携帯端末装置2aの現在位置は、当該他の携帯端末装置2aから受信する位置情報214(より詳しくは、当該位置情報214に由来する候補情報112)により判定できる。   The augmented reality configuration unit 202 selects the output information 215 from the candidate information 112 when the field of view in the augmented reality space 9 is obtained as in the first embodiment. At this time, if another mobile terminal device 2a exists in the field of view, the output information 215 is selected from the candidate information 112 created based on the owner information 211 received from the other mobile terminal device 2a. Note that the current position of the other mobile terminal device 2a can be determined from the position information 214 received from the other mobile terminal device 2a (more specifically, the candidate information 112 derived from the position information 214).

このようにして、携帯端末装置2aは、他の携帯端末装置2aのユーザがオーナー情報211に設定しておいたアバター(アバター画像215j)を、当該ユーザの現在位置に、当該ユーザの実画像に上書きして表示する。また、当該他の携帯端末装置2aから受信したオーナー情報211に設定されているメッセージ(メッセージ215k)を表示することもできる。   In this way, the mobile terminal device 2a converts the avatar (avatar image 215j) set in the owner information 211 by the user of the other mobile terminal device 2a into the current position of the user and the actual image of the user. Overwrite and display. In addition, a message (message 215k) set in the owner information 211 received from the other mobile terminal device 2a can be displayed.

このように、第2の実施の形態における拡張現実システム1aは、複数の携帯端末装置2a間において、互いにオーナー情報211および位置情報214を交換させる。これにより、ゲームセンターを訪れたユーザは、ユーザ間でメッセージや絵文字、キャラクター(アバター)、ゲームのプレイ履歴を利用した各ユーザの紹介文(格闘ゲームの達人、音楽ゲーム初心者など)などを仮想物体としてやり取りして表示し楽しむことができる。   As described above, the augmented reality system 1a according to the second embodiment exchanges the owner information 211 and the position information 214 with each other between the plurality of portable terminal devices 2a. As a result, users visiting the game center can send messages, pictograms, characters (avatars) between each user, introductions of each user using the game play history (fighting game masters, music game beginners, etc.), etc. Can interact and display and enjoy.

次に、拡張現実システム1aにおいて、携帯端末装置2aが端末装置12と無線通信を行うことにより実現される拡張現実の例について説明する。   Next, an example of augmented reality that is realized by the mobile terminal device 2a performing wireless communication with the terminal device 12 in the augmented reality system 1a will be described.

図10は、携帯端末装置2aと端末装置12との間の無線通信により実現される拡張現実の例を示す図である。図10に示す例では、携帯端末装置2aの表示部23に、ゲームセンター内画像213c、キャラクター画像215m,215n、および、メッセージ215pが表示されている。   FIG. 10 is a diagram illustrating an example of augmented reality realized by wireless communication between the mobile terminal device 2 a and the terminal device 12. In the example shown in FIG. 10, an in-game center image 213c, character images 215m and 215n, and a message 215p are displayed on the display unit 23 of the mobile terminal device 2a.

ゲームセンター内画像213cは、携帯端末装置2aの撮像部25によって撮像されたゲームセンター(拡張現実空間9)内の映像(撮像画像情報213)である。すなわち、ゲームセンター内画像213cは、拡張現実において、現実部分を表現した画像である。ここでは、4台の端末装置12が撮像されている。なお、図10に示す例では、各端末装置12を区別するために、それぞれの符号にアルファベットを付加し、端末装置12a,12b,12c,12dとする。   The game center image 213c is a video (captured image information 213) in the game center (augmented reality space 9) captured by the imaging unit 25 of the mobile terminal device 2a. That is, the in-game center image 213c is an image that represents a real part in augmented reality. Here, four terminal apparatuses 12 are imaged. In the example illustrated in FIG. 10, in order to distinguish each terminal device 12, alphabets are added to the respective symbols to form terminal devices 12 a, 12 b, 12 c, and 12 d.

キャラクター画像215m,215n、および、メッセージ215pは、拡張現実構成部202によって候補情報112から選択された出力情報215を表示した画像である。すなわち、キャラクター画像215m,215n、および、メッセージ215pは、現実には存在しない仮想的な事物を表現した画像であり、拡張現実において、拡張部分を表現した画像である。   The character images 215m and 215n and the message 215p are images that display the output information 215 selected from the candidate information 112 by the augmented reality configuration unit 202. That is, the character images 215m and 215n and the message 215p are images that represent virtual things that do not exist in reality, and are images that represent an extended portion in augmented reality.

キャラクター画像215m,215n、および、メッセージ215pは、いずれも候補情報112から選択された情報ではあるが、いずれも基準位置取得装置10から取得した情報ではない。これらは、携帯端末装置2aが受信した各端末装置12a,12b,12cに固有の情報に基づいて作成された情報である。   The character images 215m and 215n and the message 215p are all information selected from the candidate information 112, but are not information acquired from the reference position acquisition device 10. These are information created based on information unique to each terminal device 12a, 12b, 12c received by the mobile terminal device 2a.

すでに説明したように、第2の実施の形態において、ゲームセンター内では、通信部27が付近の通信デバイスを探索する。このとき、端末装置12が検出されると、通信部27は、検出した端末装置12との間で通信を開始する。携帯端末装置2aは、通信が開始された端末装置12から当該端末装置12に固有の情報を受信する。そして、受信した固有の情報に基づいて候補情報112を作成し、自機の記憶装置21に格納する。   As already described, in the second embodiment, the communication unit 27 searches for nearby communication devices in the game center. At this time, when the terminal device 12 is detected, the communication unit 27 starts communication with the detected terminal device 12. The mobile terminal device 2a receives information unique to the terminal device 12 from the terminal device 12 that has started communication. Then, candidate information 112 is created based on the received unique information and stored in the storage device 21 of the own device.

なお、端末装置12の位置は、基準位置取得装置10から取得した候補情報112に含まれている。したがって、携帯端末装置2aは、近接無線通信が成立した全ての端末装置12から固有の情報を受信するのではなく、予め取得されている端末装置12の位置に基づいてユーザの視野内に存在すると判定された端末装置12からのみ固有の情報を受信するようにしてもよい。これにより、データ通信において送受信される情報量を抑制することができる。   Note that the position of the terminal device 12 is included in the candidate information 112 acquired from the reference position acquisition device 10. Therefore, the mobile terminal device 2a does not receive unique information from all the terminal devices 12 for which close proximity wireless communication is established, but is present in the user's field of view based on the position of the terminal device 12 acquired in advance. The unique information may be received only from the determined terminal device 12. Thereby, the information amount transmitted / received in data communication can be suppressed.

第1の実施の形態における携帯端末装置2と同様に、携帯端末装置2aもユーザの視点や視線方向を決めることにより、拡張現実空間9内におけるユーザの視野を決定することができる。したがって、拡張現実構成部202は、ユーザの視野内に存在する端末装置12に由来する候補情報112(当該端末装置12から受信した固有の情報に基づいて作成された候補情報112)の中から、出力情報215を選択することができる。   Similarly to the mobile terminal device 2 in the first embodiment, the mobile terminal device 2a can also determine the user's visual field in the augmented reality space 9 by determining the user's viewpoint and line-of-sight direction. Therefore, the augmented reality configuration unit 202 includes candidate information 112 (candidate information 112 created based on unique information received from the terminal device 12) derived from the terminal device 12 existing in the user's field of view. Output information 215 can be selected.

このようにして、携帯端末装置2aは、各端末装置12の固有の情報を、各端末装置12の位置に応じた位置に表示する。図10に示す例では、端末装置12aのプレイ状況に応じたキャラクター画像215mと、端末装置12bのプレイ状況に応じたキャラクター画像215nと、端末装置12cの受付状況を示すメッセージ215pとが表示されている。   In this way, the mobile terminal device 2a displays the unique information of each terminal device 12 at a position corresponding to the position of each terminal device 12. In the example shown in FIG. 10, a character image 215m corresponding to the play status of the terminal device 12a, a character image 215n corresponding to the play status of the terminal device 12b, and a message 215p indicating the reception status of the terminal device 12c are displayed. Yes.

このように、第2の実施の形態における拡張現実システム1aは、携帯端末装置2aにおいて、拡張現実空間9内に存在する端末装置12の固有の情報を収集する。これにより、ゲームセンターを訪れたユーザは、近くに存在する端末装置12から、提供されているゲームのプレイ情報やデモ情報、遊び方などの情報を受信して、仮想物体として表示することができる。また、単に近いだけではなく、拡張現実空間9内のユーザの視野を決定して、ユーザの視線の先に仮想物体を表示することができる。したがって、リアルな拡張現実を表現できるとともに、第1の実施の形態に比べて、よりリアルタイムな情報に基づいて拡張現実を表現できる。また、プレイ状況を拡張現実として表現することにより、プレイ風景(キャラクター画像215m,215n)が表示され、観客としてもゲームを楽しむことができる。   As described above, the augmented reality system 1a according to the second embodiment collects information unique to the terminal device 12 existing in the augmented reality space 9 in the mobile terminal device 2a. Thereby, the user who visited the game center can receive information such as play information, demo information, and how to play provided games from the nearby terminal device 12 and display them as virtual objects. In addition to being close, it is possible to determine the visual field of the user in the augmented reality space 9 and display the virtual object at the end of the user's line of sight. Therefore, a real augmented reality can be expressed, and an augmented reality can be expressed based on more real-time information than the first embodiment. Also, by expressing the play situation as augmented reality, the play scenery (character images 215m, 215n) is displayed, and the game can be enjoyed as a spectator.

なお、デモ情報や遊び方など、頻繁に変更されることのない情報については、基準位置取得装置10から候補情報112として受信するように構成してもよい。すなわち、出力情報215は、他の携帯端末装置2aや端末装置12から受信した情報に限定されるものではない。   Information that is not frequently changed, such as demo information and how to play, may be received from the reference position acquisition device 10 as candidate information 112. That is, the output information 215 is not limited to information received from the other portable terminal device 2a or the terminal device 12.

<3. 第3の実施の形態>
上記実施の形態では、対象物に関して収集される情報は、オーナー情報211および位置情報214のみであったが、これらの情報に限定されるものではない。また、上記実施の形態では、提供される拡張現実において、現実部分も画像情報として表示部23に表示される例について説明した。しかし、拡張現実における現実部分は必ずしも画像情報として表示されなければならないものではない。
<3. Third Embodiment>
In the above embodiment, the information collected regarding the object is only the owner information 211 and the position information 214, but is not limited to these information. Further, in the above-described embodiment, an example has been described in which the real part is displayed on the display unit 23 as image information in the provided augmented reality. However, the real part in augmented reality does not necessarily have to be displayed as image information.

図11は、第3の実施の形態における拡張現実システム1bを示す図である。拡張現実システム1bは、携帯端末装置2の代わりに携帯端末装置2bを備えている点と、基準位置取得装置10およびデータベースサーバ11に相当する構成を備えていない点とが、第1の実施の形態における拡張現実システム1と異なっている。以下、第3の実施の形態における拡張現実システム1bについては、第1の実施の形態における拡張現実システム1と同様の構成については同符号を付し、適宜説明を省略する。   FIG. 11 is a diagram illustrating an augmented reality system 1b according to the third embodiment. The augmented reality system 1b includes the mobile terminal device 2b instead of the mobile terminal device 2, and the point that the configuration corresponding to the reference position acquisition device 10 and the database server 11 is not provided. It differs from the augmented reality system 1 in the form. Hereinafter, for the augmented reality system 1b according to the third embodiment, the same reference numerals are given to the same configurations as those of the augmented reality system 1 according to the first embodiment, and description thereof will be omitted as appropriate.

図11に示すように、携帯端末装置2bは、HMD(Head Mounted Display)型の装置として構成されており、ユーザが頭部に装着することにより、当該ユーザに付随して移動する。第1の実施の形態に示したように、手持ち式の携帯端末装置2を採用する場合、ユーザの手持ちの状態によって、ユーザと携帯端末装置2との間の相対的な位置関係が変化し、これがセンサ群24の位置(位置情報214)から求められる拡張現実における視点と撮像部25の撮像点との間の誤差の原因となる。しかし、本実施の形態における拡張現実システム1bは、装着型の携帯端末装置2bを採用することにより、手持ち式の携帯端末装置2を採用する場合に比べて、現実部分と拡張部分との視覚上の一致精度が向上する。したがって、提供される拡張現実の真実味(リアリティ)が向上する。   As shown in FIG. 11, the portable terminal device 2b is configured as an HMD (Head Mounted Display) type device, and moves along with the user when the user wears the head. As shown in the first embodiment, when the handheld portable terminal device 2 is adopted, the relative positional relationship between the user and the portable terminal device 2 changes depending on the state of the user's handheld, This causes an error between the viewpoint in the augmented reality obtained from the position of the sensor group 24 (position information 214) and the imaging point of the imaging unit 25. However, the augmented reality system 1b according to the present embodiment employs the wearable portable terminal device 2b, so that the reality portion and the augmented portion are visually compared with the case where the handheld portable terminal device 2 is employed. The accuracy of matching is improved. Therefore, the reality of the provided augmented reality is improved.

図12は、第3の実施の形態における携帯端末装置2bのブロック図である。   FIG. 12 is a block diagram of the mobile terminal device 2b in the third embodiment.

携帯端末装置2bは、通常は、システム運営者が所有する専用の装置である。したがって、図12に示すように、記憶装置21には、ユーザに関するオーナー情報211に相当する情報は格納されていない。   The mobile terminal device 2b is usually a dedicated device owned by the system operator. Therefore, as shown in FIG. 12, the storage device 21 does not store information corresponding to the owner information 211 regarding the user.

また、携帯端末装置2bは、透過型のディスプレイを有する表示部23aを備えている。拡張現実空間9に配置されている現実の事物は、当該ディスプレイを透過した光に基づいて、ユーザの視覚に捉えられ知覚されることになる。したがって、第3の実施の形態における拡張現実システム1bにおいては、拡張現実を提供するにあたって、現実部分の画像情報を表示することはない。一方で、表示部23aは、出力情報215を当該ディスプレイの所定の位置に表示させることにより、仮想物体(拡張部分)を、現実部分に適宜重畳させる。   The portable terminal device 2b includes a display unit 23a having a transmissive display. Real things arranged in the augmented reality space 9 are perceived and perceived by the user's vision based on the light transmitted through the display. Therefore, the augmented reality system 1b according to the third embodiment does not display the real part image information when providing augmented reality. On the other hand, the display unit 23a displays the output information 215 at a predetermined position on the display, thereby appropriately superimposing the virtual object (extended portion) on the real part.

また、携帯端末装置2bは、撮像部25を備えておらず、周囲を撮像する機能は有していない。したがって、第3の実施の形態においては、撮像画像情報213に相当する情報は作成されない。これは、すでに説明したように、携帯端末装置2bにおいては、現実部分を画面に表示する必要がないからである。   Further, the mobile terminal device 2b does not include the imaging unit 25 and does not have a function of imaging the surroundings. Therefore, in the third embodiment, information corresponding to the captured image information 213 is not created. This is because, as already described, in the mobile terminal device 2b, it is not necessary to display the real part on the screen.

さらに、携帯端末装置2bは、非接触ICカード部26および通信部27に相当する構成を備えておらず、スタンドアロン型の装置として構成されている。携帯端末装置2bの記憶装置21には、プログラム210とともに、予め基準情報103および候補情報112が格納されている。   Furthermore, the mobile terminal device 2b does not include a configuration corresponding to the non-contact IC card unit 26 and the communication unit 27, and is configured as a stand-alone device. In the storage device 21 of the portable terminal device 2b, the reference information 103 and the candidate information 112 are stored together with the program 210 in advance.

携帯端末装置2bは、センサ群24のみならず、さらに生体センサ28を備えている。生体センサ28は、生体に関する生体情報216を測定する機能を備えた装置である。生体センサ28としては、例えば、ユーザの心拍数を測定する心拍数センサや、ユーザの呼吸数など呼吸に関する情報を計測する呼吸センサ、ユーザの発生音を計測するマイクなどが想定される。ただし、生体センサ28は、このような装置に限定されるものではなく、ユーザの現在の生理状況を判定するために利用可能な情報を収集する機能を有する装置であればよい。   The portable terminal device 2b includes not only the sensor group 24 but also a biological sensor 28. The biological sensor 28 is a device having a function of measuring biological information 216 related to a living body. As the biological sensor 28, for example, a heart rate sensor that measures the heart rate of the user, a respiration sensor that measures information related to respiration such as the user's respiration rate, a microphone that measures the sound generated by the user, and the like are assumed. However, the biological sensor 28 is not limited to such a device, and may be any device having a function of collecting information that can be used to determine the current physiological state of the user.

また、携帯端末装置2bは、音声に関する情報に基づいて音声を再生するスピーカ29を備えている。特に、スピーカ29は、出力情報215に含まれる音声に関する情報を音声として出力する出力手段として用いられる。   The mobile terminal device 2b includes a speaker 29 that reproduces sound based on information related to sound. In particular, the speaker 29 is used as an output unit that outputs information related to sound included in the output information 215 as sound.

図13は、第3の実施の形態における携帯端末装置2bが備える機能ブロックをデータの流れとともに示す図である。携帯端末装置2bは、カード制御部200を備えておらず、位置姿勢特定部201および拡張現実構成部202の代わりに位置姿勢特定部201aおよび拡張現実構成部202aを備えている点が、携帯端末装置2と異なっている。   FIG. 13 is a diagram illustrating functional blocks included in the mobile terminal device 2b according to the third embodiment, together with a data flow. The mobile terminal device 2b does not include the card control unit 200, but includes a position / orientation specifying unit 201a and an augmented reality configuring unit 202a instead of the position / orientation specifying unit 201 and the augmented reality configuring unit 202. Different from the device 2.

位置姿勢特定部201aは、操作部22からの入力情報に応じて、携帯端末装置2b(センサ群24)が基準位置に存在し、かつ、現在の姿勢が基準位置における姿勢となっていると判定する。本実施の形態では、操作部22のリセットボタンが操作されたときの携帯端末装置2bの現在位置および現在姿勢が、基準情報103によってリセットされる。すなわち、第3の実施の形態においては、位置姿勢特定部201aが本発明に係る判定手段に相当する機能を有している。   The position / orientation specifying unit 201a determines that the mobile terminal device 2b (sensor group 24) is present at the reference position and the current posture is the posture at the reference position in accordance with the input information from the operation unit 22. To do. In the present embodiment, the current position and current posture of the mobile terminal device 2 b when the reset button of the operation unit 22 is operated are reset by the reference information 103. That is, in the third embodiment, the position / orientation specifying unit 201a has a function corresponding to the determination unit according to the present invention.

拡張現実構成部202aは、第1の実施の形態と同様に、位置情報214に応じて、候補情報112から出力情報215を抽出する。ただし、第3の実施の形態においては、オーナー情報211に相当する情報が存在しないので、拡張現実構成部202aは、出力情報215を抽出する際に、オーナー情報211を参照することはない。代わりに、拡張現実構成部202は、生体情報216に応じて出力情報215を抽出する。これにより、第3の実施の形態における拡張現実システム1b(表示部23aおよびスピーカ29)は、生体センサ28により測定された生体情報216に応じた出力情報215を出力する。   The augmented reality configuration unit 202a extracts the output information 215 from the candidate information 112 according to the position information 214, as in the first embodiment. However, in the third embodiment, since there is no information corresponding to the owner information 211, the augmented reality configuration unit 202a does not refer to the owner information 211 when extracting the output information 215. Instead, the augmented reality configuration unit 202 extracts the output information 215 according to the biological information 216. Thereby, the augmented reality system 1b (the display unit 23a and the speaker 29) in the third embodiment outputs output information 215 corresponding to the biological information 216 measured by the biological sensor 28.

以下、第3の実施の形態における拡張現実システム1bについて、お化け屋敷を拡張現実空間9とするアプリケーションの例で説明する。   Hereinafter, an augmented reality system 1b according to the third embodiment will be described using an example of an application in which a haunted house is an augmented reality space 9.

図14は、第3の実施の形態における拡張現実提供方法を示す流れ図である。   FIG. 14 is a flowchart showing an augmented reality providing method according to the third embodiment.

まず、お化け屋敷の窓口担当者は、携帯端末装置2bを、所定の位置に所定の姿勢で静止させた状態で、リセットボタン(操作部22)を操作(ステップS11)し、当該携帯端末装置2bをユーザに渡せる状態(以下、「スタンバイ状態」と称する。)にしておく。   First, the person in charge of the haunted house operates the reset button (operation unit 22) (step S11) with the portable terminal device 2b stationary at a predetermined position in a predetermined posture (step S11), and the portable terminal device 2b. In a state that can be delivered to the user (hereinafter referred to as “standby state”).

なお、所定の位置とは、基準情報103に格納されている基準位置に一致する位置である。また、所定の姿勢とは、基準情報103に格納されている姿勢(基準位置における姿勢として規定されている姿勢)である。すなわち、第3の実施の形態では、第1の実施の形態における通信可能化動作に相当する動作を窓口担当者が実行することになる。   The predetermined position is a position that matches the reference position stored in the reference information 103. Further, the predetermined posture is a posture stored in the reference information 103 (a posture defined as a posture at the reference position). That is, in the third embodiment, the person in charge of the window executes an operation corresponding to the communication enabling operation in the first embodiment.

ステップS11が実行されることにより、センサ群24は測定情報212の測定を開始し(ステップS12)、位置姿勢特定部201aは基準情報103および測定情報212に基づいて位置情報214の作成を開始する(ステップS13)。   By executing step S11, the sensor group 24 starts measuring the measurement information 212 (step S12), and the position / orientation specifying unit 201a starts creating the position information 214 based on the reference information 103 and the measurement information 212. (Step S13).

次に、お化け屋敷の入り口にユーザが到着すると、窓口担当者はスタンバイ状態の携帯端末装置2bを当該ユーザに手渡す。そして、当該ユーザは、受け取った携帯端末装置2bを装着する(ステップS14)。これにより、表示部23aはユーザの目の前方に配置され、スピーカ29はユーザの耳の近傍に配置され、生体センサ28はユーザの体に装着される。   Next, when the user arrives at the entrance of the haunted house, the person in charge of the window hands over the portable terminal device 2b in the standby state to the user. Then, the user wears the received mobile terminal device 2b (step S14). Accordingly, the display unit 23a is disposed in front of the user's eyes, the speaker 29 is disposed in the vicinity of the user's ear, and the biosensor 28 is attached to the user's body.

ユーザは、携帯端末装置2bを装着した状態で、お化け屋敷(拡張現実空間9)に入場する(ステップS15)。   The user enters the haunted house (augmented reality space 9) while wearing the mobile terminal device 2b (step S15).

拡張現実構成部202aは、位置情報214に応じてユーザ(携帯端末装置2b)が拡張現実空間9内に存在しているか否かを判定し(ステップS16)、存在していない場合はさらにフラグがONか否かを判定する(ステップS17)。フラグとは、ユーザが拡張現実空間9内に入場したことがあるか否かを示す情報であり、入場したことがある場合に「ON」にセットされ、入場したことがない場合に「OFF」にセットされる。   The augmented reality configuration unit 202a determines whether or not the user (mobile terminal device 2b) exists in the augmented reality space 9 according to the position information 214 (step S16). It is determined whether or not it is ON (step S17). The flag is information indicating whether or not the user has entered the augmented reality space 9, and is set to “ON” when the user has entered, and “OFF” when the user has not entered. Set to

ステップS17においてNoの場合は、ユーザが未だ拡張現実空間9に入場したことがないことを示しているので、ユーザの入場行動が未だ完了していないとみなして、ステップS16の処理に戻る。   In the case of No in step S17, it indicates that the user has not yet entered the augmented reality space 9, so that it is considered that the user's entry action has not yet been completed, and the process returns to step S16.

一方、ユーザが拡張現実空間9内に存在している場合(ステップS16においてYes。)、CPU20はフラグをONにセットする(ステップS18)。そして、拡張現実構成部202aは、位置情報214および生体情報216に基づいて、出力情報215を作成する(ステップS19)。   On the other hand, when the user exists in the augmented reality space 9 (Yes in step S16), the CPU 20 sets the flag to ON (step S18). Then, the augmented reality configuration unit 202a creates output information 215 based on the position information 214 and the biological information 216 (step S19).

ステップS19が実行されると、表示部23aおよびスピーカ29が当該出力情報215を出力する(ステップS20)ことにより、拡張現実を表現する。ステップS16ないしS20の処理は、ユーザが拡張現実空間9内に存在しない(出口から出た)と判定されるまで継続される。   When step S19 is executed, the display unit 23a and the speaker 29 output the output information 215 (step S20), thereby expressing augmented reality. The processes in steps S16 to S20 are continued until it is determined that the user does not exist in the augmented reality space 9 (exited from the exit).

ステップS17においてYesと判定されると、一旦、拡張現実空間9内に入場したユーザが当該拡張現実空間9から出たとみなして、CPU20はフラグをOFFにセットし(ステップS21)、携帯端末装置2bによる拡張現実の提供を終了する。その後、窓口担当者は、ユーザから携帯端末装置2bを回収する。   If it is determined Yes in step S17, it is assumed that the user who has entered the augmented reality space 9 has left the augmented reality space 9, and the CPU 20 sets the flag to OFF (step S21), and the portable terminal device 2b. The provision of augmented reality by will end. Thereafter, the contact person collects the portable terminal device 2b from the user.

次に、本実施の形態において、生体情報216がどのように出力情報215の選択に利用されるかを説明する。   Next, how the biological information 216 is used for selecting the output information 215 in the present embodiment will be described.

図15は、第3の実施の形態における拡張現実システム1bにより実現される拡張現実の例を示す図である。図15に示す柳画像215qおよび幽霊画像215rは、いずれも出力情報215である。逆に、柳画像215qおよび幽霊画像215r以外の事物は、透過型のディスプレイを透過した光により知覚される現実に存在している事物である。   FIG. 15 is a diagram illustrating an example of augmented reality realized by the augmented reality system 1b according to the third embodiment. The willow image 215q and the ghost image 215r shown in FIG. 15 are both output information 215. On the other hand, things other than the willow image 215q and the ghost image 215r exist in reality that are perceived by the light transmitted through the transmissive display.

図16は、拡張現実空間9内の幽霊画像215rの表示位置を例示する図である。図16に示す例では、拡張現実空間9内に幽霊画像215rを表示させる箇所が8箇所設定されている。言い換えれば、候補情報112には、予め、8箇所において表示する幽霊画像215rが準備されている。また、図16に示す円90は、判定位置(後述)を示す。さらに、図16に示す網掛けを施した部分は現実の壁や柱を示している。   FIG. 16 is a diagram illustrating the display position of the ghost image 215 r in the augmented reality space 9. In the example shown in FIG. 16, eight places for displaying the ghost image 215 r in the augmented reality space 9 are set. In other words, in the candidate information 112, ghost images 215r to be displayed at eight locations are prepared in advance. A circle 90 shown in FIG. 16 indicates a determination position (described later). Further, the shaded portions shown in FIG. 16 indicate actual walls and pillars.

図17ないし図19は、幽霊画像215rの表示例を示す図である。図17ないし図19において太線で示す矢印は、拡張現実空間9内におけるユーザの経路を示す。   17 to 19 are diagrams showing display examples of the ghost image 215r. In FIG. 17 to FIG. 19, arrows indicated by bold lines indicate the user's route in the augmented reality space 9.

第3の実施の形態における拡張現実システム1bは、ユーザが判定位置(円90)に到達したときの当該ユーザの生理状況に応じて、幽霊画像215rを実際に表示する位置を変更する。すなわち、判定位置における生体情報216により、心拍数が120[bpm]より大きいときは図17に示す位置にのみ幽霊画像215rを表示し、心拍数が90〜120[bpm]のときは図18に示す位置にのみ幽霊画像215rを表示し、心拍数が90[bpm]未満のときは図19に示す位置にのみ幽霊画像215rを表示する。   The augmented reality system 1b according to the third embodiment changes the position at which the ghost image 215r is actually displayed according to the physiological state of the user when the user reaches the determination position (circle 90). That is, based on the biological information 216 at the determination position, the ghost image 215r is displayed only at the position shown in FIG. 17 when the heart rate is larger than 120 [bpm], and when the heart rate is 90 to 120 [bpm] in FIG. The ghost image 215r is displayed only at the position shown. When the heart rate is less than 90 [bpm], the ghost image 215r is displayed only at the position shown in FIG.

このように、生体情報216を解析することにより大きく驚いていると判定されたユーザについては、比較的短距離かつ単純な移動経路(図17)となるように幽霊画像215rを表示する。また、遭遇する幽霊(幽霊画像215r)も最も少ないようになっている。   As described above, for the user who is determined to be greatly surprised by analyzing the biological information 216, the ghost image 215r is displayed so as to be a relatively short distance and a simple movement route (FIG. 17). Further, the number of ghosts (ghost images 215r) encountered is the smallest.

一方、あまり驚いていないと判定されたユーザについては、比較的長距離かつ複雑な移動経路(図18,図19)となるように幽霊画像215rを表示する。また、遭遇する幽霊(幽霊画像215r)も増えるように設定する。   On the other hand, the ghost image 215r is displayed so as to be a relatively long-distance and complicated movement route (FIGS. 18 and 19) for a user who is determined not to be surprised very much. Also, the number of ghosts encountered (ghost images 215r) is set to increase.

このように、第3の実施の形態における拡張現実システム1bは、生体センサ28により測定された生体情報216に応じた出力情報215を出力することにより、生体の生理的状況に応じた拡張現実を提供することができる。   As described above, the augmented reality system 1b according to the third embodiment outputs the augmented reality according to the physiological state of the living body by outputting the output information 215 corresponding to the living body information 216 measured by the living body sensor 28. Can be provided.

なお、ユーザが驚いている程度は、例えば、加速度センサを使用して、加速度が大きく変化した回数を数えることによっても判定できる。例えば、入場してから判定位置までの間に、2回以上驚いたユーザについては図17の表示パターンを適用し、1回のユーザについては図18の表示パターンを適用し、0回のユーザについては図19の表示パターンを適用するといった方法が考えられる。   Note that the extent to which the user is surprised can also be determined by, for example, using an acceleration sensor and counting the number of times the acceleration has changed significantly. For example, the display pattern of FIG. 17 is applied to a user who has been surprised twice or more between the time of entry and the determination position, the display pattern of FIG. A method of applying the display pattern of FIG. 19 is conceivable.

図20は、第3の実施の形態において、幽霊画像215rの表示を変更する場合における変形例を示す図である。図20における破線矢印は、幽霊画像215rの表示位置を順次変更した場合の軌跡を示す。   FIG. 20 is a diagram illustrating a modification in the case where the display of the ghost image 215r is changed in the third embodiment. A broken-line arrow in FIG. 20 indicates a locus when the display position of the ghost image 215r is sequentially changed.

図17ないし図19では、生体情報216に基づいて各幽霊画像215rを表示するか否かを判定した。しかし、ほとんど驚いていないとみなせるユーザについては、例えば、図20に示すように、幽霊画像215rがユーザを追跡してくるかのように、特定の幽霊画像215rの表示位置を順次変更させてもよい。   17 to 19, it is determined whether or not to display each ghost image 215 r based on the biological information 216. However, for a user who can hardly be surprised, for example, as shown in FIG. 20, even if the display position of a specific ghost image 215r is sequentially changed as if the ghost image 215r tracks the user. Good.

なお、本実施の形態では、仮想物体としての「幽霊」の表示を変更することによりユーザの経路を変化させたが、経路を変更する手法はこれに限定されるものではない。例えば、現実の事物である壁と壁との間に、仮想の事物としての壁を表示することにより、あたかも壁が連なっており、通行できないように見せて経路を変更させてもよい。   In this embodiment, the user's route is changed by changing the display of “ghost” as a virtual object, but the method of changing the route is not limited to this. For example, by displaying a wall as a virtual thing between the walls that are real things, it is possible to change the route so that the walls are connected so that they cannot pass.

また、第3の実施の形態における拡張現実システム1bにおいても、第1の実施の形態における拡張現実システム1と同様に、基準位置取得装置10およびデータベースサーバ11に相当する装置を設け、携帯端末装置2bに非接触ICカード部26および通信部27を設けてもよい。このように構成することにより、第3の実施の形態における拡張現実システム1bにおいても、基準情報103および候補情報112の更新に容易に対応可能となる。   In the augmented reality system 1b according to the third embodiment, similarly to the augmented reality system 1 according to the first embodiment, devices corresponding to the reference position acquisition device 10 and the database server 11 are provided, and a mobile terminal device is provided. You may provide the non-contact IC card part 26 and the communication part 27 in 2b. With this configuration, the augmented reality system 1b according to the third embodiment can easily cope with the update of the reference information 103 and the candidate information 112.

特に、第3の実施の形態に示した「お化け屋敷」を模したアプリケーションでは、リピータを呼び込むために、現実のレイアウトや仮想物体の表示形態等を比較的短いサイクルで変更することが好ましい。その場合には、基準情報103や候補情報112の更新が必要になる場合も想定される。ただし、このような場合においても、SDカードなどの可搬性の記録媒体に更新された基準情報103および候補情報112を格納して、携帯端末装置2bに供給するようにして対応することも可能である。   In particular, in the application imitating the “haunted house” shown in the third embodiment, it is preferable to change the actual layout, the display form of the virtual object, and the like in a relatively short cycle in order to call the repeater. In that case, it is assumed that the reference information 103 and the candidate information 112 need to be updated. However, even in such a case, the updated reference information 103 and candidate information 112 can be stored in a portable recording medium such as an SD card and supplied to the portable terminal device 2b. is there.

<4. 第4の実施の形態>
本発明が適用されるアプリケーションは上記実施の形態に示したものに限定されるものではなく、さらに多くのバリエーションが考えられる。
<4. Fourth Embodiment>
The application to which the present invention is applied is not limited to that shown in the above embodiment, and many more variations are conceivable.

図21および図22は、第4の実施の形態における拡張現実システム1cによって提供される探索アプリケーションの拡張現実の表示例である。探索アプリケーションとは、ユーザが携帯端末装置2を用いて拡張現実空間9内に設置された宝箱などの目的物(仮想物体)を探索するものである。第4の実施の形態における拡張現実システム1cは、例えば、第1の実施の形態における拡張現実システム1と同様の構成で実現できる。   FIGS. 21 and 22 are augmented reality display examples of the search application provided by the augmented reality system 1c according to the fourth embodiment. The search application is for the user to search for an object (virtual object) such as a treasure box installed in the augmented reality space 9 using the mobile terminal device 2. The augmented reality system 1c in the fourth embodiment can be realized, for example, with the same configuration as the augmented reality system 1 in the first embodiment.

図21に示すように、表示部23には、現実部分の撮像画像情報213dと、目的物である宝箱画像215sと、探索の手がかりとなる情報を示すメッセージ215tおよび羅針盤画像215uとが合成されて表示される。ここで、宝箱画像215s、メッセージ215tおよび羅針盤画像215uは、候補情報112から選択される出力情報215である。   As shown in FIG. 21, the display unit 23 combines the captured image information 213d of the real part, the treasure box image 215s as the target object, the message 215t indicating the information for searching and the compass image 215u. Is displayed. Here, the treasure box image 215 s, the message 215 t, and the compass image 215 u are output information 215 selected from the candidate information 112.

探索アプリケーションが提供する拡張現実空間9では、ユーザは携帯端末装置2に出力されるメッセージ215tや羅針盤画像215uを頼りに、仮想物体(宝箱)の探索を行う。   In the augmented reality space 9 provided by the search application, the user searches for a virtual object (treasure box) using the message 215t and the compass image 215u output to the mobile terminal device 2.

そして、ユーザの現在位置と現在姿勢とが所定の範囲内に収まると、目的物の発見となる。すなわち、位置情報214が所定の範囲内に収まることを条件に拡張現実構成部202が宝箱画像215sを出力情報215として選択し、図22に示されるような画面が表示される。図22に示す例では、現実部分を表現する撮像画像213eとともに、宝箱画像215sと、宝箱が発見されたことを示すメッセージ215vとが表示されている。   Then, when the current position and current posture of the user are within a predetermined range, the object is found. That is, on the condition that the position information 214 falls within a predetermined range, the augmented reality configuration unit 202 selects the treasure box image 215s as the output information 215, and a screen as shown in FIG. 22 is displayed. In the example shown in FIG. 22, a treasure chest image 215 s and a message 215 v indicating that a treasure chest has been found are displayed along with a captured image 213 e that represents a real part.

なお、第4の実施の形態では、宝箱を目的物として探索する例について説明したが、目的物はこれに限定されるものではない。例えば、目的物を仮想物体として表現される動物とすることも可能である。その場合は、当該動物の鳴き声を、ユーザの位置情報214に応じて調整して、探索の手がかりとなる情報としてスピーカ29から出力することが好ましい。鳴き声などの音声の調整とは、目的物としての動物とユーザとの距離に応じた音量調整だけでなく、ユーザの左右の耳に到達する音量を相互に調整することによってユーザが知得する音源方向を調整することも有効である。   In the fourth embodiment, an example in which a treasure chest is searched as an object has been described. However, the object is not limited to this. For example, the target object can be an animal expressed as a virtual object. In that case, it is preferable to adjust the cry of the animal according to the position information 214 of the user and output it from the speaker 29 as information for clues. The sound adjustment such as squeal is not only the volume adjustment according to the distance between the animal as the target object and the user, but also the sound source direction that the user knows by mutually adjusting the volume reaching the left and right ears of the user It is also effective to adjust.

<5. 変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
<5. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made.

例えば、上記実施の形態に示した各工程は、あくまでも例示であって、上記に示した順序や内容に限定されるものではない。すなわち、同様の効果が得られるならば、適宜、順序や内容が変更されてもよい。例えば、撮像部25が撮像を開始する工程(ステップS5)と、センサ群24が測定を開始する工程(ステップS6)とを入れ替えてもよい。   For example, each process shown in the above embodiment is merely an example, and is not limited to the order and contents shown above. That is, as long as the same effect can be obtained, the order and contents may be changed as appropriate. For example, the step (step S5) in which the imaging unit 25 starts imaging and the step (step S6) in which the sensor group 24 starts measurement may be interchanged.

また、上記実施の形態に示した機能ブロック(カード制御部200や位置姿勢特定部201、拡張現実構成部202など)は、CPU20がプログラム210に従って動作することにより、ソフトウェア的に実現されると説明した。しかし、これらの機能ブロックの一部または全部を専用の論理回路で構成し、ハードウェア的に実現してもよい。   In addition, the functional blocks (the card control unit 200, the position / orientation specifying unit 201, the augmented reality configuration unit 202, and the like) described in the above embodiment are described as being realized by software as the CPU 20 operates according to the program 210. did. However, some or all of these functional blocks may be configured by a dedicated logic circuit and realized in hardware.

また、指標手段は、基準位置や基準位置における姿勢に関する情報を表現したバーコードでもよい。例えば、基準位置において特定の姿勢で読み取るバーコードを拡張現実空間の近傍に設け、これを撮像部25で撮像し読み取るように構成してもよい。   Further, the index means may be a bar code expressing information on the reference position and the posture at the reference position. For example, a barcode that is read in a specific posture at the reference position may be provided in the vicinity of the augmented reality space, and this may be configured to be imaged and read by the imaging unit 25.

また、上記実施の形態では、センサ群24と出力手段(表示部23,23aおよびスピーカ29)とが同一の装置に設けられている例について説明した。しかし、これらは別の装置に存在してもよい。例えば、ペット(対象物)にセンサ群24を取り付けて、拡張現実空間9内に放し、当該ペットの動きに応じて、ユーザが携帯する装置に設けられた出力手段に仮想物体を表示することにより拡張現実を提供してもよい。あるいは、センサ群24を内蔵したボール(対象物)を拡張現実空間9内でユーザが投げ、投げられた瞬間の位置および加速度に応じて、当該ボールの軌道を計算し、当該ボールに対応した仮想物体(例えば、槍や魔法による火の玉など)の軌道や標的となった敵の様子をユーザの手元の装置(出力手段)に表示するといったアプリケーションも想定される。   In the above-described embodiment, the example in which the sensor group 24 and the output unit (the display units 23 and 23a and the speaker 29) are provided in the same device has been described. However, they may be present in another device. For example, by attaching a sensor group 24 to a pet (target object), releasing it in the augmented reality space 9, and displaying a virtual object on an output means provided in a device carried by the user according to the movement of the pet. Augmented reality may be provided. Alternatively, a ball (object) containing the sensor group 24 is thrown by the user in the augmented reality space 9, and the trajectory of the ball is calculated according to the position and acceleration at the moment of being thrown, and a virtual corresponding to the ball is calculated. An application that displays the trajectory of an object (for example, a fireball by a spear or magic) or the state of an enemy who is a target on an apparatus (output means) at hand of the user is also assumed.

1,1a,1b,1c 拡張現実システム
10 基準位置取得装置
100 非接触ICカードリーダ部
21,101,110 記憶装置
102,111,210 プログラム
103 基準情報
11 データベースサーバ
112 候補情報
12,12a,12b,12c,12d 端末装置
2,2a,2b 携帯端末装置
20 CPU
200 カード制御部
201,201a 位置姿勢特定部
202,202a 拡張現実構成部
211 オーナー情報
212 測定情報
213,213d 撮像画像情報
213a 店舗内画像
213b,213c ゲームセンター内画像
214 位置情報
215 出力情報
215a 経路
215b,215c,215d 広告
215e 店舗内画像
215f 経路
215g 星印
215h,215i クーポン
215j アバター画像
215k,215p,215t,215v メッセージ
215m,215n キャラクター画像
215q 柳画像
215r 幽霊画像
215s 宝箱画像
215u 羅針盤画像
216 生体情報
22 操作部
23,23a 表示部
24 センサ群
25 撮像部
26 非接触ICカード部
27 通信部
28 生体センサ
29 スピーカ
9 拡張現実空間
90 円
1, 1a, 1b, 1c Augmented reality system 10 Reference position acquisition device 100 Non-contact IC card reader unit 21, 101, 110 Storage device 102, 111, 210 Program 103 Reference information 11 Database server 112 Candidate information 12, 12a, 12b, 12c, 12d terminal device 2, 2a, 2b portable terminal device 20 CPU
200 Card control unit 201, 201a Position / attitude specifying unit 202, 202a Augmented reality configuration unit 211 Owner information 212 Measurement information 213, 213d Captured image information 213a Store image 213b, 213c Game center image 214 Position information 215 Output information 215a Route 215b , 215c, 215d Advertisement 215e Store image 215f Path 215g Star sign 215h, 215i Coupon 215j Avatar image 215k, 215p, 215t, 215v Message 215m, 215n Character image 215q Willow image 215r Ghost image 215s Treasure box image 215u Operation unit 23, 23a Display unit 24 Sensor group 25 Imaging unit 26 Non-contact IC card unit 27 Communication unit 28 Biosensor 29 Speaker 9 Augmented reality space 90 yen

Claims (6)

位置が可変の携帯端末装置と、
絶対位置が既知の指標手段と、
を備え、
動きに関する情報を測定するセンサと、
前記センサの基準位置および前記基準位置における前記センサの姿勢を記憶する第1記憶手段と、
前記指標手段の個別情報を取得する取得手段と、
前記センサが前記基準位置に存在しているか否かを判定する判定手段と、
前記判定手段により前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する位置特定手段と、
前記判定手段により前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在の姿勢を特定する姿勢特定手段と、
前記位置特定手段により特定された前記センサの現在位置と前記姿勢特定手段により特定された前記センサの現在の姿勢とに応じて出力情報を出力することにより拡張現実を表現する出力手段と、
をさらに備え、
前記指標手段は、前記センサが前記基準位置に存在しているときの前記センサの姿勢を、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢となるように規定する筐体を備え、
前記センサおよび前記取得手段は、前記携帯端末装置に設けられており、
前記判定手段は、前記取得手段により前記指標手段の個別情報が取得されたときに前記センサが前記基準位置に存在していると判定する拡張現実システム。
A mobile terminal device whose position is variable;
An indicator means whose absolute position is known;
With
A sensor that measures information about movement;
First storage means for storing a reference position of the sensor and an attitude of the sensor at the reference position;
Obtaining means for obtaining individual information of the indicator means;
Determination means for determining whether or not the sensor is present at the reference position;
After the determination means determines that the sensor is present at the reference position, based on the reference position stored in the first storage means and information on the movement measured by the sensor. Position specifying means for specifying the current position of the sensor;
After the determination means determines that the sensor is present at the reference position, the attitude of the sensor at the reference position stored in the first storage means and the movement measured by the sensor Posture identifying means for identifying the current posture of the sensor based on the information;
Output means for expressing augmented reality by outputting output information according to the current position of the sensor specified by the position specifying means and the current attitude of the sensor specified by the attitude specifying means;
Further comprising
The indicator means includes a housing that defines an attitude of the sensor when the sensor is present at the reference position so as to be an attitude of the sensor at the reference position stored in the first storage means. Prepared,
The sensor and the acquisition unit are provided in the mobile terminal device,
The augmented reality system in which the determination unit determines that the sensor is present at the reference position when the acquisition unit acquires the individual information of the index unit.
請求項1に記載の拡張現実システムであって、
複数の前記携帯端末装置を備え、
前記携帯端末装置は、
拡張現実空間内に存在する他の携帯端末装置との間で無線によるデータ通信を行う第2通信手段と、
前記出力手段と、
を備え、
前記第2通信手段は、前記他の携帯端末装置が備える前記センサの現在位置を無線によるデータ通信により受信し、
前記出力手段は、前記第2通信手段により受信した前記他の携帯端末装置が備える前記センサの現在位置に応じて出力情報を出力する拡張現実システム。
The augmented reality system according to claim 1,
A plurality of the mobile terminal devices;
The portable terminal device
A second communication means for performing wireless data communication with another portable terminal device existing in the augmented reality space;
The output means;
With
The second communication means receives the current position of the sensor included in the other mobile terminal device by wireless data communication,
The augmented reality system in which the output means outputs output information according to a current position of the sensor included in the other portable terminal device received by the second communication means.
請求項1に記載の拡張現実システムであって、
前記携帯端末装置は、
拡張現実空間内に存在する端末装置との間で無線によるデータ通信を行う第3通信手段と、
前記出力手段と、
を備え、
前記第3通信手段は、前記端末装置に関する固有の情報を無線によるデータ通信により受信し、
前記出力手段は、前記第3通信手段により受信した前記端末装置に関する固有の情報に応じて出力情報を出力する拡張現実システム。
The augmented reality system according to claim 1,
The portable terminal device
Third communication means for performing wireless data communication with a terminal device existing in the augmented reality space;
The output means;
With
The third communication means receives specific information about the terminal device by wireless data communication,
The augmented reality system in which the output means outputs output information according to specific information about the terminal device received by the third communication means.
請求項1ないし3のいずれかに記載の拡張現実システムであって、
前記センサが付随する対象物に関する情報を記憶する第2記憶手段をさらに備え、
前記出力手段は、前記第2記憶手段に記憶された前記対象物に関する情報に応じた出力情報を出力する拡張現実システム。
An augmented reality system according to any one of claims 1 to 3,
Further comprising second storage means for storing information relating to the object associated with the sensor;
The augmented reality system in which the output means outputs output information corresponding to information on the object stored in the second storage means.
請求項1ないし4のいずれかに記載の拡張現実システムであって、
生体に関する生体情報を測定する生体センサをさらに備え、
前記出力手段は、前記生体センサにより測定された生体情報に応じた出力情報を出力する拡張現実システム。
An augmented reality system according to any one of claims 1 to 4,
A biological sensor for measuring biological information about the living body;
The output means is an augmented reality system that outputs output information corresponding to biological information measured by the biological sensor.
位置が可変の携帯端末装置による拡張現実提供方法であって、
動きに関する情報をセンサによって測定する工程と、
前記センサの基準位置および前記基準位置における前記センサの姿勢を第1記憶手段に記憶させる工程と、
外部に存在する絶対位置が既知の指標手段の個別情報を取得する工程と、
前記センサが前記基準位置に存在しているときの前記センサの姿勢を、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢となるように前記指標手段が備える筐体によって規定する工程と、
前記センサが前記基準位置に存在しているか否かを判定する工程と、
前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在位置を特定する工程と、
前記センサが前記基準位置に存在していると判定された後において、前記第1記憶手段に記憶された前記基準位置における前記センサの姿勢と、前記センサにより測定された前記動きに関する情報とに基づいて、前記センサの現在の姿勢を特定する工程と、
特定された前記センサの現在位置と特定された前記センサの現在の姿勢とに応じて出力情報を出力することにより拡張現実を表現する工程と、
を有し、
前記指標手段の個別情報が取得されたときに、前記判定する工程において、前記センサが前記基準位置に存在していると判定する拡張現実提供方法
An augmented reality providing method using a mobile terminal device whose position is variable,
Measuring information about movement with a sensor;
Storing a reference position of the sensor and a posture of the sensor at the reference position in a first storage unit;
Obtaining the individual information of the indicator means whose absolute position existing outside is known;
The orientation of the sensor when the sensor is present at the reference position is defined by a housing provided in the indicator means so as to be the orientation of the sensor at the reference position stored in the first storage means. Process,
Determining whether the sensor is present at the reference position;
After it is determined that the sensor is present at the reference position, based on the reference position stored in the first storage unit and information on the movement measured by the sensor, the sensor A process of identifying the current position;
After determining that the sensor is present at the reference position, based on the attitude of the sensor at the reference position stored in the first storage unit and information on the movement measured by the sensor. Identifying the current posture of the sensor;
Expressing augmented reality by outputting output information according to the current position of the identified sensor and the current posture of the identified sensor;
Have
An augmented reality providing method for determining that the sensor is present at the reference position in the determining step when the individual information of the index means is acquired .
JP2017087902A 2017-04-27 2017-04-27 Augmented reality system and augmented reality providing method Expired - Fee Related JP6475776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017087902A JP6475776B2 (en) 2017-04-27 2017-04-27 Augmented reality system and augmented reality providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017087902A JP6475776B2 (en) 2017-04-27 2017-04-27 Augmented reality system and augmented reality providing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013043838A Division JP2014174589A (en) 2013-03-06 2013-03-06 Augmented reality system, program and augmented reality provision method

Publications (2)

Publication Number Publication Date
JP2017194969A JP2017194969A (en) 2017-10-26
JP6475776B2 true JP6475776B2 (en) 2019-02-27

Family

ID=60156057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017087902A Expired - Fee Related JP6475776B2 (en) 2017-04-27 2017-04-27 Augmented reality system and augmented reality providing method

Country Status (1)

Country Link
JP (1) JP6475776B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6946203B2 (en) * 2018-01-23 2021-10-06 東芝テック株式会社 Transmitter search device and its program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079313A (en) * 2004-09-09 2006-03-23 Nippon Telegr & Teleph Corp <Ntt> Information processing device
JP2008170309A (en) * 2007-01-12 2008-07-24 Seiko Epson Corp Portable navigation system, portable navigation method, and program for portable navigation, and portable terminal
JP2009289035A (en) * 2008-05-29 2009-12-10 Jiro Makino Image display system, portable display, server computer, and archaeological sightseeing system
JP2011102707A (en) * 2009-11-10 2011-05-26 Seiko Epson Corp Positioning device and positioning method
WO2012070595A1 (en) * 2010-11-23 2012-05-31 日本電気株式会社 Position information presentation device, position information presentation system, position information presentation method, program, and recording medium
JP6020446B2 (en) * 2011-04-20 2016-11-02 日本電気株式会社 Image display system, image display apparatus, image display method, and program
JP5681050B2 (en) * 2011-06-28 2015-03-04 日本電信電話株式会社 Route search device, route search method, and route search program

Also Published As

Publication number Publication date
JP2017194969A (en) 2017-10-26

Similar Documents

Publication Publication Date Title
WO2014136700A1 (en) Augmented reality provision system, recording medium, and augmented reality provision method
US10499002B2 (en) Information processing apparatus and information processing method
US11854133B2 (en) Display of a live scene and auxiliary object
JP6635037B2 (en) Information processing apparatus, information processing method, and program
KR101894021B1 (en) Method and device for providing content and recordimg medium thereof
JP6020446B2 (en) Image display system, image display apparatus, image display method, and program
CN108293171B (en) Information processing apparatus, information processing method, and storage medium
KR20210046591A (en) Augmented reality data presentation method, device, electronic device and storage medium
EP3151202A1 (en) Information processing device and information processing method
JP6228392B2 (en) Panorama image display program, panorama image display device, panorama image display system, and panorama image display method
WO2018142756A1 (en) Information processing device and information processing method
KR20130137968A (en) System, apparatus, method and computer readable recording medium for providing an event on the augmented reality using a user terminal
JP6342024B1 (en) Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
KR102388939B1 (en) Method for providing feedback service for user&#39;s motion correction
WO2015119092A1 (en) Augmented reality provision system, recording medium, and augmented reality provision method
WO2012007764A1 (en) Augmented reality system
KR101213022B1 (en) System and method of searching a virtual treasure using a mobile terminal
JP6475776B2 (en) Augmented reality system and augmented reality providing method
KR20180075099A (en) Head mounted display apparatus and control method thereof
KR102578119B1 (en) Smart glasses operation method interworking to mobile device
US20230162433A1 (en) Information processing system, information processing method, and information processing program
KR101914660B1 (en) Method and apparatus for controlling displaying of augmented reality contents based on gyro sensor
KR102443016B1 (en) Apparatus and method for implementing advertising using augmented technology
WO2018008096A1 (en) Information display device and program
EP2917847B1 (en) Method and digital device for displaying a path in a map with a thickness corresponding to a distance within a section

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190201

R150 Certificate of patent or registration of utility model

Ref document number: 6475776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees