JP2011060254A - Augmented reality system and device, and virtual object display method - Google Patents

Augmented reality system and device, and virtual object display method Download PDF

Info

Publication number
JP2011060254A
JP2011060254A JP2009232818A JP2009232818A JP2011060254A JP 2011060254 A JP2011060254 A JP 2011060254A JP 2009232818 A JP2009232818 A JP 2009232818A JP 2009232818 A JP2009232818 A JP 2009232818A JP 2011060254 A JP2011060254 A JP 2011060254A
Authority
JP
Japan
Prior art keywords
virtual object
augmented reality
marker
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009232818A
Other languages
Japanese (ja)
Inventor
Toru Kikuchi
徹 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2009232818A priority Critical patent/JP2011060254A/en
Publication of JP2011060254A publication Critical patent/JP2011060254A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an augmented reality system for displaying a virtual object input by a user to oneself. <P>SOLUTION: In the augmented reality system, when the user inputs the virtual object, information regarding a position and a direction of the augmented reality device is obtained, and the obtained information regarding the position and the direction is recorded together with the information of the virtual object. When the user uses the augmented reality system, the virtual object input by the user oneself is superposed on a real environment and displayed in approaching the position and the direction regarding the virtual object input by the user oneself. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ポータブルデバイスにおける拡張現実の技術に関する。  The present invention relates to augmented reality technology in portable devices.

カメラデバイスとディスプレイデバイスが実装されたポータブルデバイスにおいて、カメラデバイスによって撮影されている画像で、リアルタイムにディスプレイデバイスに映し出したものに対して、あらかじめ用意された仮想画像データを表示する技術がある(例えば、特許文献1参照)。かかる技術によれば、現実の環境から知覚に与えられる情報に対して、機械的に作り出した画像データを重ね合わせ、現実の視覚情報に対して補足的な情報を与えることができる。  In a portable device in which a camera device and a display device are mounted, there is a technique for displaying virtual image data prepared in advance for an image photographed by a camera device and projected on a display device in real time (for example, , See Patent Document 1). According to such a technique, it is possible to superimpose mechanically created image data on information given to perception from an actual environment, and to provide supplementary information to actual visual information.

特許公表2008−510254  Patent publication 2008-510254

しかし、現実の環境に対してあらかじめ用意された画像データを重ねて表示する技術においては、あらかじめ用意された画像データを表示することが前提となっており、本技術を使用する前に画像データを生成し、あらかじめポータブルデバイスに蓄積しておく必要があった。また、画像データはテキストファイルなどと比較し相対的にデータ容量が大きい。あらゆるシーンで拡張現実の環境を表現するためには多数の画像データを用意する必要があり、画像データを格納するために大容量の保存領域を確保する必要があった。さらに、画像データは視覚的な表現を得意とする仮想オブジェクトである一方、拡張現実において有益となるテキスト情報を表現することを苦手としていた。そこで、本発明は、ディスプレイデバイス上に表示された現実の環境の上に、使用者自身が仮想オブジェクトを生成し、現実の環境の位置データと併せて前記仮想オブジェクトを蓄積し、随時前記仮想オブジェクトと前記位置データを呼び出して現実の環境の上に表示する拡張現実技術を実現する。  However, in the technology for displaying image data prepared in advance on an actual environment, it is assumed that the image data prepared in advance is displayed. It was necessary to generate and store in a portable device in advance. Also, image data has a relatively large data capacity compared to a text file or the like. In order to express the augmented reality environment in every scene, it is necessary to prepare a large number of image data, and it is necessary to secure a large storage area in order to store the image data. Furthermore, while image data is a virtual object that is good at visual expression, it is not good at expressing text information that is useful in augmented reality. Therefore, the present invention provides that the user himself / herself generates a virtual object on the real environment displayed on the display device, accumulates the virtual object together with the position data of the real environment, and the virtual object as needed. The augmented reality technology that calls the position data and displays it on the actual environment is realized.

本発明に係る拡張現実システムは、現実の環境における画像を取得する第1の取得手段と、画像の取得の基準位置を示す位置マーカを取得する第2の取得手段と、画像の取得の基準方向を示す方向マーカを取得する第3の取得手段と、前記第2の取得手段により取得される位置マーカと前記第3の取得手段により取得される方向マーカとに対応する仮想オブジェクトを生成する第4の取得手段と、前記仮想オブジェクトを前記位置マーカと前記方向マーカの関連情報として記録する記録手段と、前記仮想オブジェクトを前記画像に重ねて表示する表示手段とを備える。この構成によれば、画像を取得した位置および方向に対応した仮想オブジェクトを使用者自身が生成し、前記画像を取得した位置および方向に対応する前記仮想オブジェクトを前記画像に重ねてすることが可能である。こうすることにより、使用者自身が任意の拡張現実の位置において任意の前記仮想オブジェクトを配置できることを特徴とする。前記仮想オブジェクトは例えばテキスト情報でもよく、その場合は情報容量が小さくなるという特徴もある。  The augmented reality system according to the present invention includes a first acquisition unit that acquires an image in an actual environment, a second acquisition unit that acquires a position marker indicating a reference position for acquiring the image, and a reference direction for acquiring the image. A third acquisition unit that acquires a direction marker that indicates a virtual object corresponding to the position marker acquired by the second acquisition unit and the direction marker acquired by the third acquisition unit; Acquisition means, recording means for recording the virtual object as related information of the position marker and the direction marker, and display means for displaying the virtual object superimposed on the image. According to this configuration, the user himself / herself can generate a virtual object corresponding to the position and direction from which the image was acquired, and the virtual object corresponding to the position and direction from which the image was acquired can be superimposed on the image It is. By doing so, the user can arrange any virtual object at any augmented reality position. The virtual object may be text information, for example, in which case the information capacity is small.

本発明に係る拡張現実システムは、前記第2の算出手段が、前記画像を取得する位置の変化に応じて前記第2の位置マーカの算出を繰り返し、かつ、前記第3の算出手段が、前記画像を取得する方向の変化に応じて前記第3の方向マーカの算出を繰り返し、前記仮想オブジェクトの生成の要求があったならば、前記第2の算出手段により算出された第2の位置マーカと、前記第3の算出手段により算出された第3の方向マーカとを記録し、前記仮想オブジェクトが入力された位置および方向を取得する構成を採用することができる。この構成によれば、第1の取得手段によって前記画像を取得した位置および方向に対し、前記仮想オブジェクトの入力があった位置および方向が一意に決定されるため、前記画像の位置および方向が前記仮想オブジェクトの入力があった位置および方向と一致する条件において、前記仮想オブジェクトを前記画像に重ねて表示することが可能である。  In the augmented reality system according to the present invention, the second calculation unit repeats the calculation of the second position marker according to a change in the position at which the image is acquired, and the third calculation unit includes the The calculation of the third direction marker is repeated according to a change in the direction of acquiring an image, and if there is a request for generation of the virtual object, the second position marker calculated by the second calculation unit and It is possible to adopt a configuration in which the third direction marker calculated by the third calculation means is recorded and the position and direction in which the virtual object is input are acquired. According to this configuration, the position and direction in which the virtual object is input are uniquely determined with respect to the position and direction in which the image is acquired by the first acquisition unit. It is possible to display the virtual object so as to overlap the image under a condition that matches the position and direction in which the virtual object is input.

本発明に係る拡張現実システムは、前記仮想オブジェクトの生成と、前記位置マーカの生成と、前記方向マーカの生成とが同時に実施されることから、前記仮想オブジェクトが取得された位置マーカと方向マーカを前記仮想オブジェクトの関連情報として記録することが可能となる。前記位置マーカと前記方向マーカを前記仮想オブジェクトの関連情報として同時に記録することにより、所定の条件が満たされる場合に、前記第1の現実の環境の画像の上に、前記蓄積された仮想オブジェクトを重ねて表示させるものである。  In the augmented reality system according to the present invention, since the generation of the virtual object, the generation of the position marker, and the generation of the direction marker are performed simultaneously, the position marker and the direction marker from which the virtual object is acquired are displayed. It can be recorded as related information of the virtual object. By simultaneously recording the position marker and the direction marker as related information of the virtual object, when a predetermined condition is satisfied, the accumulated virtual object is displayed on the image of the first real environment. It is displayed in a superimposed manner.

本発明に係るプログラムは、コンピュータに、画像を取得するステップと、画像の取得の基準位置を示す位置マーカを取得するステップと、前記位置情報が示す基準位置からの画像の取得方向を示す方向マーカを取得するステップと、任意の位置および方向において使用者からの要求に基づき仮想オブジェクトの生成を行うステップと、前記仮想オブジェクトを前記位置マーカと前記方向マーカとともに記録するステップと、前記画像を取得するステップにおいて前記仮想オブジェクトが同時に記録した位置および方向と一致する位置および方向にさしかかったときに前記仮想オブジェクトを前記画像に重ねて表示するステップとを実行させるためのものである。  The program according to the present invention includes a step of acquiring an image, a step of acquiring a position marker indicating a reference position for acquiring the image, and a direction marker indicating an acquisition direction of the image from the reference position indicated by the position information. Acquiring a virtual object based on a request from a user at an arbitrary position and direction, recording the virtual object together with the position marker and the direction marker, and acquiring the image A step of superimposing and displaying the virtual object on the image when the virtual object approaches a position and a direction that coincide with the position and direction recorded at the same time.

本発明によれば、拡張現実システムにおいて、画像を取得する際に、位置情報および方向情報と紐づけて入力された仮想オブジェクトを記録し、次回以降使用者が画像を取得する際に、位置情報と方向情報に応じて以前記録した前記仮想オブジェクトを実画像に重ねて表示することが可能となる。  According to the present invention, in an augmented reality system, when an image is acquired, a virtual object input in association with position information and direction information is recorded, and when the user acquires an image next time, the position information According to the direction information, the previously recorded virtual object can be displayed superimposed on the real image.

拡張現実システムの構成を示す図  Diagram showing configuration of augmented reality system 拡張現実装置の構成を示すブロック図  Block diagram showing configuration of augmented reality device データベースサーバおけるデータベースの構成図  Database configuration diagram in database server 撮影デバイスの構成を示す図  Diagram showing the configuration of the shooting device 入力デバイスおよび表示デバイスの構成を示す図  Diagram showing configuration of input device and display device 仮想オブジェクトの入力を示す図  Diagram showing input of virtual object 仮想オブジェクトの表示を示す図  Diagram showing virtual object display

[実施形態]
図1は、本発明の一実施形態である拡張現実システムの構成を示す図である。同図に示すように、本実施形態の拡張現実システムは、複数の拡張現実装置100と、データベースサーバ10とを備える。拡張現実装置100とデータベースサーバ10とは、ネットワークNW1を介して通信可能に接続される。本実施形態の拡張現実装置100は、本実施形態の拡張現実装置100は、持ち運び可能な構造を有しており、典型的な例としては、携帯電話情報端末(すなわち無線通信端末)である。この場合、ネットワークNW1は、無線の移動体通信網を含む。
[Embodiment]
FIG. 1 is a diagram showing a configuration of an augmented reality system according to an embodiment of the present invention. As shown in the figure, the augmented reality system of the present embodiment includes a plurality of augmented reality devices 100 and a database server 10. The augmented reality device 100 and the database server 10 are communicably connected via the network NW1. The augmented reality device 100 of the present embodiment has a portable structure, and a typical example is a mobile phone information terminal (that is, a wireless communication terminal). In this case, the network NW1 includes a wireless mobile communication network.

図2は、本実施形態における拡張現実装置の構成を示すブロック図である。同図に示すように、拡張現実装置100は制御部110と、通信部120と、撮影デバイス130と、方向センサ140と、位置センサ150と、入力デバイス160と、表示デバイス170とを備える。  FIG. 2 is a block diagram showing the configuration of the augmented reality device in the present embodiment. As shown in the figure, the augmented reality device 100 includes a control unit 110, a communication unit 120, a photographing device 130, a direction sensor 140, a position sensor 150, an input device 160, and a display device 170.

制御部110は、CPU(Central Processing Unit)等の演算処理装置やメモリを備え、プログラムを実行することによって拡張現実装置100の各部の動作を制御する。  The control unit 110 includes an arithmetic processing device such as a CPU (Central Processing Unit) and a memory, and controls the operation of each unit of the augmented reality device 100 by executing a program.

通信部120は、ネットワークNW1と通信を行うためのインターフェースを備え、データベースサーバ10との間でデータの送受信を行う。通信部120が送受信するデータには、自装置が有する拡張現実装置識別情報と、自装置における仮想オブジェクトデータと、位置マーカと、方向マーカとが含まれる。  The communication unit 120 includes an interface for communicating with the network NW1, and transmits / receives data to / from the database server 10. The data transmitted and received by the communication unit 120 includes augmented reality device identification information that the device itself has, virtual object data in the device, position markers, and direction markers.

自装置が有する拡張現実装置識別情報は、データベースサーバが複数の拡張現実装置を管理するために用意されるものである。拡張現実装置識別情報は、拡張現実装置ごとに異なるユニークな情報を有しており、その情報は文字列、数字または記号により構成される。これにより、拡張現実システムでは、複数の拡張現実装置が同時に動作することが可能であり、それぞれの拡張現実装置が独自のデータを管理されることが可能である。  The augmented reality device identification information that the device itself has is prepared for the database server to manage a plurality of augmented reality devices. The augmented reality device identification information includes unique information that is different for each augmented reality device, and the information includes a character string, a number, or a symbol. Thus, in the augmented reality system, a plurality of augmented reality devices can operate simultaneously, and each augmented reality device can manage its own data.

撮影デバイス130については、図4とともに説明する。撮影デバイス130は、拡張現実装置において、後述する表示デバイス170が実装されている面とは異なる面に実装されており、典型的な携帯電話情報端末においては、携帯電話情報端末の裏面に実装される。撮影デバイス130は、画像又は映像を撮影するための撮影機能を備えており、撮影する画像又は映像は、制御部110に供給され、後述する表示デバイス170に対してリアルタイムに表示を行うことができる。  The photographing device 130 will be described with reference to FIG. The imaging device 130 is mounted on a surface different from the surface on which the display device 170 described later is mounted in the augmented reality device. In a typical mobile phone information terminal, the shooting device 130 is mounted on the back surface of the mobile phone information terminal. The The photographing device 130 has a photographing function for photographing an image or video, and the photographed image or video is supplied to the control unit 110 and can be displayed on a display device 170 described later in real time. .

方向センサ140は、撮影の基準となる位置からの撮影方向を検知するセンサを備える。方向センサ140は、例えば、地球の重力を検知する重力センサを少なくとも備えており地磁気に基づいて方位を検知する地磁気センサや、変位および角速度を検知するためのセンサを備える。方向センサ140は、撮影の方向を示す方向マーカを制御部110に供給する。方向マーカは、撮影方向を少なくとも示す。  The direction sensor 140 includes a sensor that detects a shooting direction from a position serving as a reference for shooting. The direction sensor 140 includes at least a gravity sensor that detects the gravity of the earth, and includes a geomagnetic sensor that detects an azimuth based on geomagnetism, and a sensor that detects displacement and angular velocity. The direction sensor 140 supplies a direction marker indicating the shooting direction to the control unit 110. The direction marker indicates at least the shooting direction.

位置センサ150は、撮影の基準となる位置を示す位置情報を取得するための情報を受信し、制御部110に供給する。本実施形態の位置情報は、位置を緯度及び経度により示す情報である。本実施形態の位置センサ150は、いわゆるGPS(Global Positioning System)衛星からの電波を受信するものであってもよい。または通信装置(移動体通信網の基地局や無線LANのアクセスポイントに関する情報など)から識別情報を受信するものであってもよい。  The position sensor 150 receives information for acquiring position information indicating a position serving as a reference for photographing and supplies the information to the control unit 110. The position information of the present embodiment is information indicating the position by latitude and longitude. The position sensor 150 of the present embodiment may receive radio waves from a so-called GPS (Global Positioning System) satellite. Alternatively, identification information may be received from a communication device (information on a base station of a mobile communication network or an access point of a wireless LAN).

入力デバイス160については、図5とともに説明する。入力デバイス160は、使用者がパネル上の表示を押すことで機器を操作する位置入力装置であり、無色透明なガラスもしくはアクリル等のセンサーパネルで構成されている。入力デバイス160は、使用者が点または領域に手で触れることにより、触れられたセンサーパネル領域位置の情報を感知して制御部110へ供給する。  The input device 160 will be described with reference to FIG. The input device 160 is a position input device in which a user operates a device by pressing a display on the panel, and is configured by a sensor panel such as colorless and transparent glass or acrylic. The input device 160 senses and supplies information on the position of the touched sensor panel region to the control unit 110 when the user touches a point or region with his / her hand.

表示デバイス170については、図5とともに説明する。表示デバイス170は、液晶ディスプレイ装置等に代表される表示装置である。表示デバイス170は、入力デバイス160との2層方式となっており、上層が入力デバイス160、下層が表示デバイス170という構成となっている。表示デバイス170が表示した絵や画像などの点または領域に手で触れることにより、入力デバイス160を通じてその領域位置の情報を制御部110へ供給することも可能である。なお、図5において表示入力170と入力デバイス160の位置がずれて配置されているが、これは異なる2つのデバイスが実装されていることを示すためのものであり、実際には同一の位置に重ねられている。表示デバイス170は、制御部110を通じて、撮影デバイス130が撮影する画像又は映像をリアルタイムに表示することが可能である。  The display device 170 will be described with reference to FIG. The display device 170 is a display device represented by a liquid crystal display device or the like. The display device 170 is a two-layer system with the input device 160, and the upper layer is configured as the input device 160 and the lower layer is configured as the display device 170. By touching a point or region such as a picture or image displayed on the display device 170 with a hand, information on the region position can be supplied to the control unit 110 through the input device 160. In FIG. 5, the positions of the display input 170 and the input device 160 are shifted from each other, but this is to show that two different devices are mounted. It is piled up. The display device 170 can display an image or video captured by the imaging device 130 through the control unit 110 in real time.

データベースサーバにおけるデータベースの構成を、図3とともに説明する。データベースサーバにおけるデータベースは、拡張現実装置識別情報と、仮想オブジェクトデータと、位置マーカと、方向マーカで構成される。拡張現実装置識別情報は、拡張現実装置毎に割り当てられた情報であり、どの拡張現実装置における記録情報かを特定するためのものである。仮想オブジェクトデータは、後述する方法により入力された文字列の情報である。位置マーカは、位置センサ150から得られた測定位置に関する情報である。方向マーカは、方向センサ140から得られた測定方向に関する情報である。本データベースにおいて、拡張現実装置10からの書き込み要求に応じて、拡張現実装置識別情報と、仮想オブジェクトデータと、位置マーカと、方向マーカとの項目を一定としながら、仮想オブジェクトデータの追加に応じることができる。また、本データベースにおいて、拡張現実装置10からの読み込み要求に応じて、読み込み要求があった拡張現実装置10の拡張現実装置識別番号に対応する要素のみを抽出し、該当する拡張現実装置10にのみ送信することが可能である。  The structure of the database in the database server will be described with reference to FIG. The database in the database server includes augmented reality device identification information, virtual object data, a position marker, and a direction marker. The augmented reality device identification information is information assigned to each augmented reality device, and is used to specify which augmented reality device is recorded information. The virtual object data is information on a character string input by a method described later. The position marker is information regarding the measurement position obtained from the position sensor 150. The direction marker is information on the measurement direction obtained from the direction sensor 140. In this database, in response to a write request from the augmented reality device 10, responding to the addition of virtual object data while keeping the items of augmented reality device identification information, virtual object data, position marker, and direction marker constant. Can do. Further, in this database, in response to a read request from the augmented reality device 10, only the element corresponding to the augmented reality device identification number of the augmented reality device 10 that has requested read is extracted, and only the corresponding augmented reality device 10 is extracted. It is possible to send.

本実施形態の拡張現実システムの構成は、以上のとおりである。この構成のもと、使用者は、屋外または屋内の適当な位置において、拡張現実装置100の使用を開始する。拡張現実装置100は、かかる操作に応じて、以下の記録処理(以下、「仮想オブジェクト記録処理」という。)を実行し、仮想オブジェクトデータ、位置マーカおよび方向マーカを記録データベースサーバ10に記録する。  The configuration of the augmented reality system of this embodiment is as described above. Under this configuration, the user starts using the augmented reality device 100 at an appropriate position outdoors or indoors. The augmented reality device 100 executes the following recording process (hereinafter referred to as “virtual object recording process”) in response to such an operation, and records virtual object data, a position marker, and a direction marker in the recording database server 10.

仮想オブシェクト記録処理における仮想オブジェクトの生成方法について、図6とともに説明する。図6において、使用者は文字入力キーパッド200を通じて文字の入力を行うと、入力された文字は入力コンソール210に表示され、自身が入力した文字列を確認することができる。使用者は、文字の入力を繰り返すことにより文字列を作成し、入力キーパッド200の決定キーを押下することにより入力内容を確定する。この作業により確定された文字列が、仮想オブジェクトデータとなる。仮想オブジェクトデータは、仮想オブジェクトデータが生成された時点で、方向センサ140から得られる方向マーカと、位置センサ150から得られる位置マーカと共に、通信部120を通じてデータベースサーバ10に送信される。この際、拡張識別装置情報が同時に送信される。  A method of generating a virtual object in the virtual object recording process will be described with reference to FIG. In FIG. 6, when the user inputs characters through the character input keypad 200, the input characters are displayed on the input console 210, and the character string input by the user can be confirmed. The user creates a character string by repeating character input, and presses the enter key on the input keypad 200 to confirm the input content. The character string determined by this work becomes virtual object data. The virtual object data is transmitted to the database server 10 through the communication unit 120 together with the direction marker obtained from the direction sensor 140 and the position marker obtained from the position sensor 150 when the virtual object data is generated. At this time, the extended identification device information is transmitted simultaneously.

データベースサーバ10では、拡張現実装置100から受信した情報に基づき、拡張識別装置情報と、仮想オブジェクトデータと、位置マーカと、方向マーカとをデータベースに記録する。この際、データベースに対して正常に記録が行われたことを示す情報を、該当する拡張現実装置に対して送信してもよい。以上をもって、仮想オブジェクト記録処理が完了する。  Based on the information received from the augmented reality device 100, the database server 10 records the augmented identification device information, virtual object data, position markers, and direction markers in the database. At this time, information indicating that the recording has been normally performed on the database may be transmitted to the corresponding augmented reality device. Thus, the virtual object recording process is completed.

拡張現実装置100は、使用者の操作に応じて、以下の仮想現実表示処理(以下、「仮想オブジェクト表示処理」という。)を実行し、仮想オブジェクトデータ、位置マーカおよび方向マーカを記録データベースサーバ10から読み出すことにより仮想現実表示を実現する。  The augmented reality device 100 executes the following virtual reality display processing (hereinafter referred to as “virtual object display processing”) in accordance with a user operation, and records virtual object data, position markers, and direction markers. The virtual reality display is realized by reading out from.

仮想オブジェクト表示処理について図7とともに説明する。拡張現実装置100において、撮影デバイス130が撮影する画像又は映像をリアルタイムに表示デバイス170に表示している状態で、拡張現実装置10の現在方向に関する情報を方向センサ140が、現在位置に関する情報を位置センサ150が取得し、一定時間毎に制御部110に送信する。拡張現実装置100から自装置に関わる情報の取得要求がデータベースサーバ10に対して行われると、データベースサーバ10におけるデータベースに記録された該当する拡張現実装置に関わる仮想オブジェクトデータ、位置マーカ、方向マーカを、取得要求があった拡張現実装置100に対して送信する。拡張現実装置100における通信部120は、データベースサーバ10から受信した前記データ群を制御部110へ送信する。  The virtual object display process will be described with reference to FIG. In the augmented reality apparatus 100, in a state where an image or video captured by the imaging device 130 is displayed on the display device 170 in real time, the direction sensor 140 positions information regarding the current position of the augmented reality apparatus 10 and positions information regarding the current position. The sensor 150 acquires and transmits to the control part 110 for every fixed time. When an acquisition request for information related to the device is sent from the augmented reality device 100 to the database server 10, virtual object data, position markers, and direction markers related to the corresponding augmented reality device recorded in the database in the database server 10 are displayed. And transmitted to the augmented reality device 100 that has made the acquisition request. The communication unit 120 in the augmented reality device 100 transmits the data group received from the database server 10 to the control unit 110.

制御部110では、表示デバイス170に対して表示する仮想オブジェクトを決定し、仮想オブジェクト300を表示デバイス内のどの位置に表示するかを決定する。データベースサーバ10から送信されてきた位置マーカおよび方向マーカから、仮想オブジェクト記録処理が実行された際の、自装置の位置および方向の基準となるポイントを図7における仮想オブジェクト位置P1として決定する。仮想オブジェクト位置P1は、説明上図7に明記しているが、実際には使用者には見えない。制御部110では、方向センサ140および位置センサ150から得ている現在位置に関する情報および現在方向に関する情報から、仮想オブジェクト位置P1の表示を制御する。仮想オブジェクト位置P1は、自装置の動きに合わせて表示デバイス170内を移動するが、仮想オブジェクト位置P1は位置と方向により示される3次元で表現できる空間情報であるため、制御部110では実環境における位置に対応した仮想オブジェクト位置P1を表示デバイス170の中で特定する。  The control unit 110 determines a virtual object to be displayed on the display device 170 and determines at which position in the display device the virtual object 300 is displayed. Based on the position marker and the direction marker transmitted from the database server 10, a point serving as a reference for the position and direction of the own apparatus when the virtual object recording process is executed is determined as the virtual object position P1 in FIG. Although the virtual object position P1 is clearly shown in FIG. 7 for explanation, it is not actually visible to the user. The control unit 110 controls the display of the virtual object position P1 based on the information on the current position and the information on the current direction obtained from the direction sensor 140 and the position sensor 150. The virtual object position P1 moves within the display device 170 in accordance with the movement of the own apparatus. However, since the virtual object position P1 is spatial information that can be expressed in three dimensions indicated by the position and direction, the control unit 110 does not use the real environment. A virtual object position P1 corresponding to the position at is specified in the display device 170.

制御部110は仮想オブジェクト記録処理が行われた際に記録された仮想オブジェクトデータを、表示デバイス170における仮想オブジェクト位置P1の位置に重ねて表示する。図7に示すとおり、文字列として記録されていた仮想オブジェクトデータを、仮想オブジェクト300として表示デバイス170に表示する。仮想オブジェクト300は、仮想オブジェクト位置P1と一定の位置関係において表示されるものであるから、拡張現実装置100の動きに合わせて表示デバイス170内にて仮想オブジェクト位置P1が移動すると、同じ移動量および移動方向に仮想オブジェクト300も移動する。これにより、使用者自身が入力した仮想オブジェクトデータを拡張現実として実環境に重ねて表示することが可能となる。以上をもって、仮想オブジェクト表示処理が完了する。  The control unit 110 displays the virtual object data recorded when the virtual object recording process is performed, overlapping the virtual object position P1 on the display device 170. As shown in FIG. 7, the virtual object data recorded as a character string is displayed on the display device 170 as the virtual object 300. Since the virtual object 300 is displayed in a fixed positional relationship with the virtual object position P1, when the virtual object position P1 moves in the display device 170 in accordance with the movement of the augmented reality device 100, the same movement amount and The virtual object 300 also moves in the moving direction. As a result, the virtual object data input by the user can be displayed as an augmented reality on the real environment. Thus, the virtual object display process is completed.

(変形例1)
仮想オブジェクト記録処理の際、仮想オブジェクト300として、文字列の入力のほかに、入力デバイス160を通じて描かれた手書きのペン、撮影デバイス130を通じて記録された画像または映像などを埋め込む実装としてもよい。この場合、仮想オブジェクト表示処理においても、実環境に対してそれぞれ記録された仮想オブジェクトが表示される。
(Modification 1)
In the virtual object recording process, in addition to inputting a character string, the virtual object 300 may be implemented by embedding a handwritten pen drawn through the input device 160, an image or video recorded through the photographing device 130, and the like. In this case, also in the virtual object display process, the virtual objects recorded for the real environment are displayed.

(変形例2)
仮想オブジェクト表示処理の際、複数の仮想オブジェクト300を同時に表示デバイス170の中に表示してもよい。
(Modification 2)
In the virtual object display process, a plurality of virtual objects 300 may be displayed in the display device 170 at the same time.

(変形例3)
データベースサーバ10に相当する機能を、通信部120に代わって自装置内に持たせ、ネットワークNW1を通じたデータベースサーバ10と自装置との通信を発生させずに、自装置内で仮想オブジェクト記録処理および仮想オブジェクト表示処理を行ってもよい。
(Modification 3)
A function corresponding to the database server 10 is provided in the own apparatus instead of the communication unit 120, and the virtual object recording process is performed in the own apparatus without causing communication between the database server 10 and the own apparatus through the network NW1. Virtual object display processing may be performed.

10…データベースサーバ、100…拡張現実装置、110…制御部、120…通信部、130…撮影デバイス、140…方向センサ、150…位置センサ、160…入力デバイス、170…表示デバイス、200…文字入力キーパッド、210…入力コンソール、300…仮想オブジェクトDESCRIPTION OF SYMBOLS 10 ... Database server, 100 ... Augmented reality apparatus, 110 ... Control part, 120 ... Communication part, 130 ... Shooting device, 140 ... Direction sensor, 150 ... Position sensor, 160 ... Input device, 170 ... Display device, 200 ... Character input Keypad, 210 ... input console, 300 ... virtual object

Claims (2)

実環境の画像データを取得する手段と、
前記画像データの取得位置に対応する位置マーカを生成する手段と、
前記画像データの取得方向に対応する方向マーカを生成する手段と、
前記位置マーカおよび前記方向マーカに対応する仮想オブジェクトを生成する手段と、
前記位置マーカおよび前記方向マーカを関連情報として前記仮想オブジェクトを記録する手段と、
前記位置マーカおよび前記方向マーカの対応する位置および方向において、記録された前記仮想オブジェクトを呼び出し、実環境の画像データに前記仮想オブジェクトを重ね合わせる手段と、
を具備する拡張現実システム。
Means for acquiring real-world image data;
Means for generating a position marker corresponding to the acquisition position of the image data;
Means for generating a direction marker corresponding to the acquisition direction of the image data;
Means for generating a virtual object corresponding to the position marker and the direction marker;
Means for recording the virtual object with the position marker and the direction marker as related information;
Means for calling the recorded virtual object at a corresponding position and direction of the position marker and the direction marker, and superimposing the virtual object on real environment image data;
Augmented reality system comprising:
前記仮想オブジェクトは、テキスト入力データ、ペン入力データ、音声入力データ、撮影画像データのうち少なくとも1つを含む使用者入力データを記録することを特徴とする拡張現実システム。The augmented reality system, wherein the virtual object records user input data including at least one of text input data, pen input data, voice input data, and photographed image data.
JP2009232818A 2009-09-11 2009-09-11 Augmented reality system and device, and virtual object display method Pending JP2011060254A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009232818A JP2011060254A (en) 2009-09-11 2009-09-11 Augmented reality system and device, and virtual object display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009232818A JP2011060254A (en) 2009-09-11 2009-09-11 Augmented reality system and device, and virtual object display method

Publications (1)

Publication Number Publication Date
JP2011060254A true JP2011060254A (en) 2011-03-24

Family

ID=43947765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009232818A Pending JP2011060254A (en) 2009-09-11 2009-09-11 Augmented reality system and device, and virtual object display method

Country Status (1)

Country Link
JP (1) JP2011060254A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101357205B1 (en) * 2011-11-25 2014-02-03 김희남 Method and apparatus for generating marker based on user interaction
CN104243807A (en) * 2013-06-20 2014-12-24 卡西欧计算机株式会社 Image processing device and computer readable medium
US10076998B2 (en) 2015-02-04 2018-09-18 Denso Corporation Image display control apparatus, electronic mirror system, and image display control program
US10789473B2 (en) 2017-09-22 2020-09-29 Samsung Electronics Co., Ltd. Method and device for providing augmented reality service
US11392636B2 (en) 2013-10-17 2022-07-19 Nant Holdings Ip, Llc Augmented reality position-based service, methods, and systems
US11854153B2 (en) 2011-04-08 2023-12-26 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US11967034B2 (en) 2023-10-31 2024-04-23 Nant Holdings Ip, Llc Augmented reality object management system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11854153B2 (en) 2011-04-08 2023-12-26 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US11869160B2 (en) 2011-04-08 2024-01-09 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
KR101357205B1 (en) * 2011-11-25 2014-02-03 김희남 Method and apparatus for generating marker based on user interaction
CN104243807A (en) * 2013-06-20 2014-12-24 卡西欧计算机株式会社 Image processing device and computer readable medium
CN104243807B (en) * 2013-06-20 2018-01-26 卡西欧计算机株式会社 Image processing apparatus and image processing method
US11392636B2 (en) 2013-10-17 2022-07-19 Nant Holdings Ip, Llc Augmented reality position-based service, methods, and systems
US10076998B2 (en) 2015-02-04 2018-09-18 Denso Corporation Image display control apparatus, electronic mirror system, and image display control program
US10789473B2 (en) 2017-09-22 2020-09-29 Samsung Electronics Co., Ltd. Method and device for providing augmented reality service
US11967034B2 (en) 2023-10-31 2024-04-23 Nant Holdings Ip, Llc Augmented reality object management system

Similar Documents

Publication Publication Date Title
US9525964B2 (en) Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers
KR101817452B1 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
KR102077305B1 (en) Method and apparatus for providing contents including augmented reality information
US20180286098A1 (en) Annotation Transfer for Panoramic Image
JP5315111B2 (en) Terminal device, information presentation system, and terminal screen display method
CN102388406B (en) Portable electronic device recording is used to produce three-dimensional model
JP6075066B2 (en) Image management system, image management method, and program
CN102763404B (en) Camera, information acquiring system and program
US20170032574A1 (en) System and method for augmented reality
CN109146954A (en) Augmented reality interface for being interacted with shown map
JP2017126142A (en) Information processing apparatus, information processing method, and program
US9690533B2 (en) Displaying system, display controller, storage medium and method
JP2011060254A (en) Augmented reality system and device, and virtual object display method
JP5473025B2 (en) Navigation system, navigation method, and navigation program
JP2016110245A (en) Display system, display method, computer program, computer readable recording medium
WO2014135427A1 (en) An apparatus and associated methods
JP2017212510A (en) Image management device, program, image management system, and information terminal
JP6597259B2 (en) Program, information processing apparatus, image display method, and image processing system
JP4464780B2 (en) Guidance information display device
CN107851069B (en) Image management system, image management method, and program
US11048345B2 (en) Image processing device and image processing method
KR20190047922A (en) System for sharing information using mixed reality
JP6617547B2 (en) Image management system, image management method, and program
CN105917329A (en) Information display device and information display program
US20120281102A1 (en) Portable terminal, activity history depiction method, and activity history depiction system