JP2012108711A - Terminal device, operation method of terminal device, and expanded reality system - Google Patents

Terminal device, operation method of terminal device, and expanded reality system Download PDF

Info

Publication number
JP2012108711A
JP2012108711A JP2010256810A JP2010256810A JP2012108711A JP 2012108711 A JP2012108711 A JP 2012108711A JP 2010256810 A JP2010256810 A JP 2010256810A JP 2010256810 A JP2010256810 A JP 2010256810A JP 2012108711 A JP2012108711 A JP 2012108711A
Authority
JP
Japan
Prior art keywords
image
information
position information
acquired
redisplay
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010256810A
Other languages
Japanese (ja)
Inventor
Kazuma Nachi
数馬 名知
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2010256810A priority Critical patent/JP2012108711A/en
Publication of JP2012108711A publication Critical patent/JP2012108711A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To compose an image, which should be composed in a past visit place, in a place different from the past visit place.SOLUTION: A terminal device transmits acquired position information to an external server in which additional information related to the position information in association with the position information is stored, and adds the additional information acquired from the external server to an image to display it. A composite image generation unit 141 generates a composite image obtained by adding additional information to an acquired image. Storage means stores the composite image as an image for re-display, and stores at least one of the position information for acquiring the additional information which should be added to the predetermined image for re-display and acquired additional information which should be added to the predetermined image for re-display, in association with the predetermined image for re-display. The composite image generation unit 141 generates the image based upon the image for re-display, and the additional information acquired from the external server based upon the position information stored in association with the image for re-display.

Description

本発明は、端末装置、端末装置の動作方法、及び拡張現実システムに関する。   The present invention relates to a terminal device, a terminal device operation method, and an augmented reality system.

近年、カメラプレビュー画像にコンピュータが作り出す情報を合成して表示することで、ユーザに対して付加情報を与える拡張現実(AR:Augmented Reality)サービスが増加している。   In recent years, augmented reality (AR) services that provide additional information to a user by combining and displaying information generated by a computer on a camera preview image have increased.

具体的には、ARサービスの提供機器は、カメラと連動したアプリケーションの起動に応じて、GPS機能等により位置情報を取得し、取得した位置情報に基づいて外部サーバのデータベースにアクセスし、周辺情報を含んだARタグを外部サーバからダウンロードし、カメラのプレビュー画像にダウンロードしたARタグを合成して表示する。このようにして、ARサービスでは、ユーザに対して実世界における周辺環境に関連した付加情報を提示することが可能になる。例えば、現在地周辺の店舗の広告、現在訪ねている観光地の観光案内、ユーザ自身が待ち合わせのために独自のARタグを残すなどの活用例がある。合成された画像に表示されたARタグを介して、WEBページにアクセス可能とする例もある。   Specifically, the AR service providing device acquires position information by a GPS function or the like in response to activation of an application linked to the camera, accesses a database of an external server based on the acquired position information, and receives peripheral information. Is downloaded from an external server, and the downloaded AR tag is combined with the preview image of the camera and displayed. Thus, in the AR service, it becomes possible to present additional information related to the surrounding environment in the real world to the user. For example, there are utilization examples such as advertisements for stores in the vicinity of the current location, sightseeing guidance for tourist sites currently visited, and the user leaving his / her own AR tag for meeting. There is also an example in which the WEB page can be accessed via the AR tag displayed on the synthesized image.

特許文献1には、ユーザが実世界の状況に対して仮想的に情報を付与し、ユーザが所望の情報を迅速かつ容易に見つけ出すことを可能とする情報処理システムについて記載されている。   Patent Document 1 describes an information processing system in which a user virtually gives information to a real-world situation, and allows the user to find desired information quickly and easily.

特開2006−209784号公報JP 2006-209784 A

しかしながら、現状のARサービスでは、端末の現在位置に関連付けられたARタグしか取得できないため、別の場所へ移動した後には、元の場所で取得できるARタグを再取得することができず、結果として、元の場所で合成される合成画像を別の場所で合成ことができず、利便性に欠けるといった問題がある。
本発明は、過去の訪問場所に行かなくても、過去の訪問場所とは異なる場所において、過去の訪問場所で合成されるべき画像を再合成することを目的とする。
However, in the current AR service, only the AR tag associated with the current position of the terminal can be acquired. Therefore, after moving to another location, the AR tag that can be acquired at the original location cannot be acquired again. As a result, there is a problem that the synthesized image synthesized at the original location cannot be synthesized at another location, which is not convenient.
An object of the present invention is to re-synthesize an image to be synthesized at a past visited place at a place different from the past visited place without going to the past visited place.

本発明にかかる端末装置は、位置情報に関連付けてARタグが記憶された外部サーバに対して位置情報を送信し、前記外部サーバから受信した前記ARタグを画像に対して付加して表示する端末装置であって、当該端末の現在位置の周囲を示す画像を取得する画像取得部と、当該端末の現在位置を示す前記位置情報を取得する位置取得部と、前記位置取得部で取得された前記位置情報を前記外部サーバに送信することで前記外部サーバから前記ARタグを取得するARタグ取得部と、前記画像と、前記ARタグとに基づいて、合成画像を生成する合成画像生成部と、前記画像取得部にて取得された画像又は前記合成画像生成部にて生成された画像を再表示用画像として記憶すると共に、所定の前記再表示用画像に付加されるべき前記ARタグを取得するための前記位置情報及び所定の前記再表示用画像に付加されるべき取得済みの前記ARタグの少なくとも一方を所定の前記再表示用画像に対して関連付けて記憶する記憶手段と、を備え、前記合成画像生成部は、前記再表示用画像と、当該再表示用画像に対して関連付けて記憶された前記位置情報に基づいて前記外部サーバから取得した前記ARタグ又は前記再表示用画像に対して関連付けて記憶された前記ARタグと、に基づいて画像を生成する。   A terminal device according to the present invention transmits a location information to an external server in which an AR tag is stored in association with the location information, and adds the AR tag received from the external server to an image for display. An image acquisition unit that acquires an image indicating the periphery of the current position of the terminal, a position acquisition unit that acquires the position information indicating the current position of the terminal, and the position acquired by the position acquisition unit An AR tag acquisition unit that acquires the AR tag from the external server by transmitting position information to the external server, a composite image generation unit that generates a composite image based on the image and the AR tag, The AR tag to be added to the predetermined redisplay image while storing the image acquired by the image acquisition unit or the image generated by the composite image generation unit as a redisplay image Storage means for storing at least one of the position information to be acquired and the acquired AR tag to be added to the predetermined redisplay image in association with the predetermined redisplay image. The composite image generation unit applies the AR tag or the redisplay image acquired from the external server based on the redisplay image and the position information stored in association with the redisplay image. An image is generated based on the AR tag stored in association with the AR tag.

また本発明にかかる端末装置の動作方法は、位置情報に対して関連付けて当該位置情報に関するARタグが記憶された外部サーバに対して前記位置情報を送信し、前記外部サーバから受信した前記ARタグを画像に対して付加して表示する端末装置の動作方法であって、取得した画像又は当該取得した画像に対して前記ARタグを付加した合成画像を再表示用画像として記憶し、所定の前記再表示用画像に付加されるべき前記ARタグを取得するための前記位置情報及び所定の前記再表示用画像に付加されるべき取得済みの前記ARタグの少なくとも一方を前記所定の再表示用画像に対して関連付けて記憶し、前記再表示用画像と、当該再表示用画像に対して関連付けて記憶された前記位置情報に基づいて前記外部サーバから取得した前記ARタグ又は前記再表示用画像に対して関連付けて記憶された前記付属画像と、に基づいて画像を生成する。   The operation method of the terminal device according to the present invention includes the AR tag transmitted from the external server to the external server in which the AR tag related to the positional information is stored in association with the positional information. Is a method of operating a terminal device that adds an image to an image and stores the acquired image or a composite image obtained by adding the AR tag to the acquired image as a redisplay image, At least one of the position information for acquiring the AR tag to be added to the redisplay image and the acquired AR tag to be added to the predetermined redisplay image is the predetermined redisplay image. The A obtained from the external server based on the re-display image and the position information stored in association with the re-display image. Wherein the accessory image stored in association with the tag or the re-display image, to generate an image based on.

また本発明にかかるシステムは、位置情報に関連付けてARタグが記憶された外部サーバと、前記外部サーバに対して位置情報を送信し、前記外部サーバから受信した前記ARタグを画像に対して付加して表示する端末装置と、を備えるシステムであって、前記端末装置は、当該端末の現在位置の周囲を示す画像を取得する画像取得部と、当該端末の現在位置を示す前記位置情報を取得する位置取得部と、前記位置取得部で取得された前記位置情報を前記外部サーバに送信することで前記外部サーバから前記ARタグを取得するARタグ取得部と、前記画像と、前記ARタグとに基づいて、合成画像を生成する合成画像生成部と、前記画像取得部にて取得された画像又は前記合成画像生成部にて生成された画像を再表示用画像として記憶すると共に、所定の前記再表示用画像に付加されるべき前記ARタグを取得するための前記位置情報及び所定の前記再表示用画像に付加されるべき取得済みの前記ARタグの少なくとも一方を所定の前記再表示用画像に対して関連付けて記憶する記憶手段と、を備え、前記合成画像生成部は、前記再表示用画像と、当該再表示用画像に対して関連付けて記憶された前記位置情報に基づいて前記外部サーバから取得した前記ARタグ又は前記再表示用画像に対して関連付けて記憶された前記ARタグと、に基づいて画像を生成する。   The system according to the present invention also includes an external server in which an AR tag is stored in association with location information, and the location information is transmitted to the external server, and the AR tag received from the external server is added to the image. A terminal device that displays the image, and the terminal device acquires an image acquisition unit that acquires an image showing the periphery of the current position of the terminal and the position information that indicates the current position of the terminal A position acquisition unit, an AR tag acquisition unit that acquires the AR tag from the external server by transmitting the position information acquired by the position acquisition unit to the external server, the image, and the AR tag. And a composite image generation unit that generates a composite image, and an image acquired by the image acquisition unit or an image generated by the composite image generation unit is stored as a redisplay image. Both at least one of the position information for acquiring the AR tag to be added to the predetermined image for redisplay and the acquired AR tag to be added to the predetermined image for redisplay is determined in advance. Storage means for storing in association with the image for redisplay, and the composite image generation unit stores the image for redisplay and the position information stored in association with the image for redisplay. An image is generated based on the AR tag acquired from the external server or the AR tag stored in association with the redisplay image.

本発明によれば、過去の訪問場所に行かなくても、過去の訪問場所とは異なる場所において、過去の訪問場所で合成されるべき画像を再合成することが可能になる。   According to the present invention, it is possible to re-synthesize an image to be synthesized at a past visited place at a place different from the past visited place without going to the past visited place.

実施の形態1にかかる拡張現実システムのブロック図である。1 is a block diagram of an augmented reality system according to a first exemplary embodiment. 実施の形態1にかかる位置情報を記憶するテーブルである。3 is a table for storing position information according to the first exemplary embodiment; 実施の形態1にかかる合成画像データを記憶するテーブルである。3 is a table for storing composite image data according to the first embodiment; 実施の形態1にかかる時間毎のモード切り替え図である。FIG. 4 is a mode switching diagram for each time according to the first embodiment. 実施の形態1にかかる表示モードのフローチャートである。3 is a flowchart of a display mode according to the first embodiment. 実施の形態1にかかる録画モードのフローチャートである。3 is a flowchart of a recording mode according to the first embodiment. 実施の形態1にかかる再生モードのフローチャートである。3 is a flowchart of a reproduction mode according to the first embodiment. 実施の形態2にかかる拡張現実システムのブロック図である。FIG. 3 is a block diagram of an augmented reality system according to a second exemplary embodiment. 実施の形態2にかかる元の画像データを記憶するテーブルである。10 is a table for storing original image data according to the second embodiment. 実施の形態2にかかる録画モードのフローチャートである。10 is a flowchart of a recording mode according to the second embodiment. 実施の形態2にかかる再生モードのフローチャートである。10 is a flowchart of a reproduction mode according to the second embodiment. 実施の形態3にかかる拡張現実システムのブロック図である。FIG. 6 is a block diagram of an augmented reality system according to a third exemplary embodiment. 実施の形態3にかかるARタグを記憶するテーブルである。It is a table which memorize | stores the AR tag concerning Embodiment 3. 実施の形態3にかかる録画モードのフローチャートである。10 is a flowchart of a recording mode according to the third embodiment. 実施の形態3にかかる再生モードのフローチャートである。10 is a flowchart of a reproduction mode according to the third embodiment.

実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1は、拡張現実システム(AR録画再生システム)1のブロック図である。以下、図1を用いて説明する。
Embodiment 1
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of an augmented reality system (AR recording / playback system) 1. Hereinafter, a description will be given with reference to FIG.

図1に示すように、拡張現実システム1は、端末装置100、及びデータサーバ200を有する。端末装置100は、ARサービスを実行可能な携帯電話(移動型通信端末)である。データサーバ200は、位置情報とARタグ(付属情報)とを関連付けた態様にて記憶したデータベースを有する。換言すると、左記したデータベースが格納されたデータベースサーバである。データサーバ20は、端末装置100から位置情報を受信すると、受信した位置情報に関連するARタグを受信した位置情報に基づいて検索し、検索によりヒットしたARタグを端末装置100に対して送信する。   As shown in FIG. 1, the augmented reality system 1 includes a terminal device 100 and a data server 200. The terminal device 100 is a mobile phone (mobile communication terminal) that can execute an AR service. The data server 200 has a database that stores position information and AR tags (attached information) in an associated manner. In other words, the database server stores the database described on the left. When receiving the location information from the terminal device 100, the data server 20 searches for the AR tag related to the received location information based on the received location information, and transmits the AR tag hit by the search to the terminal device 100. .

図1に示すように、端末装置100は、操作部110、アプリケーション部111、画像取得部120、位置情報処理部130、ARタグ取得部133、合成処理部14、表示部145、記憶部150、及び通話機能部170を有する。端末装置100は、図示しない現在時刻取得手段を内蔵するものとする。   As illustrated in FIG. 1, the terminal device 100 includes an operation unit 110, an application unit 111, an image acquisition unit 120, a position information processing unit 130, an AR tag acquisition unit 133, a composition processing unit 14, a display unit 145, a storage unit 150, And a call function unit 170. The terminal device 100 includes a current time acquisition unit (not shown).

操作部110は、ユーザ操作に応じた指示を入力する入力手段である。典型的には、操作部110は、キーボード、ポインティングデバイス、あるいはタッチパネルで構成されるが、これらの例に限られない。本例では、ユーザは、操作部110の操作により、端末装置100の動作モードを選択することができる。後述の説明から明らかなように、本例において、表示モード、録画モード、及び再生モードが設定されているが、これに限られるものではない。操作部110は、操作信号をアプリケーション部111に出力する。   The operation unit 110 is an input unit that inputs an instruction corresponding to a user operation. Typically, the operation unit 110 includes a keyboard, a pointing device, or a touch panel, but is not limited to these examples. In this example, the user can select the operation mode of the terminal device 100 by operating the operation unit 110. As will be apparent from the description below, in this example, the display mode, the recording mode, and the playback mode are set, but the present invention is not limited to this. The operation unit 110 outputs an operation signal to the application unit 111.

アプリケーション部111は、入力された操作信号に基づいて制御信号を生成し、端末装置100の動作を制御する制御部である。アプリケーション部111は、画像取得部120、位置情報処理部130、ARタグ取得部133、合成処理部14、および記憶部150に対して、生成した制御信号を出力する。アプリケーション部111は、例えば、プログラムがCPUにより実行されることで具現化される。   The application unit 111 is a control unit that generates a control signal based on the input operation signal and controls the operation of the terminal device 100. The application unit 111 outputs the generated control signal to the image acquisition unit 120, the position information processing unit 130, the AR tag acquisition unit 133, the synthesis processing unit 14, and the storage unit 150. The application unit 111 is realized, for example, by executing a program by the CPU.

画像取得部120は、一般的な画像取得装置(カメラ等)であり、端末装置100の周囲の風景を撮影し、画像データを取得する(以下、この取得した画像データを、単に取得画像と呼ぶことがある)。画像取得部120は、操作部110において表示モードまたは録画モードが選択された場合、撮影を開始し、画像を取得する。画像取得部120が連続的に取得する個々の画像データは、画像処理が施され、一つの画像データとして取り扱われる。画像取得部120は、取得した画像データを合成画像生成部141に出力する。   The image acquisition unit 120 is a general image acquisition device (such as a camera), captures a landscape around the terminal device 100, and acquires image data (hereinafter, the acquired image data is simply referred to as an acquired image). Sometimes). When the display mode or the recording mode is selected on the operation unit 110, the image acquisition unit 120 starts shooting and acquires an image. Individual image data continuously acquired by the image acquisition unit 120 is subjected to image processing, and is handled as one image data. The image acquisition unit 120 outputs the acquired image data to the composite image generation unit 141.

位置情報処理部130は、位置情報取得部131、および位置情報記憶部132を有する。位置情報処理部130は、アプリケーション部111から入力される制御信号に基づいて動作する。   The position information processing unit 130 includes a position information acquisition unit 131 and a position information storage unit 132. The position information processing unit 130 operates based on a control signal input from the application unit 111.

位置情報取得部131は、端末装置100の現在位置を示す位置情報(位置データ)を取得する。位置情報取得部131は、典型的にはGPS(Global Positioning System)の機能を有している。例えば、位置情報取得部131は、アンテナを備え、該アンテナを介して3箇所以上のGPS衛星と通信を行うことにより、端末装置100の現在地を算出する。例えば、位置情報取得部131は、表示モードと録画モードにおいて位置情報を取得する。位置情報取得部131は、取得した位置情報を、位置情報記憶部132と、ARタグ取得部133に出力する。   The position information acquisition unit 131 acquires position information (position data) indicating the current position of the terminal device 100. The position information acquisition unit 131 typically has a GPS (Global Positioning System) function. For example, the position information acquisition unit 131 includes an antenna, and calculates the current location of the terminal device 100 by communicating with three or more GPS satellites via the antenna. For example, the position information acquisition unit 131 acquires position information in the display mode and the recording mode. The position information acquisition unit 131 outputs the acquired position information to the position information storage unit 132 and the AR tag acquisition unit 133.

位置情報記憶部132は、位置情報取得部131から供給された位置情報、及びその位置情報の取得時刻を関連付けて記憶する。詳細には、位置情報記憶部132は、位置情報取得部131から供給された位置情報と、その位置情報が位置情報取得部131により取得された時刻と、を関連付けてテーブルに記憶する。図2は、位置情報記憶部132が有するテーブルの例である。図2に示すように、位置情報は、その位置情報の取得時刻と関連付けられてテーブルに記憶されている。位置情報記憶部132は、記憶した位置情報に関する情報を、合成処理部14、及び記憶部150に出力する。位置情報記憶部132は、再生モードの場合、記憶した位置情報をARタグ取得部133に出力する。
位置情報記憶部132は、例えば、メモリやハードディスクドライブや、端末装置100に外付けで接続する記憶媒体であり、記憶手段はこれに限られない。
The position information storage unit 132 stores the position information supplied from the position information acquisition unit 131 and the acquisition time of the position information in association with each other. Specifically, the position information storage unit 132 stores the position information supplied from the position information acquisition unit 131 and the time when the position information is acquired by the position information acquisition unit 131 in association with each other in the table. FIG. 2 is an example of a table included in the position information storage unit 132. As shown in FIG. 2, the position information is stored in a table in association with the acquisition time of the position information. The position information storage unit 132 outputs information on the stored position information to the synthesis processing unit 14 and the storage unit 150. The position information storage unit 132 outputs the stored position information to the AR tag acquisition unit 133 in the reproduction mode.
The position information storage unit 132 is, for example, a memory, a hard disk drive, or a storage medium that is externally connected to the terminal device 100, and the storage unit is not limited thereto.

ARタグ取得部133は、位置情報送信部134、及びARタグ受信部135を有する。ARタグ取得部133は、取得されている位置情報を外部サーバに送信することでARタグを取得する。   The AR tag acquisition unit 133 includes a position information transmission unit 134 and an AR tag reception unit 135. The AR tag acquisition unit 133 acquires the AR tag by transmitting the acquired position information to the external server.

位置情報送信部134は、位置情報取得部131から供給された位置情報をデータサーバ200に対して送信する。位置情報送信部134は、要求するARタグの詳細レベルについてデータサーバ200に送信することが望ましい。例えば、位置情報送信部134は、ショートメッセージやリンクアドレスが記載されている簡易なARタグを要求するのか、より詳細な情報が記載されたARタグを要求するのかを示す信号をデータサーバ200対して送信する。   The position information transmission unit 134 transmits the position information supplied from the position information acquisition unit 131 to the data server 200. The location information transmitting unit 134 preferably transmits the requested AR tag detail level to the data server 200. For example, the location information transmission unit 134 sends a signal to the data server 200 indicating whether to request a simple AR tag in which a short message or a link address is described, or to request an AR tag in which more detailed information is described. To send.

ARタグ受信部135は、データサーバ200から送信されたARタグを受信する。ARタグ受信部135は、受信したARタグを合成画像生成部141に出力する。   The AR tag receiving unit 135 receives the AR tag transmitted from the data server 200. The AR tag reception unit 135 outputs the received AR tag to the composite image generation unit 141.

合成処理部14は、合成画像生成部141、エンコーダ142、及びデコーダ143、を有する。合成処理部14は、アプリケーション部111から入力される制御信号に基づいて動作する。   The composition processing unit 14 includes a composite image generation unit 141, an encoder 142, and a decoder 143. The synthesis processing unit 14 operates based on a control signal input from the application unit 111.

合成画像生成部141は、画像取得部120から供給される画像データと、ARタグ取得部133から供給されるARタグとに基づいて合成画像データ(以下、単に合成画像と呼ぶこともある)を生成する。合成画像生成部141は、エンコーダ142と、表示部145に、生成した合成画像を出力する。   The composite image generation unit 141 generates composite image data (hereinafter sometimes simply referred to as a composite image) based on the image data supplied from the image acquisition unit 120 and the AR tag supplied from the AR tag acquisition unit 133. Generate. The composite image generation unit 141 outputs the generated composite image to the encoder 142 and the display unit 145.

エンコーダ142は、合成画像生成部141で生成された合成画像データをエンコードする。エンコーダ142のエンコード方式は任意である。エンコーダ142によるエンコードは、ハードウェアにより実現してもよく、ソフトウェアにより実現してもよい。エンコーダ142は、エンコードした画像データを記憶部150に出力する。   The encoder 142 encodes the composite image data generated by the composite image generation unit 141. The encoding method of the encoder 142 is arbitrary. Encoding by the encoder 142 may be realized by hardware or software. The encoder 142 outputs the encoded image data to the storage unit 150.

デコーダ143は、記憶部150に記憶されている合成画像データのデコードを実行する。デコーダ143がデコードした合成画像データは、合成画像生成部141に供給される。デコーダ143による合成画像データのデコードにより、エンコードされた状態で記憶部150に保存された合成画像は、表示部145において表示可能な形式となる。   The decoder 143 performs decoding of the composite image data stored in the storage unit 150. The composite image data decoded by the decoder 143 is supplied to the composite image generation unit 141. By decoding the composite image data by the decoder 143, the composite image stored in the storage unit 150 in an encoded state becomes a format that can be displayed on the display unit 145.

表示部145は、一般的な表示装置(液晶表示装置等)であり、合成画像生成部141により生成された合成画像を表示する。ユーザは、表示モードや録画モードにおいて、表示部145を見ることで、実世界の取得画像にARタグが付加されている状態を確認することができる。   The display unit 145 is a general display device (liquid crystal display device or the like), and displays the composite image generated by the composite image generation unit 141. The user can confirm the state in which the AR tag is added to the acquired image in the real world by looking at the display unit 145 in the display mode or the recording mode.

記憶部150は、アプリケーション部111による制御に応じて、合成処理部14から出力されたエンコード済みの合成画像を再表示用画像として記憶する。このとき、記憶部150は、順次記憶する合成画像を、その合成画像が生成される元となった取得画像の取得時刻に対応づけて記憶する。これによって、記憶部150に順次書き込まれる合成画像は、位置情報記憶部132に順次書き込まれる位置情報に対して、時刻を基準として関連付けられる。なお、合成画像に関連付けて記憶される時刻情報は、年月日、時分秒を示すものとする。記憶部150は、例えば、メモリやハードディスクドライブや、端末装置100に外付けで接続する記憶媒体である。   The storage unit 150 stores the encoded combined image output from the combining processing unit 14 as a redisplay image according to control by the application unit 111. At this time, the storage unit 150 stores the sequentially stored composite images in association with the acquisition time of the acquired image from which the composite image is generated. Accordingly, the composite image sequentially written in the storage unit 150 is associated with the position information sequentially written in the position information storage unit 132 with reference to time. Note that the time information stored in association with the composite image indicates date, hour, minute and second. The storage unit 150 is, for example, a memory, a hard disk drive, or a storage medium that is externally connected to the terminal device 100.

通話機能部170は、外部に設けられた通信機器との通信を行う。例えば、通話機能部170は、他の端末装置に対して音声信号の送受信を行うほか、メールなどの送受信を行ってもよい。   The call function unit 170 communicates with a communication device provided outside. For example, the call function unit 170 may perform transmission / reception of e-mail or the like in addition to transmission / reception of audio signals to / from other terminal devices.

次に、拡張現実システム1の動作について説明する。例えば、ユーザは、図3に示すように、時間経過に応じて、表示モード、録画モード、再生モードを順に切り替えて使用する。ユーザは、時刻t1において表示モードを開始し、時刻t2において表示モードから録画モードに切り替え、時刻t3において録画モードを終了させる。また、ユーザは、時刻t4において再生モードを開始する。以下、表示モード、録画モード、再生モードのそれぞれの動作手順について、図4乃至図6を参照して説明する。   Next, the operation of the augmented reality system 1 will be described. For example, as shown in FIG. 3, the user switches the display mode, the recording mode, and the playback mode in order according to the passage of time. The user starts the display mode at time t1, switches from the display mode to the recording mode at time t2, and ends the recording mode at time t3. Further, the user starts the reproduction mode at time t4. Hereinafter, each operation procedure in the display mode, the recording mode, and the reproduction mode will be described with reference to FIGS.

図4に、表示モードにおける動作フローを示す。まず、ユーザは、表示モードを選択する(ST1)。ユーザは、操作部110を操作することにより、アプリケーション選択画面を起動し、表示モードを選択する。アプリケーション部111は、ユーザによる表示モードの選択に基づき、取得画像に対してARタグを合成して表示させるための各機能部の制御を開始する。   FIG. 4 shows an operation flow in the display mode. First, the user selects a display mode (ST1). The user operates the operation unit 110 to activate an application selection screen and select a display mode. Based on the selection of the display mode by the user, the application unit 111 starts control of each functional unit for synthesizing and displaying the AR tag with respect to the acquired image.

次に、端末装置100は、撮影を開始し、ARタグの取得動作を開始する(ST2)。具体的には、アプリケーション部111は、画像取得部120に対して周囲の風景の撮影を指示する。アプリケーション部111は、位置情報取得部131に対して、当該端末装置100の現在位置の取得を指示する。アプリケーション部111は、位置情報送信部134に対して、位置情報取得部131で取得された位置情報をデータサーバ200に送信するように指示する。位置情報送信部134からデータサーバ200に対して位置情報が送信されると、データサーバ200は、受信した位置情報に基づいてARタグを検索し、受信した位置情報に対して予め関連付けられたARタグを端末装置100に対して返信する。このようにして、ARタグ受信部135は、データサーバ200からARタグを受信する。ARタグ受信部135が受信するARタグには、例えば、ショートメッセージ、URL等が記載されている。   Next, the terminal device 100 starts photographing and starts an AR tag acquisition operation (ST2). Specifically, the application unit 111 instructs the image acquisition unit 120 to capture a surrounding landscape. The application unit 111 instructs the position information acquisition unit 131 to acquire the current position of the terminal device 100. The application unit 111 instructs the position information transmission unit 134 to transmit the position information acquired by the position information acquisition unit 131 to the data server 200. When the position information is transmitted from the position information transmission unit 134 to the data server 200, the data server 200 searches for the AR tag based on the received position information, and the AR associated in advance with the received position information. The tag is returned to the terminal device 100. In this way, the AR tag receiving unit 135 receives the AR tag from the data server 200. For example, a short message, a URL, and the like are described in the AR tag received by the AR tag receiving unit 135.

次に、合成処理部14は、取得画像とARタグに基づいて合成画像を生成する(ST3)。具体的には、合成画像生成部141は、画像取得部120から順次供給される取得画像データに対して、ARタグ受信部135から順次供給されるARタグを付加して新しい画像データを生成する。合成画像生成部141により合成処理される取得画像とARタグとは、地球上の位置において互いに連関している。ARタグは、端末100の現在位置に関連した情報を示すため、取得画像に対してARタグを付加することによって、周囲の風景とこれに関連する情報とが一体となった表示を提供することが可能になる。   Next, the composition processing unit 14 generates a composite image based on the acquired image and the AR tag (ST3). Specifically, the composite image generation unit 141 generates new image data by adding the AR tag sequentially supplied from the AR tag reception unit 135 to the acquired image data sequentially supplied from the image acquisition unit 120. . The acquired image synthesized by the synthesized image generating unit 141 and the AR tag are linked to each other at a position on the earth. Since the AR tag indicates information related to the current position of the terminal 100, an AR tag is added to the acquired image to provide a display in which the surrounding scenery and information related thereto are integrated. Is possible.

次に、合成画像が表示される(ST4)。具体的には、表示部145は、合成画像生成部141から供給される合成画像データに基づいて画像を表示する。   Next, a composite image is displayed (ST4). Specifically, the display unit 145 displays an image based on the composite image data supplied from the composite image generation unit 141.

図5は、録画モードにおける動作フローを示す。   FIG. 5 shows an operation flow in the recording mode.

まず、録画モードが開始する(ST10)。具体的には、ユーザは、上述のステップST1のモード選択の場合と同様、操作部110を操作することにより、アプリケーション選択画面を起動して録画モードを選択する。アプリケーション部111は、ユーザによる録画モードの選択に基づき、後述するように各機能部を制御する。   First, the recording mode starts (ST10). Specifically, the user activates the application selection screen and selects the recording mode by operating the operation unit 110 as in the case of the mode selection in step ST1 described above. The application unit 111 controls each functional unit as will be described later based on the selection of the recording mode by the user.

次に、撮影、ARタグの取得動作が開始し、かつ位置情報とその取得時刻の記憶が実行される(ST20)。端末装置100は、上述のステップST2と同様、画像取得を開始する。これと並行して、端末装置100は、取得画像データの取得時刻を順次記憶する。端末装置100は、上述のステップST2と同様、ARタグの取得動作を開始する。端末装置100は、図2(a)に示したように、順次取得する位置情報と、その取得時刻とを関連づけて記憶する。具体的には、位置情報取得部131は、取得した位置情報を、その取得時間と共に位置情報記憶部132に対して書き込む。   Next, shooting and AR tag acquisition operations are started, and the location information and the acquisition time are stored (ST20). The terminal device 100 starts image acquisition similarly to step ST2 described above. In parallel with this, the terminal device 100 sequentially stores the acquisition time of the acquired image data. The terminal device 100 starts an AR tag acquisition operation as in step ST2 described above. As shown in FIG. 2A, the terminal device 100 stores the positional information acquired sequentially and the acquisition time in association with each other. Specifically, the position information acquisition unit 131 writes the acquired position information in the position information storage unit 132 together with the acquisition time.

次に、上述のステップST3と同様、合成処理部14は、取得画像とARタグに基づいて合成画像を生成する(ST30)。合成画像が生成されると、上述のステップST3と同様に、表示部145によって合成画像が表示される。   Next, as in step ST3 described above, the composition processing unit 14 generates a composite image based on the acquired image and the AR tag (ST30). When the composite image is generated, the display unit 145 displays the composite image as in step ST3 described above.

次に、エンコードする(ST40)。具体的には、エンコーダ142は、合成画像生成部141から供給されるデータをエンコードする。
次に、エンコードされた合成画像データを時刻と関連付けて記憶する(ST50)。具体的には、合成処理部14は、図2Bに示すように、合成画像データと時刻とを関連付けて記憶する。なお、合成画像データと関連付けられる時刻は、合成画像データを生成する元となった取得画像データが取得された時刻である。
Next, encoding is performed (ST40). Specifically, the encoder 142 encodes data supplied from the composite image generation unit 141.
Next, the encoded composite image data is stored in association with the time (ST50). Specifically, as illustrated in FIG. 2B, the composition processing unit 14 stores the composite image data and time in association with each other. Note that the time associated with the composite image data is the time when the acquired image data from which the composite image data is generated is acquired.

上述のステップを経ることによって、位置情報記憶部132には、図2(a)に示すテーブルが格納された状態になり、記憶部150には、図2(b)に示すテーブルが可能された状態になる。このように時刻に対応づけて、合成画像と位置情報とを関連付けて記憶することによって、後述の説明から明らかなように、異なる場所へ移動した後であっても、元の場所にて合成されるべき合成画像を再合成することが可能になる。   Through the above-described steps, the table shown in FIG. 2A is stored in the position information storage unit 132, and the table shown in FIG. 2B is enabled in the storage unit 150. It becomes a state. In this way, by associating and storing the composite image and the position information in association with the time, as will be apparent from the description below, the composite image is synthesized at the original location even after moving to a different location. It becomes possible to re-synthesize the synthesized image to be recombined.

図6は、再生モードの動作フローを示す。まず、再生モードが開始する(ST110)。具体的には、上述のステップST1のモード選択の場合と同様、ユーザによる操作部110の操作によって、再生モードが選択される。時刻t4は、例えば、録画を行ったt2〜t3の後日の任意の時刻である。アプリケーション部111は、ユーザによる再生モードの選択に基づき、後述のように各機能部を制御する。   FIG. 6 shows an operation flow in the playback mode. First, the playback mode starts (ST110). Specifically, as in the case of mode selection in step ST1 described above, the playback mode is selected by the operation of the operation unit 110 by the user. The time t4 is, for example, an arbitrary time after t2 to t3 when recording is performed. The application unit 111 controls each functional unit as will be described later based on the selection of the playback mode by the user.

まず、記憶された合成画像データをデコードする(ST120)。デコーダ143は、アプリケーションからの制御信号に基づき、記憶部150に記憶されている再表示用画像をデコードする(ST120)。記憶部150に記憶されている合成画像はエンコードされた状態であり、デコーダ143がデコードすることにより、合成画像は視聴可能な状態となる。   First, the stored composite image data is decoded (ST120). Based on the control signal from the application, the decoder 143 decodes the redisplay image stored in the storage unit 150 (ST120). The composite image stored in the storage unit 150 is in an encoded state, and the decoder 143 decodes the composite image so that the composite image can be viewed.

次に、デコード対象となっている合成画像に対して関連付けられた位置情報を特定する(ST130)。具体的には、アプリケーション部111は、図2(b)に示す対応関係に基づいて、デコード対象の合成画像データに関連する時刻を取得する。次に、アプリケーション部111は、位置情報記憶部132に格納された図2(a)に示す対応関係に基づいて、上述のように取得した時刻に対応する位置情報を特定する。   Next, position information associated with the composite image to be decoded is specified (ST130). Specifically, the application unit 111 acquires the time related to the composite image data to be decoded based on the correspondence shown in FIG. Next, the application unit 111 specifies position information corresponding to the time acquired as described above, based on the correspondence relationship illustrated in FIG. 2A stored in the position information storage unit 132.

次に、ARタグの取得動作が開始する(ST140)。具体的には、アプリケーション部111により上述のように特定された位置情報は、位置情報記憶部132から位置情報送信部134に転送される。そして、上述の同様の仕組みにより、ARタグ受信部135は、位置情報送信部134が送信した位置情報に対して関連付けられたARタグを受信する。なお、ここで、受信されるARタグは、既に合成画像に付加されたタグ情報よりも詳細な情報を示すものとする。   Next, the AR tag acquisition operation starts (ST140). Specifically, the position information specified by the application unit 111 as described above is transferred from the position information storage unit 132 to the position information transmission unit 134. Then, by the same mechanism as described above, the AR tag receiving unit 135 receives an AR tag associated with the position information transmitted by the position information transmitting unit 134. Here, the received AR tag indicates more detailed information than the tag information already added to the composite image.

次に、合成画像データを生成する(ST150)。具体的には、合成画像生成部141は、デコーダ143から供給される画像データに対して、データサーバ200からダウンロードしたARタグを付加した合成画像データを生成する。合成画像生成部141によって処理される画像データは、過去のある時点において撮影された画像データが元になって合成された画像データである。また、合成画像生成部によって処理されるARタグは、過去のある時点において取得された位置情報に基づいてデータサーバ200から取得可能な付属情報である。このように時間基準で互いに連関した画像データと位置情報とを保存することによって、事後的に合成画像を生成する場合であっても、画像データとARタグ間の組み合わせのミスマッチを回避し、適切な合成画像を生成することが可能になる。   Next, composite image data is generated (ST150). Specifically, the composite image generation unit 141 generates composite image data in which an AR tag downloaded from the data server 200 is added to the image data supplied from the decoder 143. The image data processed by the composite image generation unit 141 is image data synthesized based on image data taken at a certain past time. Further, the AR tag processed by the composite image generation unit is auxiliary information that can be acquired from the data server 200 based on position information acquired at a certain past time. Thus, by storing image data and position information linked to each other on a time basis, even when a composite image is generated afterwards, a mismatch between the image data and the AR tag can be avoided and It is possible to generate a composite image.

なお、時間を基準とした関連付けの具体的な態様は任意である。画像データとARタグ間の組み合わせに誤りが生じることを抑制した程度にて、画像データと位置情報との関連付けを行えば良い。   Note that the specific mode of association based on time is arbitrary. The image data and the positional information may be associated with each other to the extent that an error is prevented from occurring in the combination between the image data and the AR tag.

次に、合成画像を表示する(ST160)。合成画像の表示方法については、上述の説明と同様である。これによって、過去のある時点とは異なる場所にいても、その過去の時点において生成されるべき合成画像を生成することが可能になり、ARサービスの利便性を効果的に高めることが可能になる。   Next, a composite image is displayed (ST160). The method for displaying the composite image is the same as described above. As a result, it is possible to generate a composite image to be generated at a past time point even in a place different from a past time point, and to effectively improve the convenience of the AR service. .

上述の説明から明らかなように、本実施形態にかかる端末装置100は、録画モードのとき、現在位置を示す位置情報を現在時刻に関連付けて記憶し、かつ、現在表示されるべき合成画像を現在時刻(ここでは、一例として、その合成画像データの元となる画像データの取得時刻)に関連付けて記憶する。再生モードのとき、端末装置100は、記憶された合成画像データに関連づけられた時刻に基づいて位置情報を取得し、この位置情報に基づいてARタグを取得し、このARタグと先に述べた合成画像データとに基づいて新たに合成画像を生成する。この構成を採用することによって、過去のある時点とは異なる場所にいても、その過去の時点において生成されるべき合成画像を生成することが可能になり、ARサービスの利便性を効果的に高めることが可能になる。また、ユーザは、データサーバ200から、最新のARタグや、詳細なARタグを受信して、これに基づいて合成画像を視聴することが可能になる。   As is clear from the above description, the terminal device 100 according to the present embodiment stores the position information indicating the current position in association with the current time and records the composite image to be currently displayed in the recording mode. It is stored in association with the time (in this example, the acquisition time of the image data that is the source of the composite image data). In the playback mode, the terminal device 100 acquires position information based on the time associated with the stored composite image data, acquires an AR tag based on the position information, and the AR tag and the above-described description. A new composite image is generated based on the composite image data. By adopting this configuration, it is possible to generate a composite image to be generated at a past time point even at a place different from a past time point, and effectively enhance the convenience of the AR service. It becomes possible. In addition, the user can receive the latest AR tag or detailed AR tag from the data server 200 and view the composite image based on the received AR tag.

録画モードのとき、位置情報取得部131は、位置情報を随時取得し、位置情報記憶部132には、該位置情報がその取得時刻とともに記憶される。したがって、録画モード時、ユーザが移動しながら撮影したとしても問題はない。   In the recording mode, the position information acquisition unit 131 acquires position information as needed, and the position information storage unit 132 stores the position information together with the acquisition time. Therefore, there is no problem even if the user takes a picture while moving in the recording mode.

実施の形態2
以下、実施の形態2について、図7乃至図10を参照して説明する。図7は、拡張現実システム(AR録画再生システム)2のブロック図である。実施の形態1と重複する説明は省略する。
Embodiment 2
The second embodiment will be described below with reference to FIGS. FIG. 7 is a block diagram of the augmented reality system (AR recording / playback system) 2. The description which overlaps with Embodiment 1 is omitted.

本実施形態では、実施の形態1とは異なり、記憶部150に記憶される再表示用画像データは、ARタグ付加前の元画像データである。図7に示すように、本実施形態では、実施の形態1とは異なり画像取得部120で取得された元画像が、エンコーダ142でエンコードされ、記憶部150で記憶される。このような場合であっても実施の形態1と同様の効果を得ることができる。なお、実施の形態1の場合とは異なり、本実施形態では、記憶部150は、図8に示すテーブルを格納することになる。また、本実施形態では、図9及び図10に示すようなフローが実施される。   In the present embodiment, unlike Embodiment 1, the redisplay image data stored in the storage unit 150 is the original image data before adding the AR tag. As shown in FIG. 7, in this embodiment, unlike the first embodiment, the original image acquired by the image acquisition unit 120 is encoded by the encoder 142 and stored in the storage unit 150. Even in such a case, the same effect as in the first embodiment can be obtained. Unlike the case of the first embodiment, in the present embodiment, the storage unit 150 stores the table shown in FIG. In the present embodiment, the flows as shown in FIGS. 9 and 10 are performed.

以下、簡単に補足説明する。記憶部150は、図8に模式的に示すように時刻に対応づけて元の画像データを記憶する。なお、画像データに関連付けて記憶される時刻は、画像データの取得時刻に対応する。   A brief supplementary explanation will be given below. The storage unit 150 stores original image data in association with time as schematically shown in FIG. The time stored in association with the image data corresponds to the acquisition time of the image data.

図9に示すように、ステップST210において、実施の形態1に示したステップST10と同様、録画モードを開始する。ステップST220において、ステップST20と同様、撮影、ARタグの取得動作が開始し、かつ位置情報とその取得時刻の記憶が実行される。ステップS230において、ステップST30と同様、合成処理部14は、取得画像とARタグに基づいて合成画像を生成する。実施の形態1とは異なり、ステップST240にて、元の画像データをエンコードする。その後、ステップST250にて、エンコードされた元の画像データと、その元の画像データの取得時刻とを関連付けて記憶する。   As shown in FIG. 9, in step ST210, the recording mode is started as in step ST10 shown in the first embodiment. In step ST220, as in step ST20, shooting and AR tag acquisition operations are started, and the location information and the acquisition time are stored. In step S230, as in step ST30, the composition processing unit 14 generates a composite image based on the acquired image and the AR tag. Unlike the first embodiment, the original image data is encoded in step ST240. Thereafter, in step ST250, the encoded original image data and the acquisition time of the original image data are stored in association with each other.

図10に示すように、ステップST310において、実施の形態1に示したステップST110と同様、再生モードを開始する。実施の形態1とは異なり、ST320にて元の画像データをデコードする。ST330については、実施の形態1と同様にして位置情報を特定する。つまり、図8に示すように、表示対象となっている画像データに関連付けられた時刻を特定し、この時刻に基づいて、実施の形態1と同様の手法によって位置情報を取得する。ステップST340において、ステップST140と同様、ARタグの取得動作を開始する。ステップST350において、ステップST150と同様、合成画像データを生成する。ステップST360において、ステップST160と同様、合成画像を表示する。   As shown in FIG. 10, in step ST310, the playback mode is started as in step ST110 shown in the first embodiment. Unlike the first embodiment, the original image data is decoded in ST320. For ST330, the position information is specified in the same manner as in the first embodiment. That is, as shown in FIG. 8, the time associated with the image data to be displayed is specified, and the position information is acquired based on this time by the same method as in the first embodiment. In step ST340, as in step ST140, an AR tag acquisition operation is started. In step ST350, similar to step ST150, composite image data is generated. In step ST360, the composite image is displayed as in step ST160.

本実施形態によれば、過去に合成画像に取り込まれた古いARタグによって示される古い情報を排除することができ、過去に訪ねた地点に関連する最新のARタグを取り込むことが可能になる。また、記憶部150で記憶される画像データにはARタグに応じてデータ容量が含まれないため、記憶部150の空き容量の消費を低減することが可能になる。   According to the present embodiment, it is possible to exclude old information indicated by an old AR tag captured in the past in the composite image, and it is possible to capture the latest AR tag related to a point visited in the past. Further, since the image data stored in the storage unit 150 does not include the data capacity according to the AR tag, it is possible to reduce the consumption of the free capacity of the storage unit 150.

実施の形態3
以下、図11乃至図14を参照して、実施の形態3について説明する。図11は、拡張現実システム(AR録画再生システム)3のブロック図である。
Embodiment 3
The third embodiment will be described below with reference to FIGS. FIG. 11 is a block diagram of the augmented reality system (AR recording / playback system) 3.

本実施形態では、実施の形態2とは異なり、位置情報を時刻に関連付けて記憶することに代えて、位置情報に基づいてデータサーバ200からダウンロードしたARタグを時刻に関連付けて記憶する。これによって、記憶部150に記憶される合成画像データには、時刻によってARタグ自体が関連づけられることになる。この場合、実施の形態2のように再度ARタグをダウンロードする必要はなく、再合成時間に要する時間を短縮することができる。   In this embodiment, unlike Embodiment 2, instead of storing location information in association with time, an AR tag downloaded from the data server 200 based on location information is stored in association with time. Thus, the AR tag itself is associated with the composite image data stored in the storage unit 150 according to the time. In this case, it is not necessary to download the AR tag again as in the second embodiment, and the time required for the resynthesis time can be reduced.

図11に示すように、位置情報記憶部132に代えて、ARタグ記憶部136が設けられている。ARタグ記憶部136は、図12に示すように、順次データサーバ200からARタグ受信部135が受信するARタグを時刻に関連づけて記憶する。なお、ARタグに関連づけられて記憶される時刻は、このARタグが付加されるべき元の画像の取得時刻であることが望ましい。ただし、ARタグを取得した時刻、ARタグを取得するために位置情報を送信した時刻等であっても構わない。この場合にも、元の画像とARタグ間の対応関係を信頼性良く維持することができる。ARタグ記憶部136は、記憶したARタグに関する情報を、記憶部150に出力する。ARタグ記憶部136は、再生モードの場合、記憶したARタグを合成処理部144に出力する。   As shown in FIG. 11, an AR tag storage unit 136 is provided instead of the position information storage unit 132. As shown in FIG. 12, the AR tag storage unit 136 sequentially stores AR tags received by the AR tag reception unit 135 from the data server 200 in association with time. The time stored in association with the AR tag is preferably the acquisition time of the original image to which the AR tag is to be added. However, the time when the AR tag is acquired, the time when the position information is transmitted in order to acquire the AR tag, and the like may be used. Also in this case, the correspondence between the original image and the AR tag can be maintained with high reliability. The AR tag storage unit 136 outputs information related to the stored AR tag to the storage unit 150. In the reproduction mode, the AR tag storage unit 136 outputs the stored AR tag to the composition processing unit 144.

図13に、録画モード時に実行されるステップを示す。図13に示すように、ステップST410において、実施の形態2に示したステップST210と同様、録画モードを開始する。ステップST420において、実施の形態2と同様の動作(撮影、ARタグ取得動作)を行うと共に、ARタグ受信部135が受信したARタグは、上記説明した時刻と関連付けられて記憶される。ステップST430において、ステップST230と同様、合成処理部14は、取得画像とARタグに基づいて合成画像を生成する。ステップST440において、ステップST240と同様、元の画像データをエンコードする。ステップST450において、ステップST250と同様、エンコードされた元の画像データと、その元の画像データの取得時刻とを関連付けて記憶する。   FIG. 13 shows steps executed in the recording mode. As shown in FIG. 13, in step ST410, the recording mode is started as in step ST210 shown in the second embodiment. In step ST420, the same operation (shooting and AR tag acquisition operation) as in the second embodiment is performed, and the AR tag received by the AR tag receiving unit 135 is stored in association with the time described above. In step ST430, as in step ST230, the composition processing unit 14 generates a composite image based on the acquired image and the AR tag. In step ST440, the original image data is encoded as in step ST240. In step ST450, as in step ST250, the encoded original image data and the acquisition time of the original image data are stored in association with each other.

図14に、再生モード時に実行されるステップを示す。図14に示すように、ステップS510において、ステップST310と同様に、再生モードを開始する。ステップS520において、ステップST320と同様、元の画像データをデコードする。ステップST530において、元の画像データに対応するARタグを特定する。具体的には、上述の実施形態と同様に、再表示対象となっている元の画像に関連付けられた時刻に基づいて(図8参照)、その時刻に関連付けられたARタグを特定する(図12参照)。ステップST540において、ステップST350と同様、合成画像データを生成する。ステップST550において、ステップST360と同様、合成画像を表示する。   FIG. 14 shows steps executed in the playback mode. As shown in FIG. 14, in step S510, the playback mode is started as in step ST310. In step S520, the original image data is decoded as in step ST320. In step ST530, an AR tag corresponding to the original image data is specified. Specifically, similarly to the above-described embodiment, based on the time associated with the original image to be redisplayed (see FIG. 8), the AR tag associated with the time is specified (see FIG. 8). 12). In step ST540, similar to step ST350, composite image data is generated. In step ST550, similarly to step ST360, the composite image is displayed.

本実施形態では、実施の形態2のように再度ARタグをダウンロードする必要はなく、再合成時間に要する時間を短縮することができる。   In the present embodiment, it is not necessary to download the AR tag again as in the second embodiment, and the time required for the resynthesis time can be reduced.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記では位置情報記憶部132において、録画モードにおいて、録画モード開始からの時刻と位置情報とを、テーブル状にして記録することとしたが、記録形式はこの形式に限られない。また記憶部150と、位置情報記憶部132とARタグ記憶部136は、別の記憶部として記載したが、同一の記憶手段であっても良い。   Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, in the above description, the position information storage unit 132 records the time from the start of the recording mode and the position information in the form of a table in the recording mode, but the recording format is not limited to this format. Moreover, although the memory | storage part 150, the positional information memory | storage part 132, and the AR tag memory | storage part 136 were described as another memory | storage part, the same memory | storage means may be sufficient.

1 拡張現実システム
2 拡張現実システム
3 拡張現実システム
100 端末装置
110 操作部
111 アプリケーション部
120 画像取得部
130 位置情報処理部
131 位置情報取得部
132 位置情報記憶部
133 ARタグ取得部
134 位置情報送信部
135 ARタグ受信部
136 ARタグ記憶部
14 合成処理部
141 合成画像生成部
142 エンコーダ
143 デコーダ
145 表示部
150 記憶部
170 通話機能部
200 データサーバ
300 端末装置
400 端末装置
DESCRIPTION OF SYMBOLS 1 Augmented reality system 2 Augmented reality system 3 Augmented reality system 100 Terminal device 110 Operation part 111 Application part 120 Image acquisition part 130 Position information processing part 131 Position information acquisition part 132 Position information storage part 133 AR tag acquisition part 134 Position information transmission part 135 AR tag reception unit 136 AR tag storage unit 14 synthesis processing unit 141 composite image generation unit 142 encoder 143 decoder 145 display unit 150 storage unit 170 call function unit 200 data server 300 terminal device 400 terminal device

Claims (6)

位置情報に関連付けて付属情報が記憶された外部サーバに対して位置情報を送信し、前記外部サーバから受信した前記付属情報を画像に対して付加して表示する端末装置であって、
当該端末の現在位置の周囲を示す画像を取得する画像取得部と、
当該端末の現在位置を示す前記位置情報を取得する位置取得部と、
前記位置取得部で取得された前記位置情報を前記外部サーバに送信することで前記外部サーバから前記付属情報を取得する付属情報取得部と、
前記画像と、前記付属情報とに基づいて、合成画像を生成する合成画像生成部と、
前記画像取得部にて取得された画像又は前記合成画像生成部にて生成された画像を再表示用画像として記憶すると共に、所定の前記再表示用画像に付加されるべき前記付属情報を取得するための前記位置情報及び所定の前記再表示用画像に付加されるべき取得済みの前記付属情報の少なくとも一方を所定の前記再表示用画像に対して関連付けて記憶する記憶手段と、を備え、
前記合成画像生成部は、前記再表示用画像と、当該再表示用画像に対して関連付けて記憶された前記位置情報に基づいて前記外部サーバから取得した前記付属情報又は前記再表示用画像に対して関連付けて記憶された前記付属情報と、に基づいて画像を生成する、端末装置。
A terminal device that transmits position information to an external server in which attached information is stored in association with the position information, and displays the attached information received from the external server in addition to an image,
An image acquisition unit for acquiring an image showing the periphery of the current position of the terminal;
A position acquisition unit that acquires the position information indicating the current position of the terminal;
An auxiliary information acquisition unit that acquires the auxiliary information from the external server by transmitting the positional information acquired by the position acquisition unit to the external server;
A composite image generating unit that generates a composite image based on the image and the attached information;
The image acquired by the image acquisition unit or the image generated by the composite image generation unit is stored as a redisplay image, and the attached information to be added to the predetermined redisplay image is acquired. Storage means for storing at least one of the position information for acquisition and the acquired additional information to be added to the predetermined image for re-displaying in association with the predetermined image for re-displaying,
The composite image generation unit applies the redisplay image to the auxiliary information or the redisplay image acquired from the external server based on the position information stored in association with the redisplay image. A terminal device that generates an image based on the associated information stored in association with each other.
前記記憶手段は、前記合成画像生成部にて生成された画像を再表示用画像として記憶すると共に、所定の前記再表示用画像に付加されるべき前記付属情報を取得するための前記位置情報を所定の前記再表示用画像に対して関連付けて記憶し、
前記合成画像生成部は、前記記憶手段に記憶された前記再表示用画像と、当該再表示用画像に対して関連付けて記憶された前記位置情報に基づいて前記外部サーバから取得した前記付属情報と、に基づいて画像を生成することを特徴とする請求項1に記載の端末装置。
The storage unit stores the image generated by the composite image generation unit as a redisplay image, and the position information for acquiring the attached information to be added to the predetermined redisplay image. Storing it in association with a predetermined image for redisplay,
The composite image generation unit includes the redisplay image stored in the storage unit, and the auxiliary information acquired from the external server based on the position information stored in association with the redisplay image. The terminal device according to claim 1, wherein an image is generated based on.
前記記憶手段は、時間経過に応じて順次取得される前記位置情報又は前記付属情報を夫々の取得時刻で管理することを特徴とする請求項1又は2に記載の端末装置。   The terminal device according to claim 1, wherein the storage unit manages the position information or the attached information sequentially acquired as time elapses at each acquisition time. 前記付属情報はARタグであり、
前記付属情報取得部は、
前記位置取得部で取得された位置情報を送信する位置情報送信部と、
前記位置情報に基づくARタグを前記外部サーバから受信するARタグ受信部と、を備える請求項1乃至請求項3のいずれか1項に記載の端末装置。
The attached information is an AR tag,
The attached information acquisition unit
A position information transmission unit that transmits the position information acquired by the position acquisition unit;
The terminal device according to any one of claims 1 to 3, further comprising: an AR tag receiving unit that receives an AR tag based on the position information from the external server.
位置情報に対して関連付けて当該位置情報に関する付属情報が記憶された外部サーバに対して前記位置情報を送信し、前記外部サーバから受信した前記付属情報を画像に対して付加して表示する端末装置の動作方法であって、
取得した画像又は当該取得した画像に対して前記付属情報を付加した合成画像を再表示用画像として記憶し、
所定の前記再表示用画像に付加されるべき前記付属情報を取得するための前記位置情報及び所定の前記再表示用画像に付加されるべき取得済みの前記付属情報の少なくとも一方を前記所定の再表示用画像に対して関連付けて記憶し、
前記再表示用画像と、当該再表示用画像に対して関連付けて記憶された前記位置情報に基づいて前記外部サーバから取得した前記付属情報又は前記再表示用画像に対して関連付けて記憶された前記付属画像と、に基づいて画像を生成する、端末装置の動作方法。
A terminal device that transmits the position information to an external server that stores the attached information related to the position information in association with the position information, and adds the attached information received from the external server to an image for display. The operation method of
Storing the acquired image or a composite image obtained by adding the attached information to the acquired image as a redisplay image;
At least one of the position information for acquiring the auxiliary information to be added to the predetermined image for redisplay and the acquired auxiliary information to be added to the predetermined image for redisplaying is added to the predetermined re-display. Store it in association with the display image,
The auxiliary image acquired from the external server based on the position information stored in association with the image for redisplay and the image for redisplay or the image stored in association with the image for redisplay An operation method of a terminal device that generates an image based on an attached image.
位置情報に関連付けて付属情報が記憶された外部サーバと、
前記外部サーバに対して位置情報を送信し、前記外部サーバから受信した前記付属情報を画像に対して付加して表示する端末装置と、を備えるシステムであって、
前記端末装置は、
当該端末の現在位置の周囲を示す画像を取得する画像取得部と、
当該端末の現在位置を示す前記位置情報を取得する位置取得部と、
前記位置取得部で取得された前記位置情報を前記外部サーバに送信することで前記外部サーバから前記付属情報を取得する付属情報取得部と、
前記画像と、前記付属情報とに基づいて、合成画像を生成する合成画像生成部と、
前記画像取得部にて取得された画像又は前記合成画像生成部にて生成された画像を再表示用画像として記憶すると共に、所定の前記再表示用画像に付加されるべき前記付属情報を取得するための前記位置情報及び所定の前記再表示用画像に付加されるべき取得済みの前記付属情報の少なくとも一方を所定の前記再表示用画像に対して関連付けて記憶する記憶手段と、を備え、
前記合成画像生成部は、前記再表示用画像と、当該再表示用画像に対して関連付けて記憶された前記位置情報に基づいて前記外部サーバから取得した前記付属情報又は前記再表示用画像に対して関連付けて記憶された前記付属情報と、に基づいて画像を生成する、システム。
An external server in which attached information is stored in association with location information;
A terminal device that transmits position information to the external server and displays the attached information received from the external server by adding it to an image,
The terminal device
An image acquisition unit for acquiring an image showing the periphery of the current position of the terminal;
A position acquisition unit that acquires the position information indicating the current position of the terminal;
An auxiliary information acquisition unit that acquires the auxiliary information from the external server by transmitting the positional information acquired by the position acquisition unit to the external server;
A composite image generating unit that generates a composite image based on the image and the attached information;
The image acquired by the image acquisition unit or the image generated by the composite image generation unit is stored as a redisplay image, and the attached information to be added to the predetermined redisplay image is acquired. Storage means for storing at least one of the position information for acquisition and the acquired additional information to be added to the predetermined image for re-displaying in association with the predetermined image for re-displaying,
The composite image generation unit applies the redisplay image to the auxiliary information or the redisplay image acquired from the external server based on the position information stored in association with the redisplay image. A system for generating an image based on the associated information stored in association therewith.
JP2010256810A 2010-11-17 2010-11-17 Terminal device, operation method of terminal device, and expanded reality system Withdrawn JP2012108711A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010256810A JP2012108711A (en) 2010-11-17 2010-11-17 Terminal device, operation method of terminal device, and expanded reality system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010256810A JP2012108711A (en) 2010-11-17 2010-11-17 Terminal device, operation method of terminal device, and expanded reality system

Publications (1)

Publication Number Publication Date
JP2012108711A true JP2012108711A (en) 2012-06-07

Family

ID=46494268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010256810A Withdrawn JP2012108711A (en) 2010-11-17 2010-11-17 Terminal device, operation method of terminal device, and expanded reality system

Country Status (1)

Country Link
JP (1) JP2012108711A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015072091A1 (en) * 2013-11-12 2015-05-21 Necソリューションイノベータ株式会社 Image processing device, image processing method, and program storage medium
JP2016197342A (en) * 2015-04-03 2016-11-24 株式会社サイバーウォーカー Augmented reality program, augmented reality providing method, augmented reality providing device, and information delivery method
WO2020138285A1 (en) * 2018-12-27 2020-07-02 グローリー株式会社 Transaction processing system, transaction processing method, and program
JP2021500690A (en) * 2017-10-23 2021-01-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Self-expanding augmented reality-based service instruction library

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015072091A1 (en) * 2013-11-12 2015-05-21 Necソリューションイノベータ株式会社 Image processing device, image processing method, and program storage medium
JP2016197342A (en) * 2015-04-03 2016-11-24 株式会社サイバーウォーカー Augmented reality program, augmented reality providing method, augmented reality providing device, and information delivery method
JP2021500690A (en) * 2017-10-23 2021-01-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Self-expanding augmented reality-based service instruction library
US11861898B2 (en) 2017-10-23 2024-01-02 Koninklijke Philips N.V. Self-expanding augmented reality-based service instructions library
WO2020138285A1 (en) * 2018-12-27 2020-07-02 グローリー株式会社 Transaction processing system, transaction processing method, and program
US11810375B2 (en) 2018-12-27 2023-11-07 Glory Ltd. Transaction processing system, transaction processing method, and non-transitory computer-readable memory medium

Similar Documents

Publication Publication Date Title
JP2009223865A (en) Portable terminal device and computer program
US8713580B2 (en) Information processing device and display control method
CN110362762B (en) Content data display method and device, electronic equipment and storage medium
JP6954410B2 (en) Management system
JP5582114B2 (en) Content display support system, content display support device, content display support method, display program, and portable terminal
CN113141524A (en) Resource transmission method, device, terminal and storage medium
WO2011158487A1 (en) Operation support device and operation support method
JP2012108711A (en) Terminal device, operation method of terminal device, and expanded reality system
JP5677073B2 (en) Image control apparatus, image control method, information processing apparatus, information processing method, program, and storage medium
JP2007034403A (en) Image display device and image display program
EP1879381A2 (en) A system for and method of controlling advanced user interfaces for navigation
JP2016115325A (en) Information presentation device, information presentation system, information presentation method, and information presentation program
CN113886611A (en) Resource display method and device, computer equipment and medium
CN112911337A (en) Method and device for configuring video cover pictures of terminal equipment
JP2023153790A (en) program
JP5401103B2 (en) Video information management apparatus and method
US20120008931A1 (en) Apparatus and method for displaying world clock in portable terminal
JP2006350469A (en) Navigation device
JP2018198746A (en) Terminal and server
JP6116213B2 (en) Synthetic video content generation system
JP6007098B2 (en) Singing video generation system
JP2008085847A (en) Mobile electronic apparatus, catalogue image displaying method in mobile electronic apparatus, and program
JP6043610B2 (en) Synthetic video content generation system
JP6051028B2 (en) Singing video data acquisition system
KR20050119924A (en) Method and system for contents map service

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131011

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20140409