JP2016081225A - Information presenting system - Google Patents

Information presenting system Download PDF

Info

Publication number
JP2016081225A
JP2016081225A JP2014210714A JP2014210714A JP2016081225A JP 2016081225 A JP2016081225 A JP 2016081225A JP 2014210714 A JP2014210714 A JP 2014210714A JP 2014210714 A JP2014210714 A JP 2014210714A JP 2016081225 A JP2016081225 A JP 2016081225A
Authority
JP
Japan
Prior art keywords
information
unit
captured image
terminal
presentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014210714A
Other languages
Japanese (ja)
Other versions
JP6521352B2 (en
Inventor
加藤 晴久
Haruhisa Kato
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2014210714A priority Critical patent/JP6521352B2/en
Publication of JP2016081225A publication Critical patent/JP2016081225A/en
Application granted granted Critical
Publication of JP6521352B2 publication Critical patent/JP6521352B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an information presenting system that can recognize the object of image pickup with limited calculation resources at a terminal and give high quality presentation of information without sacrificing real-time performance.SOLUTION: At a terminal 10, a picked-up image is acquired by an image pickup unit 1; an object of image pickup in the picked-up image is recognized by a recognizing unit 2 to figure out its positional attitude relative to the image pickup unit 1; the result is transmitted as object information to a server 20; information to be presented is generated as a control unit 4 superposes drawn information, drawn by the server 20, over the picked-up image; and causes the generated information to be presented by a presenting unit 3. In the server 20, an image drawing unit 6 generates drawn information drawing related information as viewed in the positional attitude in the object information by reading in from a memory unit 5 the related information prescribing expanded reality display according to the object of image pickup in the object information, and transmits the drawn information to the terminal 10.SELECTED DRAWING: Figure 1

Description

本発明は、情報を提示する情報提示システムに関し、特に、高品位な情報を描画して提示部での提示情報を制御できる情報提示システムに関する。   The present invention relates to an information presentation system that presents information, and more particularly to an information presentation system that can render high-quality information and control presentation information in a presentation unit.

撮像対象と撮像部との相対的な位置および姿勢を推定し関連情報を提示する拡張現実において、リアルタイムかつ高品位に情報を提示することができれば、利用者の利便性を向上させることができる。   In the augmented reality in which the relative position and orientation between the imaging target and the imaging unit are estimated and related information is presented, if the information can be presented in real time and with high quality, the convenience for the user can be improved.

上記を実現する従来技術の例として、特許文献1および2に開示のものがあり、ここでは以下のような手法が公開されている。   Examples of the prior art for realizing the above are disclosed in Patent Documents 1 and 2, and the following methods are disclosed here.

非特許文献1では、拡張現実で情報を重畳する際、球面調和関数で近似した複数の環境マップと双方向反射率分布関数とを用いてレンダリングする手法を開示している。   Non-Patent Document 1 discloses a technique of rendering using a plurality of environment maps approximated by a spherical harmonic function and a bidirectional reflectance distribution function when superimposing information in augmented reality.

特許文献1では、端末からサーバへ映像を伝送しサーバで認識処理および描画処理を実行した結果を映像として端末へ伝送する手法を開示している。   Patent Document 1 discloses a technique for transmitting video from a terminal to a server and transmitting a result of executing recognition processing and drawing processing by the server to the terminal as video.

特開2014−44655号公報JP 2014-44655 A

Photorealistic rendering for Augmented Reality: A global illumination and BRDF solutionPhotorealistic rendering for Augmented Reality: A global illumination and BRDF solution

非特許文献1では、環境光源を模擬することでフォトリアリスティックな表現を可能とするが、計算コストが大きく計算資源が限られる端末では実行できないという問題がある。   In Non-Patent Document 1, photorealistic expression is possible by simulating an environmental light source, but there is a problem that it cannot be executed on a terminal having a high calculation cost and limited calculation resources.

一方、特許文献1では、端末からサーバへ映像を伝送するため、サーバの豊富な計算資源を利用することで、非特許文献1の問題を一部解決できる。しかし、双方向の映像伝送が必要であるため、通信帯域が狭いと実現できないという問題がある。特に、複数の端末が存在する場合は伝送量が膨大になるため、実現できないという問題がある。また、伝送時間が伝送量に比例するため、リアルタイム性に欠けるという問題がある。さらに、映像を伝送する際にデータ削減目的のために非可逆圧縮方式で符号化する場合は、画質劣化により高品位な情報は得られないという問題がある。   On the other hand, in Patent Document 1, since the video is transmitted from the terminal to the server, a part of the problem of Non-Patent Document 1 can be solved by using abundant calculation resources of the server. However, since bidirectional video transmission is necessary, there is a problem that it cannot be realized if the communication band is narrow. In particular, when there are a plurality of terminals, there is a problem that the amount of transmission becomes enormous and cannot be realized. Further, since the transmission time is proportional to the transmission amount, there is a problem that the real-time property is lacking. Further, when video is transmitted and encoded with a lossy compression method for the purpose of data reduction, there is a problem that high-quality information cannot be obtained due to image quality degradation.

本発明は上記従来技術の課題に鑑み、撮像対象を認識し、提示情報をリアルタイム性を欠くことなく高品位に提示できる情報提示システムを提供することを目的とする。   An object of the present invention is to provide an information presentation system capable of recognizing an imaging target and presenting presentation information with high quality without lacking real-time characteristics.

上記目的を達成するため、本発明は、提示情報を提示する端末と、当該端末と通信するサーバとを備える情報提示システムであって、前記端末は、撮像を行い撮像画像を取得する撮像部と、前記撮像画像より所定の撮像対象を認識し、その前記撮像部に対する位置及び姿勢を算出し、当該認識された撮像対象の種類並びに当該算出された位置及び姿勢を対象情報とする認識部と、前記対象情報を前記サーバに送信する端末側送信部と、前記サーバが描画した描画情報を前記サーバより受信する端末側受信部と、前記受信した描画情報を前記撮像画像に重畳して提示情報を生成する制御部と、前記生成された提示情報を提示する提示部と、を含み、前記サーバは、撮像対象ごとに予め用意された関連情報であって且つ所定の拡張現実表示のために構成された当該関連情報を記憶する記憶部と、前記端末側送信部より送信された対象情報を受信するサーバ側受信部と、前記受信した対象情報における撮像対象に対応した関連情報を前記記憶部から読み出し、前記受信した対象情報における位置及び姿勢に応じて当該読み出した関連情報を描画することによって描画情報を生成する描画部と、前記描画された描画情報を前記端末に送信するサーバ側送信部と、を含むことを特徴とする。   To achieve the above object, the present invention provides an information presentation system including a terminal that presents presentation information and a server that communicates with the terminal, and the terminal includes an imaging unit that captures an image and acquires a captured image. A recognition unit that recognizes a predetermined imaging target from the captured image, calculates a position and orientation with respect to the imaging unit, and uses the recognized type of the imaging target and the calculated position and orientation as target information; A terminal-side transmitter that transmits the target information to the server, a terminal-side receiver that receives the drawing information drawn by the server from the server, and the presentation information by superimposing the received drawing information on the captured image A control unit for generating and a presentation unit for presenting the generated presentation information, wherein the server is related information prepared in advance for each imaging target and is used for a predetermined augmented reality display. A storage unit that stores the related information configured; a server-side reception unit that receives target information transmitted from the terminal-side transmission unit; and a storage unit that stores related information corresponding to an imaging target in the received target information. A drawing unit that generates drawing information by drawing the related information read out according to the position and orientation in the received target information, and a server-side transmission unit that transmits the drawn drawing information to the terminal It is characterized by including these.

本発明によれば、端末において撮像対象に対して撮像部をかざして撮像するだけで、撮像対象に関連する情報を提示することができる。   ADVANTAGE OF THE INVENTION According to this invention, the information relevant to an imaging target can be shown only by holding up an imaging part with respect to an imaging target in a terminal.

この際、一般に計算負荷が高く、高品位性を確保する場合はさらに計算負荷が高くなる、撮像対象の位置及び姿勢に応じた描画処理をサーバが担うため、端末に高い計算負荷を課されることがなく、端末の計算資源では計算できないような高品位な情報を提示することができる。   At this time, generally the calculation load is high, and when high quality is ensured, the calculation load is further increased. Since the server is responsible for drawing processing according to the position and orientation of the imaging target, a high calculation load is imposed on the terminal. Therefore, it is possible to present high-quality information that cannot be calculated with the calculation resources of the terminal.

さらに、サーバと端末との間の通信に際して、伝送する情報は対象情報と提示情報に限定されるので、データ量が少なく、通信帯域が狭い場合でも実現できるとともに、伝送時間が短縮されリアルタイム動作を実現できる。   Furthermore, since the information to be transmitted is limited to the target information and the presentation information during communication between the server and the terminal, it can be realized even when the data amount is small and the communication band is narrow, and the transmission time is shortened and the real time operation is performed. realizable.

一実施形態に係る情報提示システムの構成概要を機能ブロック図として示す図である。It is a figure which shows the structure outline | summary of the information presentation system which concerns on one Embodiment as a functional block diagram. 一実施形態に係る情報提示システムの動作のシーケンス図である。It is a sequence diagram of operation | movement of the information presentation system which concerns on one Embodiment. 端末のループ処理の各回における提示情報、バッファリングデータ、撮像画像及び描画情報の模式的な例を、表形式で示す図である。It is a figure which shows the typical example of the presentation information in each time of the loop process of a terminal, buffering data, a captured image, and drawing information in a table format. 関連情報、描画情報及び提示情報を模式的な例によって示す図である。It is a figure which shows related information, drawing information, and presentation information by a typical example. 図4の例に対応する例によって、解像度を下げた描画情報を模式的に示す図である。FIG. 5 is a diagram schematically showing drawing information with reduced resolution by an example corresponding to the example of FIG. 4.

図1は、一実施形態に係る情報提示システムの構成概要を機能ブロック図として示す図である。情報提示システム30は、端末10及びサーバ20を備える。ここで、端末10に関しては複数台存在してもよく、サーバ20はその各々との間で互いに独立に情報提示のための処理を並行して行うことができる。以下、これら複数台存在することのできる端末を代表する任意の1つとして、端末10を説明する。端末10とサーバ20とはインターネット等のネットワークを介して互いに通信する。   FIG. 1 is a functional block diagram showing an outline of the configuration of an information presentation system according to an embodiment. The information presentation system 30 includes a terminal 10 and a server 20. Here, there may be a plurality of terminals 10, and the server 20 can perform processing for information presentation in parallel with each other. Hereinafter, the terminal 10 will be described as an arbitrary one representing these terminals that can exist. The terminal 10 and the server 20 communicate with each other via a network such as the Internet.

端末10は、撮像部1、認識部2、提示部3、制御部4、端末側送信部11及び端末側受信部12を備える。サーバ20は、記憶部5、描画部6、サーバ側受信部21及びサーバ側送信部22を備える。   The terminal 10 includes an imaging unit 1, a recognition unit 2, a presentation unit 3, a control unit 4, a terminal side transmission unit 11, and a terminal side reception unit 12. The server 20 includes a storage unit 5, a drawing unit 6, a server side receiving unit 21, and a server side transmitting unit 22.

図2は、一実施形態に係る情報提示システム30の動作のシーケンス図である。以下、図2の各ステップを説明しながら、図1の各部の概要を説明する。   FIG. 2 is a sequence diagram of the operation of the information presentation system 30 according to an embodiment. Hereinafter, the outline of each part in FIG. 1 will be described while explaining each step in FIG. 2.

まず、図2のシーケンスの全体的な概要は次の通りである。図2の左側に示すように、当該シーケンスを大きく分けると、この順に実施される4つのステップ群S10,S20,S30,S40に分けることができる。そして、当該ステップ群S10〜S40の全体L1は、ループ処理として繰り返される単位となる。以下、当該全体L1がループ処理として繰り返されるステップ群S10,S20,S30,S40のそれぞれを説明する。   First, the overall outline of the sequence of FIG. 2 is as follows. As shown on the left side of FIG. 2, when the sequence is roughly divided, it can be divided into four step groups S10, S20, S30, and S40 executed in this order. The entire L1 of the step groups S10 to S40 is a unit that is repeated as a loop process. Hereinafter, each of the step groups S10, S20, S30, and S40 in which the entire L1 is repeated as a loop process will be described.

ステップ群S10はこの順に実施されるステップS11,S12,S13を含み、主として撮像部1による撮像が行われる。ステップS11では、制御部4が撮像部1に対して撮像を行うよう指示を与える。ステップS12では、当該指示に従って撮像部1が撮像を行って撮像画像を得る。ステップS13では、撮像部1が当該得た撮像画像を制御部4へと出力する。   The step group S10 includes steps S11, S12, and S13 performed in this order, and the imaging by the imaging unit 1 is mainly performed. In step S11, the control unit 4 instructs the imaging unit 1 to perform imaging. In step S12, the imaging unit 1 performs imaging according to the instruction to obtain a captured image. In step S13, the imaging unit 1 outputs the obtained captured image to the control unit 4.

ステップ群S20はこの順に実施されるステップS21,S22,S23を含み、主として認識部2による認識が行われる。ステップS21では、制御部4がステップS13で得た撮像画像を認識部2へと出力する。ステップS22では、認識部2が当該出力された撮像画像に撮像されている撮像対象の種類を認識し、撮像対象の撮像部1に対する相対的な位置と姿勢とを計算する。ステップS23では、当該認識され計算された撮像対象の種類並びに位置及び姿勢と、撮像画像に含まれる時刻情報とを対象情報として、対象情報を認識部2より制御部4へと出力する。   The step group S20 includes steps S21, S22, and S23 performed in this order, and recognition is mainly performed by the recognition unit 2. In step S21, the control unit 4 outputs the captured image obtained in step S13 to the recognition unit 2. In step S22, the recognition unit 2 recognizes the type of the imaging target captured in the output captured image, and calculates the relative position and orientation of the imaging target with respect to the imaging unit 1. In step S23, the recognition unit 2 outputs the target information to the control unit 4 using the recognized and calculated type and position and orientation of the imaging target and the time information included in the captured image as target information.

なお、撮像画像に含まれる時刻情報とは、ステップS12にて撮像部1が撮像を行った際に当該撮像時刻をタイムスタンプとして付与することで、撮像画像に紐付けられている情報である。   Note that the time information included in the captured image is information associated with the captured image by adding the imaging time as a time stamp when the imaging unit 1 captures an image in step S12.

ステップ群S30はこの順に実施されるステップS31,S32,S33,S34を含み、主として描画部6における描画が行われる。ステップS31では、端末10の制御部4が端末側送信部11及びサーバ側受信部21を介してステップS23で得た対象情報をサーバ20へと送信し、対象情報のうち撮像対象の位置及び姿勢の情報と時刻情報とが描画部6へと出力され、対象情報のうち撮像対象の種類の情報と時刻情報とが記憶部5へと出力される。   The step group S30 includes steps S31, S32, S33, and S34 performed in this order, and drawing is mainly performed in the drawing unit 6. In step S31, the control unit 4 of the terminal 10 transmits the target information obtained in step S23 to the server 20 via the terminal-side transmission unit 11 and the server-side reception unit 21, and the position and orientation of the imaging target among the target information Information and time information are output to the drawing unit 6, and information on the type of imaging target and time information among the target information are output to the storage unit 5.

ステップS32では、記憶部5がステップS31にて受信した撮像対象の種類に応じた関連情報を自身の保存している情報の中から読み出して描画部6へと出力する。ステップS33では、ステップS31で受信した撮像対象の位置及び姿勢の情報とステップS32で受信した関連情報とを入力として、描画部6が当該関連情報を当該位置及び姿勢に応じて描画することで描画情報を生成する。ステップS34では、描画部6が当該生成された描画情報をサーバ側送信部22及び端末側受信部12を介して送信することで、サーバ20より端末10の制御部4へと出力する。   In step S32, the storage unit 5 reads related information corresponding to the type of imaging target received in step S31 from the information stored in the storage unit 5, and outputs the related information to the drawing unit 6. In step S33, the drawing unit 6 draws the related information according to the position and orientation, using the position and orientation information of the imaging target received in step S31 and the related information received in step S32 as inputs. Generate information. In step S34, the drawing unit 6 transmits the generated drawing information via the server-side transmission unit 22 and the terminal-side reception unit 12, so that the server 20 outputs the drawing information to the control unit 4 of the terminal 10.

なお、ステップS33における描画情報の生成の際に、描画情報には描画部6がステップS31で受信した時刻情報(当該描画に用いた位置姿勢が算出された撮像画像の時刻情報)が紐付けられる。ステップS34では当該時刻情報の紐付いた描画情報が端末10へと送信される。   When drawing information is generated in step S33, the drawing information is associated with the time information received by the drawing unit 6 in step S31 (time information of the captured image in which the position and orientation used for the drawing are calculated). . In step S34, drawing information associated with the time information is transmitted to the terminal 10.

ステップ群S40はこの順に実施されるステップS41,S42を含み、主として提示部3における提示が行われる。ステップS41では、制御部4がステップS34で受信した描画情報をステップS13で受信した撮像画像に対して重畳することで提示情報を生成したうえで、当該生成された提示情報を提示部3へと出力する。ステップS42では、提示部3が当該受信した提示情報を提示する。   The step group S40 includes steps S41 and S42 performed in this order, and the presentation in the presentation unit 3 is mainly performed. In step S41, the control unit 4 generates presentation information by superimposing the drawing information received in step S34 on the captured image received in step S13, and then transmits the generated presentation information to the presentation unit 3. Output. In step S42, the presentation unit 3 presents the received presentation information.

なお、ステップS41にて描画情報と撮像画像を重畳する際は、それぞれに紐付けられている時刻情報が一致するもの同士を重畳する。   In addition, when superimposing drawing information and a captured image in step S41, the thing with which the time information matched with each corresponds is superimposed.

ここで、以上の図2の一連のステップはステップS12で取得する各時刻tの撮像画像P(t)を対象として実施され、ループ単位処理L1が繰り返されることで、一連の時刻t, t+1, t+2, …の撮像画像P(t), P(t+1), P(t+2), …について順次、処理が実施される。ここで、時刻tの撮像画像P(t)に対応する各情報をそれぞれ、位置姿勢C(t)及び対象種類K(t)を含む対象情報O(t)、関連情報R(t)、描画情報G(t)、提示情報D(t)とする。   Here, the series of steps shown in FIG. 2 is performed on the captured image P (t) at each time t acquired in step S12, and the loop unit process L1 is repeated, so that the series of times t, t + Processing is sequentially performed on the captured images P (t), P (t + 1), P (t + 2),. Here, each piece of information corresponding to the captured image P (t) at time t is subject information O (t) including position / posture C (t) and subject type K (t), related information R (t), drawing Information G (t) and presentation information D (t) are assumed.

なお、上記の各時刻tとはすなわち、ステップS23にて説明した撮像画像に紐付けられた時刻情報である。   In addition, each said time t is the time information linked | related with the captured image demonstrated in step S23.

一実施形態では、ループ単位処理L1は上記のように時刻tで同期して実施することができる。すなわち、ループ単位処理L1内で扱う情報は全て上記のようにステップS12で取得した時刻tの撮像画像P(t)に対応する情報とすることができる。   In one embodiment, the loop unit process L1 can be performed synchronously at time t as described above. That is, all the information handled in the loop unit process L1 can be information corresponding to the captured image P (t) at time t acquired in step S12 as described above.

一方、上記のようにループ単位処理L1を時刻tで同期して実施する場合、ループ単位処理L1は次のような処理完了に要する時間間隔毎に実施せざるを得ないこととなる。すなわち、ステップS12,S22,S33,S42等の完了に要する時間や、ステップS31,S34のネットワーク経由でのデータ送受に要する時間等を加算した時間間隔毎にしか、処理L1を実施することができない。従って、当該時間間隔が大きい場合、提示部3における提示処理のレートが粗くなってしまい、リアルタイムで拡張現実表示等を実施させる際には好ましくない。   On the other hand, when the loop unit process L1 is performed synchronously at time t as described above, the loop unit process L1 must be performed at each time interval required for the completion of the following process. That is, the process L1 can be performed only at time intervals obtained by adding the time required for completing steps S12, S22, S33, S42, etc., the time required for data transmission / reception via the network in steps S31, S34, and the like. . Therefore, if the time interval is large, the rate of the presentation process in the presentation unit 3 becomes rough, which is not preferable when augmented reality display or the like is performed in real time.

従って、上記提示処理のレートを向上させるために、ループ単位処理L1を次のような第一ループ処理L11及び第二ループ処理L12に分けたうえで、各ループ処理L11,L12(図2には不図示)をそれぞれ独立に実施する実施形態で、図2のシーケンス動作を実施するようにしてもよい。すなわち、第一ループ処理L11として、端末10側ではステップ群S10,S20,S40(及びステップS31の送信処理とステップS34の受信処理)をループ処理単位とした所定間隔の処理を継続して実施する。また、当該処理L11とは独立に、第二ループ処理L12として、サーバ20側においてステップ群S30をループ処理単位とした所定間隔の処理を継続して実施する。なお、当該所定間隔は一定でなくともよく、端末10とサーバ20とで異なっていてもよい。   Therefore, in order to improve the rate of the presentation process, the loop unit process L1 is divided into the following first loop process L11 and second loop process L12, and then each loop process L11, L12 (in FIG. 2). 2 may be performed in an embodiment in which each of them is performed independently (not shown). That is, as the first loop process L11, the terminal 10 side continuously performs a process at a predetermined interval using the step groups S10, S20, and S40 (and the transmission process of step S31 and the reception process of step S34) as a loop process unit. . Independently of the process L11, as the second loop process L12, the server 20 side continuously performs a process at a predetermined interval with the step group S30 as a loop process unit. The predetermined interval may not be constant, and may be different between the terminal 10 and the server 20.

サーバ20側の第二ループ処理L12は、端末10側より対象情報の受信があり次第ただちにループ処理を開始し、サーバ20の計算リソースが許す限り高速に処理することが好ましい。一方、端末10側の第一ループ処理L11においては、以下のように、ステップ群S40をサーバ20側からの描画情報の受信有無に応じた処理として実施すると共に、撮像画像のバッファリング(一時記憶処理)を行うようにすることが好ましい。   The second loop processing L12 on the server 20 side is preferably started as soon as the target information is received from the terminal 10 side, and is processed as fast as the computing resources of the server 20 allow. On the other hand, in the first loop process L11 on the terminal 10 side, the step group S40 is performed as a process according to whether or not the drawing information is received from the server 20 side, and the captured image is buffered (temporarily stored) as follows. It is preferable to perform processing.

すなわち、ループ処理L11にて制御部4において撮像画像P(t)を一定時間分(特に端末10とサーバ20間での情報送受のネットワーク遅延を考慮した一定時間分)だけバッファリングしておき、サーバ20のループ処理L12にて描画部6から対応する描画情報G(t)が得られた時点でただちに、対応する提示情報D(t)を生成して提示部3に提示させるようにすればよい。こうして、ループ処理L11,L12は互いに独立に実施されることで、端末10及びサーバ20のそれぞれの計算リソース(及び端末10・サーバ20間のネットワーク遅延)に適した処理が可能であると共に、時刻情報tが端末10及びサーバ20間において共有されることから、端末10において適切な提示情報D(t)の生成が可能となる。   That is, in the loop processing L11, the control unit 4 buffers the captured image P (t) for a certain amount of time (particularly, a certain amount of time considering the network delay of information transmission / reception between the terminal 10 and the server 20). As soon as the corresponding drawing information G (t) is obtained from the drawing unit 6 in the loop processing L12 of the server 20, the corresponding presentation information D (t) is generated and presented to the presentation unit 3. Good. In this way, the loop processing L11 and L12 are performed independently of each other, whereby processing suitable for the respective computing resources of the terminal 10 and the server 20 (and the network delay between the terminal 10 and the server 20) is possible, and the time Since the information t is shared between the terminal 10 and the server 20, the terminal 10 can generate appropriate presentation information D (t).

一実施形態では、ループ処理L11の各N回目(N=1, 2, …)におけるステップ群S40の実施に際しては、サーバ20側から受信完了している描画情報G(t)が複数存在する場合、最も新しい時刻tlatestに対応する描画情報G(tlatest)を対応する撮像画像P(tlatest)に重畳することで、提示部3に提示情報D(tlatest)を提示させるようにしてよい。 In one embodiment, when performing step group S40 in each N-th time (N = 1, 2,...) Of loop processing L11, there are a plurality of drawing information G (t) that have been received from the server 20 side. The presentation information D (t latest ) may be presented to the presentation unit 3 by superimposing the drawing information G (t latest ) corresponding to the latest time t latest on the corresponding captured image P (t latest ). .

この場合、当該提示情報D(tlatest)の生成対象となった最新時刻tlatest以前の描画情報{G(t)|t≦tlatest}は、ループ処理L11のN+1回目のステップ群S40における処理対象から除外するようにしてよい。同様に、制御部4においてバッファリングで保持する撮像画像P(t)も、ループ処理L11のN+1回目においては当該最新時刻tlatestより後(t>tlatest)のものを対象とするようにしてよい。 In this case, the drawing information {G (t) | t ≦ t latest } before the latest time t latest for which the presentation information D (t latest ) is generated is the N + 1th step group S40 in the loop processing L11. You may make it exclude from the process target in. Similarly, the picked-up image P (t) held by buffering in the control unit 4 is also targeted at the time after the latest time t latest (t> t latest ) at the N + 1th time of the loop processing L11. You can do it.

従って、当該一実施形態においては、N回目のループ処理L11のステップ群S40において上記バッファリングによって提示部3が提示情報D(t)を提示する際に、当該N回目のループ処理L11におけるステップ群S10で取得している現時刻の撮像画像がP(t+n)(ここでn≧0)であるという関係がある。すなわち、端末10側では各々の現在時刻tのループ処理L11においてステップ群S10,S20,S40を実施するが、当該現在時刻tにおいてステップ群S40を実施する対象となるのは、いずれかの過去時刻t-nのループ処理L11のステップS12において撮像して取得された後に現在時刻tまでバッファリングされて保持されている撮像画像P(t-n)と、現在時刻tのループ処理L11で新たにサーバ20より受信した描画情報G(t-n)とから生成される提示情報D(t-n)となる。   Therefore, in the one embodiment, when the presentation unit 3 presents the presentation information D (t) by the buffering in the step group S40 of the Nth loop process L11, the step group in the Nth loop process L11 There is a relationship that the captured image at the current time acquired in S10 is P (t + n) (where n ≧ 0). That is, on the terminal 10 side, the step group S10, S20, S40 is performed in the loop processing L11 at each current time t, but the target of executing the step group S40 at the current time t is any past time The captured image P (tn) that was captured and acquired in step S12 of the loop processing L11 of tn and buffered and held until the current time t, and newly received from the server 20 in the loop processing L11 of the current time t The presentation information D (tn) generated from the drawn drawing information G (tn).

また、ネットワーク遅延の変動等によっては、次のような状況も生じうる。すなわち、あるN回目のループ処理L11内のステップ群S40において描画情報G(t)をサーバ20より受信して提示情報D(t)を生成したが、その次のN+1回目のループ処理L11内のステップS40群を実施しようとする際に、新たな次の描画情報G(t+1)(あるいはm≧2としてG(t+m)でもよい)がサーバ20側より未受信であるという状況である。   In addition, the following situation may occur depending on fluctuations in network delay and the like. That is, the drawing information G (t) is received from the server 20 in the step group S40 in a certain N-th loop processing L11 and the presentation information D (t) is generated, but the next N + 1-th loop processing L11 When trying to implement step S40 in the above, new next drawing information G (t + 1) (or G (t + m) may be set as m ≧ 2) is not received from the server 20 side Is the situation.

当該状況が発生すると、端末10側に最新の描画情報(既に提示情報を生成するのに利用した描画情報を除く)が存在しないため、N+1回目のステップ群S40における提示処理ができないこととなってしまう。従って、詳しくは後述するように、サーバ20側から受信されるべき最新の描画情報G(t+1)を直近(N回目のステップ群S40)に用いた描画情報G(t)から補間生成したうで、撮像画像P(t+1)に重畳することで提示情報D(t+1)を補間生成し、提示部3に提示させるようにしてもよい。   When this situation occurs, the latest drawing information (excluding drawing information already used to generate the presentation information) does not exist on the terminal 10 side, so that the presentation process in the (N + 1) th step group S40 cannot be performed. turn into. Therefore, as will be described in detail later, the latest drawing information G (t + 1) to be received from the server 20 side is generated by interpolation from the drawing information G (t) used for the latest (Nth step group S40). Thus, the presentation information D (t + 1) may be generated by interpolation on the captured image P (t + 1) and presented to the presentation unit 3.

図3に、以上の端末10におけるループ処理L11のN=1,2,3,…6回目(それぞれ時刻t=1,2,3,…, 6とする)における生成され提示される提示情報D(t)、保持しているバッファリングデータBuffer(t)、撮像する撮像画像P(t)、サーバ20より受信する描画情報G(t)の模式的な例を、表形式で示す。   FIG. 3 shows the presentation information D that is generated and presented at the time N = 1, 2, 3,... 6 of the loop processing L11 in the terminal 10 (time t = 1, 2, 3,..., 6 respectively). A schematic example of (t), held buffering data Buffer (t), a captured image P (t) to be captured, and drawing information G (t) received from the server 20 is shown in a table format.

図3の例では、N=1,2,3回目のループ処理L11はループ処理開始直後に相当し、最初の撮像画像P(1)に対応するものとして送信した対象情報O(1)(図3では不図示)に対するサーバ20からの応答G(1)が未受信である。すなわち、N=1,2,3回目においてはサーバ20から描画情報G(t)が未受信であるので、バッファリングデータBuffer(t)が順次蓄積されるが、提示情報D(t)を生成することができない。N=4回目のループ処理L11において初めて撮像画像P(1)に対応する描画情報G(1)をサーバ20から受信することで、これらを重畳して提示情報D(1)を生成すると共に、当該生成に用いた撮像画像P(1)を次のN=5回目のループ処理L11におけるバッファリングデータBuffer(t)から削除する。N=5,6回目も同様にそれぞれ描画情報G(2),G(3)の受信を受け、撮像画像P(2),P(3)に重畳して提示情報D(2),D(3)を生成し、次のループ処理L11のバッファリングデータBuffer(t)において既に用いた撮像画像P(2),P(3)を削除する。図3ではN=7回目以降は省略しているが、描画情報G(t)を受信している限り同様の処理が継続されることとなる。   In the example of FIG. 3, the loop processing L11 of N = 1, 2, 3 is equivalent to immediately after the start of the loop processing, and the target information O (1) transmitted as corresponding to the first captured image P (1) (FIG. 3) The response G (1) from the server 20 to (not shown in FIG. 3) has not been received. In other words, since the drawing information G (t) has not been received from the server 20 at the N = 1, 2, 3rd time, the buffering data Buffer (t) is sequentially accumulated, but the presentation information D (t) is generated. Can not do it. By receiving from the server 20 the drawing information G (1) corresponding to the captured image P (1) for the first time in the N = 4th loop processing L11, and superimposing these to generate the presentation information D (1), The captured image P (1) used for the generation is deleted from the buffering data Buffer (t) in the next N = 5th loop processing L11. Similarly, N = 5 and 6th reception of drawing information G (2) and G (3), respectively, are superimposed on the captured images P (2) and P (3) and presented information D (2) and D ( 3) is generated, and the captured images P (2) and P (3) already used in the buffering data Buffer (t) of the next loop processing L11 are deleted. In FIG. 3, the processing after N = 7 is omitted, but the same processing is continued as long as the drawing information G (t) is received.

以下、以上の図2の各実施形態の動作シーケンスで動作する図1の各部の詳細を、端末10の各部、サーバ20の各部の順番で説明する。   The details of each unit in FIG. 1 that operates in the operation sequence of each embodiment in FIG. 2 will be described below in the order of each unit of the terminal 10 and each unit of the server 20.

撮像部1は、図2のステップS11,S12,S13において、制御部4の指示を受けて撮像対象を撮像して、得られた撮像画像を制御部4へと出力する。撮像部1としては近年の携帯端末に標準装備されることの多いデジタルカメラを用いることができる。   In Steps S11, S12, and S13 of FIG. 2, the imaging unit 1 receives an instruction from the control unit 4 and images the imaging target, and outputs the obtained captured image to the control unit 4. As the imaging unit 1, a digital camera often provided as a standard in recent portable terminals can be used.

認識部2は、図2のステップS21,S22において、制御部4から撮像画像を入力し、撮像画像から撮像対象の種類を認識すると共に、撮像対象の撮像部1に対する相対的な位置と姿勢とを計算する。認識部2はさらに、図2のステップS23において、撮像対象の種類と位置と姿勢と、撮像画像に紐付けられている時刻情報とを対象情報とし、対象情報を制御部4へ出力する。   In steps S21 and S22 in FIG. 2, the recognition unit 2 inputs the captured image from the control unit 4, recognizes the type of the imaging target from the captured image, and also determines the relative position and orientation of the imaging target with respect to the imaging unit 1. Calculate Further, in step S23 in FIG. 2, the recognition unit 2 uses the type, position, and orientation of the imaging target and time information associated with the captured image as target information, and outputs the target information to the control unit 4.

ここで、その種類が認識対象となる撮像対象については、1種類以上の所定対象(例えば以下の非特許文献2に開示され、拡張現実表示分野等において周知の正方マーカー等)を予め設定しておき、その画像上における特徴情報を予め抽出したうえで認識部2に登録しておく。認識部2では撮像画像より特徴情報を抽出し、当該予め登録されている特徴情報との間でマッチングを行うことにより、撮像画像に撮像されている撮像対象を特定すると共に、相対的な位置及び姿勢を推定する。   Here, for an imaging target whose type is a recognition target, one or more types of predetermined targets (for example, a square marker disclosed in the following Non-Patent Document 2 and known in the augmented reality display field, etc.) are set in advance. The feature information on the image is extracted in advance and registered in the recognition unit 2. The recognition unit 2 extracts feature information from the captured image and performs matching with the pre-registered feature information, thereby specifying the imaging target captured in the captured image, as well as the relative position and Estimate posture.

非特許文献2 加藤, M. Billinghurst, 浅野, 橘, "マーカー追跡に基づく拡張現実感システムとそのキャリブレーション", 日本バーチャルリアリティ学会論文誌, vol.4, 20
no.4, pp.607-617, 1999.
Non-Patent Document 2 Kato, M. Billinghurst, Asano, Tachibana, "Augmented reality system based on marker tracking and its calibration", Transactions of the Virtual Reality Society of Japan, vol.4, 20
no.4, pp.607-617, 1999.

画像に対する特徴情報としては、周知のSIFT特徴量又はSURF特徴量等のような、回転及び拡大縮小あるいは射影変化(射影変換による歪み)のいずれか又はその任意の組み合わせに対して不変な性質を有し、画像の局所領域における相対的な輝度勾配に基づいて算出される局所特徴量を用いることができる。あるいは、同性質を有する周知の ORB特徴量等を用いてもよい。なお、SIFT特徴量は以下の非特許文献3に、SURF 特徴量は以下の非特許文献4に、ORB特徴量は以下の非特許文献5に、それぞれ開示されている。   The feature information for an image has a property that is invariant to any one of rotation and enlargement / reduction, projective change (distortion due to projective transformation), or any combination thereof, such as a well-known SIFT feature amount or SURF feature amount. Then, a local feature amount calculated based on a relative luminance gradient in a local region of the image can be used. Alternatively, a well-known ORB feature amount having the same property may be used. The SIFT feature value is disclosed in Non-Patent Document 3 below, the SURF feature value is disclosed in Non-Patent Document 4 below, and the ORB feature value is disclosed in Non-Patent Document 5 below.

非特許文献3 「D.G.Lowe, Distinctive image features from scale-invariant key points, Proc. of Int. Journal of Computer Vision (IJCV), 60(2) pp.91-110 (2004)」
非特許文献4 「H.Bay, T.Tuytelaars, and L.V.Gool, SURF: Speed Up Robust Features, Proc. of Int. Conf. of ECCV, (2006)」
非特許文献5 「Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski: ORB: An efficient alternative to SIFT or SURF. ICCV 2011: 2564-2571.」
Non-Patent Document 3 “DGLowe, Distinctive image features from scale-invariant key points, Proc. Of Int. Journal of Computer Vision (IJCV), 60 (2) pp.91-110 (2004)”
Non-Patent Document 4 “H. Bay, T. Tuytelaars, and LVGool, SURF: Speed Up Robust Features, Proc. Of Int. Conf. Of ECCV, (2006)”
Non-Patent Document 5 “Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski: ORB: An efficient alternative to SIFT or SURF. ICCV 2011: 2564-2571.”

また、認識部2において撮像対象を特定する際の当該特徴量(特徴情報)同士のマッチングについても、画像認識の分野における周知の各手法を利用することができる。さらに、予め登録しておく撮像対象の特徴情報における画像上の座標情報と、撮像画像より抽出されマッチングされた特徴情報の撮像画像上における座標情報と、を互いに変換する平面射影変換の関係を求めることで、認識部2は撮像対象と撮像部1との間の相対的な位置及び姿勢を算出することができる。当該位置及び姿勢の算出についても、前述の非特許文献2に開示されているような、拡張現実表示分野等における周知手法を利用することができる。   For the matching between the feature amounts (feature information) when the recognition unit 2 specifies the imaging target, each known method in the field of image recognition can be used. Further, a relation of plane projective transformation for mutually converting the coordinate information on the image in the feature information of the imaging target registered in advance and the coordinate information on the captured image of the feature information extracted and matched from the captured image is obtained. Thus, the recognition unit 2 can calculate the relative position and orientation between the imaging target and the imaging unit 1. For the calculation of the position and orientation, a well-known method in the augmented reality display field or the like as disclosed in Non-Patent Document 2 described above can be used.

端末側送信部11は、図2のステップS31において、認識部2で得られ制御部4に出力された対象情報をサーバ20のサーバ側受信部21へと送信する。   The terminal side transmission unit 11 transmits the target information obtained by the recognition unit 2 and output to the control unit 4 to the server side reception unit 21 of the server 20 in step S31 of FIG.

端末側受信部12は、図2のステップS34において、上記の端末側送信部11で送信した対象情報に対する応答としての描画情報をサーバ20のサーバ側送信部22から受信し、制御部4に出力する。   The terminal-side receiving unit 12 receives drawing information as a response to the target information transmitted by the terminal-side transmitting unit 11 from the server-side transmitting unit 22 of the server 20 and outputs it to the control unit 4 in step S34 of FIG. To do.

提示部3は、図2のステップS41,S42において、描画情報と撮像画像とを重畳して生成された提示情報を制御部4から入力し提示する。一実施形態では、当該提示は認識された撮像対象に応じて撮像画像に拡張現実表示を施したものとすることができる。提示部3には、携帯端末等に通常備わるディスプレイを利用することができる。   The presentation unit 3 inputs and presents the presentation information generated by superimposing the drawing information and the captured image from the control unit 4 in steps S41 and S42 in FIG. In one embodiment, the presentation may be an augmented reality display on the captured image in accordance with the recognized imaging target. For the presentation unit 3, a display that is normally provided in a mobile terminal or the like can be used.

制御部4は、図2のステップS11,S13において、指示を与えた撮像部1から撮像時の時刻情報が紐付けられた撮像画像を入力し、ステップS21において、当該撮像画像を認識部2へと出力する。   In steps S11 and S13 of FIG. 2, the control unit 4 inputs a captured image associated with time information at the time of imaging from the imaging unit 1 that has given the instruction, and in step S21, the captured image is input to the recognition unit 2. Is output.

ここで、バッファリング処理として前述したように、一実施形態においては撮像画像を制御部4において一定時間保持しておく。当該一定時間は、認識部2での処理、端末10からサーバ20への送信、描画部6での処理、サーバ20から端末10への送信等にかかる時間を見込んだ長さに設定することが望ましい。   Here, as described above as the buffering process, in one embodiment, the captured image is held in the control unit 4 for a certain period of time. The predetermined time may be set to a length that allows for the time required for processing in the recognition unit 2, transmission from the terminal 10 to the server 20, processing in the drawing unit 6, transmission from the server 20 to the terminal 10, and the like. desirable.

なお、当該設定する長さとはバッファリングする最大サイズ(最大の撮像画像数)である。提示情報を生成するのに既に利用された撮像画像(及びこれより古い撮像画像)を逐次、バッファリング対象から削除する実施形態においては、サーバ20側からの描画情報の受信状況等に応じて、実際にバッファリングされている撮像画像の数は当該最大数以下の範囲で時間変化することとなる。   The set length is the maximum size (the maximum number of captured images) to be buffered. In the embodiment in which captured images (and captured images older than this) already used to generate the presentation information are sequentially deleted from the buffering target, depending on the reception status of the drawing information from the server 20 side, etc. The number of captured images that are actually buffered changes over time in a range equal to or less than the maximum number.

制御部4はまた、図2のステップS23において、認識部2で認識した対象情報を入力し、ステップS31において、当該入力された対象情報を端末側送信部11へと出力する。制御部4はさらに、図2のステップS34において端末側受信部12から描画情報を入力し、ステップS41において、当該入力された描画情報に紐付いた時刻情報とその時刻情報が一致する撮像画像に当該入力された描画情報を重畳することで提示情報を生成し、提示部3へ出力する。   The control unit 4 also inputs the target information recognized by the recognition unit 2 in step S23 of FIG. 2, and outputs the input target information to the terminal side transmission unit 11 in step S31. The control unit 4 further inputs drawing information from the terminal-side receiving unit 12 in step S34 of FIG. 2, and in step S41, the time information associated with the input drawing information matches the captured image whose time information matches. Presentation information is generated by superimposing the input drawing information and output to the presentation unit 3.

すなわち、バッファリング処理として前述したように、入力された描画情報G(t)には時刻tとして時刻情報が含まれるので、時刻情報が一致する撮像画像P(t)に重畳することで、当該時刻tに対応する提示情報D(t)を生成する。当該提示情報D(t)が生成される時点の実時刻は一般に時刻t+n(n≧0)であり、撮像部1では撮像画像P(t+n)が得られているが、制御部4では一定時間分の撮像画像のバッファリングによって、撮像画像P(t)を保持している。   That is, as described above as the buffering process, the input drawing information G (t) includes time information as time t, so that by superimposing on the captured image P (t) where the time information matches, Presentation information D (t) corresponding to time t is generated. The actual time when the presentation information D (t) is generated is generally time t + n (n ≧ 0), and the captured image P (t + n) is obtained in the imaging unit 1, but the control unit In 4, the captured image P (t) is held by buffering the captured image for a certain time.

ここで、描画情報を撮像画像に重畳する際には、後述する描画部6で撮像対象の位置及び姿勢に応じて描画されているため、描画情報に含まれる位置情報に応じて単純に重ね合わせるだけで実現できる。従って、当該重畳処理は、端末10において大きな計算負荷を必要とせず高速に処理することが可能である。   Here, when the drawing information is superimposed on the captured image, since it is drawn according to the position and orientation of the imaging target in the drawing unit 6 described later, it is simply superimposed according to the position information included in the drawing information. Can only be realized. Therefore, the superimposition processing can be performed at high speed without requiring a large calculation load in the terminal 10.

当該重畳する際の一実施形態として、描画情報の伝送時間(図2のステップS34に要する時間)を短縮するため、描画部6の描画の際には描画情報の解像度(サイズ)を小さくしておき、制御部4で描画情報をオリジナルの解像度に変換したうえで、撮像画像に重畳するようにしてもよい。この場合、描画部6ではオリジナルの解像度における描画情報が画像座標で占める範囲の情報と、解像度をオリジナルからどれだけ小さくしたかの情報を紐付けたうえで、小さい解像度で描画された描画情報を端末10側へと送信すればよい。なお、サーバ20の描画部6で描画する描画情報の解像度を小さくすることにより、描画情報の伝送時間の短縮に加えて、描画部6における描画時間を短縮する効果も得られる。   As an embodiment of the superimposition, in order to reduce the transmission time of drawing information (time required for step S34 in FIG. 2), the drawing information resolution (size) is reduced when drawing by the drawing unit 6. Alternatively, the drawing information may be converted into the original resolution by the control unit 4 and then superimposed on the captured image. In this case, the drawing unit 6 associates the information about the range occupied by the drawing information at the original resolution with the image coordinates and the information on how much the resolution is reduced from the original, and then draws the drawing information drawn at a small resolution. What is necessary is just to transmit to the terminal 10 side. Note that, by reducing the resolution of the drawing information drawn by the drawing unit 6 of the server 20, an effect of reducing the drawing time in the drawing unit 6 can be obtained in addition to the reduction of the drawing information transmission time.

あるいは、上記一実施形態に関連する実施形態として、通信(図2のステップS34(あるいはS34及びS31)における通信)のスループットに応じて、描画情報の解像度や圧縮率(通信のための符号化の際の圧縮率)を制御するようにしてもよい。当該通信のスループットは、端末10の制御部4において監視しておき、スループットに応じた解像度及び/又は圧縮率をステップS31における送信情報に追加することで描画部6に指示するようにしてもよいし、描画部6自身がスループットを監視して解像度及び/又は圧縮率を設定するようにしてもよい。   Alternatively, as an embodiment related to the above-described one embodiment, the resolution of the drawing information and the compression rate (encoding for communication) according to the throughput of communication (communication in step S34 (or S34 and S31 in FIG. 2)). (Compression rate) may be controlled. The communication throughput may be monitored by the control unit 4 of the terminal 10, and the rendering unit 6 may be instructed by adding the resolution and / or compression rate corresponding to the throughput to the transmission information in step S31. The drawing unit 6 itself may monitor the throughput and set the resolution and / or compression rate.

一実施形態では、前述のバッファリング処理にて補間処理として言及したように、次のようにしてもよい。すなわち、一定時間分バッファリングされている撮像画像P(t)のいずれの時刻情報tとも一致する描画情報G(t)が存在しない期間(端末10においてサーバ20より未受信の期間)において、次の補間処理を行うようにしてよい。ここで、前述のようにバッファリングされる撮像画像P(t)は、直近時刻tlatestにて対応する描画情報G(tlatest)をサーバ20より取得して対応する提示情報D(tlatest)が実際に生成されたものより後の時刻情報t(t>tlatest)が紐付いているものを対象とする。 In one embodiment, as mentioned as the interpolation process in the buffering process described above, the following may be performed. That is, in a period in which there is no drawing information G (t) that matches any time information t of the captured image P (t) buffered for a certain period of time (period in which the terminal 10 has not received from the server 20), The interpolation processing may be performed. Here, the captured image P (t) buffered as described above is obtained from the server 20 with the corresponding drawing information G (t latest ) acquired at the latest time t latest and the corresponding presentation information D (t latest ). The time information t (t> t latest ) after the one that is actually generated is linked .

補間処理においては、まず、直近時刻の対象情報O(t-n)(当該期間内の対象時刻tとの関係を明示するため、n>0によって直近時刻tlatest=t-nとした)に関して認識部2で算出された相対的な位置及び姿勢C(t-n)を、当該補間しようとしている時刻tにおける対象情報O(t)の位置及び姿勢C(t)に変換する関係H(t-n, t)を求める。 In the interpolating process, first, the recognition unit 2 regards the target information O (tn) at the latest time (in order to clarify the relationship with the target time t within the period, the latest time t latest = tn with n> 0) A relationship H (tn, t) for converting the calculated relative position and orientation C (tn) into the position and orientation C (t) of the target information O (t) at the time t to be interpolated is obtained.

次に、対応する直近時刻の描画情報G(t-n)に、当該変換H(t-n,t)を施すことで補間された描画情報G'(t)を生成し、撮像画像P(t)に重ね合わせることで提示情報D(t)を生成する。当該補間処理により、撮像画像P(t)と描画情報G(t-n)との見かけのズレを抑えたうえで、時刻tの提示情報D(t)を生成することができる。   Next, the interpolated drawing information G ′ (t) is generated by applying the conversion H (tn, t) to the corresponding drawing information G (tn) at the latest time, and is superimposed on the captured image P (t). The presentation information D (t) is generated by combining them. By the interpolation process, it is possible to generate the presentation information D (t) at the time t while suppressing the apparent shift between the captured image P (t) and the drawing information G (t−n).

ここで、変換H(t-n, t)に関しては、正確には認識部2における位置姿勢の算出と同様に平面射影変換として求めることができるが、制御部4における処理の高速化のため、その近似として画像上の移動・拡大縮小の関係として求めるようにしてもよい。   Here, the transformation H (tn, t) can be accurately obtained as a planar projective transformation, similar to the calculation of the position and orientation in the recognition unit 2, but the approximation is made to speed up the processing in the control unit 4. As a relationship of movement / enlargement / reduction on the image.

なお、一定時間分バッファリングしている撮像画像P(t)のうちどの時刻tについて上記補間処理を実施するかについては、一定時間範囲内の所定位置(例えば最新時刻、最古時刻、あるいは中間等の所定位置)の時刻tとすればよい。   It should be noted that for which time t of the captured images P (t) buffered for a certain time, the interpolation processing is performed at a predetermined position within a certain time range (for example, the latest time, the oldest time, or the middle Or the like at a predetermined time such as t).

以上、図1の端末10の各部を説明した。続けて、図1のサーバ20の各部を説明する。   In the above, each part of the terminal 10 of FIG. 1 was demonstrated. Next, each part of the server 20 in FIG. 1 will be described.

サーバ側受信部21は、図2のステップ31において、端末側送信部11の送信した情報すなわち、認識部2で得られた対象情報を受信する。当該受信した対象情報のうち、撮像対象の種類と時刻情報とは記憶部5へ出力される。当該受信した対象情報の内、撮像対象の位置及び姿勢の情報と時刻情報とは描画部6へと出力される。   The server-side receiving unit 21 receives the information transmitted by the terminal-side transmitting unit 11, that is, the target information obtained by the recognizing unit 2 in step 31 of FIG. Of the received target information, the type of imaging target and time information are output to the storage unit 5. Of the received target information, the position and orientation information of the imaging target and the time information are output to the drawing unit 6.

記憶部5は、撮像対象に応じた関連情報を記憶しておき、図2のステップS32において、ステップS31で受信した撮像対象の種類に応じた関連情報を読み出して描画部6へと出力する。   The storage unit 5 stores related information according to the imaging target, reads the related information according to the type of imaging target received at step S31 in step S32 of FIG.

当該関連情報は、最終的に提示部3において撮像画像に対して描画情報として重畳させるための、いわば元データに相当し、撮像対象の特徴情報(認識部2の認識で用いたのと同様の特徴情報)において定められた基準座標系において定義される所定対象として、管理者等が予め用意しておき、記憶部5に記憶させておく。   The relevant information is equivalent to the original data so that the presentation unit 3 finally superimposes it as drawing information on the captured image, and is characteristic information of the imaging target (the same as that used in recognition of the recognition unit 2). An administrator or the like prepares in advance as a predetermined target defined in the reference coordinate system defined in the feature information) and stores it in the storage unit 5.

例えば、撮像対象が前述の非特許文献2に開示されているような正方マーカである場合、当該正方マーカの定める基準座標系における所定の立体物(形状、色、模様等をその定義に含む)等として、周知形式であるCADデータのような形式で関連情報を用意しておくことができる。関連情報は撮像対象の種類毎に定義できるので、用途に応じて提示部3において所望の提示処理が可能となる。   For example, when the imaging target is a square marker as disclosed in Non-Patent Document 2 described above, a predetermined three-dimensional object in a reference coordinate system defined by the square marker (including shape, color, pattern, etc. in its definition) For example, related information can be prepared in a format such as CAD data, which is a well-known format. Since the related information can be defined for each type of imaging target, a desired presentation process can be performed in the presentation unit 3 according to the application.

描画部6は、図2のステップS33において、記憶部5から関連情報を、サーバ側受信部21から位置及び姿勢の情報を入力し、位置及び姿勢に応じて関連情報を描画することで描画情報を生成し、当該描画情報にサーバ側受信部21より入力された時刻情報を紐付ける。   The drawing unit 6 receives the relevant information from the storage unit 5 and the position and orientation information from the server-side receiving unit 21 and draws the relevant information according to the position and orientation in step S33 of FIG. And the time information input from the server-side receiving unit 21 is associated with the drawing information.

描画部6はさらに、図2のステップS34において、描画情報をサーバ側送信部22へ出力する。なお、当該出力される描画情報は時刻情報が紐付けられており、撮像画像に重畳させる際の範囲の情報を含み、解像度の縮小が行われている場合には当該縮小の度合いを表すスケール情報も含んでいる。   The drawing unit 6 further outputs the drawing information to the server side transmission unit 22 in step S34 of FIG. Note that the output drawing information is associated with time information, includes information on the range when superimposed on the captured image, and scale information indicating the degree of reduction when the resolution is reduced. Also included.

ここで、位置及び姿勢に応じた関連情報の描画による描画情報の生成とはすなわち、前述の基準座標系において用意されている元データとしての関連情報が、当該位置及び姿勢で(撮像部1の撮像画像として)見た際に、どのように見えるかを計算して求めることに相当する。すなわち、前述の元データとしての関連情報を位置及び姿勢に応じてレンダリング(3次元レンダリング)することに相当する。当該生成する際の計算については、3次元コンピュータグラフィックス等の分野において周知である。   Here, the generation of the drawing information by drawing the related information according to the position and orientation means that the relevant information as the original data prepared in the reference coordinate system is the position and orientation (of the imaging unit 1). This corresponds to calculating and determining how it will look when viewed (as a captured image). That is, it corresponds to rendering the related information as the above-mentioned original data according to the position and orientation (three-dimensional rendering). The calculation at the time of generation is well known in the field of three-dimensional computer graphics.

この際、最終的に端末10の制御部4で撮像画像と重畳して提示情報を生成させる際に、当該重畳させるだけで提示情報が生成可能なように、描画部6では関連情報だけを描画の対象とする。従って、撮像画像に対応する画面の全体は描画しないことで処理時間を短縮できるとともに、端末10へ向けての当該描画情報の伝送量を最小限に抑えることで伝送時間も短縮できる。また、当該関連情報のみを描画するに際して、最終的に撮像画像に重畳させる際にどのような座標範囲を占めているかという情報も計算することで、制御部4における重畳処理の際に撮像画像との位置合わせの計算を省略させることができる。   At this time, when the presentation information is finally generated by superimposing the captured image on the control unit 4 of the terminal 10, the drawing unit 6 draws only the related information so that the presentation information can be generated only by the superposition. The target of. Therefore, the processing time can be shortened by not drawing the entire screen corresponding to the captured image, and the transmission time can also be shortened by minimizing the amount of drawing information transmitted to the terminal 10. In addition, when only the relevant information is drawn, information on what coordinate range is occupied when finally superimposing on the captured image is also calculated, so that the captured image Can be omitted.

なお、予め定義されている関連情報と描画対象の位置及び姿勢との関係によっては、位置及び姿勢に応じて関連情報を描画した結果、いわば偶然に、撮像画像に対応する画面の全体を占めている場合もありうる。このような場合も画面の一部分として描画することの特別な場合とみなすことができる。   Depending on the relationship between the pre-defined related information and the position and orientation of the drawing target, as a result of drawing the relevant information according to the position and orientation, it may happen that the entire screen corresponding to the captured image is accidentally occupied. It may be. Such a case can also be regarded as a special case of drawing as a part of the screen.

一実施形態では、最終的に提示部3で拡張現実表示させる際に高品位な提示情報を提示させるため、描画部6において、環境マップを考慮して関連情報の位置姿勢に応じた描画情報を描くようにしてもよい。この場合、撮像部1が撮像する環境において事前に、周囲の光源の配置、色および強度等を環境マップとして取得しておき、位置姿勢と関連情報の形状等とに応じて当該環境マップを反映させて描画情報を描くようにすればよい。なお、当該環境マップを考慮した手法は、3次元コンピュータグラフィックス等の分野において周知である。   In one embodiment, in order to finally present the high-quality presentation information when the presentation unit 3 displays augmented reality, the drawing unit 6 displays drawing information corresponding to the position and orientation of the related information in consideration of the environment map. You may make it draw. In this case, in the environment where the imaging unit 1 captures an image, the arrangement, color, intensity, and the like of the surrounding light sources are acquired in advance as an environment map, and the environment map is reflected according to the position and orientation and the shape of the related information. It is sufficient to draw the drawing information. Note that a technique considering the environment map is well known in the field of three-dimensional computer graphics and the like.

一実施形態では、制御部4の説明の際にも言及したように、関連情報の描画時間及び伝送時間を短縮するため、描画部6では描画情報の解像度(サイズ、構成画素数)を小さくして描画情報を生成し、どれだけ小さくしたかに関するスケール情報と描画情報とを制御部4へ送信するようにしてもよい。制御部4では受信した描画情報をスケール情報に従ってオリジナルの解像度へ戻すように変換することで、描画情報を再構成することができる。あるいは、前述のように通信のスループットに応じて、描画情報の解像度や圧縮率を制御することもできる。これにより、描画情報の伝送時間を短縮する効果も得られる。   In one embodiment, as mentioned in the description of the control unit 4, the drawing unit 6 reduces the resolution (size, number of constituent pixels) of the drawing information in order to reduce the drawing time and transmission time of the related information. Then, the drawing information may be generated, and the scale information and the drawing information regarding how small the drawing information may be transmitted to the control unit 4. The control unit 4 can reconstruct the drawing information by converting the received drawing information to return to the original resolution according to the scale information. Alternatively, the resolution and compression rate of the drawing information can be controlled according to the communication throughput as described above. Thereby, the effect of shortening the transmission time of drawing information is also acquired.

なお、記憶部5に予め記憶される関連情報において、重畳される対象となる撮像画像のサイズと描画の際の位置姿勢とに応じた所定解像度(オリジナルの解像度)を予め定義しておく。上記のように解像度を小さく設定する場合は、当該オリジナルの解像度を基準とし、当該基準に対して小さく設定する。   In the related information stored in advance in the storage unit 5, a predetermined resolution (original resolution) corresponding to the size of the captured image to be superimposed and the position and orientation at the time of drawing is defined in advance. When the resolution is set to be small as described above, the original resolution is set as a reference, and the resolution is set to be smaller than the reference.

ここで、オリジナルの解像度(スケールs=1)に対して、どの程度小さい解像度を実際に利用するかは、当該解像度同士の比率としてのスケールsを0<s≦1の範囲で指定することによって決定することができる。この際、前述のように端末10とサーバ20との間の通信のスループットに対する所定の関数式によって当該スケールsを自動的に指定するようにしてもよいし、情報提示システム30を利用するユーザ(管理者を含む)からマニュアルでスケールsの指定を受け付けるようにしてもよい。通信のスループットでスケールsを指定する際は、予め端末10とサーバ20との間で試験通信を行って算出したスループットを固定的に用いてもよいし、情報提示システム30による情報提示を実施しながら逐次的にスループットを算出して、その都度更新されるスループットを用いるようにしてもよい。   Here, how much resolution is actually used with respect to the original resolution (scale s = 1) is determined by specifying the scale s as a ratio between the resolutions in the range of 0 <s ≦ 1. Can be determined. At this time, as described above, the scale s may be automatically designated by a predetermined function formula for the throughput of communication between the terminal 10 and the server 20, or a user (the user who uses the information presentation system 30 ( The specification of the scale s may be received manually from an administrator). When the scale s is designated by the communication throughput, the throughput calculated by performing test communication between the terminal 10 and the server 20 in advance may be used in a fixed manner, or information presentation by the information presentation system 30 may be performed. However, the throughput may be calculated sequentially, and the throughput updated each time may be used.

図4は、以上のように記憶部5にて撮像対象毎に用意され記憶されている関連情報と、描画部6にて関連情報を位置姿勢に応じて描画して得られる描画情報と、制御部4にて撮像画像に描画情報を重畳して得られる提示情報と、を模式的な例によって示す図である。   FIG. 4 shows the related information prepared and stored for each imaging target in the storage unit 5 as described above, the drawing information obtained by drawing the related information according to the position and orientation in the drawing unit 6, and the control. FIG. 4 is a diagram showing a typical example of presentation information obtained by superimposing drawing information on a captured image in a unit 4.

図4にて[1]は、撮像部1が撮像する現場Fの例であり、地面G上に展示台Sが配置され、その上面に所定の撮像対象M(例えば周知の正方マーカ)が配置されている。[1]ではまた、当該現場を時刻t1,t2,t3で撮像部1が撮像した際の位置姿勢C(t1),C(t2),C(t3)が例として示されている。[2]は、撮像対象Mに対応する関連情報Rの例であり、正方マーカとしての撮像対象Mに対し、当該正方形部分を底面とする直方体として関連情報Rが予め用意されている。   In FIG. 4, [1] is an example of the site F that the imaging unit 1 captures, and an exhibition stand S is disposed on the ground G, and a predetermined imaging target M (for example, a well-known square marker) is disposed on the upper surface thereof. Has been. [1] also shows the positions and orientations C (t1), C (t2), and C (t3) when the imaging unit 1 images the scene at times t1, t2, and t3. [2] is an example of the related information R corresponding to the imaging target M. For the imaging target M as a square marker, the related information R is prepared in advance as a rectangular parallelepiped having the square portion as a bottom surface.

なお、[2]では関連情報Rを現場F内の実在物体のようにして描いているが、実際には撮像対象Mの定める基準座標系において定義されたデータが関連情報Rである。最終的に提示部3で拡張現実表示させる際は、[2]に示すような実在物体があたかも存在するかのように、関連情報Rが描画されて提示されることとなる。   In [2], the related information R is drawn as if it were a real object in the field F. Actually, the data defined in the reference coordinate system defined by the imaging target M is the related information R. When the presentation unit 3 finally displays the augmented reality, the related information R is drawn and presented as if the real object as shown in [2] exists.

図4の[1]における時刻t1,t2,t3で撮像部1が位置姿勢C(t1),C(t2),C(t3)で撮像して得られた撮像画像が、それぞれ[3]に撮像画像P(t1),P(t2),P(t3)として示されている。これらは撮像対象Mを概ね正面左側、正面、正面右側からそれぞれ見ている画像である。また、[1]における位置姿勢C(t1),C(t2),C(t3)に応じて描画部6が関連情報Rを描画した描画情報がそれぞれ、[4]に描画情報G(t1),G(t2),G(t3)として示されている。そして、[3]の撮像画像P(t1),P(t2),P(t3)に対して[4]の描画情報G(t1),G(t2),G(t3)を重畳することで制御部4において生成される提示情報がそれぞれ、[5]に提示情報D(t1),D(t2),D(t3)として示されている。   The captured images obtained by the imaging unit 1 imaging at the positions and orientations C (t1), C (t2), and C (t3) at the times t1, t2, and t3 in [1] in FIG. The captured images are shown as P (t1), P (t2), and P (t3). These are images in which the imaging target M is viewed from the front left side, the front side, and the front right side. Further, the drawing information obtained by drawing the related information R by the drawing unit 6 in accordance with the position and orientation C (t1), C (t2), and C (t3) in [1] is the drawing information G (t1) in [4], respectively. , G (t2), G (t3). Then, by superimposing the drawing information G (t1), G (t2), G (t3) of [4] on the captured image P (t1), P (t2), P (t3) of [3] The presentation information generated in the control unit 4 is shown as presentation information D (t1), D (t2), and D (t3) in [5], respectively.

[4]に例示するように、直方体形状で構成された関連情報Rを位置姿勢に応じて描画した描画情報G(t1),G(t2),G(t3)はそれぞれ、[3]の撮像画像P(t1),P(t2),P(t3)のどの範囲にあるかという情報を含んでいるため、位置合わせすることなくそのまま重畳することによって[5]の提示情報D(t1),D(t2),D(t3)が生成可能である。また、描画情報G(t1),G(t2),G(t3)によって描かれた関連情報Rは、撮像画像の全範囲を占めることなく、一部分の範囲のみとして構成されている。(なお、当該描かれた関連情報R以外の領域に関しては、撮像画像に対しては重畳(上書き)を行うことなく撮像画像がそのまま表示される領域である旨の情報のみが描画情報において定義されている領域であるため、その画像データとしてのデータ量はゼロである。)   As illustrated in [4], the drawing information G (t1), G (t2), and G (t3) obtained by drawing the related information R configured in a rectangular parallelepiped shape according to the position and orientation are the imaging of [3]. Since it includes information on which range of the images P (t1), P (t2), and P (t3), it is superimposed as it is without positioning, so that the presentation information D (t1), [5] D (t2) and D (t3) can be generated. In addition, the related information R drawn by the drawing information G (t1), G (t2), and G (t3) is configured as only a partial range without occupying the entire range of the captured image. (Regarding the region other than the drawn related information R, only the information that the captured image is displayed as it is without being superimposed (overwritten) on the captured image is defined in the rendering information. The amount of data as image data is zero because it is a region that is

図5は、解像度を下げた描画情報を模式的に示す図であり、図4の描画情報G(t1)の解像度を半分(スケールs=1/2)に下げた描画情報G(t1)[1/2]が示されている。当該描画情報G(t1)[1/2]を用いる際も、点線で描いている情報G'(t1)として示すように、オリジナルの解像度において関連情報Rを描いた描画情報G(t1)が撮像画像内において占める範囲の情報は、制御部4へと送信されることとなる。制御部4では、スケール情報(s=1/2)に従って描画情報G(t1)[1/2]を2倍に拡大してオリジナルの解像度に戻したうえで、情報G'(t1)で指定される撮像画像内の範囲に配置して、本来の描画情報G(t1)に相当するものを再構成する。 FIG. 5 is a diagram schematically illustrating the drawing information with a reduced resolution. The drawing information G (t1) [[ 1] in which the resolution of the drawing information G (t1) in FIG. 4 is reduced to half (scale s = 1/2) . 1/2] is shown. Even when using the drawing information G (t1) [1/2] , the drawing information G (t1) depicting the related information R at the original resolution is shown as the information G ′ (t1) drawn in dotted lines. Information on the range occupied in the captured image is transmitted to the control unit 4. In the control unit 4, the drawing information G (t1) [1/2] is doubled according to the scale information (s = 1/2 ) to return to the original resolution, and then specified by the information G ′ (t1) Then, it is arranged in a range within the captured image to reconstruct what corresponds to the original drawing information G (t1).

サーバ側送信部22は、図2のステップS34において、描画部6で描画した描画情報を入力し、当該描画情報を端末10の端末側受信部12へと送信する。   The server-side transmission unit 22 inputs the drawing information drawn by the drawing unit 6 in step S34 in FIG. 2 and transmits the drawing information to the terminal-side receiving unit 12 of the terminal 10.

以上、図1の各部を説明した。本発明は、次のような効果を奏することができる。描画部6はサーバ20に備わる構成であるため、関連情報に位置姿勢を考慮した描画を行うに際して、当該描画が前述のような環境マップを考慮した一般に計算負荷の高い処理であっても、端末10の側に計算負荷をかけることがない。また、サーバ20と端末10との間のデータ送受も、常に画像全体を送受するといったことはせずに必要な情報のみを送受するので、伝送量が抑制され、膨大な伝送量による大きな遅延は発生しない。また、発生する最低限の遅延に関しても、前述のバッファリング処理によって吸収することで、ユーザ感覚としては概ねリアルタイムで提示部3における提示処理を実現することができる。   In the above, each part of FIG. 1 was demonstrated. The present invention can produce the following effects. Since the drawing unit 6 is a configuration provided in the server 20, when drawing is performed in consideration of the position and orientation in the related information, even if the drawing is processing that is generally computationally expensive considering the environment map as described above, the terminal There is no computational load on the 10 side. In addition, since data transmission / reception between the server 20 and the terminal 10 does not always transmit / receive the entire image, only necessary information is transmitted / received, so the transmission amount is suppressed, and a large delay due to a huge transmission amount is not caused. Does not occur. Further, by absorbing the minimum delay that occurs by the buffering process described above, the presentation process in the presentation unit 3 can be realized almost in real time as a user feeling.

本発明は、コンピュータを端末10又はサーバ20として機能させるそれぞれのプログラムとしても提供可能である。当該コンピュータには、CPU(中央演算装置)、メモリ及び各種I/Fといった周知のハードウェア構成のものを採用することができ、CPUがコンピュータを端末10又はサーバ20の各部の機能に対応する命令を実行することとなる。   The present invention can also be provided as each program that causes a computer to function as the terminal 10 or the server 20. The computer can adopt a known hardware configuration such as a CPU (Central Processing Unit), a memory, and various I / Fs, and the CPU instructs the computer to correspond to the functions of each part of the terminal 10 or the server 20. Will be executed.

10…端末、20…サーバ、30…情報提示システム、1…撮像部、2…認識部、3…提示部、4…制御部、11…端末側送信部、12…端末側受信部、5…記憶部、6…描画部、21…サーバ側受信部、22…サーバ側送信部   DESCRIPTION OF SYMBOLS 10 ... Terminal, 20 ... Server, 30 ... Information presentation system, 1 ... Imaging part, 2 ... Recognition part, 3 ... Presentation part, 4 ... Control part, 11 ... Terminal side transmission part, 12 ... Terminal side reception part, 5 ... Storage unit, 6 ... drawing unit, 21 ... server side receiving unit, 22 ... server side transmitting unit

Claims (8)

提示情報を提示する端末と、当該端末と通信するサーバとを備える情報提示システムであって、
前記端末は、
撮像を行い撮像画像を取得する撮像部と、
前記撮像画像より所定の撮像対象を認識し、その前記撮像部に対する位置及び姿勢を算出し、当該認識された撮像対象の種類並びに当該算出された位置及び姿勢を対象情報とする認識部と、
前記対象情報を前記サーバに送信する端末側送信部と、
前記サーバが描画した描画情報を前記サーバより受信する端末側受信部と、
前記受信した描画情報を前記撮像画像に重畳して提示情報を生成する制御部と、
前記生成された提示情報を提示する提示部と、を含み、
前記サーバは、
撮像対象ごとに予め用意された関連情報であって且つ所定の拡張現実表示のために構成された当該関連情報を記憶する記憶部と、
前記端末側送信部より送信された対象情報を受信するサーバ側受信部と、
前記受信した対象情報における撮像対象に対応した関連情報を前記記憶部から読み出し、前記受信した対象情報における位置及び姿勢に応じて当該読み出した関連情報を描画することによって描画情報を生成する描画部と、
前記描画された描画情報を前記端末に送信するサーバ側送信部と、を含むことを特徴とする情報提示システム。
An information presentation system comprising a terminal that presents presentation information and a server that communicates with the terminal,
The terminal
An imaging unit that performs imaging and obtains a captured image;
A recognition unit that recognizes a predetermined imaging target from the captured image, calculates a position and orientation relative to the imaging unit, and uses the type of the recognized imaging target and the calculated position and orientation as target information;
A terminal-side transmitter that transmits the target information to the server;
A terminal-side receiving unit that receives drawing information drawn by the server from the server;
A controller that generates presentation information by superimposing the received drawing information on the captured image;
A presentation unit for presenting the generated presentation information,
The server
A storage unit that stores relevant information that is prepared in advance for each imaging target and configured for predetermined augmented reality display;
A server-side receiving unit that receives target information transmitted from the terminal-side transmitting unit;
A drawing unit that reads the related information corresponding to the imaging target in the received target information from the storage unit and generates the drawing information by drawing the read related information according to the position and orientation in the received target information; ,
And a server-side transmitter that transmits the drawn drawing information to the terminal.
前記認識部は、前記撮像画像より、拡大縮小、回転、輝度変化、射影変化のいずれか若しくは任意の組み合わせに対して不変な性質を有した画像特徴量を抽出し、複数種類の所定の撮像対象の各々の画像につき予め抽出された当該性質を有する画像特徴量とマッチングすることにより、前記認識し前記算出することを特徴とする請求項1に記載の情報提示システム。   The recognition unit extracts, from the captured image, an image feature amount that has an invariable property with respect to any one or any combination of enlargement / reduction, rotation, luminance change, projective change, and a plurality of types of predetermined imaging targets. The information presentation system according to claim 1, wherein the recognition and the calculation are performed by matching with an image feature amount having the property extracted in advance for each of the images. 前記撮像部は、各々の撮像の際の時刻情報を紐付けたうえで、時間軸上にて所定レートで連続的に撮像画像を取得し、
前記認識部では、前記撮像の際に紐付けられた時刻情報を紐付けたうえで前記対象情報とし、
前記描画部では、前記対象情報に紐付けられた時刻情報を紐付けたうえで前記描画情報を生成し、
前記制御部では、前記時刻情報が紐付いいた撮像画像を一定時間分だけバッファリングしておき、当該バッファリングされた撮像画像のうち紐付いた時刻情報が前記受信した描画情報に紐付いた時刻情報と一致する撮像画像に対して、前記受信した描画情報を重畳することで、前記提示情報を生成することを特徴とする請求項1または2に記載の情報提示システム。
The imaging unit, after associating time information at the time of each imaging, continuously acquires captured images at a predetermined rate on the time axis,
In the recognizing unit, after associating time information associated with the imaging, the target information,
The drawing unit generates the drawing information after associating the time information associated with the target information,
In the control unit, the captured image associated with the time information is buffered for a certain amount of time, and the time information associated with the buffered captured image is associated with the time information associated with the received drawing information. The information presentation system according to claim 1, wherein the presentation information is generated by superimposing the received drawing information on a matching captured image.
前記制御部では、前記受信した描画情報が複数存在する場合に、紐付いた時刻情報が最新である描画情報を前記撮像画像に重畳して前記提示情報を生成することを特徴とする請求項3に記載の情報提示システム。   The said control part produces | generates the said presentation information by superimposing the drawing information with the newest time information linked | attached on the said captured image, when the received said drawing information exists in multiple numbers. Information presentation system described. 前記制御部では、前記紐付いた時刻情報が最新である描画情報を前記撮像画像に重畳して提示情報を生成した後、新たな描画情報が前記端末側受信部において未受信である期間に、
当該期間において前記取得された撮像画像において前記認識部で算出された位置及び姿勢と、前記最新である描画情報が重畳された撮像画像において前記認識部で算出された位置及び姿勢と、の変換関係を求め、
当該期間において前記取得された撮像画像に対して、前記最新である描画情報を前記変換関係で変形したものを重畳することで、前記提示情報を生成することを特徴とする請求項4に記載の情報提示システム。
In the control unit, after the presentation information is generated by superimposing the drawing information with the latest associated time information on the captured image, new drawing information is not received in the terminal-side receiving unit.
Conversion relationship between the position and orientation calculated by the recognition unit in the acquired captured image in the period and the position and orientation calculated by the recognition unit in the captured image on which the latest drawing information is superimposed Seeking
The said presentation information is produced | generated by superimposing what changed the said latest drawing information by the said conversion relation with respect to the said captured image acquired in the said period. Information presentation system.
前記記憶部は、撮像対象ごとに予め用意され、所定対象を重畳させることで実現される所定の拡張現実表示のために構成された関連情報を記憶し、
前記描画部は、前記関連情報を、前記所定対象が前記受信した対象情報における位置及び姿勢において撮像画像内で占める画像として描画することで、当該撮像画像内で占める範囲の情報を紐付けて前記描画情報を生成し、
前記制御部は、前記描画情報を重畳するに際して、前記紐付けられた範囲の情報に従って重畳することを特徴とする請求項1ないし5のいずれかに記載の情報提示システム。
The storage unit is prepared in advance for each imaging target, stores related information configured for predetermined augmented reality display realized by superimposing a predetermined target,
The drawing unit draws the related information as an image that the predetermined target occupies in the captured image at the position and orientation in the received target information, thereby associating information on a range occupied in the captured image with the information Generate drawing information,
6. The information presentation system according to claim 1, wherein the control unit superimposes the drawing information according to the information of the linked range when superimposing the drawing information.
前記記憶部は、撮像対象ごとに予め用意され、所定の拡張現実表示のために構成され、所定解像度で与えられている関連情報を記憶し、
前記描画部にて前記読み出した関連情報を描画することで描画情報を生成するに際しては、前記端末と前記サーバとの間の通信スループットに基づいて定まるスケール又はユーザが指定したスケールに従って、前記所定解像度以下の解像度で与えられた関連情報が利用されることを特徴とする請求項1ないし6のいずれかに記載の情報提示システム。
The storage unit is prepared in advance for each imaging target, configured for a predetermined augmented reality display, stores related information given at a predetermined resolution,
When generating the drawing information by drawing the read related information in the drawing unit, the predetermined resolution according to a scale determined based on a communication throughput between the terminal and the server or a scale specified by a user. 7. The information presentation system according to claim 1, wherein related information given at the following resolution is used.
前記サーバ側送信部は、前記描画情報に前記スケールの情報を含めて前記端末へと送信し、
前記制御部は、前記所定解像度以下の解像度で与えられた関連情報が利用されて前記描画された描画情報を、前記スケールの情報に従って前記所定解像度へと戻したうえで、前記提示情報を生成することを特徴とする請求項7に記載の情報提示システム。
The server-side transmission unit transmits the drawing information including the scale information to the terminal,
The control unit uses the related information given at a resolution equal to or lower than the predetermined resolution to return the drawn drawing information to the predetermined resolution according to the scale information, and then generates the presentation information. The information presentation system according to claim 7.
JP2014210714A 2014-10-15 2014-10-15 Information presentation system and terminal Active JP6521352B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014210714A JP6521352B2 (en) 2014-10-15 2014-10-15 Information presentation system and terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014210714A JP6521352B2 (en) 2014-10-15 2014-10-15 Information presentation system and terminal

Publications (2)

Publication Number Publication Date
JP2016081225A true JP2016081225A (en) 2016-05-16
JP6521352B2 JP6521352B2 (en) 2019-05-29

Family

ID=55956298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014210714A Active JP6521352B2 (en) 2014-10-15 2014-10-15 Information presentation system and terminal

Country Status (1)

Country Link
JP (1) JP6521352B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019123971A1 (en) * 2017-12-18 2019-06-27 株式会社日立システムズ Ar information providing system and information processing device
JP2020014361A (en) * 2018-07-20 2020-01-23 中国電力株式会社 Information processing device and information processing system
JP2021033377A (en) * 2019-08-15 2021-03-01 Kddi株式会社 Information terminal device, program, presentation system and server
WO2022179311A1 (en) * 2021-02-26 2022-09-01 维沃移动通信有限公司 Display method and apparatus, and electronic device
JP7429633B2 (en) 2020-12-08 2024-02-08 Kddi株式会社 Information processing systems, terminals, servers and programs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11177628A (en) * 1997-12-15 1999-07-02 Mitsubishi Electric Corp Three-dimension virtual space common share system for broad area environment
JP2008146109A (en) * 2006-12-05 2008-06-26 Canon Inc Image processing method and image processor
US20130147837A1 (en) * 2011-12-13 2013-06-13 Matei Stroila Augmented reality personalization
JP2014071850A (en) * 2012-10-02 2014-04-21 Osaka Prefecture Univ Image processing apparatus, terminal device, image processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11177628A (en) * 1997-12-15 1999-07-02 Mitsubishi Electric Corp Three-dimension virtual space common share system for broad area environment
JP2008146109A (en) * 2006-12-05 2008-06-26 Canon Inc Image processing method and image processor
US20130147837A1 (en) * 2011-12-13 2013-06-13 Matei Stroila Augmented reality personalization
JP2014071850A (en) * 2012-10-02 2014-04-21 Osaka Prefecture Univ Image processing apparatus, terminal device, image processing method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019123971A1 (en) * 2017-12-18 2019-06-27 株式会社日立システムズ Ar information providing system and information processing device
JP2019109319A (en) * 2017-12-18 2019-07-04 株式会社日立システムズ AR information providing system and information processing apparatus
JP2020014361A (en) * 2018-07-20 2020-01-23 中国電力株式会社 Information processing device and information processing system
JP2021033377A (en) * 2019-08-15 2021-03-01 Kddi株式会社 Information terminal device, program, presentation system and server
JP7261121B2 (en) 2019-08-15 2023-04-19 Kddi株式会社 Information terminal device and program
JP7429633B2 (en) 2020-12-08 2024-02-08 Kddi株式会社 Information processing systems, terminals, servers and programs
WO2022179311A1 (en) * 2021-02-26 2022-09-01 维沃移动通信有限公司 Display method and apparatus, and electronic device

Also Published As

Publication number Publication date
JP6521352B2 (en) 2019-05-29

Similar Documents

Publication Publication Date Title
JP6425780B1 (en) Image processing system, image processing apparatus, image processing method and program
US8941750B2 (en) Image processing device for generating reconstruction image, image generating method, and storage medium
US10026230B2 (en) Augmented point cloud for a visualization system and method
JP2020507850A (en) Method, apparatus, equipment, and storage medium for determining the shape of an object in an image
CN109743626B (en) Image display method, image processing method and related equipment
US8817046B2 (en) Color channels and optical markers
KR101932537B1 (en) Method and Apparatus for displaying the video on 3D map
JP7058277B2 (en) Reconstruction method and reconfiguration device
US11830103B2 (en) Method, apparatus, and computer program product for training a signature encoding module and a query processing module using augmented data
JP6521352B2 (en) Information presentation system and terminal
EP3826309A2 (en) Method and apparatus for processing video
CN113220251B (en) Object display method, device, electronic equipment and storage medium
US20190259198A1 (en) Systems and methods for generating visual representations of a virtual object for display by user devices
JPWO2021076757A5 (en)
CN110060354B (en) Positioning and interaction method of real image in virtual space
JP2018073366A (en) Image processing apparatus, image processing method, and program
KR100521728B1 (en) Video geographic information system
JP6341540B2 (en) Information terminal device, method and program
CN111932446B (en) Method and device for constructing three-dimensional panoramic map
JP7290584B2 (en) Information systems, terminals, servers and programs
US20200410734A1 (en) Spatial reproduction method and spatial reproduction system
WO2021248432A1 (en) Systems and methods for performing motion transfer using a learning model
CN111524240A (en) Scene switching method and device and augmented reality equipment
JP2017215706A (en) Video synthesis method, video acquisition device, video synthesis system, and computer program
JP7261121B2 (en) Information terminal device and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190418

R150 Certificate of patent or registration of utility model

Ref document number: 6521352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150