JP2016036106A - Information processing apparatus, information processing method and program - Google Patents
Information processing apparatus, information processing method and program Download PDFInfo
- Publication number
- JP2016036106A JP2016036106A JP2014158874A JP2014158874A JP2016036106A JP 2016036106 A JP2016036106 A JP 2016036106A JP 2014158874 A JP2014158874 A JP 2014158874A JP 2014158874 A JP2014158874 A JP 2014158874A JP 2016036106 A JP2016036106 A JP 2016036106A
- Authority
- JP
- Japan
- Prior art keywords
- display
- superimposed
- information
- related information
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
従来、実写映像からオブジェクトを認識し、当該オブジェクトに関連する電子情報を電子映像化して実写映像に重畳表示する拡張現実(あるいは仮想現実)と呼ばれる技術において、電子映像化された情報の可読性や視認性を改善する方法が提案されている。特許文献1には、天候や撮影地といった撮影状況に応じて電子映像の表示態様を変更する方法が示されている。また、特許文献2には、実写映像の撮影視野とオブジェクトの位置関係を利用して、可視オブジェクトの情報と、該オブジェクトと関連性のある不可視オブジェクトの情報を同時に表示することで、関連する情報をまとめて閲覧する方法が示されている。 Conventionally, in a technology called augmented reality (or virtual reality) in which an object is recognized from a live-action video, and electronic information related to the object is converted into an electronic video and superimposed on the live-action video, the readability and visual recognition of the information that has been converted into electronic video A method for improving the performance has been proposed. Patent Document 1 discloses a method for changing the display mode of an electronic video according to shooting conditions such as weather and shooting location. Further, Patent Document 2 discloses related information by simultaneously displaying information on a visible object and information on an invisible object related to the object by using a positional relationship between the shooting field of view of the live-action video and the object. It shows how to browse all of them.
実写映像からオブジェクトを認識して関連する電子映像を重畳して表示する方法において、電子映像を安定して表示するためにはオブジェクトの認識が途切れないよう撮影視野内にオブジェクトを安定して留めておく必要がある。一方、拡張現実表示を実行する装置としては、タブレットやメガネ型ディスプレイのようにカメラとディスプレイが一体となったデバイスが一般に用いられる。こうしたデバイスでは、ユーザの手や顔の動きに応じて撮影視野が容易に変動するため、撮影視野内にオブジェクトを安定させるのが難しい。
そのため、例えばユーザの不意な動作によってオブジェクトが撮影視野から外れて認識できなくなると、電子映像の表示が中断されてしまいユーザが安定して情報を閲覧することができないという課題がある。また、撮影視野内に戻したオブジェクトが再認識された際に表示済の情報が再表示されると、効率的に情報を閲覧することができないという課題がある。前述の先行技術では、これらの課題が解決されていなかった。
In a method of recognizing an object from a live-action video and superimposing and displaying related electronic video, in order to display the electronic video stably, keep the object stable in the field of view so that the recognition of the object is not interrupted. It is necessary to keep. On the other hand, as an apparatus for executing augmented reality display, a device in which a camera and a display are integrated, such as a tablet or a glasses-type display, is generally used. In such a device, the photographing field of view easily fluctuates in accordance with the movement of the user's hand or face, so it is difficult to stabilize the object within the photographing field of view.
For this reason, for example, when an object moves out of the field of view and cannot be recognized due to a user's unexpected operation, there is a problem that display of an electronic video is interrupted and the user cannot view information stably. In addition, there is a problem that information cannot be browsed efficiently if displayed information is displayed again when an object returned to the field of view is re-recognized. In the above-described prior art, these problems have not been solved.
本発明はこのような問題点に鑑みなされたもので、不安定な位置変動を行うデバイスを用いた拡張現実表示システムにおいて、安定して実写映像の関連情報を重畳表示することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to stably superimpose and display related information of a live-action video in an augmented reality display system using a device that performs unstable position fluctuation.
そこで、本発明は、情報処理装置であって、表示装置に表示中の撮影画像からオブジェクトを認識する認識処理と、前記オブジェクトに関連する関連情報を抽出する抽出処理と、前記関連情報を、前記撮影画像に重畳して前記表示装置に表示する表示処理とを含む重畳表示処理を行う重畳表示手段と、前記認識処理において認識されたオブジェクトが継続して認識されているか否かを監視する監視手段とを有し、前記重畳表示手段は、前記オブジェクトが前記監視手段により認識されなくなった場合に、前記重畳表示処理の進行状況に基づいて、前記重畳表示処理を継続又は停止することを特徴とする。 Therefore, the present invention is an information processing apparatus, a recognition process for recognizing an object from a captured image being displayed on a display device, an extraction process for extracting related information related to the object, and the related information, Superimposing display means for performing superimposing display processing including display processing for superimposing on a captured image and displaying on the display device; and monitoring means for monitoring whether or not the object recognized in the recognition processing is continuously recognized. And when the object is no longer recognized by the monitoring unit, the superimposed display means continues or stops the superimposed display process based on the progress of the superimposed display process. .
本発明によれば、不安定な位置変動を行うデバイスを用いた拡張現実表示システムにおいて、安定して撮影画像の関連情報を重畳表示することができる。 According to the present invention, it is possible to stably superimpose and display related information of a captured image in an augmented reality display system using a device that performs unstable position fluctuation.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(第1の実施形態)
図1は、第1の実施形態に係る情報処理システムを示す図である。情報処理装置の一例としてのタブレット端末101は、拡張現実(AR)表示処理を実行する。すなわち、タブレット端末101は、撮影デバイスと表示デバイスとを備え、撮影デバイスで撮影している実世界のオブジェクト104の映像(動画像)に、電子情報を映像化した電子映像を重畳して表示する。ここで実世界のオブジェクトとは地図、紙文書や建造物等、実在の物体全般を示す。
(First embodiment)
FIG. 1 is a diagram illustrating an information processing system according to the first embodiment. The
オブジェクトデータベース(DB)102は、実世界のオブジェクトと1対1に紐付けられたオブジェクト情報を登録したデータベースである。オブジェクトDB102を用いることにより、実世界のオブジェクトを一意に特定可能な情報を検索条件として、オブジェクト情報を検索・取得することが可能である。関連情報データベース(DB)103は、オブジェクトDB102に登録されているオブジェクト情報の関連情報を登録したデータベースである。関連情報は、動画であるものとする。なお、関連情報は、テキスト情報や静止画でもよい。すなわち、関連情報は、任意の形式の情報である。また、1つのオブジェクトに対して複数の関連情報が対応付けられても良い。前述のオブジェクト情報には、関連情報にアクセスするためのデータが登録される。
The object database (DB) 102 is a database in which object information associated with a real-world object on a one-to-one basis is registered. By using the
本システムでは、WWW(World Wide Web)を関連情報データベースとして用いるものとし、オブジェクト情報には、関連情報の情報源のURL(Uniform Resource Locator)を登録する。タブレット端末101、オブジェクトDB102、関連情報DB103は、それぞれネットワーク105に接続しており、相互に通信可能な状態となっている。
In this system, WWW (World Wide Web) is used as the related information database, and the URL (Uniform Resource Locator) of the information source of the related information is registered in the object information. The
図2(a)は、本実施形態に係る情報処理システムにおいて、実世界のオブジェクト104として用いられる印刷物の一例を示す図である。印刷物200には、二次元バーコード201が印刷されている。二次元バーコード201は、この印刷物200を一意に特定するオブジェクト識別子をコード化したものである。オブジェクト識別子は、オブジェクトDB102にオブジェクト情報として登録されているものとする。なお、説明を簡単にするため、本情報処理システムでは、二次元バーコードを用いて実世界のオブジェクトを特定する方法を用いるが、これ以外の方法を利用しても本発明は実施可能である。例えば、情報処理システムは、撮像データから画像特徴量を抽出してオブジェクトを識別する方法でオブジェクトを特定してもよい。また、例えば、情報処理システムは、RFID(Radio Frequency IDentification)のように撮像データ以外の情報に基づいてオブジェクトを特定してもよい。
FIG. 2A is a diagram illustrating an example of a printed material used as the
図2(b)は、タブレット端末101の表示装置の表示例を示す図である。表示装置210には、撮影デバイスにより撮影された印刷物200が表示されている。さらに、印刷物200から特定された二次元バーコードに対応付けられている関連情報としての電子映像211,212が重畳して表示されている。図2(b)に示す例においては、タブレット端末101は、印刷物200の図表に関連する電子映像211,222をポップアップ表示している。
FIG. 2B is a diagram illustrating a display example of the display device of the
次に、情報処理システムによる、タブレット端末101への拡張現実表示処理の概略を説明する。まず、ユーザがタブレット端末101で印刷物200を撮影すると、タブレット端末101は、印刷物200の二次元バーコード201を認識し、二次元バーコード201からオブジェクト識別子を検出する。次に、タブレット端末101は、オブジェクトDB102に接続し、検出したオブジェクト識別子を検索条件として、オブジェクト情報を検索し、これを取得する。続いて、タブレット端末101は、取得したオブジェクト情報から関連情報DB103にアクセスするためのURLを抽出する。次に、タブレット端末101は、抽出したURLにアクセスして関連情報を取得して、タブレット端末101に表示するための電子映像を生成する。最後に、タブレット端末101は、印刷物200の撮影画像に、生成した電子映像を重畳して表示する。以上の手順により、拡張現実表示を行う。
Next, an outline of augmented reality display processing on the
図3は、タブレット端末101のハードウェア構成を示す図である。CPU301は、OS(Operating System)及び各種アプリケーションプログラムを実行し、タブレット端末101の各部の制御を行う。ROM302は、CPU301が実行するプログラムや演算用のパラメタのうちの固定的なデータを格納する。RAM303は、CPU301の作業領域やデータの一時記憶領域を提供する。ROM302及びRAM303は、バス304を介してCPU301に接続される。なお、後述するタブレット端末101の機能や処理は、CPU301がROM302等に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
FIG. 3 is a diagram illustrating a hardware configuration of the
入力装置305、CRT、液晶ディスプレイ等の表示装置210、ハードディスク装置、MO、CD−ROM等の外部記憶装置307及び撮影装置308は、インタフェース309を介してバス304に接続されている。また、バス304は、通信装置310を介してネットワーク105と接続される。
An
図4は、タブレット端末101のソフトウェア構成を示す図である。タブレット端末101は、受付部401と、撮影制御部402と、重畳表示処理部410と、監視部407とを有している。受付部401は、入力装置305を介してユーザにより入力された情報を受け付ける。撮影制御部402は、撮影装置308を制御し、実世界のオブジェクトを被写体とする撮影画像を生成する。ここで、撮影画像は、動画像であるものとする。
FIG. 4 is a diagram illustrating a software configuration of the
重畳表示処理部410は、拡張現実(AR)表示処理としての重畳表示処理を行う。重畳表示処理部410は、表示処理部403と、オブジェクト認識部404と、オブジェクト管理部405と、関連情報管理部406とを有しており、これら各部の協働により重畳表示処理が実現される。すなわち、表示処理部403は、得られた撮影画像を表示装置210に表示し、さらに、撮影画像から得られたオブジェクトの関連情報を撮影画像に重畳して表示する(表示処理)。オブジェクト認識部404は、動画を解析し、オブジェクトとしての二次元バーコードを検出する(認識処理)。オブジェクト管理部405は、オブジェクトとしての二次元バーコードを解析し、オブジェクト識別子を特定する。オブジェクト管理部405はまた、オブジェクト認識部404により検出されたオブジェクトの記録や、オブジェクトDB102とのデータの授受を管理する。関連情報管理部406は、オブジェクト認識部404が認識した実世界のオブジェクトの関連情報としての動画を関連情報DB103から抽出する(抽出処理)。なお、関連情報が動画を生成するための情報である場合には、関連情報管理部406は、関連情報から動画を生成し、これを表示処理部403に送る。
The superimposed
監視部407は、重畳表示処理部410による重畳表示処理が開始すると、オブジェクト認識部404により認識されたオブジェクトが継続して認識されているか否かを監視する。そして、監視部407は、オブジェクトが認識されなくなると、重畳表示処理の進行状況に基づいて、重畳表示処理を継続するか停止するかを判断し、判断結果に応じて、重畳表示処理部410に指示を出す。
When the superimposed display processing by the superimposed
次に、本実施形態に係るタブレット端末101が利用するデータについて説明する。図5は、オブジェクトDB102に登録されるオブジェクト情報501のデータ構成の一例を示す図である。オブジェクト識別子502は、実世界のオブジェクトを一意に特定する識別子である。関連情報識別子503は、この実世界のオブジェクトの関連情報にアクセスするための情報で、前述の通り、本実施形態に係る情報処理システムにおいては、関連情報識別子503として、関連情報の情報源のURLが登録される。また、関連情報が複数存在する場合は、1つのオブジェクト識別子502対応付けて、複数の関連情報識別子503が列挙される。
Next, data used by the
図6は、オブジェクト管理部405により利用される状況管理情報601のデータ構成の一例を示す図である。状況管理情報601は、オブジェクトに対する重畳表示処理の進行状況を管理するための情報である。オブジェクト識別子602には、オブジェクト管理部405により特定されたオブジェクト識別子が記録される。認識状態603には、タブレット端末101によるオブジェクトの認識処理に係る状態が記録される。本実施形態においては、認識状態として、以下に示す2つの状態のうち何れかが記録される。
認識状態「1」:検出
認識状態「2」:認識
FIG. 6 is a diagram illustrating an example of a data configuration of the
Recognition state “1”: Detection Recognition state “2”: Recognition
また、処理状態604には、認識されたオブジェクトに対するオブジェクト処理に係る状態が記録される。本実施形態においては、処理状態として、以下に示す7つの状態のうち何れかが記録される。
処理状態「1」:オブジェクト認識済
処理状態「2」:オブジェクト識別子取得中
処理状態「3」:オブジェクト識別子取得済
処理状態「4」:関連情報取得中
処理状態「5」:関連情報取得済
処理状態「6」:表示中
処理状態「7」:表示済
なお、認識状態及び処理状態は、重畳表示処理部410の進行状況を示す情報の一例である。表示位置情報605は、タブレット端末101の表示装置210が関連情報のどの部分まで表示したかを記録するものである。本実施形態においては、動画であるため、最後に表示した動画フレーム番号が記録されるものとする。
In the
Processing state “1”: Object recognized Processing state “2”: Object identifier being acquired Processing state “3”: Object identifier already acquired Processing state “4”: Relevant information being acquired Processing state “5”: Relevant information already acquired State “6”: Displaying Processing state “7”: Displayed Note that the recognition state and the processing state are examples of information indicating the progress status of the superimposed
図7〜図9は、タブレット端末101による、重畳表示処理を示すフローチャートである。S701において、受付部401は、入力装置305への開始指示の入力を待つ。受付部401は、開始指示を受け付けると(S701でYes)、処理をS702へ進める。S702において、撮影制御部402は、撮影を開始する。次に、S703において、表示処理部403は、S702において得られた撮影画像の表示装置210への表示を開始する。
7 to 9 are flowcharts showing the superimposing display process by the
次に、S704において、オブジェクト認識部404は、撮影画像の解析を行い、オブジェクトとしての二次元バーコードを検出する。次に、S705において、オブジェクト認識部404は、検出されたオブジェクトが再検出オブジェクトか否かを確認する。ここで、再検出オブジェクトとは、過去に検出済みのオブジェクトと同一のオブジェクトである。具体的には、オブジェクト認識部404は、過去に検出済みのオブジェクトを記録しており、今回得られたオブジェクトと記録されているオブジェクトとを比較する。そして、オブジェクト認識部404は、両者の類似度が閾値以上である場合に、検出されたオブジェクトが再検出オブジェクトであると判断する。
In step S704, the
オブジェクト認識部404は、検出されたオブジェクトが再検出オブジェクトの場合には(S705でYes)、処理を図9に示すS901へ進める。オブジェクト認識部404は、検出されたオブジェクトが再検出オブジェクトでない場合には(S705でNo)、処理をS706へ進める。S706において、オブジェクト管理部405は、状況管理情報601を生成し、これをRAM303等に記録する。なお、このとき、状況管理情報601のオブジェクト識別子602、認識状態603、処理状態604、表示位置情報605は、未設定である。次に、S707において、オブジェクト管理部405は、状況管理情報601の認識状態603に「1(検出)」をセットする。
If the detected object is a redetected object (Yes in S705), the
次に、S708において、オブジェクト管理部405は、オブジェクトとしての二次元バーコードを復号化してオブジェクト識別子を特定する。次に、S709において、オブジェクト管理部405は、状況管理情報601の処理状態604に「1(オブジェクト認識済)」をセットする。次に、S710において、オブジェクト管理部405は、特定されたオブジェクト識別子を状況管理情報601のオブジェクト識別子602に設定する。次に、S711において、オブジェクト管理部405は、状況管理情報601の認識状態603を、「2(認識)」に更新する。
In step S708, the
次に、S712において、オブジェクト管理部405は、通信装置310を介してオブジェクトDB102に接続し、特定されたオブジェクト識別子がオブジェクトDB102に登録されているか否かを確認する。オブジェクト管理部405は、特定されたオブジェクト識別子が登録されている場合には(S712でYes)、処理をS713へ進める。オブジェクト管理部405は、特定されたオブジェクト識別子が登録されていない場合には(S712でNo)、処理をS714へ進める。S713において、関連情報管理部406は、関連情報を重畳表示するための処理、即ち関連情報管理処理を行う。S713における詳細な処理については、図8を参照しつつ説明する。一方、S714において、オブジェクト管理部405は、S706において記録した状況管理情報601を削除し、重畳表示処理を終了する。
In step S <b> 712, the
図8は、関連情報表示処理における、詳細な処理を示すフローチャートである。S801において、オブジェクト管理部405は、状況管理情報601の処理状態604を「2(オブジェクト情報取得中)」に更新する。次に、S802において、オブジェクト管理部405は、オブジェクトDB102から、特定されたオブジェクト識別子を含むオブジェクト情報501を受信し、これをRAM303等に記録する。次に、S803において、オブジェクト管理部405は、状況管理情報601の処理状態を「3(オブジェクト情報取得済)」に変更する。
FIG. 8 is a flowchart showing detailed processing in the related information display processing. In step S <b> 801, the
次に、S804において、関連情報管理部406は、状況管理情報601から関連情報識別子として記録されているURLを抽出する。次に、S805において、関連情報管理部406は、状況管理情報601の処理状態を「4(関連情報取得中)」に更新する。次に、S806において、関連情報管理部406は、URLを利用して、関連情報DB103から関連情報を受信し、これをRAM303等に記録する。次に、S807において、関連情報管理部406は、状況管理情報601の処理状態を「5(関連情報取得済)」に更新する。
In step S <b> 804, the related
次に、S808において、表示処理部403は、関連情報としての動画を表示装置210が表示中の撮影画像上に重畳して表示する。これにより、拡張現実表示が実現される。なお、表示処理部403は、関連情報が電子映像を生成するための情報である場合には、関連情報から電子映像を生成し、これを撮影画像上に重畳して表示する。次に、S809において、表示処理部403は、処理状態を「6(表示中)」に更新する。次に、表示処理部403は、関連情報としての動画の再生が終了したか否かを確認する。表示処理部403は、動画の再生が終了すると(S809でYes)、処理をS812へ進める。S812において、表示処理部403は、処理状態を「7(表示済)」に更新する。以上で、重畳表示処理が完了する。
In step S <b> 808, the
次に、図9を参照しつつ、検出されたオブジェクトが再検出オブジェクトである場合の処理について説明する。S901において、オブジェクト管理部405は、S704において検出されたオブジェクトのオブジェクト識別子を特定する。次に、S902において、オブジェクト管理部405は、状況管理情報601のオブジェクト識別子602と、特定されたオブジェクト識別子とを比較する。オブジェクト管理部405は、両者が一致する場合には(S902でYes)、処理をS903へ進める。オブジェクト管理部405は、両者が一致しない場合には(S902でNo)、処理をS706へ進め、新たなオブジェクトが認識されたものとして、処理を進める。
Next, processing when the detected object is a redetected object will be described with reference to FIG. In step S901, the
S903において、オブジェクト管理部405は、処理状態を確認する。オブジェクト管理部405は、処理状態が「7(表示済)」の場合には(S903でYes)、処理をS904へ進める。オブジェクト管理部405は、処理状態が「7(表示済)」以外である場合には(S903でNo)、既に検出済みのオブジェクトに対し、S706〜S713の処理が実行中であるため、新たな処理を行うことなく、重畳表示処理を終了する。一方で、S904においては、オブジェクト管理部405は、状況管理情報601を削除する。以上で、重畳表示処理を終了する。以上のように、タブレット端末101は、同一のオブジェクトが再検出された場合には、重畳表示処理を最初から実行し直すのではなく、実行中の処理を継続する。
In step S903, the
図10は、タブレット端末101による、監視処理を示すフローチャートである。監視処理は、重畳表示処理の進行状況を監視する処理である。S1001において、監視部407は、S704においてオブジェクトが検出されると、その後、オブジェクトが継続して検出(認識)できているかの監視を開始する。監視部407は、オブジェクトが検出されなくなった場合には(S1001でYes)、処理をS1002へ進める。S1002において、監視部407は、状況管理情報601が記録されているか否かを確認する。監視部407は、状況管理情報601が記録されている場合には(S1002でYes)、処理をS1003へ進める。監視部407は、状況管理情報601が記録されていない場合には(S1002でNo)、監視処理を終了する。
FIG. 10 is a flowchart showing monitoring processing by the
S1003において、監視部407は、状況管理情報601の認識状態603を確認する。認識状態603が「1(検出)」の場合には(S1003でYes)、処理をS1006へ進める。監視部407はまた、認識状態603が「1」以外の場合には(S1003でNo)、処理をS1004へ進める。S1004において、監視部407は、処理状態604を確認する。監視部407は、処理状態604が「7(表示済)」の場合には(S1004でYes)、処理をS1006へ進める。監視部407はまた、処理状態604が「7」以外の場合には(S1004でNo)、処理をS1005へ進める。
In step S <b> 1003, the
S1005において、監視部407は、重畳表示処理部410に対し、重畳表示処理の停止を指示することなく、そのまま監視処理を終了する。すなわち、この場合には、重畳表示処理部410は、重畳表示処理を継続して実行する。例えば、S1005の実行時において、処理状態604に「2(オブジェクト情報取得中)」が設定され、S802の処理の実行中である場合には、オブジェクト管理部405は、S802の処理を継続する。また、S802、S803の処理が完了し、処理状態604に「3(オブジェクト情報取得済)」が設定されている場合には、オブジェクト管理部405は、処理をS804へ進める。また、例えば、S1005の実行時に処理状態604に「5(表示中)」が設定され、表示装置210への関連情報の重畳表示中である場合には、オブジェクト管理部405は、重畳表示処理を継続する。
In step S <b> 1005, the
なお、他の例としては、S1005において、関連情報を重畳表示する場合、すなわちオブジェクト検出の中断中における重畳表示の際には、表示処理部403は、重畳表示の表示形態を、オブジェクト検出の継続中の重畳表示の表示形態と異ならせてもよい。具体的には、表示処理部403は、関連情報のポップアップ表示の色を変更してもよい。また、他の例としては、表示処理部403は、オブジェクトが認識できなくなっていることを示すアイコンを追加表示してもよい。これにより、ユーザは、撮影視野が変動したことに容易に気付くことができる。
As another example, in the case where related information is displayed in a superimposed manner in S1005, that is, in the case of a superimposed display while the object detection is suspended, the
一方、S1006において、監視部407は、状況管理情報601を削除する。次に、S1007において、監視部407は、重畳表示処理部410に対し、実行中の重畳表示処理の停止を指示する。さらに、監視部407は、重畳表示処理部410に対し、重畳表示処理の再スタートを指示する。これに対応し、重畳表示処理部410は、実行中の重畳表示処理を停止し、新たな重畳表示処理をS701から再スタートする。このように、監視部407は、関連情報の再生表示が終了していた場合には、重畳表示処理の停止を指示する。
On the other hand, in S1006, the
このように、本実施形態に係る情報処理システムにおいては、検出されていたオブジェクトが撮影視野から外れてしまった場合であっても、継続して関連情報を表示することができる。すなわち、情報処理システムは、安定して撮影画像の関連情報を重畳表示することができる。 Thus, in the information processing system according to the present embodiment, related information can be continuously displayed even when the detected object is out of the field of view. That is, the information processing system can stably superimpose and display related information of a captured image.
(第2の実施形態)
第2の実施形態に係る情報処理システムは、ユーザにより選択されたオブジェクトに対してのみ、オブジェクトの検出が中断された場合に継続して拡張現実表示を行う。以下、第2の実施形態に係る情報処理システムについて、第1の実施形態に係る情報処理システムと異なる点について説明する。図11は、指示管理情報1101のデータ構成の一例を示す図である。指示管理情報1101は、重畳表示処理部410により利用される情報である。指示管理情報1101は、オブジェクト識別子1102と、関連情報表示指示1103とを含む。オブジェクト識別子1102には、ユーザにより選択されたオブジェクトの識別子が記録される。関連情報表示指示1103には、ユーザから当該オブジェクトの関連情報の継続指示が入力されたか否かを示す情報が記録される。ここで、継続指示とは、オブジェクトが検出されなくなった場合に、オブジェクトに対応する関連情報の重畳表示の継続を指示する情報である。なお、継続指示が入力された場合には、関連情報表示指示1103に「正」が記録され、継続指示が入力されなかった場合には、関連情報表示指示1103には、「否」が記録される。
(Second Embodiment)
The information processing system according to the second embodiment performs the augmented reality display continuously when the detection of the object is interrupted only for the object selected by the user. Hereinafter, the difference between the information processing system according to the second embodiment and the information processing system according to the first embodiment will be described. FIG. 11 is a diagram illustrating an example of a data configuration of the
図12及び図13は、重畳表示処理を示すフローチャートである。なお、第1の実施形態に係る重畳表示処理の各処理と同一の処理には、同一の番号を付している。第2の実施形態に係るタブレット端末101は、S704の処理の後、S1201へ処理を進める。S1201において、表示処理部403は、問合せ画面を表示する。図14は、問い合わせ画面1401の表示例を示す図である。問い合わせ画面1401は、オブジェクトが検出されなくなった場合に、関連情報の重畳表示を継続するか否かをユーザに問い合わせるための画面である。その後、S1202において、オブジェクト管理部405は、ユーザによる継続指示の入力を受け付けたか否かを確認する。オブジェクト管理部405は、継続指示の入力を受け付けると(S1202でYes)、処理をS1203へ進める。
12 and 13 are flowcharts showing the superimposed display process. In addition, the same number is attached | subjected to the process same as each process of the superimposition display process which concerns on 1st Embodiment. The
S1203において、オブジェクト管理部405は、「正」を示す指示管理情報1101を生成する。具体的に、オブジェクト管理部405は、S407において検出されたオブジェクトのオブジェクト識別子を特定し、これをオブジェクト識別子1102に記録する。さらに、関連情報表示指示1103に「正」を記録する。その後、オブジェクト管理部405は、生成した指示管理情報1101をRAM303等に記録し、その後、処理をS705へ進める。オブジェクト管理部405は、一定時間表示指示を受け付けない状態で、一定時間が経過すると、継続指示を受け付けなかったと判断し(S1202でNo)、処理をS1204へ進める。S1204において、オブジェクト管理部405は、「否」を示す指示管理情報1101を生成する。その後、オブジェクト管理部405は、生成した指示管理情報1101をRAM303等に記録し、その後、重畳表示処理を終了する。
In step S1203, the
図13は、S704において検出されたオブジェクトが再検出オブジェクトである場合の処理を示すフローチャートである。なお、第1の実施形態に係る処理と同一の処理には、同一の番号を付している。すなわち、S704において、オブジェクト認識部404は、検出されたオブジェクトが再検出オブジェクトである場合には(S704でYes)、処理をS1301へ進める。S1301において、オブジェクト管理部405は、オブジェクト識別子を特定する。次に、S1302において、オブジェクト管理部405は、指示管理情報1101の関連情報表示指示1103を確認する。オブジェクト管理部405は、関連情報表示指示1103に「正」が記録されている場合には(S1302でYes)、処理をS901へ進める。一方、オブジェクト管理部405は、関連情報表示指示1103に「否」が記録されている場合には(S1302でNo)、重畳表示処理を終了する。
FIG. 13 is a flowchart illustrating a process when the object detected in S704 is a rediscovered object. In addition, the same number is attached | subjected to the process same as the process which concerns on 1st Embodiment. In other words, if the detected object is a re-detected object in S704 (Yes in S704), the
図15は、監視処理を示すフローチャートである。なお、第1の実施形態に係る監視処理の各処理と同一の処理には、同一の番号を付している。第2の実施形態に係る監視処理においては、S1001において、オブジェクトが検出されなくなった場合には(S1001でYes)、処理をS1501へ進める。S1501において、監視部407は、指示管理情報1101の関連情報表示指示1103を確認する。監視部407は、関連情報表示指示1103に「正」が記録されている場合には(S1501でYes)、処理をS1002へ進める。一方、監視部407は、関連情報表示指示1103に「否」が記録されている場合には(S1501でNo)、監視処理を終了する。なお、第2の実施形態に係る情報処理システムのこれ以外の構成及び処理は、他の実施形態に係る情報処理システムの構成及び処理と同様である。
FIG. 15 is a flowchart showing the monitoring process. In addition, the same number is attached | subjected to the process same as each process of the monitoring process which concerns on 1st Embodiment. In the monitoring process according to the second embodiment, if no object is detected in S1001 (Yes in S1001), the process proceeds to S1501. In step S1501, the
以上のように、第2の実施形態に係る情報処理システムは、ユーザの意図に応じて、オブジェクトが認識されなくなった場合に関連情報の表示を継続して行うか否かを選択することができる。すなわち、情報処理システムは、ユーザの指示に従うことにより、オブジェクトの認識状態の変化が不意な撮影視野の変動によるものなのか、ユーザの意図的な撮影視野の変更によるものなのかを判断することが可能となる。それにより、情報処理システムは、前者なら関連情報の表示状態を維持し、後者なら関連情報の表示を終了するというように、適切な処理を実行することが可能となる。さらに、情報処理システムは、不要な関連情報が表示されるのを抑制することで情報の閲覧性を向上させることができる。 As described above, the information processing system according to the second embodiment can select whether to continuously display related information when an object is no longer recognized, according to the user's intention. . That is, the information processing system can determine whether the change in the recognition state of the object is due to an unexpected change in the shooting field of view or the intentional change of the shooting field of view of the user by following a user instruction. It becomes possible. As a result, the information processing system can execute an appropriate process such that the display state of the related information is maintained in the former case and the display of the related information is ended in the latter case. Furthermore, the information processing system can improve the browsing property of information by suppressing unnecessary related information from being displayed.
第2の実施形態に係る情報処理システムの変更例としては、関連情報の表示を行うか否かをユーザに問い合わせるタイミングは、実施形態に限定されるものではない。情報処理システムは、例えば、関連情報を受信した後、又は関連情報の表示が開始された後にユーザへの問い合わせ(問い合わせ画面の表示)を行ってもよい。 As a modification example of the information processing system according to the second embodiment, the timing of inquiring the user whether or not to display related information is not limited to the embodiment. For example, the information processing system may make an inquiry (display of an inquiry screen) to the user after receiving the related information or after the display of the related information is started.
(第3の実施形態)
第3の実施形態に係る情報処理システムは、関連情報を表示中のオブジェクトが撮影視野から外れた状態で一定時間が経過すると、重畳表示処理を停止する。以下、第3の実施形態に係る情報処理システムについて、第1の実施形態に係る情報処理システムと異なる点について説明する。図16は、第3の実施形態に係るタブレット端末101のハードウェア構成を示す図である。第3の実施形態に係るタブレット端末101は、時間計測を行うタイマー1601をさらに有している。
(Third embodiment)
The information processing system according to the third embodiment stops the superimposition display process when a certain period of time elapses in a state in which the object displaying the related information is out of the field of view. Hereinafter, the difference between the information processing system according to the third embodiment and the information processing system according to the first embodiment will be described. FIG. 16 is a diagram illustrating a hardware configuration of the
図17は、第3の実施形態に係る監視処理を示すフローチャートである。監視部407は、S1004において、処理状態604が「7」以外の場合には(S1004でNo)、処理をS1701へ進める。S1701において、監視部407は、タイマー1601に待ち時間T1をセットする。ここで、T1は、予め設定された値であり、ROM302等に記録されている。さらに、監視部407は、タイマー1601に対し、T1の時間計測の開始を指示する。タイマー1601は、開始指示に従い、T1の時間計測を開始する。その後、監視部407は、処理をS1005へ進め、重畳表示処理部410に対し、重畳表示処理の停止を指示することなく、さらに処理をS1702へ進める。
FIG. 17 is a flowchart showing the monitoring process according to the third embodiment. If the
S1702において、監視部407は、T1が経過したか否かを確認する。監視部407は、T1が経過した場合には(S1702でYes)、処理をS1705へ進める。監視部407は、T1が経過していない場合には(S1702でNo)、処理をS1703へ進める。S1703において、監視部407は、S705において検出されたオブジェクトが再検出されたか否かを確認する。監視部407は、オブジェクトが再検出された場合には(S1703でYes)、処理をS1704へ進める。監視部407は、オブジェクトが再検出されていない場合には(S1703でNo)、処理をS1702へ進める。なお、監視部407は、新たなオブジェクトが検出された場合には、オブジェクトの再検出ではないため、処理をS1702へ進める。S1704において、監視部407は、タイマー1601にT1の時間計測の終了を指示し、監視処理を終了する。
In S1702, the
S1705において、監視部407は、タイマー1601にT1の時間計測の終了を指示する。次に、S1706において、監視部407は、重畳表示処理部410に対し、実行中の重畳表示処理の停止を指示する。これに対応し、重畳表示処理部410は、実行中の重畳表示処理を停止する。次に、S1707において、監視部407は、処理状態を確認する。監視部407は、処理状態が「5(関連情報取得済み)」又は「6(表示中)」の場合には(S1707でYes)、処理をS1708へ進める。監視部407は、処理状態が「5」及び「6」以外の場合には(S1707でNo)、処理をS1709へ進める。S1708において、監視部407は、RAM303等に記録されている関連情報を削除する。次に、S1709において、監視部407は、RAM303等に記録されている状況管理情報601を削除する。以上で、監視処理が終了する。なお、第3の実施形態に係る情報処理システムのこれ以外の構成及び処理は、他の実施形態に係る情報処理システムの構成及び処理と同様である。
In step S1705, the
以上のように、第3の実施形態に係る情報処理システムは、一定時間が経過するまで、実行中の重畳表示処理を継続し、一定時間が経過した場合に、重畳表示処理を終了する。例えば、タブレット端末101を携帯するユーザの不意な動き等により、オブジェクトが撮影視野から外れた場合には、その後直ちにオブジェクトが撮影視野に戻ると推測される。一方で、オブジェクトが撮影視野から外れたままある程度の時間が経過した場合には、ユーザが意図的にオブジェクトを撮影視野から外したと推測される。これに対応し、第3の実施形態に係る情報処理システムは、オブジェクトが検出されなくなってからの時間を考慮して、重畳表示処理を継続することとした。これにより、情報処理システムは、撮影画像中からオブジェクトが消失した理由がユーザの意図によるものか否かに応じて、適切な表示処理を行うことができる。
As described above, the information processing system according to the third embodiment continues the superimposed display process that is being executed until a predetermined time has elapsed, and ends the superimposed display process when the predetermined time has elapsed. For example, when an object moves out of the shooting field of view due to an unexpected movement of the user carrying the
また、第4の実施形態に係る情報処理システムの変更例について説明する。タブレット端末101は、T1の経過前にオブジェクトが再検出され、実行中の重畳表示処理を継続する場合の、関連情報の重畳表示の表示形態を、オブジェクト検出が中断することなく継続中である場合の重畳表示の表示形態と異ならせてもよい。
A modification example of the information processing system according to the fourth embodiment will be described. When the
(第4の実施形態)
第4の実施形態に係る情報処理システムは、第3の実施形態に係る情報処理システムと同様に、オブジェクトが検出されなくなってからの経過時間を考慮して、重畳表示処理を制御する。そして、第4の実施形態に係る情報処理システムにおいては、タブレット端末101は、重畳表示の停止後、再度オブジェクトが検出された場合に、重畳表示を再開する。さらに、タブレット端末101は、重畳表示を再開する際に、関連情報の前回表示時の停止位置から続けて再生表示する。以下、第4の実施形態に係る情報処理システムについて、第3の実施形態に係る情報処理システムと異なる点について説明する。
(Fourth embodiment)
Similar to the information processing system according to the third embodiment, the information processing system according to the fourth embodiment controls the superimposed display processing in consideration of the elapsed time after the object is no longer detected. In the information processing system according to the fourth embodiment, the
図18及び図19は、第4の実施形態に係る監視処理を示すフローチャートである。図18に示すように、S1705の処理の後、監視部407は、処理をS1801へ進める。S1801において、監視部407は、処理状態を確認する。監視部407は、処理状態が「6(表示中)」の場合には(S1801でYes)、処理をS1901(図19)へ進める。監視部407は、処理状態が「6」以外の場合には(S1801でNo)、処理をS1706へ進める。そして、S1706の処理の後、監視部407は、処理をS1802へ進める。S1802において、監視部407は、処理状態を確認する。監視部407は、処理状態が「5(関連情報取得済)」の場合には(S1802でYes)、処理をS1708へ進める。監視部407は、処理状態が「5」以外の場合には(S1802でNo)、処理をS1709へ進める。
18 and 19 are flowcharts showing the monitoring process according to the fourth embodiment. As illustrated in FIG. 18, after the processing of S1705, the
図19に示すS1901において、監視部407は、状況管理情報601の表示位置情報605に、関連情報の表示を停止した際に表示されていた再生位置、すなわち停止位置を記録する(記録処理)。次に、S1902において、監視部407は、タイマー1601に、新たな待ち時間T2をセットする。ここで、T2は、予め設定された値であり、ROM302等に記録されている。なお、T1とT2は等しい値でもよく、異なる値でもよい。さらに、監視部407は、タイマー1601に対し、T2の時間計測の開始を指示する。タイマー1601は、開始指示に従い、T2の時間計測を開始する。次に、S1903において、監視部407は、重畳表示処理部410に対し、関連情報の重畳表示の停止を指示する。そして、重畳表示処理部410は、指示に従い、重畳表示を停止する。
In S1901 shown in FIG. 19, the
次に、S1904において、監視部407は、T2が経過したか否かを確認する。監視部407は、T2が経過した場合には(S1904でYes)、処理をS1909へ進める。監視部407は、T2が経過していない場合には(S1904でNo)、処理をS1905へ進める。S1905において、監視部407は、S705において検出されたオブジェクトが再検出されたか否かを確認する。監視部407は、オブジェクトが再検出された場合には(S1905でYes)、処理をS1906へ進める。監視部407は、オブジェクトが再検出されない場合には(S1905でNo)、処理をS1904へ進める。S1906において、監視部407は、タイマー1601に対し、T2の時間計測の停止を指示する。タイマー1601は、指示に従い、時間計測を停止する。次に、S1907において、監視部407は、状況管理情報601の表示位置情報605を読み出し、停止位置を再生開始位置として決定する。次に、監視部407は、決定した再生開始位置から表示情報の重畳表示(S808)を再スタートする。以上で、監視処理が終了する。
Next, in S1904, the
一方、S1909においては、監視部407は、タイマー1601に対し、T2の時間計測の停止を指示する。タイマー1601は、指示に従い、時間計測を停止する。次に、S1910において、監視部407は、RAM303等に記録されている関連情報を削除する。次に、S1911において、監視部407は、RAM303等に記録されている状況管理情報を削除する。以上で、監視処理が終了する。なお、第4の実施形態に係る情報処理システムのこれ以外の構成及び処理は、他の実施形態に係る情報処理システムの構成及び処理と同様である。
On the other hand, in S1909, the
以上のように、本実施形態に係る情報処理システムにおいては、タブレット端末101は、既に表示済みの部分をスキップし、前回の停止位置から残りの部分の再生表示を開始することができる。これにより、ユーザは、同じ情報を繰り返し見る必要がなくなり、効率的に情報を得ることができる。
As described above, in the information processing system according to the present embodiment, the
なお、第4の実施形態に係る情報処理システムの第1の変更例としては、タブレット端末101は、前回の停止位置から再生表示を開始するか、関連情報の先頭から再度再生表示を行うかをユーザからの指示に従い切り替えることとしてもよい。
As a first modification of the information processing system according to the fourth embodiment, whether the
また、第2の変更例としては、関連情報は、静止画やテキストであってもよい。関連情報がスクロール形式で順次表示される静止画であるとする。この場合、監視部407は、S1901において、表示済みの領域を識別する情報を、状況管理情報601の表示位置情報605に記録する。また、関連情報がスクロール形式で順次表示されるテキストの場合には、監視部407は、表示済みの行数を表示位置情報605に記録する。
As a second modification, the related information may be a still image or text. Assume that the related information is still images that are sequentially displayed in a scroll format. In this case, the
(第5の実施形態)
第5の実施形態に係る情報処理システムにおいては、タブレット端末101は、タブレット端末101本体の動きに基づいて、重畳表示処理を制御する。以下、第5の実施形態に係る情報処理システムについて、他の実施形態に係る情報処理システムと異なる点について説明する。図20は、タブレット端末101のハードウェア構成を示す図である。第5の実施形態に係るタブレット端末101は、タブレット端末101の動きや姿勢を検出する加速度センサ2001をさらに有している。
(Fifth embodiment)
In the information processing system according to the fifth embodiment, the
図21は、第5の実施形態に係る監視処理を示すフローチャートである。S2101において、監視部407は、加速度センサ2001に対し、計測開始を指示する。加速度センサ2001は、開始指示に従い、動き量の計測を開始する。その後、監視部407は、処理をS1001へ進める。S1001において、監視部407は、オブジェクトが検出されなくなった場合には(S1001でYes)、処理をS2102へ進める。S2102において、監視部407は、加速度センサ2001による計測結果としての動き量を取得する(取得処理)。次に、S2103において、監視部407は、計測結果として得られた計測値と、閾値S1,S2とを比較する。ここで、閾値S1,S2は、予め定められた値であり、ROM302等に記録されているものとする。なお、S2は、S1に比べて小さい値である。
FIG. 21 is a flowchart illustrating the monitoring process according to the fifth embodiment. In step S <b> 2101, the
監視部407は、計測値が閾値S1よりも小さく、かつ閾値S2よりも大きい場合には(S2103でYes)、処理をS1002へ進める。一方で、監視部407は、計測値が閾値S1以上、又は閾値S2以下の場合には(S2103でNo)、処理をS2104へ進め、重畳表示処理を継続する。閾値S1以上となるような急峻な動きが計測された場合には、オブジェクトが撮影視野から外れたのは、タブレット端末101のユーザの意図しない動きが原因であり、ユーザの意図によるものではないと推測される。また、動きが少なく、閾値S2以下となる場合には、撮影画像からオブジェクトが検出されなくなったのは、タブレット端末101とオブジェクトの間に遮蔽物が移動してきた場合等、外的環境の変動が原因であり、ユーザの意図によるものではないと推測される。そこで、これらの場合には、タブレット端末101は、重畳表示処理を継続することとした。なお、第5の実施形態に係る情報処理システムのこれ以外の構成及び処理は、他の実施形態に係る情報処理システムの構成及び処理と同様である。
When the measured value is smaller than the threshold value S1 and larger than the threshold value S2 (Yes in S2103), the
以上のように、第5の実施形態に係る情報処理システムは、撮影画像中からオブジェクトが消失した理由がユーザの意図によるものか否かを推測し、推測結果に応じて、適切な表示処理を行うことができる。 As described above, the information processing system according to the fifth embodiment estimates whether the reason for the disappearance of the object from the captured image is due to the user's intention, and performs an appropriate display process according to the estimation result. It can be carried out.
<その他の実施形態>
また、本発明の目的は、以下のようにすることによって達成されることは言うまでもない。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。
そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、ソフトウェアのプログラムコードは、ネットワークを介して、そのシステムあるいは装置に供給されてもよい。
<Other embodiments>
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) that records a program code (computer program) of software that implements the functions of the above-described embodiments is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium.
Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Moreover, the program code of software may be supplied to the system or apparatus via a network.
また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)等が実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 An operating system (OS) operating on the computer performs part or all of the actual processing based on the instruction of the program code read by the computer. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
Furthermore, it is assumed that the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing, and the processing of the above-described embodiment is realized by the processing. Needless to say.
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.
以上、上述した各実施形態によれば、不安定な位置変動を行うデバイスを用いた拡張現実表示システムにおいて、安定して撮影画像の関連情報を重畳表示することを目的とする。ことができる。 As described above, according to each of the above-described embodiments, an object is to stably superimpose and display related information of a captured image in an augmented reality display system using a device that performs unstable position fluctuation. be able to.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
101 タブレット端末
102 オブジェクトDB
103 関連情報DB
101
103 Related information DB
Claims (14)
前記認識処理において認識されたオブジェクトが継続して認識されているか否かを監視する監視手段と
を有し、
前記重畳表示手段は、前記オブジェクトが前記監視手段により認識されなくなった場合に、前記重畳表示処理の進行状況に基づいて、前記重畳表示処理を継続又は停止することを特徴とする情報処理装置。 A recognition process for recognizing an object from a captured image being displayed on a display device, an extraction process for extracting related information related to the object, and a display for displaying the related information superimposed on the captured image and displayed on the display device Superimposing display means for performing superimposing display processing including processing;
Monitoring means for monitoring whether or not the object recognized in the recognition process is continuously recognized,
The information processing apparatus according to claim 1, wherein the superimposed display unit continues or stops the superimposed display process based on a progress of the superimposed display process when the object is no longer recognized by the monitoring unit.
前記重畳表示手段は、前記オブジェクトが認識されなくなった時に、前記関連情報としての動画像の再生表示が終了していた場合には、前記重畳表示処理を停止することを特徴とする請求項1に記載の情報処理装置。 The related information is a moving image,
The superimposing display unit stops the superimposing display process when the reproduction display of the moving image as the related information is finished when the object is no longer recognized. The information processing apparatus described.
重畳表示を停止したときに表示されていた関連情報の停止位置を記録する記録手段をさらに有し、
前記重畳表示手段は、前記重畳表示処理が停止した後、認識されなくなったオブジェクトが再び認識された場合に、前記関連情報を前記停止位置から再生表示することを特徴とする請求項4に記載の情報処理装置。 The related information is a moving image,
It further has a recording means for recording the stop position of the related information displayed when the superimposed display is stopped,
5. The superimposing display unit reproduces and displays the related information from the stop position when an object that is no longer recognized is recognized again after the superimposing display process is stopped. Information processing device.
前記重畳表示手段は、前記表示処理において、前記関連情報を一部ずつ順次表示し、
重畳表示を停止したときに表示されていた関連情報の停止位置を記録する記録手段をさらに有し、
前記重畳表示手段は、前記重畳表示処理が停止した後、認識されなくなったオブジェクトを再び認識した場合に、前記関連情報を前記停止位置から重畳表示することを特徴とする請求項4に記載の情報処理装置。 The related information is a still image or text information,
The superimposed display means sequentially displays the related information part by part in the display process,
It further has a recording means for recording the stop position of the related information displayed when the superimposed display is stopped,
The information according to claim 4, wherein the superimposed display unit displays the related information in a superimposed manner from the stop position when recognizing an object that is no longer recognized after the superimposed display process is stopped. Processing equipment.
前記重畳表示手段は、前記オブジェクトを認識できなくなった時に、前記動き量が第1の閾値よりも大きい場合に、前記重畳表示処理を継続することを特徴とする請求項1乃至6何れか1項に記載の情報処理装置。 Further comprising an acquisition means for acquiring a movement amount of the information processing apparatus;
The superimposition display unit continues the superimposition display process when the amount of movement is larger than a first threshold when the object cannot be recognized. The information processing apparatus described in 1.
前記重畳表示手段は、前記オブジェクトを認識できなくなった時に、前記動き量が閾値よりも小さい場合に、前記重畳表示処理を継続することを特徴とする請求項1乃至6何れか1項に記載の情報処理装置。 Further comprising an acquisition means for acquiring a movement amount of the information processing apparatus;
The superimposition display means continues the superimposition display processing when the amount of movement is smaller than a threshold when the object cannot be recognized. Information processing device.
前記監視手段は、前記受付手段が前記継続指示を受け付けた場合に、前記重畳表示処理を監視することを特徴とする請求項1乃至9何れか1項に記載の情報処理装置。 And further has a receiving means for receiving an instruction to continue the superimposed display process from the user,
The information processing apparatus according to claim 1, wherein the monitoring unit monitors the superimposed display process when the receiving unit receives the continuation instruction.
前記認識処理において認識されたオブジェクトが継続して認識されているか否かを監視する監視手段と
を有し、
前記重畳表示手段は、前記オブジェクトが前記監視手段により認識されなくなった場合に、前記重畳表示処理の進行状況に基づいて、前記重畳表示処理を継続又は停止することを特徴とする情報処理システム。 A recognition process for recognizing an object from a captured image being displayed on a display device, an extraction process for extracting related information related to the object, and a display for displaying the related information superimposed on the captured image and displayed on the display device Superimposing display means for performing superimposing display processing including processing;
Monitoring means for monitoring whether or not the object recognized in the recognition process is continuously recognized,
The superimposing display means continues or stops the superimposing display process based on the progress of the superimposing display process when the object is no longer recognized by the monitoring means.
表示装置に表示中の撮影画像からオブジェクトを認識する認識処理と、前記オブジェクトに関連する関連情報を抽出する抽出処理と、前記関連情報を、前記撮影画像に重畳して前記表示装置に表示する表示処理とを含む重畳表示処理を行う重畳表示ステップと、
前記認識処理において認識されたオブジェクトが継続して認識されているか否かを監視する監視ステップと
を含み、
前記重畳表示ステップにおいて、前記オブジェクトが前記監視ステップにおいて認識されなくなった場合に、前記重畳表示処理の進行状況に基づいて、前記重畳表示処理を継続又は停止することを特徴とする情報処理方法。 An information processing method executed by an information processing apparatus,
A recognition process for recognizing an object from a captured image being displayed on a display device, an extraction process for extracting related information related to the object, and a display for displaying the related information superimposed on the captured image and displayed on the display device A superimposed display step for performing superimposed display processing including processing;
A monitoring step of monitoring whether or not the object recognized in the recognition process is continuously recognized,
In the superimposed display step, when the object is no longer recognized in the monitoring step, the superimposed display process is continued or stopped based on the progress of the superimposed display process.
表示装置に表示中の撮影画像からオブジェクトを認識する認識処理と、前記オブジェクトに関連する関連情報を抽出する抽出処理と、前記関連情報を、前記撮影画像に重畳して前記表示装置に表示する表示処理とを含む重畳表示処理を行う重畳表示ステップと、
前記認識処理において認識されたオブジェクトが継続して認識されているか否かを監視する監視ステップと
を含み、
前記重畳表示ステップにおいて、前記オブジェクトが前記監視ステップにおいて認識されなくなった場合に、前記重畳表示処理の進行状況に基づいて、前記重畳表示処理を継続又は停止することを特徴とする情報処理方法。 An information processing method executed by an information processing system,
A recognition process for recognizing an object from a captured image being displayed on a display device, an extraction process for extracting related information related to the object, and a display for displaying the related information superimposed on the captured image and displayed on the display device A superimposed display step for performing superimposed display processing including processing;
A monitoring step of monitoring whether or not the object recognized in the recognition process is continuously recognized,
In the superimposed display step, when the object is no longer recognized in the monitoring step, the superimposed display process is continued or stopped based on the progress of the superimposed display process.
表示装置に表示中の撮影画像からオブジェクトを認識する認識処理と、前記オブジェクトに関連する関連情報を抽出する抽出処理と、前記関連情報を、前記撮影画像に重畳して前記表示装置に表示する表示処理とを含む重畳表示処理を行う重畳表示手段と、
前記認識処理において認識されたオブジェクトが継続して認識されているか否かを監視する監視手段と
して機能させ、
前記重畳表示手段は、前記オブジェクトが前記監視手段により認識されなくなった場合に、前記重畳表示処理の進行状況に基づいて、前記重畳表示処理を継続又は停止することを特徴とするプログラム。 Computer
A recognition process for recognizing an object from a captured image being displayed on a display device, an extraction process for extracting related information related to the object, and a display for displaying the related information superimposed on the captured image and displayed on the display device Superimposing display means for performing superimposing display processing including processing;
Function as monitoring means for monitoring whether or not the object recognized in the recognition process is continuously recognized;
The superimposition display unit continues or stops the superimposition display process based on the progress of the superimposition display process when the object is no longer recognized by the monitoring unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014158874A JP2016036106A (en) | 2014-08-04 | 2014-08-04 | Information processing apparatus, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014158874A JP2016036106A (en) | 2014-08-04 | 2014-08-04 | Information processing apparatus, information processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016036106A true JP2016036106A (en) | 2016-03-17 |
Family
ID=55523736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014158874A Pending JP2016036106A (en) | 2014-08-04 | 2014-08-04 | Information processing apparatus, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016036106A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018189802A (en) * | 2017-05-02 | 2018-11-29 | 京セラドキュメントソリューションズ株式会社 | Display |
US10509556B2 (en) | 2017-05-02 | 2019-12-17 | Kyocera Document Solutions Inc. | Display device |
JP2020095581A (en) * | 2018-12-14 | 2020-06-18 | 株式会社ジンズホールディングス | Method for processing information, information processor, information processing system, and store |
WO2021251642A1 (en) * | 2020-06-08 | 2021-12-16 | 삼성전자 주식회사 | Electronic device comprising antenna module disposed in camera module |
-
2014
- 2014-08-04 JP JP2014158874A patent/JP2016036106A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018189802A (en) * | 2017-05-02 | 2018-11-29 | 京セラドキュメントソリューションズ株式会社 | Display |
US10509556B2 (en) | 2017-05-02 | 2019-12-17 | Kyocera Document Solutions Inc. | Display device |
JP2020095581A (en) * | 2018-12-14 | 2020-06-18 | 株式会社ジンズホールディングス | Method for processing information, information processor, information processing system, and store |
WO2021251642A1 (en) * | 2020-06-08 | 2021-12-16 | 삼성전자 주식회사 | Electronic device comprising antenna module disposed in camera module |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10185775B2 (en) | Scalable 3D mapping system | |
EP2860968B1 (en) | Information processing device, information processing method, and program | |
CN106031154B (en) | Handle the method for image and the electronic device for it | |
US9361731B2 (en) | Method and apparatus for displaying video on 3D map | |
CN104284147A (en) | Tracking assistance device, a tracking assistance system and a tracking assistance method | |
CN107145816A (en) | Object identifying tracking and device | |
KR20140102181A (en) | Information processing device, information processing method and program | |
EP2833249A1 (en) | Information processing device, information processing method and program | |
CN113420719A (en) | Method and device for generating motion capture data, electronic equipment and storage medium | |
JP2016036106A (en) | Information processing apparatus, information processing method and program | |
CN108419112B (en) | Streaming media video cataloging method, retrieval method and device based on measurement and control track information | |
CN109565548B (en) | Method of controlling multi-view image and electronic device supporting the same | |
CN104035656A (en) | User interface and method | |
JP2009169768A (en) | Information processor and program | |
US8836799B2 (en) | Method to reject false positives detecting and tracking image objects | |
CN113345108B (en) | Augmented reality data display method and device, electronic equipment and storage medium | |
JP2010267030A (en) | Apparatus and method for processing information | |
CN115699096B (en) | Tracking augmented reality devices | |
EP4127876B1 (en) | Depth estimation using biometric data | |
CN108536467A (en) | Location processing method, device, terminal device and the storage medium of code | |
CN111640169A (en) | Historical event presenting method and device, electronic equipment and storage medium | |
CN107851129B (en) | Information processing apparatus, information processing method, and program | |
JP7104292B2 (en) | Information processing equipment, information processing method, program | |
CN106775701B (en) | Client automatic evidence obtaining method and system | |
CN105188154B (en) | A kind of method, apparatus and system being automatically brought into operation smart machine |