JP5786411B2 - Information processing system, search device, and program - Google Patents

Information processing system, search device, and program Download PDF

Info

Publication number
JP5786411B2
JP5786411B2 JP2011079760A JP2011079760A JP5786411B2 JP 5786411 B2 JP5786411 B2 JP 5786411B2 JP 2011079760 A JP2011079760 A JP 2011079760A JP 2011079760 A JP2011079760 A JP 2011079760A JP 5786411 B2 JP5786411 B2 JP 5786411B2
Authority
JP
Japan
Prior art keywords
information
unit
tag
imaging
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011079760A
Other languages
Japanese (ja)
Other versions
JP2012216935A (en
Inventor
一英 小林
一英 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011079760A priority Critical patent/JP5786411B2/en
Publication of JP2012216935A publication Critical patent/JP2012216935A/en
Application granted granted Critical
Publication of JP5786411B2 publication Critical patent/JP5786411B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は情報処理システム、検索装置、及びプログラムに関し、より詳細には複数のタグ情報に基づき生成される複数のタグ表示画像の中から、所望のタグ表示画像をユーザが容易に視認することができる情報処理システム、検索装置、及びプログラムに関する。   The present invention relates to an information processing system, a search device, and a program. More specifically, a user can easily view a desired tag display image from a plurality of tag display images generated based on a plurality of tag information. The present invention relates to an information processing system, a search device, and a program.

近年、情報処理の分野において、現実空間の映像をコンピュータ処理し、その現実空間の映像に様々な情報を付加したり、画像を重畳したりする、いわゆる拡張現実感(AR;Augmented Reality)に関する技術の研究開発が盛んに行われている。この拡張現実感を利用したものとして、特に最近では、カメラ機能付きの携帯電話等において、カメラで撮像した現実空間の施設や人物等の被写体の撮像画像に、仮想現実空間上で生成した、それら施設等に関する情報を表す文字や図形等のオブジェクト表示画像を重畳してモニタ上に表示する機能が、施設案内や旅行ガイドといった様々な態様で取り入れられ始めている。   In recent years, in the field of information processing, a technology related to so-called augmented reality (AR), in which video in a real space is computer-processed and various information is added to the real space video or an image is superimposed. Research and development is actively conducted. Those using this augmented reality, especially recently, in mobile phones with camera functions, etc., those created in virtual reality space to images of subjects such as facilities and people in the real space captured by the camera. A function of superimposing an object display image such as a character or a graphic representing information on a facility or the like and displaying it on a monitor is beginning to be adopted in various modes such as a facility guide or a travel guide.

例えば、特許文献1にはカメラの位置及び撮像姿勢を測定し、測定されたカメラの位置及び撮像姿勢に基づき、予め記録媒体に記録(登録)されている情報の中から所定の情報を取得し、その取得した情報に基づき生成したオブジェクト表示画像を撮像画像に重畳して表示する拡張現実感に関する技術が開示されている。   For example, Patent Document 1 measures the position and imaging orientation of a camera, and acquires predetermined information from information recorded (registered) in a recording medium in advance based on the measured camera location and imaging orientation. A technology related to augmented reality is disclosed in which an object display image generated based on the acquired information is displayed superimposed on a captured image.

ところで、拡張現実感に関する技術では、現実空間の撮像画像に重畳する各種オブジェクト表示画像を生成するための情報が多数取得されてしまい、撮像画像上に多数のオブジェクト表示画像が煩雑に重畳されてしまうことが多々ある。その結果、本来ユーザが所望したオブジェクト表示画像を、ユーザが容易に視認することができないという問題が生じている。   By the way, in the technology related to augmented reality, a large amount of information for generating various object display images to be superimposed on the captured image in the real space is acquired, and a large number of object display images are complicatedly superimposed on the captured image. There are many things. As a result, there is a problem that the user cannot easily visually recognize the object display image originally desired by the user.

この問題を解決するために、例えば特許文献2には、取得する情報を装置の位置と撮像方向から制限し、その制限範囲内に含まれる情報の取得と、その情報に基づくオブジェクト表示画像の生成とを行う技術が開示されている。
また、特許文献3には、装置の位置、撮像姿勢、撮像方向、及び視野角(画角)から撮像の視野を特定し、その特定された範囲内に含まれる情報を取得する技術が記載されている。
In order to solve this problem, for example, in Patent Document 2, information to be acquired is limited from the position of the device and the imaging direction, acquisition of information included in the limited range, and generation of an object display image based on the information A technique for performing the above is disclosed.
Patent Document 3 describes a technique for specifying an imaging field of view from an apparatus position, an imaging posture, an imaging direction, and a viewing angle (viewing angle), and acquiring information included in the specified range. ing.

特許第3700021号公報Japanese Patent No. 3700021 特開2010−231741号公報JP 2010-231741 A 特開2010−239568号公報JP 2010-239568 A

しかし、特許文献2に記載の技術では、仮想現実空間における情報の取得範囲と、ユーザが現実に撮像している現実空間の範囲とが一致しないため、オブジェクト表示画像を現実空間における被写体の撮像画像に対応付けて重畳表示できないという問題が生じることが推察される。
また、特許文献3に記載の技術では、装置の備えるカメラの視野角(画角)に含まれる全ての情報が表示される。ここで、ユーザがカメラのズーム倍率を変更することで視野角(画角)を変更すると、視野角(画角)の変更に応じてオブジェクト画像の表示サイズも変更されてしまう。結果として、オブジェクト表示画像が不適切な大きさで表示されたり、オブジェクト表示画像同士が重なって表示されたりして、ユーザの遠方に位置するオブジェクト表示画像がモニタ上で視認しにくくなる問題が生じることが推察される。
However, in the technique described in Patent Document 2, the information acquisition range in the virtual reality space and the real space range that the user is actually capturing do not match, so the object display image is the captured image of the subject in the real space. It is presumed that there arises a problem that it is not possible to superimpose and display in association with.
In the technique described in Patent Document 3, all information included in the viewing angle (view angle) of the camera included in the apparatus is displayed. Here, when the user changes the viewing angle (viewing angle) by changing the zoom magnification of the camera, the display size of the object image is also changed according to the change of the viewing angle (viewing angle). As a result, there is a problem that the object display image is displayed in an inappropriate size or the object display images are overlapped with each other, and the object display image located far from the user is difficult to visually recognize on the monitor. It is inferred.

そこで、本発明は、撮像画像中の被写体画像に、仮想現実空間で取得された情報に基づいて生成されたオブジェクト表示画像を適切に対応付けて重畳表示することができる情報処理装置を提供することを目的とする。   Accordingly, the present invention provides an information processing apparatus capable of displaying an object display image generated based on information acquired in a virtual reality space in an appropriately associated manner and superimposed on a subject image in a captured image. With the goal.

また、本発明は、撮像画像中の被写体画像に、仮想現実空間で取得された情報に基づいて生成されたオブジェクト表示画像を対応付けて重畳表示する際に、ユーザが、重畳された複数のオブジェクト表示画像の中から所望のオブジェクト表示画像を容易に視認することが可能となる情報処理装置を提供することを目的とする。   Further, according to the present invention, when an object display image generated based on information acquired in a virtual reality space is displayed in a superimposed manner on a subject image in a captured image, the user can display a plurality of superimposed objects. An object of the present invention is to provide an information processing apparatus that enables a desired object display image to be easily visually recognized from among display images.

前記目的を達成するために、本発明は、情報処理装置と検索装置とがネットワークを介して相互に通信する情報処理システムであり、
前記情報処理装置は、 被写体を撮像し撮像画像を取得する撮像部と、 前記撮像部による撮像の倍率を変更する撮像倍率変更部と 前記情報処理装置の位置を検出する位置検出部と、 前記撮像部の撮像方向を検出する方向検出部と、 前記撮像部による撮像の画角を算出する画角算出部と、 前記撮像倍率変更部により変更された撮像の倍率、前記位置検出部が検出した位置、前記方向検出部が検出した撮像方向、及び前記画角算出部が算出した画角からなる情報を前記検索装置に送信する情報送信部と、 オブジェクト情報を使用してオブジェクト表示画像を生成するオブジェクト表示画像生成部と、 前記オブジェクト表示画像生成部が使用するオブジェクト情報を前記検索装置から受信するオブジェクト情報受信部と 前記撮像部が取得した撮像画像と前記オブジェクト表示画像生成部が生成したオブジェクト表示画像を合成して表示する表示部とを備え、
前記検索装置は、 前記情報処理装置が備える前記情報送信部が送信した前記情報を受信する情報受信部と、 複数のオブジェクト情報を記憶した記憶部と、 前記記憶部が記憶した前記複数のオブジェクト情報を前記情報受信部が受信した前記情報に基づいて検索し、前記記憶部から前記情報処理装置の前記オブジェクト表示画像生成部が使用する前記オブジェクト情報を特定する検索部と、 前記検索部が特定した前記オブジェクト情報を前記情報処理装置の備えるオブジェクト情報受信部に送信するオブジェクト情報送信部と 前記オブジェクト情報送信部による送信を禁止するオブジェクト情報が存在するオブジェクト取得禁止範囲を複数記憶するオブジェクト取得禁止範囲記憶部と 前記情報受信部が受信した情報のうち前記位置検出部が検出した位置、前記方向検出部が検出した撮像方向から、所定のオブジェクト取得禁止範囲を特定し、前記検索部は前記特定されたオブジェクト取得禁止範囲に含まれるオブジェクト情報を前記情報処理装置の前記オブジェクト表示画像生成部が使用する前記オブジェクト情報から除くオブジェクト取得禁止範囲特定部を備えることを特徴とする情報処理システムを提供する。
In order to achieve the above object, the present invention is an information processing system in which an information processing device and a search device communicate with each other via a network,
The information processing apparatus includes: an imaging unit that captures a subject and acquires a captured image; an imaging magnification changing unit that changes a magnification of imaging performed by the imaging unit; a position detection unit that detects a position of the information processing apparatus; A direction detection unit that detects an imaging direction of the imaging unit, an angle of view calculation unit that calculates an angle of view of imaging by the imaging unit, an imaging magnification changed by the imaging magnification change unit, and a position detected by the position detection unit An information transmission unit that transmits information including the imaging direction detected by the direction detection unit and the angle of view calculated by the angle of view calculation unit to the search device; and an object that generates an object display image using object information A display image generation unit; an object information reception unit that receives object information used by the object display image generation unit from the search device; and an image acquired by the imaging unit. And a display unit for displaying an object display image by the image and the object display image generating unit has generated synthesized and,
The search device includes: an information reception unit that receives the information transmitted by the information transmission unit included in the information processing device; a storage unit that stores a plurality of object information; and the plurality of object information stored in the storage unit Is searched based on the information received by the information receiving unit, the search unit for specifying the object information used by the object display image generation unit of the information processing device from the storage unit, and the search unit specified Object information prohibition range storage for storing a plurality of object acquisition prohibition ranges in which object information transmission units that transmit the object information to an object information reception unit included in the information processing apparatus and object information that prohibits transmission by the object information transmission unit exists Of the information received by the information receiver and the position detector A predetermined object acquisition prohibition range is specified from the output position and the imaging direction detected by the direction detection unit, and the search unit displays object information included in the specified object acquisition prohibition range in the object of the information processing apparatus. There is provided an information processing system comprising an object acquisition prohibition range specifying unit excluded from the object information used by a display image generation unit .

また、本発明は、
被写体を撮像し撮像画像を取得する撮像部、前記撮像部による撮像の倍率を変更する撮像倍率変更部、及び前記撮像画像とオブジェクト表示画像とを合成して表示する表示部とを備えた情報処理装置とネットワークを介して相互に通信する検索装置であって、
前記情報処理装置から、前記撮像倍率変更部により変更された撮像の倍率、前記情報処理装置の位置、前記撮像部の撮像方向、前記撮像部による撮像の画角に関する情報を受信
する情報受信部と、
前記オブジェクト表示画像を生成するためのオブジェクト情報を複数記憶した記憶部と、
前記記憶部が記憶した前記複数のオブジェクト情報を前記情報受信部が受信した前記情報に基づいて検索し、前記記憶部から所定のオブジェクト情報を特定する検索部と、
前記検索部が特定した所定のオブジェクト情報を前記情報処理装置に送信するオブジェクト情報送信部と
前記オブジェクト情報送信部による送信を禁止するオブジェクト情報が存在するオブジェクト取得禁止範囲を複数記憶するオブジェクト取得禁止範囲記憶部と、
前記情報受信部が受信した情報のうち位置撮像方向から、所定のオブジェクト取得禁止範囲を特定し、 前記検索部は前記特定されたオブジェクト取得禁止範囲に含まれるオブジェクト情報を前記情報処理装置に送信する前記オブジェクト情報から除くオブジェクト取得禁止範囲特定部
を備えた検索装置を提供することを目的とする。
The present invention also provides:
Information processing comprising: an imaging unit that images a subject and acquires a captured image; an imaging magnification changing unit that changes a magnification of imaging by the imaging unit; and a display unit that combines and displays the captured image and an object display image A search device that communicates with a device via a network,
An information receiving unit that receives information about the imaging magnification changed by the imaging magnification changing unit, the position of the information processing device, the imaging direction of the imaging unit, and the angle of view of imaging by the imaging unit from the information processing device; ,
A storage unit storing a plurality of object information for generating the object display image;
A search unit for searching the plurality of object information stored in the storage unit based on the information received by the information receiving unit, and specifying predetermined object information from the storage unit;
Object acquisition prohibition range for storing a plurality of object acquisition prohibition ranges in which object information transmission unit for transmitting predetermined object information specified by the search unit to the information processing apparatus and object information for prohibiting transmission by the object information transmission unit exist A storage unit;
A predetermined object acquisition prohibition range is specified from the position and imaging direction in the information received by the information reception unit, and the search unit transmits object information included in the specified object acquisition prohibition range to the information processing apparatus. Another object of the present invention is to provide a search device including an object acquisition prohibition range specifying unit that is excluded from the object information.

さらに、本発明は、情報処理装置と検索装置とがネットワークを介して相互に通信する処理を実行するプログラムであり、Furthermore, the present invention is a program for executing processing in which an information processing device and a search device communicate with each other via a network,
前記情報処理装置は、  The information processing apparatus includes:
被写体を撮像し撮像画像を取得する撮像処理と、  An imaging process for imaging a subject and acquiring a captured image;
前記撮像処理による撮像の倍率を変更する撮像倍率変更処理と  An imaging magnification changing process for changing an imaging magnification by the imaging process;
前記情報処理装置の位置を検出する位置検出処理と、  Position detection processing for detecting the position of the information processing apparatus;
前記撮像処理の撮像方向を検出する方向検出処理と、  Direction detection processing for detecting the imaging direction of the imaging processing;
前記撮像処理による撮像の画角を算出する画角算出処理と、  An angle-of-view calculation process for calculating an angle of view of imaging by the imaging process;
前記撮像倍率変更処理により変更された撮像の倍率、前記位置検出処理が検出した位置、前記方向検出処理が検出した撮像方向、及び前記画角算出処理が算出した画角からなる情報を前記検索装置に送信する情報送信処理と、  The search device includes information including the imaging magnification changed by the imaging magnification changing process, the position detected by the position detection process, the imaging direction detected by the direction detection process, and the angle of view calculated by the angle of view calculation process. Information transmission processing to be transmitted to
オブジェクト情報を使用してオブジェクト表示画像を生成するオブジェクト表示画像生成処理と、  Object display image generation processing for generating an object display image using object information;
前記オブジェクト表示画像生成処理が使用するオブジェクト情報を前記検索装置から受信するオブジェクト情報受信処理と  An object information reception process for receiving object information used by the object display image generation process from the search device;
前記撮像処理が取得した撮像画像と前記オブジェクト表示画像生成処理が生成したオブジェクト表示画像を合成して表示する表示処理を実行し、  Performing a display process of combining and displaying the captured image acquired by the imaging process and the object display image generated by the object display image generation process;
前記検索装置は、  The search device includes:
前記情報処理装置が実行する前記情報送信処理が送信した前記情報を受信する情報受信処理と、  An information reception process for receiving the information transmitted by the information transmission process executed by the information processing apparatus;
複数のオブジェクト情報を記憶する記憶処理と、  A storage process for storing a plurality of object information;
前記記憶処理が記憶した前記複数のオブジェクト情報を前記情報受信処理が受信した前記情報に基づいて検索し、前記記憶処理から前記情報処理装置の前記オブジェクト表示画像生成処理が使用する前記オブジェクト情報を特定する検索処理と、  The plurality of object information stored by the storage process is searched based on the information received by the information reception process, and the object information used by the object display image generation process of the information processing apparatus is identified from the storage process Search process to
前記検索処理が特定した前記オブジェクト情報を前記情報処理装置が実行するオブジェクト情報受信処理に送信するオブジェクト情報送信処理と  An object information transmission process for transmitting the object information specified by the search process to an object information reception process executed by the information processing apparatus;
前記オブジェクト情報送信処理による送信を禁止するオブジェクト情報が存在するオブジェクト取得禁止範囲を複数記憶するオブジェクト取得禁止範囲記憶処理と   Object acquisition prohibited range storage processing for storing a plurality of object acquisition prohibited ranges in which object information that prohibits transmission by the object information transmission processing exists;
前記情報受信処理が受信した情報のうち前記位置検出処理が検出した位置、前記方向検出処理が検出した撮像方向から、所定のオブジェクト取得禁止範囲を特定し、前記検索処理は前記特定されたオブジェクト取得禁止範囲に含まれるオブジェクト情報を前記情報処理装置の前記オブジェクト表示画像生成処理が使用する前記オブジェクト情報から除くオブジェクト取得禁止範囲特定処理を実行することを特徴とするプログラムを提供することを目的とする。A predetermined object acquisition prohibition range is specified from the position detected by the position detection process in the information received by the information reception process and the imaging direction detected by the direction detection process, and the search process is the acquisition of the specified object An object of the present invention is to provide a program that executes an object acquisition prohibited range specifying process that excludes object information included in a prohibited range from the object information used by the object display image generation process of the information processing apparatus. .

本発明に係る情報処理装置によれば、撮像画像中の被写体画像に、仮想現実空間で取得された情報に基づいて生成されたオブジェクト表示画像を適切に対応付けて重畳表示することができる。   According to the information processing apparatus according to the present invention, an object display image generated based on information acquired in the virtual reality space can be superimposed and displayed on a subject image in a captured image appropriately.

また、本発明に係る情報処理装置によれば、撮像画像中の被写体画像に、仮想現実空間で取得された情報に基づいて生成されたオブジェクト表示画像を対応付けて重畳表示する際に、ユーザが、重畳された複数のオブジェクト表示画像の中から所望のオブジェクト表示画像を容易に視認することが可能となる。   Further, according to the information processing apparatus of the present invention, when the object display image generated based on the information acquired in the virtual reality space is displayed in a superimposed manner on the subject image in the captured image, the user can The desired object display image can be easily visually recognized from the plurality of superimposed object display images.

従来の情報処理装置の問題を説明する図である。It is a figure explaining the problem of the conventional information processing apparatus. 従来の情報処理装置の別の問題を説明するための図である。It is a figure for demonstrating another problem of the conventional information processing apparatus. 本発明の実施形態に係る情報処理システム1の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an information processing system 1 according to an embodiment of the present invention. 情報処理システム1によるタグ情報の取得とタグ表示画像の生成表示処理について説明するフローチャートである。5 is a flowchart for explaining tag information acquisition and tag display image generation / display processing by the information processing system 1; タグ情報取得最短距離及びタグ情報取得最長距離が算出される基準及び算出される理由を説明するための図である。It is a figure for demonstrating the standard and the reason for calculating the tag information acquisition shortest distance and the tag information acquisition longest distance. タグ情報取得最短距離及びタグ情報取得最長距離の算出方法について説明するための図である。It is a figure for demonstrating the calculation method of tag information acquisition shortest distance and tag information acquisition longest distance. 検索サーバ200によるタグ情報の検索の処理について説明するためのフローチャートである。5 is a flowchart for explaining tag information search processing by a search server 200; タグ取得禁止範囲特定部205による取得を禁止するタグ情報の特定処理の例について説明するための図である。It is a figure for demonstrating the example of the identification process of the tag information which prohibits the acquisition by the tag acquisition prohibition range specific | specification part 205. FIG. タグ情報の詳細について説明するための図である。It is a figure for demonstrating the detail of tag information. タグ情報内に含まれる3種類のタグ画像のなかから表示されるタグ表示画像に使用するタグ画像を選択する処理について説明するための図である。It is a figure for demonstrating the process which selects the tag image used for the tag display image displayed from the three types of tag images contained in tag information. タグ表示画像の表示部110の表示画面上の表示位置を算出する処理を説明するための図である。It is a figure for demonstrating the process which calculates the display position on the display screen of the display part 110 of a tag display image. タグ表示画像を、情報処理装置100を水平姿勢にして表示部110の表示画面に表示した場合の例について説明するための図である。It is a figure for demonstrating the example at the time of displaying a tag display image on the display screen of the display part 110 by making the information processing apparatus 100 into a horizontal attitude | position. タグ表示画像を、情報処理装置100を水平姿勢にして表示部110の表示画面に表示した場合の別の例について説明するための図である。It is a figure for demonstrating another example at the time of displaying a tag display image on the display screen of the display part 110 by making the information processing apparatus 100 into a horizontal attitude | position. 本発明の実施形態に係る情報処理装置300の構成を示すブロック図である。It is a block diagram which shows the structure of the information processing apparatus 300 which concerns on embodiment of this invention.

以下に図面を参照しながら、本発明に係る情報処理装置の好適な実施形態を説明する。かかる実施形態に示す寸法、具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of an information processing apparatus according to the present invention will be described with reference to the drawings. The dimensions, specific numerical values, and the like shown in the embodiments are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

先ず図1及び図2を参照し、拡張現実感に関する機能を有する従来の情報処理装置等の問題点の詳細を述べる。
図1は、例えば上記特許文献2に記載の技術のように、仮想現実空間上に配置されたオブジェクト情報を取得する範囲を、情報処理装置が搭載したカメラの撮像範囲とは別に設定している場合の問題点について説明するための図である。ここで、オブジェクト情報の取得範囲は、情報処理装置の位置及び搭載されたカメラの撮像方向に基づき設定されるものとする。
First, with reference to FIG. 1 and FIG. 2, the details of the problems of a conventional information processing apparatus having a function relating to augmented reality will be described.
In FIG. 1, for example, as in the technique described in Patent Document 2, the range for acquiring object information arranged in the virtual reality space is set separately from the imaging range of the camera mounted on the information processing apparatus. It is a figure for demonstrating the problem in a case. Here, the acquisition range of the object information is set based on the position of the information processing apparatus and the imaging direction of the mounted camera.

図1において、情報処理装置01は、筺体の1面に、水平方向と垂直方向の辺の長さが異なるモニタ(例えば、水平方向が約7cmで垂直方向が約5.25cm)を搭載しており、レンズ等の撮像部が例えばモニタが搭載された面と反対側の面にモニタと略平行となるように搭載されているものとする。   In FIG. 1, the information processing apparatus 01 has a monitor (for example, about 7 cm in the horizontal direction and about 5.25 cm in the vertical direction) having different lengths in the horizontal and vertical sides mounted on one surface of the housing. It is assumed that an imaging unit such as a lens is mounted, for example, on a surface opposite to the surface on which the monitor is mounted so as to be substantially parallel to the monitor.

以下では説明及び理解の容易のため、モニタの水平方向の辺を下にした場合に、そのモニタに表示される撮像画像(つまり例えば横と縦の比率が16:9の撮像画像)を撮像する情報処理装置の姿勢を「水平姿勢」とし、その水平姿勢の際の情報処理装置01が備えるカメラの画角を「水平画角」とする。また、モニタの垂直方向の辺を下にした場合に、そのモニタに表示される撮像画像(つまり例えば横と縦の比率が9:16の撮像画像)を撮像する情報処理装置の姿勢を「垂直姿勢」とし、その垂直姿勢の際の情報処理装置01が備えるカメラの画角を「垂直画角」とする。図1の(a)及び(b)では情報処理装置01で水平姿勢での撮像を行った際の問題点を、(c)では垂直姿勢での撮像を行った際の問題点を説明する。   In the following, for ease of explanation and understanding, when a horizontal side of the monitor is turned down, a captured image displayed on the monitor (that is, a captured image having a horizontal to vertical ratio of 16: 9, for example) is captured. The attitude of the information processing apparatus is “horizontal attitude”, and the angle of view of the camera included in the information processing apparatus 01 in the horizontal attitude is “horizontal angle of view”. In addition, when the vertical side of the monitor is turned down, the attitude of the information processing apparatus that captures a captured image (that is, a captured image having a horizontal to vertical ratio of 9:16, for example) displayed on the monitor is set to “vertical”. The angle of view of the camera included in the information processing apparatus 01 in the vertical posture is defined as “vertical angle of view”. FIGS. 1A and 1B illustrate problems when the information processing apparatus 01 performs image capturing in a horizontal posture, and FIG. 1C illustrates problems when image capturing is performed in a vertical posture.

図1(a)の上段の図は、被写体A01(a)、被写体B01(a)、被写体C01(a)、及び情報処理装置01、並びに情報処理装置01がオブジェクト情報を取得する範囲VS01(a)(図中、ハッチングで示した範囲)とその範囲VS01(a)内に配置された、被写体A01(a)に対応するオブジェクト情報TA01(a)、被写体B01(a)に対応するオブジェクト情報TB01(a)を上面視した概念図であり、下段の図はその際の情報処理装置の備えるモニタの表示画像MG01(a)を示す図である。   The upper diagram in FIG. 1A shows the subject A01 (a), the subject B01 (a), the subject C01 (a), the information processing device 01, and the range VS01 (a ) (Range indicated by hatching in the drawing) and object information TA01 (a) corresponding to the subject A01 (a) and object information TB01 corresponding to the subject B01 (a) arranged in the range VS01 (a) It is the conceptual diagram which looked at the top view of (a), and the lower figure is a figure which shows display image MG01 (a) of the monitor with which the information processing apparatus in that case is provided.

情報処理装置01は、水平画角AV01(a)で定められる撮像範囲に含まれる被写体を撮像画像として捉える。被写体B01(a)及び被写体C01(a)はこの撮像範囲に含まれることから、表示画面MG01(a)には、被写体B01(a)の画像BG01(a)及び被写体C01(a)の画像CG01(a)が表示される。一方で、被写体A01(a)はこの撮像範囲の外にあるため、被写体A01(a)に対応する画像は表示画面MG01(a)には表示されない。一方で、撮像範囲とは無関係に、撮像方向によってのみ規定されている範囲VS01(a)には、被写体A01(a)に対応するオブジェクト情報TA01(a)及び被写体B01(a)に対応するオブジェクト情報TB01(a)が含まれている。従って、表示画面MG01(a)には、オブジェクト情報A01(a)に対応するオブジェクト表示画像TGA01(a)及びTGB01(a)が表示される。   The information processing apparatus 01 captures a subject included in the imaging range defined by the horizontal angle of view AV01 (a) as a captured image. Since the subject B01 (a) and the subject C01 (a) are included in this imaging range, the image BG01 (a) of the subject B01 (a) and the image CG01 of the subject C01 (a) are displayed on the display screen MG01 (a). (A) is displayed. On the other hand, since the subject A01 (a) is outside this imaging range, the image corresponding to the subject A01 (a) is not displayed on the display screen MG01 (a). On the other hand, regardless of the imaging range, the object VS01 (a) corresponding to the subject A01 (a) and the object corresponding to the subject B01 (a) are included in the range VS01 (a) defined only by the imaging direction. Information TB01 (a) is included. Accordingly, object display images TGA01 (a) and TGB01 (a) corresponding to the object information A01 (a) are displayed on the display screen MG01 (a).

この場合、ユーザは表示画面MG01(a)に表示されているオブジェクト表示画像TGA(a)が、どの被写体に対応づけられたものなのかをモニタを通じて把握することができないという問題が生じてしまう。   In this case, there arises a problem that the user cannot grasp through the monitor which object the object display image TGA (a) displayed on the display screen MG01 (a) is associated with.

一方で、この図1(a)では、情報処理装置V01の撮像範囲の横方向の撮像幅と、オブジェクト情報を取得する範囲VS01(a)の横方向の幅とが一致しているため、表示画面MG01(a)内では、被写体B01(a)に対応する画像BG01(a)に、被写体B01(a)に対応するオブジェクト表示画像TGB01(a)が重畳され、両者が対応づけられて表示される。従って、ユーザは表示画面MG01(a)を通して被写体B01(a)に関する情報を得ることができる。   On the other hand, in FIG. 1A, the horizontal imaging width of the imaging range of the information processing device V01 matches the horizontal width of the range VS01 (a) for acquiring object information. In the screen MG01 (a), the object display image TGB01 (a) corresponding to the subject B01 (a) is superimposed on the image BG01 (a) corresponding to the subject B01 (a), and the two are displayed in association with each other. The Therefore, the user can obtain information regarding the subject B01 (a) through the display screen MG01 (a).

しかし、撮像範囲の横方向の撮像幅と、仮想空間のオブジェクト情報を取得する範囲の横方向の幅とが一致しない場合は、さらに別の問題がおきる。図1(b)を参照して、この問題について詳述する。
図1(b)の上段の図は、被写体B01(b)、被写体C01(b)、及びそれらを撮像する情報処理装置01、並びにオブジェクト情報を取得する範囲VS01(b)内に存在する被写体B01(b)に対応するオブジェクト情報TB01(b)を上面視した概念図であり、下段の図はその際の情報処理装置01の備えるモニタの表示画像MG01(b)を示す図である。
However, when the horizontal imaging width of the imaging range does not match the horizontal width of the virtual space object information acquisition range, another problem occurs. This problem will be described in detail with reference to FIG.
The upper diagram in FIG. 1B shows the subject B01 (b), the subject C01 (b), the information processing device 01 that captures them, and the subject B01 that exists in the range VS01 (b) for acquiring object information. It is the conceptual diagram which looked at object information TB01 (b) corresponding to (b) from the top, and the lower figure is a figure which shows display image MG01 (b) of the monitor with which the information processing apparatus 01 is provided at that time.

情報処理装置01は、水平画角AV01(b)で定められる撮像範囲に含まれる被写体を撮像画像として捉える。このとき、この撮像範囲の横方向の撮像幅と、オブジェクト情報を取得する範囲VS01(b)の横方向の幅とが一致していないことから、表示画面MG01(b)上では、被写体B01(b)に対応する被写体画像BG01(b)は画面やや中央よりに表示されているにも関わらず、被写体B01(b)に対応するオブジェクト表示画像TGB01(b)は画面の端に表示され、両者の表示位置にずれが生じてしまう。   The information processing device 01 captures a subject included in the imaging range defined by the horizontal angle of view AV01 (b) as a captured image. At this time, since the horizontal imaging width of the imaging range does not match the horizontal width of the range VS01 (b) in which the object information is acquired, the subject B01 (b) is displayed on the display screen MG01 (b). Although the subject image BG01 (b) corresponding to b) is displayed slightly from the center, the object display image TGB01 (b) corresponding to the subject B01 (b) is displayed at the edge of the screen. The display position is shifted.

この場合、ユーザはオブジェクト表示画像TGB01(b)が現実空間のどの被写体に対応したものなのかを、表示画面MG01(b)を通しては認識できないという問題が生じる。   In this case, there arises a problem that the user cannot recognize through the display screen MG01 (b) which object in the real space the object display image TGB01 (b) corresponds to.

加えて、情報処理装置の撮像姿勢を考慮していない場合は、さらに新たな問題が生じる、図1(c)を参照して、この問題について詳述する。
図1(c)の上段の図は、被写体B01(c)、被写体C01(c)、及びそれらを撮像するカメラを備えた情報処理装置01、並びにオブジェクト情報を取得する範囲VS01(c)内に存在する被写体B01(c)に対応するオブジェクト情報TB01(c)を上面視した概念図であり、下段の図はその際の情報処理装置01の備えるモニタの表示画像MG01(c)を示す図である。ここで、図1(a)又は(b)の場合と異なり、情報処理装置01は、垂直姿勢にて撮像を行っているものとする。
In addition, when the imaging posture of the information processing apparatus is not taken into consideration, a new problem occurs. This problem will be described in detail with reference to FIG.
The upper diagram in FIG. 1C shows a subject B01 (c), a subject C01 (c), an information processing device 01 equipped with a camera for imaging them, and a range VS01 (c) for acquiring object information. It is the conceptual diagram which looked at the object information TB01 (c) corresponding to the to-be-photographed object B01 (c) from the top, and the lower figure is a figure which shows display image MG01 (c) of the monitor with which the information processing apparatus 01 at that time is equipped. is there. Here, unlike the case of FIG. 1A or 1B, the information processing apparatus 01 is assumed to perform imaging in a vertical posture.

情報処理装置01は、垂直画角AV01(c)で定められる撮像範囲に含まれる被写体を撮像画像として捉える。このとき、被写体B01(c)はこの領域から外れるため、被写体B01(c)に対応する画像は表示画面MG01(c)には表示されない。   The information processing apparatus 01 captures a subject included in the imaging range defined by the vertical angle of view AV01 (c) as a captured image. At this time, the subject B01 (c) is out of this area, and therefore the image corresponding to the subject B01 (c) is not displayed on the display screen MG01 (c).

一方で、情報処理装置01は撮像姿勢とは無関係に仮想空間VS01を範囲を設定する。従って、撮像画像が水平画角で取得されているのか、又は垂直画角で取得されているのかを区別していない。そのため、オブジェクト情報TB01(c)が取得され、表示画面MG01(c)にはオブジェクト表示画像TGB01(c)が表示されてしまう。加えて、このオブジェクト表示画像TGB01(c)は、情報処理装置の撮像姿勢を考慮せず予め定められた撮像姿勢に対応した表示位置に表示されることになる。従って、例えばユーザが情報処理装置を図1(b)の水平姿勢から、右回りに90度回転させて図1(c)の垂直姿勢にしてしまった場合、TGB01(c)が被写体画像CG01(c)に重畳され、被写体Bに関する情報が被写体Cの撮像画像のものであるかの様に表示されてしまう可能性もある。   On the other hand, the information processing apparatus 01 sets the range of the virtual space VS01 regardless of the imaging posture. Therefore, it is not distinguished whether the captured image is acquired with a horizontal angle of view or a vertical angle of view. Therefore, the object information TB01 (c) is acquired, and the object display image TGB01 (c) is displayed on the display screen MG01 (c). In addition, the object display image TGB01 (c) is displayed at a display position corresponding to a predetermined imaging posture without considering the imaging posture of the information processing apparatus. Therefore, for example, when the user rotates the information processing apparatus 90 degrees clockwise from the horizontal posture in FIG. 1B to the vertical posture in FIG. 1C, TGB01 (c) is the subject image CG01 ( There is also a possibility that the information related to the subject B is displayed as if it was a captured image of the subject C, superimposed on c).

従って、上述の従来の情報処理装置01では、撮像姿勢の変更によっても、上述の図1(b)の場合と同様に、ユーザはオブジェクト表示画像TGB01(c)が現実空間のどの被写体に対応したものなのかを、表示画面MG01(c)を通しては認識できないという問題が生じることになる。   Therefore, in the above-described conventional information processing apparatus 01, even if the imaging posture is changed, the user corresponds to which subject in the real space the object display image TGB01 (c) corresponds to the case of FIG. There is a problem that it cannot be recognized through the display screen MG01 (c).

以上に述べた通り、従来の仮想現実間に関する技術を備えた情報処理装置では、仮想現実空間上に配置されたオブジェクト情報を取得する範囲を、情報処理装置が搭載したカメラの撮像範囲とは別に設定していること、及び情報処理装置の撮像姿勢を考慮していないことから、オブジェク表示画像を現実空間の被写体の撮像画像に適切に対応付けて表示することができなかった。   As described above, in an information processing apparatus equipped with conventional technology related to virtual reality, the range for acquiring object information arranged in the virtual reality space is different from the imaging range of the camera mounted on the information processing apparatus. Since it is set and the imaging posture of the information processing apparatus is not taken into consideration, the object display image cannot be displayed in association with the captured image of the subject in the real space appropriately.

次に、図2は、例えば上記特許文献3に記載の技術のように、撮像の水平方向の画角をオブジェクト情報の取得範囲とし、このオブジェクト情報の取得範囲に基づいてオブジェクト表示画像の表示画面内における表示位置を設定した場合の問題点について説明する。   Next, FIG. 2 shows an object display image display screen based on the object information acquisition range, which is the horizontal field angle of imaging, for example, as in the technique described in Patent Document 3 above. A problem when the display position is set in the screen will be described.

図2において、情報処理装置02は、筺体の1面に、水平方向と垂直方向の辺の長さが異なるモニタ(例えば、水平方向が約7cmで垂直方向が約5.25cm)を搭載しており、レンズ等の撮像部が例えばモニタが搭載された面と反対側の面にモニタと略平行となるように搭載されている点は上述の従来の情報処理装置01と同様とする。   In FIG. 2, the information processing apparatus 02 has a monitor (for example, about 7 cm in the horizontal direction and about 5.25 cm in the vertical direction) on which one side of the horizontal direction and the length of the vertical side are different is mounted on one surface of the housing. For example, an imaging unit such as a lens is mounted on a surface opposite to the surface on which the monitor is mounted so as to be substantially parallel to the monitor, as in the conventional information processing apparatus 01 described above.

図2(a)の上段の図は、カメラを備えた情報処理装置02と、仮想現実空間内に配置されたオブジェクト情報TA02、TB02、及びTC02との関係を上面視した概念図であり、下段はその際の情報処理装置02の備えるモニタの表示画面MG02(a)を示す図である。   The upper diagram in FIG. 2A is a conceptual diagram of a top view of the relationship between the information processing device 02 including a camera and the object information TA02, TB02, and TC02 arranged in the virtual reality space. FIG. 11 is a diagram showing a monitor display screen MG02 (a) included in the information processing apparatus 02 at that time.

情報処理装置02は、仮想現実空間から、撮像の水平画角AV02(a)で定められる範囲にあるオブジェクト情報TA02、TB02、及びTC02を取得する。そして、各オブジェクト情報に基づき生成されたオブジェクト表示画像TGA02(a)、TGB02(a)、及びTGC02(a)がモニタ上に表示される表示画面MG02(a)内に表示される。   The information processing apparatus 02 acquires object information TA02, TB02, and TC02 that are within the range defined by the horizontal field angle AV02 (a) of imaging from the virtual reality space. Then, object display images TGA02 (a), TGB02 (a), and TGC02 (a) generated based on each object information are displayed in a display screen MG02 (a) displayed on the monitor.

ここで、従来の情報処理装置02は、水平画角AV02(a)で定められる撮像範囲に一致するオブジェクト情報の取得範囲に基づいて、各オブジェクト表示画像の表示画面内における表示位置を設定している。従って、撮像範囲に含まれる各被写体画像と同様に、オブジェクト情報の取得範囲に含まれる各オブジェクト表示画像の横方向の表示画面内での表示幅は情報処理装置02の近傍では小さく、遠方になるほど大きくなる。従って、同じ大きさのオブジェクト表示画像として仮想空間上に配置されている画像であっても、表示画面内での大きさは情報処理装置02からの距離に応じて変化することになる。図2(a)では、情報処理装置02の最も近い位置にあるオブジェクト情報TA02に基づくオブジェクト表示画像TGA02(a)が最も大きく、最も遠い位置にあるオブジェクト情報TC02に基づくオブジェクト表示画像TCG02(a)が最も小さく表示される。   Here, the conventional information processing apparatus 02 sets the display position of each object display image within the display screen based on the object information acquisition range that matches the imaging range defined by the horizontal angle of view AV02 (a). Yes. Accordingly, as with each subject image included in the imaging range, the display width in the horizontal display screen of each object display image included in the object information acquisition range is small in the vicinity of the information processing apparatus 02, and becomes farther away. growing. Therefore, even if the images are arranged in the virtual space as the same size object display image, the size in the display screen changes according to the distance from the information processing apparatus 02. In FIG. 2A, the object display image TGA02 (a) based on the object information TA02 located closest to the information processing device 02 is the largest and the object display image TCG02 (a) based on the object information TC02 located farthest. Is displayed in the smallest size.

従って、オブジェクト表示画像TAG02(a)はユーザから視認しやすいが、それより小さく表示されたオブジェクト表示画像TBG02(a)及びTCG02(a)は視認しにくい。   Therefore, the object display image TAG02 (a) is easily visible to the user, but the object display images TBG02 (a) and TCG02 (a) displayed smaller than the object display image TAG02 (a) are difficult to visually recognize.

そこで、オブジェクト表示画像TCG02(a)に係る情報を欲したユーザがズーム倍率を変更し、すなわち水平方向の画角を変更し、オブジェクト表示画像TCG02(a)が現在表示されているオブジェクト表示画像TAG02(a)と同程度の大きさに表示した場合について、図2(b)を参照して説明する。   Therefore, a user who desires information related to the object display image TCG02 (a) changes the zoom magnification, that is, changes the horizontal angle of view, and the object display image TAG02 in which the object display image TCG02 (a) is currently displayed is displayed. The case of displaying the same size as (a) will be described with reference to FIG.

図2(b)に示すように、ズーム倍率を変更し、すなわち水平方向の画角を水平画角AV02(a)からより小さな水平画角AV02(b)に変更し、倍率の大きい画像を表示画面MG02(b)に表示した結果、オブジェクト情報TC02に係るオブジェクト表示画像TGC02(b)はユーザが視認できる程度に大きく表示されることになるが、同時にオブジェクト情報TA02に係るオブジェクト表示画像TGA02(b)もTGA02(a)に比し大きく表示されてしまうことになる。情報を得ることを望んでいないオブジェクト表示画像TGA02(b)が大きく表示されてしまうことは、表示画面が煩雑になること等からいってユーザの不利益となる。   As shown in FIG. 2B, the zoom magnification is changed, that is, the horizontal angle of view is changed from the horizontal angle of view AV02 (a) to a smaller horizontal angle of view AV02 (b), and an image with a large magnification is displayed. As a result of the display on the screen MG02 (b), the object display image TGC02 (b) related to the object information TC02 is displayed large enough to be visually recognized by the user, but at the same time, the object display image TGA02 (b) related to the object information TA02 ) Will be displayed larger than TGA02 (a). The large display of the object display image TGA02 (b) for which information is not desired is disadvantageous to the user because the display screen becomes complicated.

また、上述の例のように情報処理装置02からみて、近いオブジェクト表示画像を手前に、遠いオブジェクト表示画像を奥に見えるように表示画面に生成した場合、ズーム倍率に関係なく別のオブジェクト表示画像と重なってしまって、ユーザが視認できないオブジェクト表示画像が生じてしまう。図2でいえば、オブジェクト情報TB02に係るオブジェクト表示画像TGB02(a)又はTGB02(b)は、重畳されるオブジェクト表示画像TGA02(a)又はTGA02(b)により隠れてしまい、ユーザはそれらを視認することができない。   In addition, when the display screen is generated so that the near object display image is in front and the far object display image is in the back as viewed from the information processing apparatus 02 as in the above example, another object display image is displayed regardless of the zoom magnification. As a result, an object display image that cannot be visually recognized by the user is generated. In FIG. 2, the object display image TGB02 (a) or TGB02 (b) related to the object information TB02 is hidden by the superimposed object display image TGA02 (a) or TGA02 (b), and the user visually recognizes them. Can not do it.

以上、図2を参照して述べたように、従来の仮想現実間に関する技術を備えた情報処理装置では、撮像の水平方向の画角をオブジェクト情報の取得範囲とし、このオブジェクト情報の取得範囲に基づいてオブジェクト表示画像の表示画面内における表示位置を設定していたことから、オブジェクト表示画像がユーザには視認できないほど小さく表示されたり、逆に過度に大きく表示されたりする問題がある。また、遠くにあるかのように表示されるオブジェクト表示画像が、近くにあるかのように表示されるオブジェクト表示画像と重なってしまった場合に、その近くにあるかのように表示されるオブジェクト表示画像に隠れてしまって、完全には視認できないという問題がある。   As described above with reference to FIG. 2, in the information processing apparatus having the conventional technology related to virtual reality, the horizontal field angle of imaging is set as the object information acquisition range, and the object information acquisition range is included in the object information acquisition range. Since the display position of the object display image in the display screen is set based on this, there is a problem that the object display image is displayed so small that it cannot be visually recognized by the user, or conversely, it is displayed excessively large. Also, when an object display image that appears as if it is in the distance overlaps with an object display image that appears as if it is nearby, the object that appears as if it is nearby There is a problem that it is hidden in the display image and cannot be seen completely.

<第一の実施形態:情報処理システム>
そこで、上述の問題を解決するための本発明の第一の実施形態に係る情報処理システムについて、以下に説明する。
なお、以下の説明ではオブジェクト情報に含まれる位置、形状及び大きさ等の情報から、現実空間とリンクした仮想現実空間内にあたかもそのオブジェクト情報に係る仮想の物体(被写体)が存在するかのごとく想定した場合の、その仮想の物体を「オブジェクト」と呼ぶこととする。また、以下の各実施形態の説明においては、説明及び理解の容易のため、情報処理装置が垂直方向の傾きを有さず、オブジェクトが垂直方向の傾きを有さず、さらに情報処理装置の備える撮像部のレンズの中心(光軸)と同じ高さにオブジェクトの中心が位置している場合を想定して説明を行う。
<First embodiment: Information processing system>
Therefore, an information processing system according to the first embodiment of the present invention for solving the above-described problem will be described below.
In the following description, it is as if the virtual object (subject) related to the object information exists in the virtual reality space linked to the real space from the information such as the position, shape and size included in the object information. The assumed virtual object is called an “object”. In the following description of each embodiment, for ease of explanation and understanding, the information processing apparatus does not have a vertical inclination, the object does not have a vertical inclination, and the information processing apparatus includes Description will be made assuming that the center of the object is located at the same height as the center (optical axis) of the lens of the imaging unit.

図3は、本発明の実施形態に係る情報処理システム1の構成を示すブロック図である。本実施形態に係る情報処理システム1は、オブジェクト情報を取得し、オブジェクト表示画像を表示する情報処理装置100と、表示されるオブジェクト表示画像に係るオブジェクト情報を検索するための検索サーバ200とから大きく構成され、情報処理装置100と検索サーバ200との間は、例えば無線通信等の手段を用いることにより接続されている。
なお、以下の説明においては、オブジェクト表示画像を「タグ表示画像」、オブジェクト情報を「タグ情報」、そしてオブジェクトを「タグ」と呼ぶこととする。
FIG. 3 is a block diagram showing a configuration of the information processing system 1 according to the embodiment of the present invention. The information processing system 1 according to the present embodiment largely includes an information processing apparatus 100 that acquires object information and displays an object display image, and a search server 200 that searches for object information related to the displayed object display image. The information processing apparatus 100 and the search server 200 are connected by using means such as wireless communication.
In the following description, the object display image is referred to as “tag display image”, the object information is referred to as “tag information”, and the object is referred to as “tag”.

情報処理装置100は搭載された撮像部を通じて動画及び静止画を撮像することができる。
なお、本発明はデジタルスチルカメラやデジタルビデオカメラをはじめ、携帯電話、PHS(Personal Handyphone System)、PDA(Personal Digital Assistant)等、撮像が可能なその他の電子機器においても採用することができる。
The information processing apparatus 100 can capture a moving image and a still image through a built-in imaging unit.
The present invention can be applied to other electronic devices capable of imaging such as a digital still camera and a digital video camera, a mobile phone, a PHS (Personal Handyphone System), and a PDA (Personal Digital Assistant).

<情報処理装置100の構成>
まず、情報処理装置100の構成について、以下に詳述する。
撮像部101は、図示しないレンズ系に入来する撮像光を、同じく図示しない撮像素子により光電変換し、映像信号に変換することによって被写体の撮像画像を取得する撮像部としての機能を果たすともに、被写体にレンズ系の焦点を合わせる等の光学的な機能を果たす部材である。
<Configuration of Information Processing Device 100>
First, the configuration of the information processing apparatus 100 will be described in detail below.
The imaging unit 101 functions as an imaging unit that obtains a captured image of a subject by photoelectrically converting imaging light entering a lens system (not shown) by an imaging element (not shown) and converting it to a video signal. It is a member that performs an optical function such as focusing the lens system on the subject.

画像拡大部102は、図示しないレンズ系を同じく図示しないズームアクチュエータ等のレンズ駆動部材により光学的にズームしたり、図示しない撮像素子に保持された撮像画像等をトリミングすることで電子的にズームしたりして、撮像部101が撮像する撮像画像を拡大等する撮像画像倍率変更部としての機能を果たす部材である。   The image enlarging unit 102 optically zooms a lens system (not shown) with a lens driving member such as a zoom actuator (not shown) or electronically zooms a captured image held by an image sensor (not shown). In other words, it is a member that functions as a captured image magnification changing unit that enlarges a captured image captured by the imaging unit 101.

姿勢検出部103は、情報処理装置100の姿勢を検出する部材であり、重力加速度を検出する素子(加速度センサ)により重力に対する方向を検出する方法や、加速度センサ(ジャイロスコープ)を用いて各速度を積算することにより回転角度を求める方法等を用いることによって、情報処理装置100の姿勢に関する情報、例えば水平姿勢からの情報処理装置100の水平方向の傾きを検出する。姿勢検出部103が検出した姿勢に関する情報は、後述する画角算出部106による水平方向の画角の算出に用いられるほか、後述するタグ表示画像生成部108による生成されたタグ表示画像の撮像画像への重畳位置の算出に用いられる。   The posture detection unit 103 is a member that detects the posture of the information processing apparatus 100, and includes a method of detecting a direction with respect to gravity using an element (acceleration sensor) that detects gravitational acceleration, and an acceleration sensor (gyroscope). By using a method for obtaining the rotation angle by integrating the information, information on the attitude of the information processing apparatus 100, for example, the inclination of the information processing apparatus 100 in the horizontal direction from the horizontal attitude is detected. Information on the posture detected by the posture detection unit 103 is used for calculation of a horizontal angle of view by an angle-of-view calculation unit 106 described later, and a captured image of a tag display image generated by a tag display image generation unit 108 described later. It is used to calculate the position of superimposing on

位置検出部104は、GPS衛星等を利用することにより、情報処理装置100の現在位置を検出する部材である。方向検出部105は、電子コンパス等を用いることにより、情報処理装置100がどの方向に向けられているかを検出する部材である。   The position detection unit 104 is a member that detects the current position of the information processing apparatus 100 by using a GPS satellite or the like. The direction detection unit 105 is a member that detects in which direction the information processing apparatus 100 is directed by using an electronic compass or the like.

画角算出部106は、画像拡大部102が拡大するズーム倍率と、姿勢検出部103が検出する情報処理装置100の姿勢に関する情報に基づいて、撮像部101の水平方向の画角を算出する部材である。画角算出部106は、画像拡大部102が拡大するズーム倍率に基づいて情報処理装置100の撮像部101の水平画角と垂直画角を算出する。例えば、姿勢検出部103が検出する情報処理装置100の姿勢が水平姿勢に対して45度未満の場合は、水平画角を水平方向の画角とし、水平姿勢に対して45度以上の場合は垂直画角を水平方向の画角とする。   The angle-of-view calculation unit 106 is a member that calculates the horizontal angle of view of the imaging unit 101 based on the zoom magnification that the image enlargement unit 102 enlarges and information on the posture of the information processing apparatus 100 that the posture detection unit 103 detects. It is. The view angle calculation unit 106 calculates the horizontal view angle and the vertical view angle of the image pickup unit 101 of the information processing apparatus 100 based on the zoom magnification that the image enlargement unit 102 enlarges. For example, when the posture of the information processing apparatus 100 detected by the posture detection unit 103 is less than 45 degrees with respect to the horizontal posture, the horizontal angle of view is set as the horizontal angle of view, and when the angle is 45 degrees or more with respect to the horizontal posture. Let the vertical angle of view be the horizontal angle of view.

タグ情報取得距離算出部107は、詳細を後述する、画像拡大部102が撮像画像を拡大するズーム倍率に基づいてタグ情報を取得する最短距離であるタグ情報取得最短距離と、タグ情報を取得する最長距離であるタグ情報取得最長距離を算出する処理を行う部材である。   The tag information acquisition distance calculation unit 107 acquires tag information acquisition shortest distance, which is the shortest distance for acquiring tag information based on the zoom magnification at which the image enlargement unit 102 enlarges the captured image, and tag information. It is a member that performs a process of calculating the tag information acquisition longest distance that is the longest distance.

タグ表示画像生成部108は、後述する検索サーバ200のタグ検索部202が検索したタグ情報と、姿勢検出部103が検出する情報処理装置100の姿勢と、位置検出部104が検出する情報処理装置100の現在位置とに基づいてタグ表示画像を生成する部材である。タグ表示画像生成部108は、タグ情報に含まれる、タグの仮想空間内における位置、タグの水平及び垂直方向の大きさ、タグの仮想空間内における配置方向、及びタグの形状に関する情報と、姿勢検出部103が検出する情報処理装置100の姿勢に関する情報からタグ表示画像の表示部110における表示位置や表示形状を算出する。   The tag display image generation unit 108 includes tag information searched by a tag search unit 202 of the search server 200 described later, an attitude of the information processing apparatus 100 detected by the attitude detection unit 103, and an information processing apparatus detected by the position detection unit 104. This is a member that generates a tag display image based on the current position of 100. The tag display image generation unit 108 includes information about the position of the tag in the virtual space, the horizontal and vertical sizes of the tag, the arrangement direction of the tag in the virtual space, and the shape of the tag, which are included in the tag information The display position and display shape of the tag display image on the display unit 110 are calculated from the information regarding the attitude of the information processing apparatus 100 detected by the detection unit 103.

また、タグ表示画像生成部108は、位置検出部104が検出した情報処理装置100の位置と、タグの仮想空間内における位置とを結ぶ直線と、タグの配置方向がなす角度を算出し、この角度とタグの表示向きの関係に基づいてタグ情報内に含まれる表面タグ画像、裏面タグ画像、又は側面タグ画像の3種類のタグ画像のなかから表示に使用するタグ画像を選択する。   Further, the tag display image generation unit 108 calculates an angle formed by a straight line connecting the position of the information processing apparatus 100 detected by the position detection unit 104 and the position of the tag in the virtual space and the arrangement direction of the tag. Based on the relationship between the angle and the display direction of the tag, a tag image to be used for display is selected from the three types of tag images including the front surface tag image, the back surface tag image, and the side surface tag image included in the tag information.

画像合成部109は、タグ表示画像生成部108が生成したタグ表示画像と、撮像部101が撮像した撮像画像とを合成して出力し、表示部110は、その出力を受けて画像合成部109が合成した画像を表示する。   The image synthesis unit 109 synthesizes and outputs the tag display image generated by the tag display image generation unit 108 and the captured image captured by the imaging unit 101, and the display unit 110 receives the output and outputs the image synthesis unit 109. Displays the synthesized image.

操作部111は、図示しない操作ボタンや表示部110上に設けられたタッチパネル等で構成され、画像拡大部102へのズーム倍率の設定、撮像、画面表示に関する各種操作の入力を受付ける部材である。   The operation unit 111 is configured by an operation button (not shown), a touch panel provided on the display unit 110, and the like, and is a member that receives input of various operations related to setting of a zoom magnification, imaging, and screen display to the image enlargement unit 102.

通信部112は、画角算出部106が算出した水平方向の画角と、位置検出部が検出した情報処理装置100の位置と、方向検出部105が検出した情報処理装置100の方向と、タグ情報取得距離算出部107が算出するタグ情報取得最短距離及びタグ情報取得最長距離とを、後述する検索サーバ200の通信部203に対して送信したり、検索サーバ200のタグ検索部202が検索したタグ情報を通信部203から受信したりする部材である。上述の通り、通信部112と通信部203は無線等の手段を用いて通信することにより、上記を含め複数の情報の送受信が可能である。   The communication unit 112 includes a horizontal angle of view calculated by the angle of view calculation unit 106, a position of the information processing device 100 detected by the position detection unit, a direction of the information processing device 100 detected by the direction detection unit 105, and a tag. The tag information acquisition shortest distance and the tag information acquisition longest distance calculated by the information acquisition distance calculation unit 107 are transmitted to the communication unit 203 of the search server 200 described later, or the tag search unit 202 of the search server 200 searches. It is a member that receives tag information from the communication unit 203. As described above, the communication unit 112 and the communication unit 203 can transmit and receive a plurality of pieces of information including the above by communicating using wireless means.

制御部113は、情報処理装置100の撮像や表示等の各種機能を統括的に制御する。例えば、操作部111から読取ったズーム倍率設定値に応じた光学ズーム倍率やデジタルズーム倍率の画像拡大部102への設定や、および、撮像部101への焦点調整や露光調整などの光学的な制御等を行う。或は、表示部110への表示に関する制御として、例えば表示/非表示の制御やバックライトの明るさに関する制御や、情報処理装置100の電源供給制御等を行う。また、上述の各種部材の制御も統括的に実施する。   The control unit 113 comprehensively controls various functions such as imaging and display of the information processing apparatus 100. For example, optical zoom magnification and digital zoom magnification corresponding to the zoom magnification setting value read from the operation unit 111 are set in the image enlargement unit 102, and optical control such as focus adjustment and exposure adjustment for the imaging unit 101 is performed. I do. Alternatively, as control related to display on the display unit 110, for example, display / non-display control, control regarding backlight brightness, power supply control of the information processing apparatus 100, and the like are performed. In addition, the above-described various members are controlled in an integrated manner.

ROM114は、制御部113の動作のためのプログラムを格納している。RAM115は、各種データの一時記憶領域として使用されたり、各種プログラムに係る演算時のワーク領域として使用されたりする。   The ROM 114 stores a program for the operation of the control unit 113. The RAM 115 is used as a temporary storage area for various data, or as a work area for operations related to various programs.

<検索サーバ200の構成>
次に、情報処理システム1に係る検索サーバ200の構成について、以下に詳述する。
タグ記憶部201は、各タグ毎に表面用、裏面用、及び側面用の3種類のタグ画像、各タグの仮想空間内における位置、各タグの仮想空間内における配置方向、並びに各タグの垂直方向の大きさ、形状、及び表示向きから構成されるタグ情報を記憶している。
<Configuration of Search Server 200>
Next, the configuration of the search server 200 according to the information processing system 1 will be described in detail below.
The tag storage unit 201 includes, for each tag, three types of tag images for the front surface, the back surface, and the side surface, the position of each tag in the virtual space, the arrangement direction of each tag in the virtual space, and the vertical direction of each tag. Tag information including the size, shape, and display direction of the direction is stored.

タグ検索部202は、後述する通信部203から得られる、情報処理装置100の位置、情報処理装置100の方向、水平方向の画角、タグ情報取得最短距離、タグ情報取得最長距離とからタグ情報取得範囲を算出し、タグ記憶部201に記憶されたタグ情報のうちこのタグ情報取得範囲内に含まれるタグ情報を検索する部分である。なお、後述するタグ取得禁止範囲特定部205が特定するタグ取得禁止範囲が、タグ情報取得範囲に含まれる場合、タグ検索部202はタグ情報取得範囲からタグ取得禁止範囲を除いた範囲に含まれるタグ情報を検索する。   The tag search unit 202 obtains tag information from the position of the information processing device 100, the direction of the information processing device 100, the angle of view in the horizontal direction, the shortest tag information acquisition distance, and the longest tag information acquisition distance obtained from the communication unit 203 described later. This is a part for calculating the acquisition range and searching for tag information included in the tag information acquisition range among the tag information stored in the tag storage unit 201. In addition, when the tag acquisition prohibition range specified by the tag acquisition prohibition range specifying unit 205 described later is included in the tag information acquisition range, the tag search unit 202 is included in a range obtained by removing the tag acquisition prohibition range from the tag information acquisition range. Search tag information.

通信部203は、タグ検索部202が検索したタグ情報を通信部112に対して送信したり、画角算出部106が算出した水平方向の画角と、位置検出部104が検出した情報処理装置100の位置と、方向検出部105が検出した情報処理装置100の方向と、タグ情報取得距離算出部107が算出したタグ情報取得最短距離とタグ情報取得最長距離を通信部112から受信する部分である。上述の通り、通信部203と通信部112は無線等の手段を用いて通信することにより、上記を含め複数の情報の送受信が可能である。   The communication unit 203 transmits the tag information searched by the tag search unit 202 to the communication unit 112, the horizontal angle of view calculated by the angle of view calculation unit 106, and the information processing apparatus detected by the position detection unit 104. In the part that receives the position of 100, the direction of the information processing apparatus 100 detected by the direction detection unit 105, the tag information acquisition shortest distance and the tag information acquisition longest distance calculated by the tag information acquisition distance calculation unit 107 from the communication unit 112. is there. As described above, the communication unit 203 and the communication unit 112 can transmit and receive a plurality of pieces of information including the above by communicating using wireless means.

タグ取得禁止範囲記憶部204は、タグ情報の取得を禁止する設定が付加された範囲(以下、「タグ取得禁止設定範囲」という。)と、タグ情報の取得を禁止する範囲(以下、「タグ取得禁止範囲」という。)を関連付けて記憶する部材である。   The tag acquisition prohibition range storage unit 204 includes a range to which tag information acquisition prohibition is added (hereinafter referred to as “tag acquisition prohibition setting range”) and a tag information acquisition prohibition range (hereinafter “tag”). This is a member that stores the “acquisition prohibited range” in association with each other.

タグ取得禁止範囲特定部205は、通信部203を通じて受信した情報処理装置100の位置が含まれるタグ取得禁止設定範囲をタグ取得禁止範囲記憶部204から特定し、取得を禁止するタグ情報を特定する部分である。   The tag acquisition prohibition range specifying unit 205 specifies the tag acquisition prohibition setting range including the position of the information processing apparatus 100 received through the communication unit 203 from the tag acquisition prohibition range storage unit 204, and specifies tag information for which acquisition is prohibited. Part.

制御部206は、通信部203を介した各種情報の送受信、上述の各種部材の制御、各種部材への電源供給の制御等を統括的に行う。   The control unit 206 performs overall transmission / reception of various information via the communication unit 203, control of the above-described various members, control of power supply to the various members, and the like.

ROM207は、制御部206の動作のためのプログラムを格納する部材であり、RAM208は、各種データの一時的な保存領域として使用されたり、各種プログラムに係る演算時のワーク領域として使用されたりする。   The ROM 207 is a member that stores a program for the operation of the control unit 206, and the RAM 208 is used as a temporary storage area for various data, or as a work area at the time of calculation related to various programs.

<情報処理装置100によるタグ情報の取得とタグ表示画像の生成表示処理>
次に本実施の形態に係る情報処理システム1によるタグ情報の取得とタグ表示画像の生成表示処理について、図4に示したフローチャートを参照して説明する。
<Acquisition of tag information and generation / display processing of tag display image by information processing apparatus 100>
Next, tag information acquisition and tag display image generation / display processing by the information processing system 1 according to the present embodiment will be described with reference to a flowchart shown in FIG.

まず位置検出部104が情報処理装置100の現在位置を、GPS衛星等を利用することにより取得する(ステップS101)。次に方向検出部105が、撮像部101の撮像方向を検出する(ステップS102)。   First, the position detection unit 104 acquires the current position of the information processing apparatus 100 by using a GPS satellite or the like (step S101). Next, the direction detection unit 105 detects the imaging direction of the imaging unit 101 (step S102).

続いて画角算出部106が撮像部101の水平方向の画角を算出する(ステップS103)。一般的な他の撮像装置と同様に、情報処理装置100においても、光学ズーム又はデジタルズームによるズーム倍率の変化に応じて撮像部101の水平画角及び垂直画角は変化する。また、上述した通り水平姿勢で撮像した場合の水平方向の画角と、垂直姿勢で撮像した場合の水平方向の画角の大きさは異なる。従って、画角算出部106は、画像拡大部102が撮像画像を拡大するズーム倍率と、姿勢検出部103が検出する情報処理装置100の姿勢とから水平方向の画角の算出を行う。   Subsequently, the view angle calculation unit 106 calculates the horizontal view angle of the imaging unit 101 (step S103). Similar to other general imaging devices, in the information processing device 100, the horizontal angle of view and the vertical angle of view of the imaging unit 101 change according to the change in zoom magnification by optical zoom or digital zoom. Further, as described above, the horizontal angle of view when imaged in a horizontal posture and the horizontal angle of view when imaged in a vertical posture are different. Accordingly, the angle-of-view calculation unit 106 calculates the angle of view in the horizontal direction from the zoom magnification at which the image enlargement unit 102 enlarges the captured image and the attitude of the information processing apparatus 100 detected by the attitude detection unit 103.

そして姿勢検出部103が情報処理装置100の姿勢を検出する(ステップS104)。   Then, the posture detection unit 103 detects the posture of the information processing apparatus 100 (step S104).

上記の各ステップで取得された情報処理装置100の現在位置、撮像方向、水平方向の画角、姿勢に関する情報を、RAM115が記憶する(ステップS105)。   The RAM 115 stores information on the current position, imaging direction, horizontal angle of view, and orientation of the information processing apparatus 100 acquired in the above steps (step S105).

次に制御部113は、タグ表示画像の生成表示処理が第1回目のものであるかどうかを判定する(ステップS106)。制御部113が第1回目の処理ではない旨の判定をした場合は(ステップS106でNO)、制御部113はステップS105でRAM115に記憶した情報処理装置100の現在位置、撮像方向、水平方向の画角、姿勢に関する情報を読み出す(ステップS107)。   Next, the control unit 113 determines whether or not the tag display image generation / display process is the first one (step S106). If the control unit 113 determines that the process is not the first time (NO in step S106), the control unit 113 stores the current position, imaging direction, and horizontal direction of the information processing apparatus 100 stored in the RAM 115 in step S105. Information on the angle of view and orientation is read (step S107).

次に、制御部113は、ステップS107で読み出した情報処理装置100の現在位置、撮像方向、水平方向の画角及び姿勢と、前回のタグ表示画像の生成表示処理にて記憶し、読み出した情報処理装置100の位置、撮像方向、水平方向の画角及び姿勢とを個々に比較し、これらの値に変化が生じたかどうかを判定する(ステップS108)具体的には、それぞれの値に所定の範囲を設け、ステップS107で記憶した値に対して、この所定範囲を超える変化が合った場合に、制御部113は変化が生じた旨の判断をする。   Next, the control unit 113 stores and reads out the current position of the information processing apparatus 100 read in step S107, the imaging direction, the angle of view and orientation in the horizontal direction, and the previous generation and display processing of the tag display image. The position of the processing device 100, the imaging direction, the horizontal angle of view, and the posture are individually compared to determine whether or not these values have changed (step S108). Specifically, each value has a predetermined value. A range is provided, and when the value exceeding the predetermined range matches the value stored in step S107, the control unit 113 determines that a change has occurred.

情報処理装置100の現在位置、撮像方向、水平方向の画角、姿勢のうちのいずれも変化しない場合(ステップS108におけるNO)、制御部113は所定の時間が経過したかを判定する(ステップS109)。所定の時間が経過しない場合(ステップS109におけるNO)は、ステップS109を繰り返し、所定の時間が経過した場合(ステップS109のおけるYES)は、ステップS101に戻り前述の処理を繰り返す。   When none of the current position, imaging direction, horizontal angle of view, and orientation of the information processing apparatus 100 changes (NO in step S108), the control unit 113 determines whether a predetermined time has elapsed (step S109). ). If the predetermined time has not elapsed (NO in step S109), step S109 is repeated. If the predetermined time has elapsed (YES in step S109), the process returns to step S101 and the above-described processing is repeated.

ステップS106で制御部113がタグ表示画像の生成表示処理が第1回目のものであると判定した場合(ステップS106でYES)、又はステップS108で制御部113が情報処理装置100の現在位置、撮像方向、水平方向の画角、姿勢のうちのいずれかに変化が生じたと判定した場合(ステップS108でYES)、タグ情報取得距離算出部107はタグ情報取得最短距離とタグ情報取得最長距離を算出する(ステップS110)。   When the control unit 113 determines in step S106 that the tag display image generation / display process is the first one (YES in step S106), or in step S108, the control unit 113 captures the current position of the information processing apparatus 100 and the imaging. When it is determined that any of the direction, the horizontal angle of view, and the posture has changed (YES in step S108), the tag information acquisition distance calculation unit 107 calculates the tag information acquisition shortest distance and the tag information acquisition longest distance. (Step S110).

なお、上述の通り情報処理装置100と検索サーバ200は無線通信にて接続されていることから、情報処理装置1の消費電力を考慮した場合にはできるだけ無線通信を行わない方がよい。従って、上述のステップS106〜S109の工程を踏むことで、タグ表示画像の初回の表示処理を除き、情報処理装置100の現在位置、撮像方向、水平方向の画角、姿勢を所定の時間間隔で取得し、これらの値に変化が生じた時のみタグ情報の検索処理やタグ表示画像の更新処理を行うことができる。   Since the information processing apparatus 100 and the search server 200 are connected by wireless communication as described above, it is better not to perform wireless communication as much as possible in consideration of power consumption of the information processing apparatus 1. Therefore, by performing the steps S106 to S109 described above, the current position, the imaging direction, the horizontal angle of view, and the posture of the information processing apparatus 100 are set at predetermined time intervals, except for the initial display processing of the tag display image. Only when the values are acquired and the values have changed, the tag information search process and the tag display image update process can be performed.

<タグ情報取得範囲>
タグ情報取得距離算出部107は制御部113の指示に従い、タグ情報に含まれるタグの水平及び垂直方向の大きさとして標準的な大きさを有するものを、タグ表示画像として表示部110に適切な大きさで重畳表示することができるように、タグ情報取得最短距離とタグ情報取得最長距離を算出する(ステップS110)。この算出処理を説明するにあたり、これらタグ情報取得最短距離及びタグ情報取得最長距離が算出される基準及び算出される理由について、検索サーバ200が算出するタグ情報取得範囲の説明を一部交えて以下に説明する。なお、検索サーバ200によるタグ情報取得範囲については、後にさらに詳述する。
<Tag information acquisition range>
The tag information acquisition distance calculation unit 107 is suitable for the display unit 110 as a tag display image having a standard size in the horizontal and vertical directions of the tag included in the tag information in accordance with an instruction from the control unit 113. The tag information acquisition shortest distance and the tag information acquisition longest distance are calculated so that they can be superimposed and displayed in size (step S110). In describing this calculation process, the tag information acquisition shortest distance and the standard for calculating the tag information acquisition longest distance and the reason for the calculation will be described below with a part of the tag information acquisition range calculated by the search server 200. Explained. The tag information acquisition range by the search server 200 will be described in detail later.

図5は、情報処理装置100と、仮想現実空間内に配置されたタグTA05、TB05、及びTC05との関係を上面視した概念図であり、下段はその際の情報処理装置100の備える表示部110の表示画面MG05を示す図である。
ここで、タグTB05は、水平及び垂直方向の大きさとして標準的なものを有しており、表示部110に表示される表示画面MG05には、このタグTB05に基づきタグ表示画像TGB05が適切な大きさで表示されている。タグ情報取得距離算出部107はこのタグTB05のような状態にあるタグを基準としてタグ情報取得最短距離及びタグ情報取得最長距離を算出する。すなわち、タグ情報取得距離算出部107は、位置検出部104が取得した情報処理装置100の現在位置からタグTB05の仮想空間内における位置までの光軸上の距離Lbを基準とし、この距離Lbより距離Lcだけ短い距離をタグ情報取得最短距離、距離Lcだけ長い距離をタグ情報取得最長距離として算出する。
FIG. 5 is a conceptual diagram of a top view of the relationship between the information processing apparatus 100 and the tags TA05, TB05, and TC05 disposed in the virtual reality space, and the lower part is a display unit included in the information processing apparatus 100 at that time. 10 is a diagram showing a display screen MG05 of 110. FIG.
Here, the tag TB05 has a standard size in the horizontal and vertical directions, and the tag display image TGB05 is appropriate for the display screen MG05 displayed on the display unit 110 based on the tag TB05. Displayed in size. The tag information acquisition distance calculation unit 107 calculates the tag information acquisition shortest distance and the tag information acquisition longest distance on the basis of a tag in a state like the tag TB05. That is, the tag information acquisition distance calculation unit 107 is based on the distance Lb on the optical axis from the current position of the information processing apparatus 100 acquired by the position detection unit 104 to the position in the virtual space of the tag TB05. The distance short by the distance Lc is calculated as the tag information acquisition shortest distance, and the distance long by the distance Lc is calculated as the tag information acquisition longest distance.

そして、情報処理装置100の位置を中心とするタグ情報取得最短距離を半径とする円弧、情報処理装置100の位置を中心とするタグ情報取得最長距離を半径とする円弧、及び画角算出部106が算出した水平方向の画角とで囲まれた範囲(図5中にてハッチングで示した範囲)が情報処理装置100におけるタグ情報取得範囲となる。   Then, an arc whose radius is the shortest tag information acquisition distance centered on the position of the information processing apparatus 100, an arc whose radius is the longest tag information acquisition distance centered on the position of the information processing apparatus 100, and the angle of view calculation unit 106 A range surrounded by the horizontal angle of view calculated by (a hatched range in FIG. 5) is a tag information acquisition range in the information processing apparatus 100.

上述のように、標準的な水平及び垂直方向の大きさを有するタグの仮想空間内における位置(以下、「基準位置」という。)を基準としたタグ情報取得最短距離及びタグ情報取得最長距離を算出し、これらに基づいてタグ情報取得範囲が設定されることで、このタグ情報取得範囲に含まれる各タグ情報に係るタグ表示画像は概ね適切な大きさで表示部110に表示されることになる。図5の例では、タグTB05及びTC05はタグ情報取得範囲に含まれるため、タグ表示画像TGB05及びTGC05は表示画面MG05に適切な大きさで表示されることになる。一方で、タグTA05はタグ情報取得範囲に含まれないため、タグTA05に基づくタグ表示画像は表示画面MG05上には表示されないことになる。   As described above, the tag information acquisition shortest distance and the tag information acquisition longest distance based on the position (hereinafter referred to as “reference position”) of a tag having a standard horizontal and vertical size in the virtual space. By calculating and setting the tag information acquisition range based on these, the tag display image related to each tag information included in the tag information acquisition range is displayed on the display unit 110 in a generally appropriate size. Become. In the example of FIG. 5, since the tags TB05 and TC05 are included in the tag information acquisition range, the tag display images TGB05 and TGC05 are displayed in an appropriate size on the display screen MG05. On the other hand, since the tag TA05 is not included in the tag information acquisition range, the tag display image based on the tag TA05 is not displayed on the display screen MG05.

<タグ情報取得距離算出部107のタグ情報取得最短距離とタグ情報取得最長距離の算出>
さらにタグ情報取得最短距離及びタグ情報取得最長距離は画像拡大部102のズーム倍率に基づいて算出される。以下にこの算出方法について、図6を参照して詳述する。
<Calculation of tag information acquisition shortest distance and tag information acquisition longest distance of tag information acquisition distance calculation unit 107>
Further, the shortest tag information acquisition distance and the longest tag information acquisition distance are calculated based on the zoom magnification of the image enlargement unit 102. This calculation method will be described in detail below with reference to FIG.

図6は、情報処理装置100の位置を中心としタグ情報取得最短距離を半径とする円弧と、情報処理装置100の位置を中心としタグ情報取得最長距離を半径とする円弧と、撮像部101の画角とで囲まれた範囲をタグ情報取得範囲(図6(a)、(b)及び(c)においてハッチングで示した範囲)とし、情報処理装置100にて撮像しているところの上面視を示したものである。なお、情報処理装置100が水平姿勢にある場合の基準位置での横方向の撮像幅をWb1、情報処理装置100が垂直姿勢にある場合の基準位置での横方向の撮像幅をWb2として以下の説明を行う。   FIG. 6 shows an arc with the tag information acquisition shortest distance as the radius centered on the position of the information processing apparatus 100, an arc with the tag information acquisition longest distance as the radius centered on the position of the information processing apparatus 100, and the imaging unit 101. The range surrounded by the angle of view is the tag information acquisition range (the range indicated by hatching in FIGS. 6A, 6B, and 6C), and a top view of the image picked up by the information processing apparatus 100 Is shown. The horizontal imaging width at the reference position when the information processing apparatus 100 is in the horizontal posture is Wb1, and the horizontal imaging width at the reference position when the information processing apparatus 100 is in the vertical attitude is Wb2. Give an explanation.

まず、図5(a)を用いて基準位置からタグ情報取得最短距離までの距離(基準位置からタグ情報取得最長距離までの距離と等しい)Lcの算出方法について説明を行う。   First, a method for calculating the distance Lc from the reference position to the tag information acquisition shortest distance (equal to the distance from the reference position to the tag information acquisition longest distance) Lc will be described with reference to FIG.

図5(a)は、画像拡大部102を最低ズーム倍率(本実施の形態では1倍とする)に設定し、情報処理装置100を水平姿勢にして撮像しているところを示している。情報処理装置100の直前にあるタグ情報に基づきタグ表示画像を表示画面に表示するためには、画像拡大部102を最低ズーム倍率に設定した場合のタグ情報取得最短距離Rmin1をゼロにすれば良い。すなわち、距離Lcは画像拡大部102を最低ズーム倍率に設定した場合の、情報処理装置100から基準位置までの距離とすれば良い。この場合、タグ情報取得最長距離Rmax1は距離Lcを2倍した距離として求まり、タグ情報取得範囲は情報処理装置100の水平画角内の0〜2Lcの範囲となる。例えば、水平方向の画角が60度、標準的なタグが200mm角の大きさを持つ四角形であり、このタグ表示画像の横方向の長さが表示画面の横方向の1/10になるように表示する場合、基準位置での横方向の撮像幅Wb1は2m、距離Lcは約1.73mと求まり、タグ情報取得範囲は情報処理装置100の水平画角内の0m〜3.46mの範囲となる。   FIG. 5A shows that the image enlargement unit 102 is set to the minimum zoom magnification (1 × in the present embodiment) and the information processing apparatus 100 is imaged in a horizontal posture. In order to display the tag display image on the display screen based on the tag information immediately before the information processing apparatus 100, the tag information acquisition shortest distance Rmin1 when the image enlargement unit 102 is set to the minimum zoom magnification may be zero. . That is, the distance Lc may be a distance from the information processing apparatus 100 to the reference position when the image enlargement unit 102 is set to the minimum zoom magnification. In this case, the tag information acquisition maximum distance Rmax1 is obtained as a distance obtained by doubling the distance Lc, and the tag information acquisition range is a range of 0 to 2Lc within the horizontal angle of view of the information processing apparatus 100. For example, the horizontal angle of view is 60 degrees, and the standard tag is a quadrangle having a size of 200 mm square. The horizontal length of the tag display image is 1/10 of the horizontal direction of the display screen. 2, the horizontal imaging width Wb1 at the reference position is 2 m, the distance Lc is approximately 1.73 m, and the tag information acquisition range is a range of 0 m to 3.46 m within the horizontal angle of view of the information processing apparatus 100. It becomes.

次に、図6(b)を用いて、画像拡大部102をm倍に設定した場合の、情報処理装置100から基準位置までの距離について説明を行う。   Next, the distance from the information processing apparatus 100 to the reference position when the image enlargement unit 102 is set to m times will be described with reference to FIG.

図6(b)は、画像拡大部102をm倍(>1倍)に設定し、情報処理装置100を水平姿勢にして撮像しているところを示している。ズーム倍率を1倍からm倍に上げた時に、表示画面上に表示される被写体の長さがm倍になるように画面拡大部102が動作する場合、図6(b)に示すように、画像拡大部102のズーム倍率をm倍に設定すると基準位置は情報処理装置100から距離mLcの位置となる。この場合、タグ情報取得最短距離Rmin2は(mLc−Lc)、タグ情報取得最長距離Rmax2は(mLc+Lc)となり、タグ情報取得範囲は情報処理装置100の水平画角内の(mLc−Lc)〜(mLc+Lc)の範囲となる。例えば、画像拡大部102のズーム倍率を4倍に設定した場合、情報処理装置100から基準位置までの距離は6.92mとなり、タグ情報取得範囲は情報処理装置100の水平画角内の5.19m〜8.65mの範囲となる。   FIG. 6B shows a state where the image enlargement unit 102 is set to m times (> 1 time) and the information processing apparatus 100 is set in a horizontal posture for imaging. When the screen enlargement unit 102 operates so that the length of the subject displayed on the display screen becomes m times when the zoom magnification is increased from 1 time to m times, as shown in FIG. When the zoom magnification of the image enlargement unit 102 is set to m times, the reference position is a position at a distance mLc from the information processing apparatus 100. In this case, the tag information acquisition shortest distance Rmin2 is (mLc−Lc), the tag information acquisition longest distance Rmax2 is (mLc + Lc), and the tag information acquisition range is within the horizontal angle of view of the information processing apparatus 100 (mLc−Lc) ˜ ( mLc + Lc). For example, when the zoom magnification of the image enlargement unit 102 is set to 4 times, the distance from the information processing apparatus 100 to the reference position is 6.92 m, and the tag information acquisition range is 5. The range is 19m to 8.65m.

次に、図6(c)を用いて、垂直姿勢で撮像を行い、かつ画像拡大部102をm倍に設定した場合の、情報処理装置100から基準位置までの距離について説明を行う。   Next, the distance from the information processing apparatus 100 to the reference position when imaging is performed in a vertical posture and the image enlargement unit 102 is set to m times will be described with reference to FIG.

図6(c)は、図6(b)の情報処理装置100をレンズの中心を軸に90度回転して垂直姿勢で撮像しているところを示している。回転によって基準位置の位置は変化しないので、タグ情報取得最短距離Rmin2とタグ情報取得最長距離Rmax2は図6(b)の水平姿勢の場合と同じ値となる。この場合、水平方向の画角は情報処理装置100の垂直画角となるので、タグ情報取得範囲は情報処理装置100の垂直画角内の(mLc−Lc)〜(mLc+Lc)の範囲となる。   FIG. 6C shows a state where the information processing apparatus 100 of FIG. 6B is rotated 90 degrees around the center of the lens and imaged in a vertical posture. Since the position of the reference position does not change due to the rotation, the tag information acquisition shortest distance Rmin2 and the tag information acquisition longest distance Rmax2 have the same values as in the horizontal posture of FIG. In this case, since the horizontal angle of view is the vertical angle of view of the information processing apparatus 100, the tag information acquisition range is a range of (mLc−Lc) to (mLc + Lc) within the vertical angle of view of the information processing apparatus 100.

以上で説明したように、タグ情報取得距離算出部107はタグ情報取得最短距離およびタグ情報取得最長距離を画像拡大部102のズーム倍率に基づいて算出する。従って、タグ情報取得距離算出部107は、画像拡大部102から現在のズーム倍率に関する情報を受け取り、このズーム倍率に基づいてタグ情報取得最短距離とタグ情報取得最長距離を算出する。
なお、タグ情報取得最短距離およびタグ情報取得最長距離の算出に用いる距離Lcは、情報処理装置100の最低ズーム倍率時の水平画角の大きさ、タグの標準的な大きさ、表示画面上の表示サイズから求まるものであり、情報処理装置100の製造時にタグ情報取得距離算出部107内に予め記憶されるものとする。
As described above, the tag information acquisition distance calculation unit 107 calculates the tag information acquisition shortest distance and the tag information acquisition longest distance based on the zoom magnification of the image enlargement unit 102. Therefore, the tag information acquisition distance calculation unit 107 receives information on the current zoom magnification from the image enlargement unit 102, and calculates the tag information acquisition shortest distance and the tag information acquisition longest distance based on the zoom magnification.
Note that the distance Lc used for calculating the tag information acquisition shortest distance and the tag information acquisition longest distance is the size of the horizontal angle of view at the minimum zoom magnification of the information processing apparatus 100, the standard size of the tag, and the display screen. It is obtained from the display size and is stored in advance in the tag information acquisition distance calculation unit 107 when the information processing apparatus 100 is manufactured.

図4に戻り、ステップS110でタグ情報取得最短距離及びタグ情報取得最長距離が算出されると、制御部113は通信部112を用いて、ステップS101〜ステップS103で取得した、情報処理装置100の現在位置、撮像方向、及び水平方向の画角、並びにステップS110で取得した、タグ情報取得最短距離及びタグ情報取得最長距離を検索サーバ200の通信部203へ送信する(ステップS111)。   Returning to FIG. 4, when the tag information acquisition shortest distance and the tag information acquisition longest distance are calculated in step S <b> 110, the control unit 113 uses the communication unit 112 of the information processing apparatus 100 acquired in steps S <b> 101 to S <b> 103. The current position, imaging direction, horizontal angle of view, and the tag information acquisition shortest distance and tag information acquisition longest distance acquired in step S110 are transmitted to the communication unit 203 of the search server 200 (step S111).

次に、検索サーバ200はタグ情報の検索の処理を実施する(ステップS112)。この検索サーバ200によるタグ情報の検索の処理の詳細について、図7に示したフローチャートを参照し、以下に詳述する。   Next, the search server 200 performs a tag information search process (step S112). Details of the tag information search processing by the search server 200 will be described in detail below with reference to the flowchart shown in FIG.

まず、制御部206は、情報処理装置100の通信部112から送信された情報処理装置100の現在位置、撮像方向、及び水平方向の画角、並びにステップS110で取得した、タグ情報取得最短距離及びタグ情報取得最長距離を通信部203が受信するのを待ち、この受信が完了した後に通信部203は制御部206の制御により受信した各種情報をタグ検索部202へ渡す(ステップS201)。   First, the control unit 206 transmits the current position of the information processing device 100 transmitted from the communication unit 112 of the information processing device 100, the imaging direction and the horizontal angle of view, and the tag information acquisition shortest distance acquired in step S110 and The communication unit 203 waits for the communication unit 203 to receive the tag information acquisition longest distance, and after the reception is completed, the communication unit 203 passes various information received under the control of the control unit 206 to the tag search unit 202 (step S201).

次に、タグ検索部202は、上記ステップS201で受信した各種情報から上述のタグ情報取得範囲を算出する(ステップS202)。   Next, the tag search unit 202 calculates the above-described tag information acquisition range from the various types of information received in step S201 (step S202).

ステップS202でタグ情報取得範囲が算出されると、次にタグ取得禁止範囲特定部205は、取得を禁止するタグ情報を特定する(ステップS203)例えば、学校施設等の児童が集まる施設近辺に居酒屋等の飲食街があった場合、児童が学校施設等で使用する情報処理装置では、その居酒屋の広告等を表示するタグ表示画像は表示しないことが望ましい。このように表示装置が所定の範囲にある場合、特定のタグ表示画像を表示しないようにすることが望まれる場合がある。   When the tag information acquisition range is calculated in step S202, the tag acquisition prohibition range specifying unit 205 next specifies tag information for which acquisition is prohibited (step S203). For example, a pub near a facility where children such as school facilities gather If there is a restaurant such as a restaurant, it is desirable not to display a tag display image for displaying an advertisement of the pub in the information processing apparatus used by the child at school facilities. Thus, when the display device is in a predetermined range, it may be desired not to display a specific tag display image.

従って、タグ取得禁止範囲特定部205は制御部206の指示により、次のようにして取得を禁止するタグ情報を特定する。まず、タグ取得禁止範囲特定部205はステップS201で取得した情報処理装置100の現在位置がタグ取得禁止設定範囲内にあるかどうかを判定する。タグ取得禁止範囲記憶部204はタグ情報の取得を禁止する設定が付加された範囲であるタグ取得禁止設定範囲と、タグ情報の取得を禁止する範囲であるタグ取得禁止範囲とを関連付けて記憶しており、情報処理装置100の現在位置がタグ取得禁止設定範囲内にあると判定された場合には、関連するタグ取得禁止範囲内に含まれるタグ情報を、取得が禁止されたタグ情報として特定する。   Therefore, the tag acquisition prohibition range specifying unit 205 specifies tag information whose acquisition is prohibited in the following manner according to an instruction from the control unit 206. First, the tag acquisition prohibition range specifying unit 205 determines whether or not the current position of the information processing apparatus 100 acquired in step S201 is within the tag acquisition prohibition setting range. The tag acquisition prohibition range storage unit 204 stores a tag acquisition prohibition setting range that is a range to which a setting for prohibiting the acquisition of tag information is added and a tag acquisition prohibition range that is a range that prohibits the acquisition of tag information in association with each other. If the current position of the information processing apparatus 100 is determined to be within the tag acquisition prohibition setting range, the tag information included in the related tag acquisition prohibition range is identified as tag information prohibited from acquisition. To do.

図8を参照して、このタグ取得禁止範囲特定部205による取得を禁止するタグ情報の特定処理の例を説明する。図8では、学校エリアSA08内に位置する情報処理装置100を水平姿勢にして近辺を撮像しているところを上面視した図である。図8に示すように、タグ情報取得範囲TA08には、飲食街エリアPA08が含まれている。従って、情報処理装置100のモニタ110には、飲食街エリアPA08内に存在する居酒屋等の飲食施設の情報を示すタグ表示画像が表示されてしまう。   With reference to FIG. 8, an example of a tag information specifying process for prohibiting acquisition by the tag acquisition prohibition range specifying unit 205 will be described. In FIG. 8, the information processing apparatus 100 located in the school area SA08 is in a horizontal posture and the vicinity is imaged as viewed from above. As shown in FIG. 8, the tag information acquisition range TA08 includes a dining area PA08. Therefore, a tag display image indicating information on a dining facility such as a pub in the dining area PA08 is displayed on the monitor 110 of the information processing apparatus 100.

そこで、タグ取得禁止範囲記憶部204は、タグ取得禁止設定範囲としての学校エリアSA08と、タグ取得禁止範囲としての飲食街エリアPA08とを関連付けて記憶しており、タグ取得禁止範囲特定部205は情報処理装置100の現在位置が学校エリアSA08内にあると判定した場合は、飲食街エリアPA08に含まれるタグTA08及びTB08に係るタグ情報を禁止を取得するタグ情報として特定し、取得を禁止する。   Therefore, the tag acquisition prohibition range storage unit 204 stores a school area SA08 as a tag acquisition prohibition setting range in association with a restaurant area PA08 as a tag acquisition prohibition range, and the tag acquisition prohibition range specifying unit 205 When it is determined that the current position of the information processing apparatus 100 is within the school area SA08, the tag information related to the tags TA08 and TB08 included in the dining area PA08 is specified as tag information for acquiring the prohibition, and the acquisition is prohibited. .

以上のようにタグ取得禁止範囲に含まれるタグ情報を、取得を禁止するタグ情報として特定し取得を禁止することで、学校エリアSA08内にいる児童の情報処理装置100には、タグTC08に基づくタグ画像は表示されるが、タグTB08に基づくタグ画像は表示されないようにすることができる。   As described above, the tag information included in the tag acquisition prohibited range is specified as the tag information for which acquisition is prohibited and the acquisition is prohibited, so that the information processing apparatus 100 of the child in the school area SA08 is based on the tag TC08. Although the tag image is displayed, the tag image based on the tag TB08 can be prevented from being displayed.

図7に戻り、ステップS203で取得を禁止するタグ情報が特定されると、タグ検索部202はタグ記憶部201に記憶された全タグ情報の中から任意のタグ情報を読み出す(ステップS204)。   Returning to FIG. 7, when tag information prohibited from being acquired is specified in step S203, the tag search unit 202 reads arbitrary tag information from all tag information stored in the tag storage unit 201 (step S204).

<タグ情報>
ここで、タグ情報の詳細について、図9を参照して先に説明する。図9は、情報処理装置100を水平姿勢にして点Pの位置から撮像を行ったところを上面視した図である。図9(a)は、ステップS204でタグ検索部202が、タグ記憶部201から任意のタグ情報として、情報処理装置100が位置する点Pの近傍に位置するタグ情報TA09、TB09、TC09、TD09、及びTE09を読み出したところを概念的に示している。ここで、情報処理装置100が位置する点Pの位置はタグ取得禁止設定範囲SA09内にあり、このタグ取得禁止設定範囲に関連付けられたタグ取得禁止範囲PA09にはタグ情報TD09が含まれるものとして以下を説明する。
<Tag information>
Details of the tag information will be described first with reference to FIG. FIG. 9 is a top view of an image taken from the position of the point P with the information processing apparatus 100 in a horizontal posture. In FIG. 9A, in step S204, the tag search unit 202 receives tag information TA09, TB09, TC09, TD09 located in the vicinity of the point P where the information processing apparatus 100 is located as arbitrary tag information from the tag storage unit 201. , And TE09 are conceptually shown. Here, it is assumed that the position of the point P where the information processing apparatus 100 is located is in the tag acquisition prohibition setting range SA09, and the tag acquisition prohibition range PA09 associated with this tag acquisition prohibition setting range includes tag information TD09. The following will be described.

上述の通り、各タグ情報には、表面用、裏面用、及び側面用の3種類のタグ画像、各タグの仮想空間内における位置、各タグの水平及び垂直方向の大きさ、各タグの仮想空間内における配置方向、各タグの形状、及び各タグの表示向きに関する情報が含まれている。図9(a)では、タグ情報TA09は、仮想空間内における位置が(Xs1,Ys1)、水平方向の大きさがHt1、垂直方向の大きさがVt1、仮想空間内における配置方向がθt1、形状が矩形形状、及び表示向きが裏側向きである旨の情報を含んでいる。タグ情報TB09は、仮想空間内における位置が(Xs2,Ys2)、水平方向の大きさがHt2、垂直方向の大きさがVt2、仮想空間内における配置方向がθt2、形状が矩形形状、及び表示向きが裏側向きである旨の情報を含んでいる。そして、タグ情報TC09は、仮想空間内における位置が(Xs3,Ys3)、水平方向の大きさがHt3、垂直方向の大きさがVt3、仮想空間内における配置方向がθt3、形状が矩形形状、及び表示向きが表側向きである旨の情報を含んでいる。   As described above, each tag information includes three types of tag images for the front surface, the back surface, and the side surface, the position of each tag in the virtual space, the size of each tag in the horizontal and vertical directions, and the virtual value of each tag. Information about the arrangement direction in the space, the shape of each tag, and the display direction of each tag is included. In FIG. 9A, the tag information TA09 has a position in the virtual space (Xs1, Ys1), a horizontal size of Ht1, a vertical size of Vt1, and an arrangement direction in the virtual space of θt1. Includes information indicating that the display has a rectangular shape and the display direction is the reverse side. The tag information TB09 has a position in the virtual space of (Xs2, Ys2), a horizontal size of Ht2, a vertical size of Vt2, a placement direction in the virtual space of θt2, a rectangular shape, and a display orientation Contains information that is facing the other side. The tag information TC09 has a position in the virtual space (Xs3, Ys3), a horizontal size of Ht3, a vertical size of Vt3, an arrangement direction in the virtual space θt3, a shape of a rectangular shape, and Information indicating that the display direction is the front side is included.

図9(b)に、図9(a)に示したタグ情報をさらに詳細に説明するために、タグ情報に基づき仮想の物体(被写体)であるタグを仮想現実空間上に想定する考え方を説明するための概念図を示す。タグ情報に含まれる仮想空間内における位置は、タグの一端を示しており、この一端から、同じくタグ情報に含まれる水平方向及び垂直方向の大きさ及び形状に沿って仮想現実空間内のタグが構成される。以下、この一端としての仮想現実空間内における位置をタグの「開始位置」とも呼ぶこととする。配置方向はタグを現実空間に存在させたと仮定した場合の仮想現実空間内におけるタグのX軸方向からの方向を示しており、開始位置から水平方向の大きさだけ伸ばしたベクトルとX軸のベクトルとのなす角度を示している。以下、開始位置から水平方向の大きさだけ伸ばしたベクトルの他端を「終了位置」と呼ぶ。表示向きはタグを現実空間に存在させたと仮定した場合の仮想現実空間内におけるそのタグの表示向きを意味しており、開始位置を下、終了位置を上とするようにタグを配置した場合の右側の面の裏表を示している。
以上のような考え方で、タグを、現実空間とリンクした仮想現実空間の中に存在し、あたかも撮像部101で撮像される仮想の物体(被写体)であるかのように扱うことができる。
FIG. 9B illustrates the concept of assuming a tag that is a virtual object (subject) on the virtual reality space based on the tag information in order to explain the tag information shown in FIG. 9A in more detail. The conceptual diagram for doing is shown. The position in the virtual space included in the tag information indicates one end of the tag, and from this one end, the tag in the virtual reality space follows the size and shape in the horizontal and vertical directions also included in the tag information. Composed. Hereinafter, the position in the virtual reality space as one end is also referred to as a “start position” of the tag. The arrangement direction indicates the direction from the X-axis direction of the tag in the virtual reality space when it is assumed that the tag exists in the real space, and the vector extended from the start position by the horizontal size and the X-axis vector The angle formed by is shown. Hereinafter, the other end of the vector extended by the horizontal size from the start position is referred to as “end position”. The display direction means the display direction of the tag in the virtual reality space when it is assumed that the tag is present in the real space. When the tag is arranged so that the start position is down and the end position is up The front and back of the right side are shown.
With the above-described concept, the tag can be handled as if it is a virtual object (subject) that exists in the virtual reality space linked to the real space and is imaged by the imaging unit 101.

図7に戻り、ステップS204で任意のタグ情報が読み出されると、以下の手順で取得されるタグ情報の検索が行われる。
まず、タグ検索部202は、情報処理装置100の現在位置を中心として、半径をタグ情報取得最短距離とする円の外に、ステップS204で読み出した任意のタグ情報の仮想空間における位置、つまりタグの開始位置が位置するかどうかの判定を行う(ステップS205)。
Returning to FIG. 7, when arbitrary tag information is read in step S <b> 204, search for tag information acquired in the following procedure is performed.
First, the tag search unit 202 sets the position of the arbitrary tag information read in step S204 in the virtual space, that is, the tag outside the circle whose center is the current position of the information processing apparatus 100 and whose radius is the minimum tag information acquisition distance. It is determined whether or not the start position is located (step S205).

円の外にタグの開始位置が位置する場合(ステップS205でYES)、タグ検索部202は、情報処理装置100の現在位置を中心とし、半径をタグ情報取得最長距離とする円の内に、ステップS204で読み出した任意のタグ情報に係るタグの開始位置が位置するかどうかの判定を行う(ステップS206)。   When the start position of the tag is located outside the circle (YES in step S205), the tag search unit 202 has the current position of the information processing apparatus 100 as the center and the radius is the tag information acquisition maximum distance, It is determined whether the start position of the tag related to the arbitrary tag information read in step S204 is located (step S206).

円の内にタグの開始位置が位置する場合(ステップS206でYES)、タグ検索部202は、情報処理装置100の現在位置、撮像方向、水平方向の画角から定まる画角内に、ステップS204で読み出した任意のタグ情報に係るタグの開始位置が位置するかどうかの判定を行う(ステップS207)。   If the start position of the tag is located within the circle (YES in step S206), the tag search unit 202 sets the step within the angle of view determined from the current position of the information processing apparatus 100, the imaging direction, and the horizontal angle of view. It is determined whether the start position of the tag related to the arbitrary tag information read in is located (step S207).

画角内に位置する場合(ステップS207でYES)、ステップS204で読み出した任意のタグ情報がステップS203で特定した取得を禁止されているタグ情報かどうかの判定を行う(ステップS208)。   If it is located within the angle of view (YES in step S207), it is determined whether the arbitrary tag information read in step S204 is the tag information forbidden to be acquired specified in step S203 (step S208).

取得を禁止されているタグ情報ではないとの判定をした場合(ステップS208でNO)、この読み出したタグ情報をタグ検索部202の有する一時記憶領域に記憶する(ステップS209)。   If it is determined that the tag information is not prohibited from being acquired (NO in step S208), the read tag information is stored in the temporary storage area of the tag search unit 202 (step S209).

次に、タグ検索部202は、タグ記憶部201内に記憶された全タグ情報について上記ステップS205〜ステップS208の検索を行ったかについて判定を行う(ステップS210)。
なお、ステップS204で読み出された任意のタグ情報に係るタグの開始位置が、情報処理装置100の現在位置を中心とし半径をタグ情報取得最短距離とする円外に位置しない場合(ステップS205におけるNO)、情報処理装置100の現在位置を中心とし、半径をタグ情報取得最長距離とする円内に位置しない場合(ステップS206におけるNO)、情報処理装置100の現在位置、撮像方向、水平方向の画角から求まる画角内に位置しない場合(ステップS207におけるNO)、ステップS204で読み出した任意のタグ情報が取得を禁止されているタグ情報であると判定された場合(ステップS208におけるYES)、も同様にタグ記憶部201内に記憶された全タグ情報について上記ステップS205〜ステップS208の検索を行ったかについて判定を行う(ステップS210)。
Next, the tag search unit 202 determines whether or not the search in steps S205 to S208 has been performed on all tag information stored in the tag storage unit 201 (step S210).
Note that the tag start position related to the arbitrary tag information read in step S204 is not located outside the circle centered on the current position of the information processing apparatus 100 and having the radius as the tag information acquisition shortest distance (in step S205). NO), when the current position of the information processing apparatus 100 is not in the circle centered on the current position of the information processing apparatus 100 and whose radius is the tag information acquisition longest distance (NO in step S206), When it is not located within the angle of view obtained from the angle of view (NO in step S207), when it is determined that the arbitrary tag information read in step S204 is tag information prohibited from being acquired (YES in step S208), Similarly, for all tag information stored in the tag storage unit 201, the above steps S205 to S20 are performed. A determination is made if with the search (step S210).

タグ記憶部201内に記憶された全タグ情報についての検索が行われていない判定された場合(ステップS210におけるNO)、ステップS204に戻り前述の処理を繰り返す。
タグ記憶部201内に記憶された全タグ情報について検索が行われたと判定された場合(ステップS210におけるYES)、タグ検索部202は制御部206に対して検索が終了した旨の通知を行い、制御部206は、ステップS209で一時的に記憶したすべてのタグ情報を読み出す(ステップS211)。
When it is determined that all the tag information stored in the tag storage unit 201 has not been searched (NO in step S210), the process returns to step S204 and the above-described processing is repeated.
If it is determined that the search has been performed for all tag information stored in the tag storage unit 201 (YES in step S210), the tag search unit 202 notifies the control unit 206 that the search has been completed, The control unit 206 reads out all tag information temporarily stored in step S209 (step S211).

次に、制御部206は、タグ情報の検索処理に対する終了指示があったかどうかを判定し(ステップS213)、終了指示があった場合(ステップS213におけるYES)、タグ情報の検索処理を終了し、指示がない場合(ステップS213におけるNO)にはステップS201に戻り前述の処理を繰り返す。   Next, the control unit 206 determines whether or not there is an end instruction for the tag information search process (step S213). If there is an end instruction (YES in step S213), the control unit 206 ends the tag information search process and instructs If there is no (NO in step S213), the process returns to step S201 and the above-described processing is repeated.

以上で説明したように、ステップS204〜ステップS211の処理を行うことにより、検索サーバ200は情報処理装置100から送信された情報に基づき、タグ情報取得範囲内に含まれ、かつ取得を禁止されていないタグ情報の検索を実施することが可能となる。   As described above, by performing the processing from step S204 to step S211, the search server 200 is included in the tag information acquisition range based on the information transmitted from the information processing apparatus 100, and acquisition is prohibited. It is possible to search for tag information that does not exist.

図4のフローチャートに戻り、ステップS112で検索サーバ200におけるタグ情報の検索処理が完了すると、検索サーバ200は検索されたタグ情報を通信部203を介して情報処理装置100に送信し、情報処理装置100は通信部112を介して当該検索されたタグ情報を受信する(ステップS113)。   Returning to the flowchart of FIG. 4, when the tag information search processing in the search server 200 is completed in step S <b> 112, the search server 200 transmits the searched tag information to the information processing apparatus 100 via the communication unit 203. 100 receives the searched tag information via the communication unit 112 (step S113).

次にタグ表示画像生成部108は、制御部113の指示に基づいて、ステップS113で受信したタグ情報から、ステップS101で取得した情報処理装置100の現在位置とタグ情報に含まれるタグの仮想空間内における配置方向及びタグの表示向きに基づき、タグ情報内に含まれる表面タグ画像、裏面タグ画像、又は側面タグ画像の3種類のタグ画像のなかから表示されるタグ表示画像に使用するタグ画像を選択する(ステップS114)。この選択の処理について、図10を参照して以下に詳述する。   Next, based on an instruction from the control unit 113, the tag display image generation unit 108 uses the tag information received in step S <b> 113, the current position of the information processing apparatus 100 acquired in step S <b> 101, and the tag virtual space included in the tag information. Tag image to be used for a tag display image displayed from among three types of tag images of a front surface tag image, a back surface tag image, or a side surface tag image included in the tag information based on the arrangement direction and the tag display direction Is selected (step S114). This selection process will be described in detail below with reference to FIG.

図10は、情報処理装置100を水平姿勢にして点Pの位置から撮像を行ったところを上面視した図である。図10では、ステップS113でタグ情報TA10、TB10、及びTC10が受信されたものとする。   FIG. 10 is a top view of an image taken from the position of the point P with the information processing apparatus 100 in a horizontal posture. In FIG. 10, it is assumed that tag information TA10, TB10, and TC10 are received in step S113.

タグ表示画像生成部108は、まず、位置検出部104が検出する情報処理装置100の現在位置の情報を制御部113経由で取得し、この現在位置と各タグ情報に含まれるタグの開始位置とを結ぶ直線LA10、LB10、及びLC10を算出する。そしてタグ表示画像生成部108は、各直線と各タグ情報に含まれるタグの仮想空間における配置方向とがなす角度αt1、αt2、及びαt3を算出する。そして算出された各角度とタグ情報に含まれるタグの表示向きとの関係に基づいて、タグ情報内に含まれる表面タグ画像、裏面タグ画像、又は側面タグ画像の3種類のタグ画像のなかから表示されるタグ表示画像を選択する。   First, the tag display image generation unit 108 acquires information on the current position of the information processing apparatus 100 detected by the position detection unit 104 via the control unit 113, and the current position and the start position of the tag included in each tag information. The straight lines LA10, LB10, and LC10 that connect are calculated. The tag display image generation unit 108 calculates angles αt1, αt2, and αt3 formed by the straight lines and the arrangement directions of the tags included in the tag information in the virtual space. Based on the relationship between each calculated angle and the display direction of the tag included in the tag information, from among the three types of tag images of the front surface tag image, the back surface tag image, or the side surface tag image included in the tag information. Select the tag display image to be displayed.

具体的に、情報処理装置100の現在位置とタグの開始位置を結ぶ直線とタグの配置方向がなす角度をαとすると、0度<α<180度の場合はタグの表示向きと反対面、180度<α<360度の場合はタグの表示向き、α=0度、α=180度の場合は側面のタグ画像をタグ表示画像生成部108は選択する。   Specifically, if the angle formed by the straight line connecting the current position of the information processing apparatus 100 and the start position of the tag and the tag placement direction is α, the surface opposite to the tag display direction when 0 ° <α <180 °, When 180 degrees <α <360 degrees, the tag display image generation unit 108 selects the tag display orientation, and when α = 0 degrees and α = 180 degrees, the tag image on the side surface is selected.

図10において、タグ情報TA10の角度αt1は0度<αt1<180度であるので、タグ情報TA10に基づくタグ画像としてタグの表示向きと反対の面、つまり表面タグ画像が選択される。同様に、タグ情報TB10に基づくタグ画像として表面タグ画像、タグ情報TC10に基づくタグ画像として裏面タグ画像が選択される。   In FIG. 10, since the angle αt1 of the tag information TA10 is 0 degree <αt1 <180 degrees, the surface opposite to the tag display direction, that is, the surface tag image is selected as the tag image based on the tag information TA10. Similarly, a front surface tag image is selected as a tag image based on the tag information TB10, and a back surface tag image is selected as a tag image based on the tag information TC10.

ステップS114で、表面タグ画像、裏面タグ画像、又は側面タグ画像の別が選択されると、次にタグ表示画像生成部108は、制御部113の指示に基づき、タグ情報に含まれるタグの開始位置、タグの水平及び垂直方向の大きさ、タグの仮想空間における配置方向、タグの仮想空間における表示向き、タグの形状、及びステップS104で検出された情報処理装置100の姿勢に関する情報から、タグ表示画像の表示部110の表示画面上の表示位置を算出する(ステップS114)。この表示位置の算出の処理について、図11を参照して以下に詳述する。   When the front tag image, the back tag image, or the side tag image is selected in step S114, the tag display image generation unit 108 starts the tag included in the tag information based on an instruction from the control unit 113. From the information regarding the position, the horizontal and vertical sizes of the tag, the arrangement direction of the tag in the virtual space, the display direction of the tag in the virtual space, the shape of the tag, and the attitude of the information processing apparatus 100 detected in step S104 The display position of the display image display unit 110 on the display screen is calculated (step S114). The display position calculation process will be described in detail below with reference to FIG.

図11は、図10で示したタグ情報TA10に基づいてタグ表示画像を生成する場合の算出方法について示したものである。
まず、最初に図11(a)を用いてタグ表示画像の水平方向の表示位置の算出方法を説明する。タグ表示画像生成部108は、まず、姿勢検出部103が検出する情報処理装置100の姿勢を制御部113経由で取得し、この姿勢に関する情報から表示部110の表示画面の水平方向の画素数Hpと垂直方向の画素数Vpを算出する。
FIG. 11 shows a calculation method when a tag display image is generated based on the tag information TA10 shown in FIG.
First, a method for calculating the horizontal display position of the tag display image will be described with reference to FIG. First, the tag display image generation unit 108 acquires the posture of the information processing apparatus 100 detected by the posture detection unit 103 via the control unit 113, and the horizontal pixel count Hp of the display screen of the display unit 110 from the information regarding the posture. And the number of pixels Vp in the vertical direction is calculated.

次に、タグ表示画像生成部108は、タグ情報TA10に係るタグの開始位置である点Ts1の位置(Xs1,Ys1)に基づき、点Ts1の情報処理装置100からの方向θsを算出する。算出された方向θsと、情報処理装置100の撮像方向θhとの間の差分から、情報処理装置100から点Ts1での撮像幅の中心点Csまでの距離Lsと、中心点Csから点Ts1までの距離Wsを符号付きで算出する。   Next, the tag display image generation unit 108 calculates the direction θs from the information processing apparatus 100 of the point Ts1 based on the position (Xs1, Ys1) of the point Ts1 that is the tag start position related to the tag information TA10. From the difference between the calculated direction θs and the imaging direction θh of the information processing apparatus 100, the distance Ls from the information processing apparatus 100 to the center point Cs of the imaging width at the point Ts1, and from the center point Cs to the point Ts1. Is calculated with a sign.

次に、求めた距離Lsと情報処理装置100の水平方向の画角βhとから、点Ts1での撮像幅Hsを算出する。算出された撮像幅Hsが表示画面の水平方向の画素数Hpに対応することになるので、表示画面上の点Ts1の水平方向の表示位置は、表示画面の中心よりHp×Ws/Hsだけ右側の位置に表示されることになる。   Next, the imaging width Hs at the point Ts1 is calculated from the obtained distance Ls and the horizontal angle of view βh of the information processing apparatus 100. Since the calculated imaging width Hs corresponds to the number of pixels Hp in the horizontal direction of the display screen, the horizontal display position of the point Ts1 on the display screen is Hp × Ws / Hs to the right of the center of the display screen. Will be displayed at the position.

次に、タグ表示画像生成部108は、タグ情報内のタグの開始位置、タグの水平方向の大きさ、タグの配置方向からタグの終了位置となる点Te1(Xe1,Ye1)を算出する。開始位置Ts1と同様にして、タグ表示画像生成部108は、点Te1の情報処理装置100からの方向θeを求め、情報処理装置100から点Te1での撮像幅の中心点Ceまでの距離Leと、中心点Ceから開始点Te1までの距離Weと、点Te1での撮像幅Heを算出する。   Next, the tag display image generation unit 108 calculates a point Te1 (Xe1, Ye1) that is the tag end position from the tag start position, the tag horizontal size, and the tag placement direction in the tag information. Similarly to the start position Ts1, the tag display image generation unit 108 obtains the direction θe of the point Te1 from the information processing apparatus 100, and calculates the distance Le from the information processing apparatus 100 to the center point Ce of the imaging width at the point Te1. Then, the distance We from the center point Ce to the start point Te1 and the imaging width He at the point Te1 are calculated.

算出された撮像幅Heが表示画面の水平方向の画素数Hpに対応することになるので、表示画面上の終了点Te1の水平方向の表示位置は、表示画面の中心よりHp×We/Heだけ左側の位置に表示されることになる。   Since the calculated imaging width He corresponds to the number of pixels Hp in the horizontal direction of the display screen, the horizontal display position of the end point Te1 on the display screen is Hp × We / He from the center of the display screen. It will be displayed in the left position.

次に図11(b)を参照して、タグ表示画像の垂直方向の表示位置の算出方法を説明する。なお、本実施形態では、前述した通り、情報処理装置100が垂直方向の傾きを持たず、タグ表示画像が垂直方向の傾きを持たず、さらに情報処理装置100の撮像部101のレンズの中心(光軸)と同じ高さにタグ表示画像の中心が位置する場合について説明を行っているので、図11(b)において、タグ情報TA10に基づくタグ表示画像は、開始位置Ts1と、開始位置Ts1からタグ画像の垂直方向の大きさVt1だけ垂直方向に離れた位置にある点Ts1’と、終了位置Te1と、終了位置Te1からVt1だけ垂直方向に離れた位置にある点Te1’とからなる四角形(図11(b)にてクロスハッチングで示した四角形)とし、点Ts1と点Ts1’の中心点Cs’と、点Te1と点Te1’の中心点Ce’は情報処理装置100の光軸と同じ高さに位置するものとして説明を行う。   Next, a method for calculating the display position of the tag display image in the vertical direction will be described with reference to FIG. In the present embodiment, as described above, the information processing apparatus 100 does not have a vertical inclination, the tag display image does not have a vertical inclination, and the center of the lens of the imaging unit 101 of the information processing apparatus 100 ( Since the case where the center of the tag display image is located at the same height as the optical axis) is described, in FIG. 11B, the tag display image based on the tag information TA10 has a start position Ts1 and a start position Ts1. A square formed by a point Ts1 ′ that is vertically separated from the tag image by a vertical size Vt1 and an end position Te1 and a point Te1 ′ that is vertically separated from the end position Te1 by Vt1. (The square shown by cross-hatching in FIG. 11B), the center point Cs ′ of the points Ts1 and Ts1 ′, and the center point Ce ′ of the points Te1 and Te1 ′ are the information processing apparatus. 00 will be described as being located at the same height as the optical axis of the.

タグ表示画像生成部108は、まず、上述した情報処理装置100から開始位置Ts1までの距離Lsと垂直方向の画角βvとから、開始位置Ts1での撮像幅Vsを算出する。算出された撮像幅Vsが表示画面の垂直方向の画素数Vpに対応することになるので、表示画面上の開始位置Ts1の垂直方向の表示位置は表示画面の中心よりVp×Vt1/(2×Vs)だけ上側の位置に表示されることになり、表示画面上の点Ts1’の垂直方向の表示位置は、表示画面の中心よりVp×Vt1/(2×Vs)だけ下側の位置に表示されることになる。   First, the tag display image generation unit 108 calculates the imaging width Vs at the start position Ts1 from the distance Ls from the information processing apparatus 100 to the start position Ts1 and the angle of view βv in the vertical direction. Since the calculated imaging width Vs corresponds to the number of pixels Vp in the vertical direction of the display screen, the vertical display position of the start position Ts1 on the display screen is Vp × Vt1 / (2 × Vs) is displayed at the upper position, and the vertical display position of the point Ts1 ′ on the display screen is displayed at a position Vp × Vt1 / (2 × Vs) below the center of the display screen. Will be.

開始位置Ts1と点Ts1’と同様にして、タグ表示画像生成部108は、上述した情報処理装置100から終了位置Te1までの距離Leと垂直方向の画角βvとから、終了位置Te1での撮像幅Veを算出する。算出された撮像幅Veが表示画面の垂直方向の画素数Vpに対応することになるので、表示画面上の終了位置Te1の垂直方向の表示位置は表示画面の中心よりVp×Vt1/(2×Ve)だけ上側の位置に表示されることになり、表示画面上の点Te1’の垂直方向の表示位置は、表示画面の中心よりVp×Vt1/(2×Ve)だけ下側の位置に表示されることになる。   Similarly to the start position Ts1 and the point Ts1 ′, the tag display image generation unit 108 captures an image at the end position Te1 from the distance Le from the information processing apparatus 100 to the end position Te1 and the vertical angle of view βv. The width Ve is calculated. Since the calculated imaging width Ve corresponds to the number of pixels Vp in the vertical direction of the display screen, the vertical display position of the end position Te1 on the display screen is Vp × Vt1 / (2 × Ve) is displayed at the upper position, and the vertical display position of the point Te1 ′ on the display screen is displayed at a position Vp × Vt1 / (2 × Ve) below the center of the display screen. Will be.

なお、図11では、情報処理装置100の姿勢が水平姿勢の場合について説明を行ったが、情報処理装置100が垂直姿勢や水平方向から180度回転した姿勢である場合には、タグ画像生成部108は、姿勢検出部103から取得した表示装置100の姿勢に基づいて表示画面上の表示位置を算出するように動作することができる。   11 describes the case where the posture of the information processing apparatus 100 is a horizontal posture. However, when the information processing device 100 is a vertical posture or a posture rotated 180 degrees from the horizontal direction, the tag image generation unit 108 can operate to calculate the display position on the display screen based on the attitude of the display device 100 acquired from the attitude detection unit 103.

図4に戻り、ステップ115でタグ表示画像の表示位置が算出されると、タグ表示画像生成部108はステップS114で選択されたタグ画像を、ステップS115で算出された表示位置になるように加工し、画像合成部109に出力するタグ表示画像を生成する。そして、タグ表示画像生成部108は、この生成されたタグ表示画像を画像合成部109に出力し、画像合成部109はこのタグ表示画像と撮像部101から出力される撮像画像とを合成する(ステップS116)。   Returning to FIG. 4, when the display position of the tag display image is calculated in step 115, the tag display image generation unit 108 processes the tag image selected in step S114 so as to be the display position calculated in step S115. Then, a tag display image to be output to the image composition unit 109 is generated. Then, the tag display image generation unit 108 outputs the generated tag display image to the image synthesis unit 109, and the image synthesis unit 109 synthesizes the tag display image and the captured image output from the imaging unit 101 ( Step S116).

そして、表示部110は制御部113の指示に基づき、ステップS116で合成された画像を表示部110の表示画面に表示する(ステップS117)。   Then, the display unit 110 displays the image synthesized in step S116 on the display screen of the display unit 110 based on an instruction from the control unit 113 (step S117).

図12は、ステップS116で表示位置を算出した図10におけるタグ情報TA10に基づくタグ表示画像TGA10を、情報処理装置100を水平姿勢にして表示部110の表示画面MG12に表示した場合について示したものである。表示部110の表示画面には、タグ表示画像生成部108が選択した表面のタグ画像から生成したタグ表示画像が表示され、撮像者はタグ表示画像から所望の情報を取得することができる。   FIG. 12 shows a case where the tag display image TGA10 based on the tag information TA10 in FIG. 10 whose display position is calculated in step S116 is displayed on the display screen MG12 of the display unit 110 with the information processing apparatus 100 in a horizontal posture. It is. A tag display image generated from the tag image on the surface selected by the tag display image generation unit 108 is displayed on the display screen of the display unit 110, and the photographer can acquire desired information from the tag display image.

また、タグ情報TA10の真正面に情報処理装置100が位置しないため、タグ情報TA10に基づくタグ表示画像TGA10は表示画面の右方向にいくにつれて縦方向の幅が狭くなるように表示される。このタグ表示画像の形状から、撮像者は情報処理装置100の真正面にタグ情報TA10が位置しないことを瞬時に把握することができる。   Further, since the information processing apparatus 100 is not located directly in front of the tag information TA10, the tag display image TGA10 based on the tag information TA10 is displayed so that the width in the vertical direction becomes narrower in the right direction of the display screen. From the shape of the tag display image, the photographer can instantly grasp that the tag information TA10 is not located directly in front of the information processing apparatus 100.

また、図13は図9のタグ情報TA09、TB09、及びTC09に基づくタグ表示画像TGA09、TGB09、及びTGC09を、情報処理装置100を水平姿勢にして表示部110の表示画面MG13に示した場合について示したものである。各タグ表示画像は、それぞれのタグ情報に基づいた大きさ、形状、向きで表示画面に表示され、撮像者は各々のタグ情報の位置関係を瞬時に把握することができる。また、タグ情報TC09のタグ表示画像は裏面のタグ画像から生成され、撮像者はこの画像からタグ情報TC09に係るタグが反対向きであることを把握することができる。   FIG. 13 shows a case in which tag display images TGA09, TGB09, and TGC09 based on the tag information TA09, TB09, and TC09 of FIG. 9 are displayed on the display screen MG13 of the display unit 110 with the information processing apparatus 100 in a horizontal posture. It is shown. Each tag display image is displayed on the display screen in a size, shape, and orientation based on each tag information, and the photographer can instantly grasp the positional relationship of each tag information. Further, the tag display image of the tag information TC09 is generated from the tag image on the back surface, and the photographer can grasp from this image that the tag related to the tag information TC09 is in the opposite direction.

なお、図13において、表面のタグ画像から生成されたタグ表示画像TGA09及びTGB09と同様に、裏面のタグ画像から生成されたタグ表示画像TGC09も表示画面に表示されるとして説明を行ったが、裏面のタグ画像にいかなる情報も持たないように構成した場合には、裏面で表示されるタグ表示画像を非表示とすることもできる。具体的には、タグ画像生成部108が複数のタグ画像の中から対応するタグ画像を選択する時に、裏面のタグ画像が選択されたタグのタグ表示画像を表示しないように処理すれば良い。側面のタグ画像が選択された場合についても同様である。   In FIG. 13, the tag display image TGC09 generated from the back tag image is also displayed on the display screen in the same manner as the tag display images TGA09 and TGB09 generated from the front tag image. When the tag image on the back side is configured not to have any information, the tag display image displayed on the back side can be hidden. Specifically, when the tag image generation unit 108 selects a corresponding tag image from a plurality of tag images, the tag image on the back side may be processed so as not to display the tag display image of the selected tag. The same applies to the case where the side tag image is selected.

図4に戻り、制御部113は、タグ情報の取得とタグ表示画像の生成表示処理に対する終了指示があったかどうかを判定し(ステップS118)、終了指示があった場合は(ステップS118でYES)、当該処理を終了し、終了指示がない場合は(ステップS118でNO)、ステップS101に戻り上述の処理を繰り返す。   Returning to FIG. 4, the control unit 113 determines whether or not there is an end instruction for the acquisition of tag information and the generation and display processing of the tag display image (step S118). If there is an end instruction (YES in step S118), If the process is terminated and there is no termination instruction (NO in step S118), the process returns to step S101 and the above-described process is repeated.

以上のように、本発明の実施形態に係る情報処理システム1によれば、撮像画像中の被写体画像に、仮想現実空間で取得された情報に基づいて生成されたオブジェクト表示画像を適切に対応付けて重畳表示することができる。
また、本発明の実施形態に係る情報処理システム1によれば、撮像画像中の被写体画像に、仮想現実空間で取得された情報に基づいて生成されたオブジェクト表示画像を対応付けて重畳表示する際に、ユーザが、重畳された複数のオブジェクト表示画像の中から所望のオブジェクト表示画像を容易に視認することが可能となる。
As described above, according to the information processing system 1 according to the embodiment of the present invention, the object display image generated based on the information acquired in the virtual reality space is appropriately associated with the subject image in the captured image. Can be superimposed.
Further, according to the information processing system 1 according to the embodiment of the present invention, the object display image generated based on the information acquired in the virtual reality space is superimposed and displayed on the subject image in the captured image. In addition, the user can easily visually recognize a desired object display image from among the plurality of superimposed object display images.

なお、本実施形態では情報処理装置100と検索サーバ200とからなる情報処理システム1について説明したが、検索サーバ200が備える構成部材の一部を情報処理装置が備える、又は情報処理装置100が備える構成部材の一部を検索サーバが備えるように構成した情報処理システムにおいても本発明の効果を得られる。例えば、検索サーバがタグ表示画像生成部108と同様の役割を果たす部材を備え、検索サーバ側で生成したタグ表示画像を情報処理装置に送信する等の構成等が挙げられる。この構成によれば、情報処理装置側のタグ画像生成に係る処理の負担を軽減することができる。或は、情報処理装置がタグ取得禁止範囲記憶部204及びタグ取得禁止範囲特定部205と同様の役割を果たす部材を備える構成も可能である。本構成によれば、情報処理装置でタグ取得禁止範囲を特定した上で、検索サーバがタグ情報の検索を実施することが可能となる。   In the present embodiment, the information processing system 1 including the information processing apparatus 100 and the search server 200 has been described. However, the information processing apparatus includes a part of the constituent members included in the search server 200, or the information processing apparatus 100 includes. The effect of the present invention can also be obtained in an information processing system configured such that a search server includes a part of the constituent members. For example, a configuration in which the search server includes a member that plays the same role as the tag display image generation unit 108, and the tag display image generated on the search server side is transmitted to the information processing apparatus, etc. According to this configuration, it is possible to reduce the processing load related to tag image generation on the information processing apparatus side. Alternatively, a configuration in which the information processing apparatus includes a member that plays the same role as the tag acquisition prohibition range storage unit 204 and the tag acquisition prohibition range specification unit 205 is also possible. According to this configuration, the search server can search for tag information after the tag acquisition prohibited range is specified by the information processing apparatus.

<第二の実施形態:情報処理システム>
第一の実施形態では、タグ情報の取得とタグ表示画像の生成を行う情報処理装置100とタグ情報の検索を行う検索サーバ200とがとが無線通信で各種情報を授受する情報処理システム1を例にあげたが、ここではタグ情報の取得、タグ表示画像の生成、及びタグ情報の検索の全てを行う情報処理装置300を例に挙げて説明する。
<Second Embodiment: Information Processing System>
In the first embodiment, an information processing system 1 in which an information processing apparatus 100 that acquires tag information and generates a tag display image and a search server 200 that searches for tag information exchange various information by wireless communication. As an example, here, an information processing apparatus 300 that performs all of acquisition of tag information, generation of a tag display image, and search of tag information will be described as an example.

図14は、本発明の実施形態に係る情報処理装置300の構成を示すブロック図である。本実施形態に係る情報処理装置300は、搭載された撮像部を通じて動画及び静止画を撮像することができる。
なお、本発明はデジタルスチルカメラやデジタルビデオカメラをはじめ、携帯電話、PHS(Personal Handyphone System)、PDA(Personal Digital Assistant)等、撮像が可能なその他の電子機器においても採用することができる。以上は上述の情報処理システム1における情報処理装置100と同様である。
FIG. 14 is a block diagram showing the configuration of the information processing apparatus 300 according to the embodiment of the present invention. The information processing apparatus 300 according to the present embodiment can capture a moving image and a still image through a built-in imaging unit.
The present invention can be applied to other electronic devices capable of imaging such as a digital still camera and a digital video camera, a mobile phone, a PHS (Personal Handyphone System), and a PDA (Personal Digital Assistant). The above is the same as the information processing apparatus 100 in the information processing system 1 described above.

<情報処理装置300の構成>
情報処理装置300の構成について以下に述べる。情報処理装置300は被写体の撮像画像の取得等や当該撮像画像のズーム等を行う撮像部301、タグ情報を検索するための情報を処理するタグ検索情報処理部302、タグ情報を検索するタグ検索処理部303、及びタグ情報に基づきタグ表示画像の生成や表示処理を行うタグ表示処理部304、並びに制御部313等から大きく構成されている。また、それらの各部を構成する部材に関し、上述の情報処理システム1が備える部材と実質的に同一の処理を司るものについては、当該情報処理システム1と同じ記号を付して以下を説明する。
<Configuration of Information Processing Device 300>
The configuration of the information processing apparatus 300 will be described below. The information processing apparatus 300 includes an imaging unit 301 that acquires a captured image of a subject, zooms the captured image, and the like, a tag search information processing unit 302 that processes information for searching tag information, and a tag search that searches tag information It is mainly composed of a processing unit 303, a tag display processing unit 304 that generates and displays a tag display image based on tag information, a control unit 313, and the like. In addition, regarding the members constituting these parts, the same symbols as those of the information processing system 1 will be assigned to those that control substantially the same processing as the members of the information processing system 1 described above.

制御部313は、制御部113は、情報処理装置100の撮像や表示等の各種機能を統括的に制御する。例えば、操作部111から読取ったズーム倍率設定値に応じた光学ズーム倍率やデジタルズーム倍率の画像拡大部102への設定や、および、撮像部101への焦点調整や露光調整などの光学的な制御等を行う。或は、表示部110への表示に関する制御として、例えば表示/非表示の制御やバックライトの明るさに関する制御や、情報処理装置100の電源供給制御等を行う。また、上述の各種部材の制御も統括的に実施する。
また、制御部313はタグ検索情報処理部302によるタグ情報を検索するための情報の処理、タグ検索処理部303によるタグ情報の検索の処理、及びタグ表示処理部304によるタグ表示画像の生成や表示の処理を統括制御する。
The control unit 313 centrally controls various functions such as imaging and display of the information processing apparatus 100. For example, optical zoom magnification and digital zoom magnification corresponding to the zoom magnification setting value read from the operation unit 111 are set in the image enlargement unit 102, and optical control such as focus adjustment and exposure adjustment for the imaging unit 101 is performed. I do. Alternatively, as control related to display on the display unit 110, for example, display / non-display control, control regarding backlight brightness, power supply control of the information processing apparatus 100, and the like are performed. In addition, the above-described various members are controlled in an integrated manner.
Further, the control unit 313 performs processing of information for searching tag information by the tag search information processing unit 302, processing of searching tag information by the tag search processing unit 303, and generation of a tag display image by the tag display processing unit 304. Supervises display processing.

ROM314は、制御部313の動作のためのプログラムを格納している。RAM315は、各種データの一時記憶領域として使用されたり、各種プログラムに係る演算時のワーク領域として使用されたりする。     The ROM 314 stores a program for the operation of the control unit 313. The RAM 315 is used as a temporary storage area for various data, or as a work area at the time of calculation related to various programs.

<撮像部301の構成>
撮像部301は、図示しないレンズ系に入来する撮像光を、同じく図示しない撮像素子により光電変換し、映像信号に変換することによって被写体の撮像画像を取得する撮像画像取得部としての機能を果たすともに、被写体にレンズ系の焦点を合わせる等の光学的な機能を果たす部材である。
<Configuration of Imaging Unit 301>
The imaging unit 301 functions as a captured image acquisition unit that acquires a captured image of a subject by photoelectrically converting imaging light entering a lens system (not shown) by an imaging element (not shown) and converting the light into a video signal. Both are members that perform optical functions such as focusing the subject on the lens system.

画像拡大部102は、図示しないレンズ系を同じく図示しないズームアクチュエータ等のレンズ駆動部材により光学的にズームしたり、図示しない撮像素子に保持された撮像画像等をトリミングすることで電子的にズームしたりして、撮像部301が撮像する撮像画像を拡大等する撮像画像倍率変更部としての機能を果たす部材である。   The image enlarging unit 102 optically zooms a lens system (not shown) with a lens driving member such as a zoom actuator (not shown) or electronically zooms a captured image held by an image sensor (not shown). In other words, it is a member that functions as a captured image magnification changing unit that enlarges the captured image captured by the imaging unit 301.

<タグ検索情報処理部302の構成>
姿勢検出部103は、情報処理装置300の姿勢を検出する部材であり、重力加速度を検出する素子(加速度センサ)により重力に対する方向を検出する方法や、加速度センサ(ジャイロスコープ)を用いて各速度を積算することにより回転角度を求める方法等を用いることによって、情報処理装置300の姿勢に関する情報、例えば水平姿勢からの情報処理装置300の水平方向の傾きを検出する。姿勢検出部103が検出した姿勢に関する情報は、後述する画角算出部106による水平方向の画角の算出に用いられるほか、後述するタグ表示画像生成部108による生成されたタグ表示画像の撮像画像への重畳位置の算出に用いられる。
<Configuration of Tag Search Information Processing Unit 302>
The posture detection unit 103 is a member that detects the posture of the information processing apparatus 300, and includes a method of detecting a direction with respect to gravity using an element (acceleration sensor) that detects gravitational acceleration, and an acceleration sensor (gyroscope). By using a method for obtaining the rotation angle by integrating the information, information related to the posture of the information processing device 300, for example, the horizontal inclination of the information processing device 300 from the horizontal posture is detected. Information on the posture detected by the posture detection unit 103 is used for calculation of a horizontal angle of view by an angle-of-view calculation unit 106 described later, and a captured image of a tag display image generated by a tag display image generation unit 108 described later. It is used to calculate the position of superimposing on

位置検出部104は、GPS衛星等を利用することにより、情報処理装置300の現在位置を検出する部材である。方向検出部105は、電子コンパス等を用いることにより、情報処理装置300がどの方向に向けられているかを検出する部材である。   The position detection unit 104 is a member that detects the current position of the information processing apparatus 300 by using a GPS satellite or the like. The direction detection unit 105 is a member that detects in which direction the information processing apparatus 300 is directed by using an electronic compass or the like.

画角算出部106は、画像拡大部102が拡大するズーム倍率と、姿勢検出部103が検出する情報処理装置300の姿勢に関する情報に基づいて、撮像部301の水平方向の画角を算出する部材である。画角算出部106は、画像拡大部102が拡大するズーム倍率に基づいて情報処理装置300の撮像部301の水平画角と垂直画角を算出する。例えば、姿勢検出部103が検出する情報処理装置300の姿勢が水平姿勢に対して45度未満の場合は、水平画角を水平方向の画角とし、水平姿勢に対して45度以上の場合は垂直画角を水平方向の画角とする。   The angle-of-view calculation unit 106 is a member that calculates the horizontal angle of view of the imaging unit 301 based on the zoom magnification that the image enlargement unit 102 enlarges and information on the posture of the information processing device 300 that the posture detection unit 103 detects. It is. The view angle calculation unit 106 calculates the horizontal view angle and the vertical view angle of the image pickup unit 301 of the information processing device 300 based on the zoom magnification that the image enlargement unit 102 enlarges. For example, when the posture of the information processing apparatus 300 detected by the posture detection unit 103 is less than 45 degrees with respect to the horizontal posture, the horizontal angle of view is set as the horizontal angle of view, and when the angle is 45 degrees or more with respect to the horizontal posture. Let the vertical angle of view be the horizontal angle of view.

タグ情報取得距離算出部107は、画像拡大部102が撮像画像を拡大するズーム倍率に基づいてタグ情報を取得する最短距離であるタグ情報取得最短距離と、タグ情報を取得する最長距離であるタグ情報取得最長距離を上述の情報処理システム1と同様にして算出する処理を行う部材である。   The tag information acquisition distance calculation unit 107 is a tag information acquisition shortest distance that is the shortest distance for acquiring tag information based on a zoom magnification at which the image enlargement unit 102 enlarges the captured image, and a tag that is the longest distance for acquiring tag information. It is a member that performs processing for calculating the maximum information acquisition distance in the same manner as the information processing system 1 described above.

上述の如く構成されたタグ検索情報処理部302によってタグ情報取得範囲の特定に必要な情報処理装置300の現在位置、撮像方向、及び水平方向の画角、並びにタグ情報取得最短距離及びタグ情報取得最長距離を、制御部313の指示に基づきタグ検索処理部303に引き渡す。   The tag search information processing unit 302 configured as described above acquires the current position of the information processing device 300 necessary for specifying the tag information acquisition range, the imaging direction and the horizontal angle of view, and the tag information acquisition shortest distance and tag information acquisition. The longest distance is transferred to the tag search processing unit 303 based on an instruction from the control unit 313.

<タグ検索処理部303>
タグ検索処理部303のタグ検索部202は、タグ検索情報処理部302から引き渡された情報処理装置300の現在位置、撮像方向、及び水平方向の画角、並びにタグ情報取得最短距離及びタグ情報取得最長距離から、タグ情報取得範囲を算出する。このタグ情報取得範囲の算出は、上述の情報処理システム1における処理と同様にして行われる。
<Tag search processing unit 303>
The tag search unit 202 of the tag search processing unit 303 acquires the current position of the information processing device 300 delivered from the tag search information processing unit 302, the imaging direction and the horizontal angle of view, and the tag information acquisition shortest distance and tag information acquisition. The tag information acquisition range is calculated from the longest distance. The calculation of the tag information acquisition range is performed in the same manner as the processing in the information processing system 1 described above.

タグ情報取得範囲が算出されると、次にタグ取得禁止範囲特定部205は、取得を禁止するタグ情報を特定する。そして、取得を禁止するタグ情報が特定されると、タグ検索部202はタグ記憶部201に記憶された全タグ情報の中から任意のタグ情報を読み出し、取得するタグ情報の検索を行う。これらの処理もまた、上述の情報処理システム1と同様に行われる。   When the tag information acquisition range is calculated, the tag acquisition prohibition range specifying unit 205 next specifies tag information whose acquisition is prohibited. When tag information prohibited from being acquired is specified, the tag search unit 202 reads arbitrary tag information from all tag information stored in the tag storage unit 201, and searches for tag information to be acquired. These processes are also performed in the same manner as the information processing system 1 described above.

タグ検索処理部303による取得するタグ情報の検索が完了すると、それらのタグ情報は制御部313の指示により、タグ表示処理部304に引き渡される。   When the search of the tag information to be acquired by the tag search processing unit 303 is completed, the tag information is transferred to the tag display processing unit 304 in accordance with an instruction from the control unit 313.

タグ表示画像生成部108は、制御部313の指示に基づいて、引き渡されたタグ情報から、情報処理装置300の現在位置とタグ情報に含まれるタグの仮想空間内における配置方向及びタグの表示向きに基づき、タグ情報内に含まれる表面タグ画像、裏面タグ画像、又は側面タグ画像の3種類のタグ画像のなかから表示されるタグ表示画像を選択する。   Based on the instruction from the control unit 313, the tag display image generation unit 108 determines the current position of the information processing device 300 and the arrangement direction of the tag included in the tag information in the virtual space and the display direction of the tag from the delivered tag information. Based on the above, a tag display image to be displayed is selected from the three types of tag images including the front surface tag image, the back surface tag image, and the side surface tag image included in the tag information.

次にタグ表示画像生成部108は、制御部313の指示に基づき、タグ情報に含まれるタグの開始位置、タグの水平及び垂直方向の大きさ、タグの仮想空間における配置方向、タグの仮想空間における表示向き、タグの形状、及び情報処理装置100の姿勢に関する情報から、タグ表示画像の表示部110の表示画面上の表示位置を算出する。この表示位置の算出も上述の情報処理システム1と同様の方法で行われる。   Next, based on an instruction from the control unit 313, the tag display image generation unit 108 includes a tag start position, tag horizontal and vertical sizes, tag placement direction in the tag virtual space, and tag tag virtual space. The display position of the tag display image on the display screen of the display unit 110 is calculated from the information regarding the display orientation, the shape of the tag, and the attitude of the information processing apparatus 100. The calculation of the display position is also performed by the same method as in the information processing system 1 described above.

タグ表示画像の表示位置が算出されると、タグ表示画像生成部108は選択されたタグ画像を、算出された表示位置になるように加工し、画像合成部109に出力するタグ表示画像を生成する。そして、タグ表示画像生成部108は、この生成されたタグ表示画像を画像合成部109に出力し、画像合成部109はこのタグ表示画像と撮像部301から出力される撮像画像とを合成する。そして、表示部110は制御部313の指示に基づき、その合成された画像を表示部110の表示画面に表示する。   When the display position of the tag display image is calculated, the tag display image generation unit 108 processes the selected tag image so that it becomes the calculated display position, and generates a tag display image to be output to the image composition unit 109. To do. Then, the tag display image generation unit 108 outputs the generated tag display image to the image synthesis unit 109, and the image synthesis unit 109 synthesizes the tag display image and the captured image output from the imaging unit 301. The display unit 110 displays the synthesized image on the display screen of the display unit 110 based on an instruction from the control unit 313.

以上のように、本発明の実施形態に係る情報処理装置300によれば、撮像画像中の被写体画像に、仮想現実空間で取得された情報に基づいて生成されたオブジェクト表示画像を適切に対応付けて重畳表示することができる。
また、本発明の実施形態に係る情報処理装置300によれば、撮像画像中の被写体画像に、仮想現実空間で取得された情報に基づいて生成されたオブジェクト表示画像を対応付けて重畳表示する際に、ユーザが、重畳された複数のオブジェクト表示画像の中から所望のオブジェクト表示画像を容易に視認することが可能となる。
As described above, according to the information processing apparatus 300 according to the embodiment of the present invention, the object display image generated based on the information acquired in the virtual reality space is appropriately associated with the subject image in the captured image. Can be superimposed.
Further, according to the information processing apparatus 300 according to the embodiment of the present invention, the object display image generated based on the information acquired in the virtual reality space is displayed in a superimposed manner on the subject image in the captured image. In addition, the user can easily visually recognize a desired object display image from among the plurality of superimposed object display images.

上記の各実施形態の説明においては、説明及び理解の容易のため、を想定して説明を行ったが、これに限定されるものではない。   In the description of each of the above embodiments, the description has been given for the sake of explanation and understanding, but the present invention is not limited to this.

例えば、第一の実施形態に係る情報処理システム1を例にあげると、姿勢検出部103が、情報処理装置100の姿勢(水平方向の傾き)に加えて、新たに情報処理装置100の垂直方向の傾きを検出し、位置検出部104が、GPSなどの水平方向の位置検出手段による情報処理装置100の水平方向の現在位置の検出に加えて、高度計などの垂直方向の位置検出手段を用いることにより、新たに情報処理装置100の垂直方向の現在位置(高さ)を検出する。   For example, taking the information processing system 1 according to the first embodiment as an example, the attitude detection unit 103 newly adds the vertical direction of the information processing apparatus 100 in addition to the attitude of the information processing apparatus 100 (tilt in the horizontal direction). The position detection unit 104 uses vertical position detection means such as an altimeter in addition to detection of the current position of the information processing apparatus 100 in the horizontal direction by horizontal position detection means such as GPS. Thus, the current position (height) in the vertical direction of the information processing apparatus 100 is newly detected.

次に、画角算出部106が、情報処理装置100の水平方向の画角に加えて、新たに垂直方向の画角を算出し、通信部112が、画角算出部106が算出する水平方向の画角と垂直方向の画角、位置検出部104が検出する情報処理装置100の水平方向の現在位置と垂直方向の現在位置(高さ)、方向検出部105が検出する情報処理装置100の現在の撮像方向、及びタグ情報取得距離算出部107が算出するタグ情報取得最短距離とタグ情報取得最長距離とを、通信部203に対して送信する。   Next, the angle of view calculation unit 106 newly calculates the angle of view in the vertical direction in addition to the angle of view of the information processing apparatus 100 in the horizontal direction, and the communication unit 112 calculates the horizontal direction calculated by the angle of view calculation unit 106. The angle of view and the angle of view in the vertical direction, the current position in the horizontal direction of the information processing apparatus 100 detected by the position detection unit 104 and the current position (height) in the vertical direction of the information processing apparatus 100 detected by the direction detection unit 105. The current imaging direction, the tag information acquisition shortest distance and the tag information acquisition longest distance calculated by the tag information acquisition distance calculation unit 107 are transmitted to the communication unit 203.

タグ情報として、タグ画像、タグの位置、タグの大きさ、タグの表示向き、タグの配置方向(タグの水平方向の傾き)、タグの形状に加えて、新たにタグの垂直方向の傾きとタグの高さに関する情報がタグ記憶部201に記憶されており、タグ検索部202は、当該タグ記憶部201に記憶されている、タグの水平方向と垂直方向の位置、タグの大きさ、タグの配置方向、タグの表示向き、タグの水平方向と垂直方向の傾き、タグの形状に関する情報とからなるタグ情報を算出する。   As tag information, in addition to the tag image, tag position, tag size, tag display direction, tag placement direction (tag horizontal tilt), tag shape, new tag vertical tilt Information about the height of the tag is stored in the tag storage unit 201, and the tag search unit 202 stores the horizontal and vertical positions of the tag, the size of the tag, the tag stored in the tag storage unit 201 Tag information is calculated which includes information on the arrangement direction of the tag, the display direction of the tag, the inclination of the tag in the horizontal and vertical directions, and the tag shape.

さらに、タグ検索部202は、姿勢検出部103が検出する情報処理装置100の垂直方向の傾き、位置検出部104が検出する情報処理装置100の水平方向と垂直方向の現在位置、方向検出部105が検出する情報表示装置100の現在の撮像方向、
画角算出部106が算出する水平方向の画角と垂直方向の画角、及びタグ情報取得距離算出部107が算出するタグ情報取得最短距離とタグ情報取得最長距離と、からタグ表示範囲情報を算出する。
Furthermore, the tag search unit 202 includes a vertical inclination of the information processing apparatus 100 detected by the attitude detection unit 103, a current position in the horizontal and vertical directions of the information processing apparatus 100 detected by the position detection unit 104, and a direction detection unit 105. The current imaging direction of the information display device 100 detected by
The tag display range information is calculated from the horizontal and vertical field angles calculated by the field angle calculation unit 106, and the tag information acquisition shortest distance and tag information acquisition longest distance calculated by the tag information acquisition distance calculation unit 107. calculate.

以上のようにすれば、情報処理装置が垂直方向の傾きを有し、オブジェクト(タグ)が垂直方向の傾きをし、さらに情報処理装置の備える撮像部のレンズの中心(光軸)とオブジェクト(タグ)の中心が異なる場合においても、本発明の効果を達成することができることは明らかである。   According to the above, the information processing apparatus has a vertical inclination, the object (tag) has a vertical inclination, and the center (optical axis) of the lens of the imaging unit included in the information processing apparatus and the object ( It is clear that the effects of the present invention can be achieved even when the centers of the tags are different.

上述の各実施形態では、タグ情報取得距離算出部107が算出するタグ情報取得最短距離およびタグ情報取得最長距離は、どちらも情報処理装置100又は300の位置を中心とする円弧とし、タグ情報取得範囲は情報処理装置100又は300の画角とタグ情報取得最長距離の円弧が成す扇状の範囲から情報処理装置100又は300の画角とタグ情報取得最短距離の円弧が成す扇状の範囲を取り除いた範囲であるとして説明を行ったが、これに限定されるものではない。   In each of the above-described embodiments, the tag information acquisition shortest distance and the tag information acquisition longest distance calculated by the tag information acquisition distance calculation unit 107 are both arcs centered on the position of the information processing apparatus 100 or 300, and tag information acquisition is performed. The range is the fan-shaped range formed by the arc of the information processing apparatus 100 or 300 and the arc of the tag information acquisition longest distance is removed from the fan-shaped range formed of the arc of the information processing apparatus 100 or 300 and the tag information acquisition shortest distance. Although it was described as being in the range, it is not limited to this.

例えば、タグ情報取得最短距離とタグ情報取得最長距離を情報処理装置からの光軸上の位置までの距離として規定し、情報処理装置の画角とタグ情報取得最短距離が成す範囲を二等辺三角形状とし、情報処理装置とタグ情報取得最長距離が成す範囲を二等辺三角形状とし、後二等辺三角形状の範囲から前二等辺三角形状の範囲を取り除いた範囲、すなわち台形状の範囲をタグ情報取得範囲としても良い。   For example, the tag information acquisition shortest distance and the tag information acquisition longest distance are defined as the distance from the information processing device to the position on the optical axis, and the range formed by the angle of view of the information processing device and the tag information acquisition shortest distance is an isosceles triangle The range of the longest distance between the information processing device and the tag information acquisition is the isosceles triangle shape, and the range obtained by removing the front isosceles triangle range from the rear isosceles triangle range, that is, the trapezoidal range tag information It is good also as an acquisition range.

また、上記各実施形態において、タグ画像生成部108は、タグの配置方向とタグの表示向きに基づいてタグ画像を選択するとして説明を行ったが、これに限定されるものではない。タグの表面が表示される方向は、タグの配置方向とタグの表示向きとから求められるので、この2つの情報をまとめてタグの表示方向としてタグ情報内に記憶し、タグ表示画像生成部108は、このタグの表示方向に基づいてタグ画像を選択するよう構成しても良い。   In each of the above embodiments, the tag image generation unit 108 has been described as selecting a tag image based on the tag arrangement direction and the tag display direction. However, the present invention is not limited to this. The direction in which the surface of the tag is displayed is obtained from the tag arrangement direction and the tag display direction. Therefore, the two pieces of information are collectively stored in the tag information as the tag display direction, and the tag display image generation unit 108 is displayed. The tag image may be selected based on the display direction of the tag.

さらに、上記各実施形態では、タグ記憶部201に記憶されているタグ情報には、タグ画像、タグの位置、タグの大きさ、タグの配置方向、タグの表示向き、タグの形状に関する情報が含まれるとして説明を行ったが、これに限定されるものではない。タグ情報にタグの大きさ、タグの配置方向、タグの表示向き、タグの形状に関する情報が含まれない場合、所定のタグの大きさ、タグの配置方向、タグの表示向き、タグの形状を用意し、タグ表示画像生成部108はこの所定の値を用いることによってタグ表示画像を生成するようにしても良い。   Further, in each of the embodiments described above, the tag information stored in the tag storage unit 201 includes information on the tag image, the tag position, the tag size, the tag arrangement direction, the tag display direction, and the tag shape. Although described as being included, it is not limited to this. If tag information does not include information about tag size, tag placement direction, tag display orientation, and tag shape, specify the tag size, tag placement direction, tag display orientation, and tag shape. The tag display image generation unit 108 may prepare the tag display image by using this predetermined value.

情報処理システム 1
情報処理装置 100、300
検索サーバ 200
撮像部 101
画像拡大部 102
姿勢検出部 103
位置検出部 104
方向検出部 105
画角算出部 106
タグ情報取得距離算出部 107
タグ画像生成部 108
画像合成部 109
表示部 110
通信部 112
制御部 113、206
タグ記憶部 201
タグ検索部 202
通信部 203
タグ取得禁止範囲記憶部 204
タグ取得禁止範囲特定部 205
Information processing system 1
Information processing apparatus 100, 300
Search server 200
Imaging unit 101
Image enlargement unit 102
Posture detection unit 103
Position detection unit 104
Direction detection unit 105
Angle of view calculation unit 106
Tag information acquisition distance calculation unit 107
Tag image generation unit 108
Image composition unit 109
Display unit 110
Communication unit 112
Control unit 113, 206
Tag storage unit 201
Tag search unit 202
Communication unit 203
Tag acquisition prohibition range storage unit 204
Tag acquisition prohibition range specifying unit 205

Claims (6)

情報処理装置と検索装置とがネットワークを介して相互に通信する情報処理システムであり、
前記情報処理装置は、
被写体を撮像し撮像画像を取得する撮像部と、
前記撮像部による撮像の倍率を変更する撮像倍率変更部と
前記情報処理装置の位置を検出する位置検出部と、
前記撮像部の撮像方向を検出する方向検出部と、
前記撮像部による撮像の画角を算出する画角算出部と、
前記撮像倍率変更部により変更された撮像の倍率、前記位置検出部が検出した位置、前記方向検出部が検出した撮像方向、及び前記画角算出部が算出した画角からなる情報を前記検索装置に送信する情報送信部と、
オブジェクト情報を使用してオブジェクト表示画像を生成するオブジェクト表示画像生成部と、
前記オブジェクト表示画像生成部が使用するオブジェクト情報を前記検索装置から受信するオブジェクト情報受信部と
前記撮像部が取得した撮像画像と前記オブジェクト表示画像生成部が生成したオブジェクト表示画像を合成して表示する表示部とを備え、
前記検索装置は、
前記情報処理装置が備える前記情報送信部が送信した前記情報を受信する情報受信部と、
複数のオブジェクト情報を記憶した記憶部と、
前記記憶部が記憶した前記複数のオブジェクト情報を前記情報受信部が受信した前記情報に基づいて検索し、前記記憶部から前記情報処理装置の前記オブジェクト表示画像生成部が使用する前記オブジェクト情報を特定する検索部と、
前記検索部が特定した前記オブジェクト情報を前記情報処理装置の備えるオブジェクト情報受信部に送信するオブジェクト情報送信部と
前記オブジェクト情報送信部による送信を禁止するオブジェクト情報が存在するオブジェクト取得禁止範囲を複数記憶するオブジェクト取得禁止範囲記憶部と
前記情報受信部が受信した情報のうち前記位置検出部が検出した位置、前記方向検出部が検出した撮像方向から、所定のオブジェクト取得禁止範囲を特定し、前記検索部は前記特定されたオブジェクト取得禁止範囲に含まれるオブジェクト情報を前記情報処理装置の前記オブジェクト表示画像生成部が使用する前記オブジェクト情報から除くオブジェクト取得禁止範囲特定部を備えることを特徴とする情報処理システム。
An information processing system in which an information processing device and a search device communicate with each other via a network,
The information processing apparatus includes:
An imaging unit that images a subject and obtains a captured image;
An imaging magnification changing unit that changes an imaging magnification of the imaging unit; a position detecting unit that detects a position of the information processing device;
A direction detection unit for detecting an imaging direction of the imaging unit;
An angle-of-view calculating unit that calculates an angle of view of an image captured by the imaging unit;
The search device includes information including an imaging magnification changed by the imaging magnification changing unit, a position detected by the position detecting unit, an imaging direction detected by the direction detecting unit, and an angle of view calculated by the angle of view calculating unit. An information transmitter to transmit to
An object display image generation unit that generates an object display image using the object information;
An object information receiving unit that receives object information used by the object display image generation unit from the search device, a captured image acquired by the imaging unit, and an object display image generated by the object display image generation unit are displayed. A display unit,
The search device includes:
An information receiver that receives the information transmitted by the information transmitter included in the information processing apparatus;
A storage unit storing a plurality of pieces of object information;
The plurality of object information stored in the storage unit is searched based on the information received by the information reception unit, and the object information used by the object display image generation unit of the information processing device is specified from the storage unit A search section to
An object information transmitting unit that transmits the object information specified by the search unit to an object information receiving unit included in the information processing apparatus, and a plurality of object acquisition prohibition ranges in which object information that prohibits transmission by the object information transmitting unit exists Object acquisition prohibited range storage
A predetermined object acquisition prohibition range is specified from the position detected by the position detection unit in the information received by the information reception unit and the imaging direction detected by the direction detection unit, and the search unit acquires the specified object acquisition An information processing system comprising: an object acquisition prohibition range specifying unit that excludes object information included in a prohibition range from the object information used by the object display image generation unit of the information processing apparatus.
前記情報処理装置はオブジェクト情報取得距離算出部をさらに備え、
前記オブジェクト情報取得距離算出部は、前記撮像倍率変更部により変更された撮像の倍率に基づきオブジェクト情報を取得する最短距離であるオブジェクト情報取得最短距離と、オブジェクト情報を取得する最長距離であるオブジェクト情報取得最長距離を算出し、
前記情報送信部は、前記オブジェクト情報取得最短距離、前記オブジェクト情報取得最長距離、前記方向検出部が検出した撮像方向、及び前記画角算出部が算出した画角からなるオブジェクト情報取得範囲情報を前記情報として前記検索装置に送信することを特徴とする請求項1に記載の情報処理システム。
The information processing apparatus further includes an object information acquisition distance calculation unit,
The object information acquisition distance calculation unit includes an object information acquisition shortest distance that is the shortest distance for acquiring object information based on the imaging magnification changed by the imaging magnification change unit, and object information that is the longest distance for acquiring object information. Calculate the longest acquisition distance,
The information transmission unit obtains object information acquisition range information including the object information acquisition shortest distance, the object information acquisition longest distance, the imaging direction detected by the direction detection unit, and the angle of view calculated by the angle of view calculation unit. The information processing system according to claim 1, wherein the information processing system transmits the information to the search device.
前記情報処理装置は姿勢検出部をさらに備え、
前記姿勢検出部は前記情報処理装置の姿勢を検出し、
前記画角算出部は、前記姿勢検出部が検出する前記情報処理装置の姿勢に基づいて前記撮像部による撮像の画角を算出することを特徴とする請求項1又は2のいずれか1項に記載の情報処理システム。
The information processing apparatus further includes a posture detection unit,
The posture detection unit detects the posture of the information processing apparatus;
3. The angle of view calculation unit according to claim 1, wherein the angle of view calculation unit calculates an angle of view of an image picked up by the image pickup unit based on a posture of the information processing apparatus detected by the posture detection unit. The information processing system described.
被写体を撮像し撮像画像を取得する撮像部、前記撮像部による撮像の倍率を変更する撮像倍率変更部、及び前記撮像画像とオブジェクト表示画像とを合成して表示する表示部とを備えた情報処理装置とネットワークを介して相互に通信する検索装置であって、
前記情報処理装置から、前記撮像倍率変更部により変更された撮像の倍率、前記情報処理装置の位置、前記撮像部の撮像方向、前記撮像部による撮像の画角に関する情報を受信
する情報受信部と、
前記オブジェクト表示画像を生成するためのオブジェクト情報を複数記憶した記憶部と、
前記記憶部が記憶した前記複数のオブジェクト情報を前記情報受信部が受信した前記情報に基づいて検索し、前記記憶部から所定のオブジェクト情報を特定する検索部と、
前記検索部が特定した所定のオブジェクト情報を前記情報処理装置に送信するオブジェクト情報送信部と
前記オブジェクト情報送信部による送信を禁止するオブジェクト情報が存在するオブジェクト取得禁止範囲を複数記憶するオブジェクト取得禁止範囲記憶部と、
前記情報受信部が受信した情報のうち位置、撮像方向から、所定のオブジェクト取得禁止範囲を特定し、 前記検索部は前記特定されたオブジェクト取得禁止範囲に含まれるオブジェクト情報を前記情報処理装置に送信する前記オブジェクト情報から除くオブジェクト取得禁止範囲特定部
を備えた検索装置。
Information processing comprising: an imaging unit that images a subject and acquires a captured image; an imaging magnification changing unit that changes a magnification of imaging by the imaging unit; and a display unit that combines and displays the captured image and an object display image A search device that communicates with a device via a network,
An information receiving unit that receives information about the imaging magnification changed by the imaging magnification changing unit, the position of the information processing device, the imaging direction of the imaging unit, and the angle of view of imaging by the imaging unit from the information processing device; ,
A storage unit storing a plurality of object information for generating the object display image;
A search unit for searching the plurality of object information stored in the storage unit based on the information received by the information receiving unit, and specifying predetermined object information from the storage unit;
Object acquisition prohibition range for storing a plurality of object acquisition prohibition ranges in which object information transmission unit for transmitting predetermined object information specified by the search unit to the information processing apparatus and object information for prohibiting transmission by the object information transmission unit exist A storage unit;
A predetermined object acquisition prohibition range is specified from the position and imaging direction in the information received by the information reception unit, and the search unit transmits object information included in the specified object acquisition prohibition range to the information processing apparatus. A search device comprising an object acquisition prohibition range specifying unit that is excluded from the object information.
前記情報処理装置はオブジェクト情報取得距離算出部をさらに備え、
前記オブジェクト情報取得距離算出部は、前記撮像倍率変更部により変更された撮像の倍率に基づきオブジェクト情報を取得する最短距離であるオブジェクト情報取得最短距離と、オブジェクト情報を取得する最長距離であるオブジェクト情報取得最長距離を算出し、
前記オブジェクト情報取得距離算出部が算出した前記オブジェクト情報取得最短距離及び前記オブジェクト情報取得最長距離、並びに前記撮像部の前記撮像方向、及び前記撮像部による撮像の前記画角からなるオブジェクト情報取得範囲情報を前記情報として前記情報処理装置から受信することを特徴とする請求項4に記載の検索装置。
The information processing apparatus further includes an object information acquisition distance calculation unit,
The object information acquisition distance calculation unit includes an object information acquisition shortest distance that is the shortest distance for acquiring object information based on the imaging magnification changed by the imaging magnification change unit, and object information that is the longest distance for acquiring object information. Calculate the longest acquisition distance,
Object information acquisition range information composed of the object information acquisition shortest distance and the object information acquisition longest distance calculated by the object information acquisition distance calculation unit, the imaging direction of the imaging unit, and the angle of view of imaging by the imaging unit. The search apparatus according to claim 4, wherein the information is received from the information processing apparatus as the information.
情報処理装置と検索装置とがネットワークを介して相互に通信する処理を実行するプログラムであり、A program that executes processing in which an information processing device and a search device communicate with each other via a network,
前記情報処理装置は、  The information processing apparatus includes:
被写体を撮像し撮像画像を取得する撮像処理と、  An imaging process for imaging a subject and acquiring a captured image;
前記撮像処理による撮像の倍率を変更する撮像倍率変更処理と  An imaging magnification changing process for changing an imaging magnification by the imaging process;
前記情報処理装置の位置を検出する位置検出処理と、  Position detection processing for detecting the position of the information processing apparatus;
前記撮像処理の撮像方向を検出する方向検出処理と、  Direction detection processing for detecting the imaging direction of the imaging processing;
前記撮像処理による撮像の画角を算出する画角算出処理と、  An angle-of-view calculation process for calculating an angle of view of imaging by the imaging process;
前記撮像倍率変更処理により変更された撮像の倍率、前記位置検出処理が検出した位置、前記方向検出処理が検出した撮像方向、及び前記画角算出処理が算出した画角からなる情報を前記検索装置に送信する情報送信処理と、  The search device includes information including the imaging magnification changed by the imaging magnification changing process, the position detected by the position detection process, the imaging direction detected by the direction detection process, and the angle of view calculated by the angle of view calculation process. Information transmission processing to be transmitted to
オブジェクト情報を使用してオブジェクト表示画像を生成するオブジェクト表示画像生成処理と、  Object display image generation processing for generating an object display image using object information;
前記オブジェクト表示画像生成処理が使用するオブジェクト情報を前記検索装置から受信するオブジェクト情報受信処理と  An object information reception process for receiving object information used by the object display image generation process from the search device;
前記撮像処理が取得した撮像画像と前記オブジェクト表示画像生成処理が生成したオブジェクト表示画像を合成して表示する表示処理を実行し、  Performing a display process of combining and displaying the captured image acquired by the imaging process and the object display image generated by the object display image generation process;
前記検索装置は、  The search device includes:
前記情報処理装置が実行する前記情報送信処理が送信した前記情報を受信する情報受信処理と、  An information reception process for receiving the information transmitted by the information transmission process executed by the information processing apparatus;
複数のオブジェクト情報を記憶する記憶処理と、  A storage process for storing a plurality of object information;
前記記憶処理が記憶した前記複数のオブジェクト情報を前記情報受信処理が受信した前記情報に基づいて検索し、前記記憶処理から前記情報処理装置の前記オブジェクト表示画像生成処理が使用する前記オブジェクト情報を特定する検索処理と、  The plurality of object information stored by the storage process is searched based on the information received by the information reception process, and the object information used by the object display image generation process of the information processing apparatus is identified from the storage process Search process to
前記検索処理が特定した前記オブジェクト情報を前記情報処理装置が実行するオブジェクト情報受信処理に送信するオブジェクト情報送信処理と  An object information transmission process for transmitting the object information specified by the search process to an object information reception process executed by the information processing apparatus;
前記オブジェクト情報送信処理による送信を禁止するオブジェクト情報が存在するオブジェクト取得禁止範囲を複数記憶するオブジェクト取得禁止範囲記憶処理と   Object acquisition prohibited range storage processing for storing a plurality of object acquisition prohibited ranges in which object information that prohibits transmission by the object information transmission processing exists;
前記情報受信処理が受信した情報のうち前記位置検出処理が検出した位置、前記方向検出処理が検出した撮像方向から、所定のオブジェクト取得禁止範囲を特定し、前記検索処理は前記特定されたオブジェクト取得禁止範囲に含まれるオブジェクト情報を前記情報処理装置の前記オブジェクト表示画像生成処理が使用する前記オブジェクト情報から除くオブジェクト取得禁止範囲特定処理を実行することを特徴とするプログラム。A predetermined object acquisition prohibition range is specified from the position detected by the position detection process in the information received by the information reception process and the imaging direction detected by the direction detection process, and the search process is the acquisition of the specified object A program for executing object acquisition prohibition range specifying processing in which object information included in a prohibition range is excluded from the object information used by the object display image generation processing of the information processing apparatus.
JP2011079760A 2011-03-31 2011-03-31 Information processing system, search device, and program Active JP5786411B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011079760A JP5786411B2 (en) 2011-03-31 2011-03-31 Information processing system, search device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011079760A JP5786411B2 (en) 2011-03-31 2011-03-31 Information processing system, search device, and program

Publications (2)

Publication Number Publication Date
JP2012216935A JP2012216935A (en) 2012-11-08
JP5786411B2 true JP5786411B2 (en) 2015-09-30

Family

ID=47269326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011079760A Active JP5786411B2 (en) 2011-03-31 2011-03-31 Information processing system, search device, and program

Country Status (1)

Country Link
JP (1) JP5786411B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6481456B2 (en) * 2015-03-26 2019-03-13 富士通株式会社 Display control method, display control program, and information processing apparatus
JP2016219980A (en) * 2015-05-19 2016-12-22 株式会社パスコ Target information display device
JP2017111034A (en) * 2015-12-17 2017-06-22 株式会社日立ソリューションズ Terminal having camera, navigation information providing system, and navigation information display method
WO2019106847A1 (en) * 2017-12-01 2019-06-06 マクセル株式会社 Position information system using camera-captured image and camera-mounted information device used therein

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4046973B2 (en) * 2001-10-31 2008-02-13 キヤノン株式会社 Information processing method and image mixing apparatus
JP5184217B2 (en) * 2007-05-31 2013-04-17 パナソニック株式会社 Image photographing apparatus, additional information providing server, and additional information filtering system

Also Published As

Publication number Publication date
JP2012216935A (en) 2012-11-08

Similar Documents

Publication Publication Date Title
JP7268692B2 (en) Information processing device, control method and program
US9667864B2 (en) Image conversion apparatus, camera, image conversion method, and storage medium with program stored therein
KR101915369B1 (en) Display control apparatus and computer-readable recording medium
JP5659305B2 (en) Image generating apparatus and image generating method
JP5659304B2 (en) Image generating apparatus and image generating method
JP5769813B2 (en) Image generating apparatus and image generating method
JP5865388B2 (en) Image generating apparatus and image generating method
JP6165681B2 (en) Image display device and image display method
JP6422584B2 (en) Information processing device
JP5786411B2 (en) Information processing system, search device, and program
JP2010034652A (en) Multi-azimuth camera mounted mobile terminal apparatus
JP6792253B2 (en) Image display device, image display method, and image display program
JP2008219390A (en) Image reader
JP2012080236A (en) Electronic device, and method and program for displaying captured image area with information
JP6826215B2 (en) Mobile device
JP2017126868A (en) Image display system, information processing device, image display method and image display program
JP6999052B2 (en) Mobile devices and video display methods
US11483483B2 (en) Display apparatus
JP2012227717A (en) Display device, display program, and display method
JP2012138759A (en) Imaging device, imaging control method and program
JP2022050443A (en) Portable device and display control method
CN102547233B (en) Image display, image display system and method for displaying image
US9219861B2 (en) Adapted digital device and adapter for a digital device
JP2006071770A (en) Superimposed type image viewing apparatus
JP2013038729A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150713

R150 Certificate of patent or registration of utility model

Ref document number: 5786411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150