JP2011081556A - Information processor, method of processing information, program, and server - Google Patents

Information processor, method of processing information, program, and server Download PDF

Info

Publication number
JP2011081556A
JP2011081556A JP2009232631A JP2009232631A JP2011081556A JP 2011081556 A JP2011081556 A JP 2011081556A JP 2009232631 A JP2009232631 A JP 2009232631A JP 2009232631 A JP2009232631 A JP 2009232631A JP 2011081556 A JP2011081556 A JP 2011081556A
Authority
JP
Japan
Prior art keywords
information
unit
image
objects
additional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009232631A
Other languages
Japanese (ja)
Inventor
Akira Miyashita
朗 宮下
Kazuhiro Suzuki
和弘 鈴木
Hiroyuki Ishige
広行 石毛
Tatsuya Osaki
辰也 大崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009232631A priority Critical patent/JP2011081556A/en
Publication of JP2011081556A publication Critical patent/JP2011081556A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve visibility of information by outputting additional information based on hierarchy information of objects included in images. <P>SOLUTION: An information processor 10 includes: a storage section 210 for relating feature information indicating features of objects within images, hierarchy information indicating a hierarchy relationship among the objects, and additional information added to the objects and stores them; an image acquisition section 202 for acquiring real space images; a recognition section 204 for recognizing objects included in the real space images acquired by the image acquisition section, based on the feature information indicating the features of the objects within the images; and a determination section 206 for determining propriety of output of the additional information added to the objects to a display section, based on the hierarchy information of the objects related to the objects recognized by the recognition section. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、情報処理装置、情報処理方法、プログラムおよびサーバに関する。   The present invention relates to an information processing apparatus, an information processing method, a program, and a server.

最近では、拡張現実技術(Augmented Reality)の一環として撮影画像に対して何らかの付加情報を重畳することが行われている。例えば、拡張現実技術を用いて、現在位置の周辺の情報を実映像の画面に重畳して表示させる技術が開示されている(例えば特許文献1)。   Recently, some additional information is superimposed on a captured image as part of augmented reality technology (Augmented Reality). For example, a technique for displaying information around a current position by superimposing it on a real video screen using augmented reality technology is disclosed (for example, Patent Document 1).

特許文献1では、カメラ等の撮像装置で撮像された映像データから視覚的特徴情報を抽出して、装置内に記憶された視覚的特徴情報と比較して類似度を算出する。そして、算出した類似度に基づいて、映像データ内のオブジェクトを特定して、仮想的な情報をアノテーション(注釈)として映像にオーバレイして出力している。   In Patent Document 1, visual feature information is extracted from video data captured by an imaging device such as a camera, and the similarity is calculated by comparison with visual feature information stored in the device. Based on the calculated similarity, an object in the video data is specified, and virtual information is overlaid on the video as annotation (annotation) and output.

特表2004−095374号公報Special Table 2004-095374

しかし、映像データ内に複数のオブジェクトが存在し、1つのオブジェクトに複数のオブジェクトが含まれ、それぞれのオブジェクトに付加情報が設定されている場合には、複数の仮想的な情報が同時にオーバレイされてしまう。この場合、複数の付加情報が重なり合って、情報の視認性が低下するという問題があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、画像に含まれるオブジェクトの階層情報に基づいて付加情報を出力して情報の視認性を向上させることが可能な、新規かつ改良された情報処理装置、情報処理方法、プログラムおよびサーバを提供することにある。
However, if there are multiple objects in the video data and one object contains multiple objects, and additional information is set for each object, multiple virtual information will be overlaid simultaneously. End up. In this case, there is a problem that a plurality of pieces of additional information are overlapped and information visibility is lowered.
Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to output additional information based on hierarchical information of objects included in an image to improve information visibility. It is an object of the present invention to provide a new and improved information processing apparatus, information processing method, program, and server.

上記課題を解決するために、本発明のある観点によれば、画像内のオブジェクトの特徴を示す特徴情報と、該オブジェクトの階層関係を示す階層情報と、該オブジェクトに付加される付加情報とを関連付けて記憶している記憶部と、実空間画像を取得する画像取得部と、画像内のオブジェクトの特徴を示す特徴情報をもとに、画像取得部により取得された実空間画像に含まれるオブジェクトを認識する認識部と、認識部により認識されたオブジェクトに関連付けられたオブジェクトの階層情報に基づいて、オブジェクトに付加される付加情報の表示部への出力可否を決定する決定部と、を備える、情報処理装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, feature information indicating a feature of an object in an image, hierarchical information indicating a hierarchical relationship of the object, and additional information added to the object are provided. An object included in the real space image acquired by the image acquisition unit based on feature information indicating the characteristics of the object in the image, an image acquisition unit that acquires the real space image, and a storage unit that stores the association A recognizing unit that recognizes, and a determining unit that determines whether to output additional information added to the object to the display unit based on the hierarchical information of the object associated with the object recognized by the recognizing unit. An information processing apparatus is provided.

また、決定部によりオブジェクトに付加される付加情報の表示部への出力が決定された場合に、実空間画像に含まれるオブジェクトに付加情報を重畳して表示部に表示させる表示制御部を備えてもよい。   A display control unit configured to superimpose the additional information on the object included in the real space image and display the additional information on the display unit when the determination unit determines that the additional information added to the object is output to the display unit; Also good.

また、決定部は、認識部により実空間画像内で複数のオブジェクトが認識された場合に、複数のオブジェクトのうち、階層情報が最上位の階層であるオブジェクトの付加情報を出力することを決定してもよい。   The determining unit determines to output additional information of an object whose hierarchical information is the highest layer among the plurality of objects when the recognizing unit recognizes the plurality of objects in the real space image. May be.

また、決定部は、認識部により実空間画像内で複数のオブジェクトが認識された場合に、複数のオブジェクトのうち、階層情報が最下位の階層であるオブジェクトの付加情報を出力することを決定してもよい。   The determining unit determines to output additional information of an object whose hierarchical information is the lowest layer among the plurality of objects when the recognizing unit recognizes the plurality of objects in the real space image. May be.

また、記憶部には、さらに、オブジェクトの優先度情報が関連付けて記憶されており、
決定部は、認識部により実空間画像内で複数のオブジェクトが認識された場合に、優先度情報に基づいてオブジェクトの付加情報を出力することを決定してもよい。
Further, the storage unit further stores object priority information in association with each other.
The determination unit may determine to output the additional information of the object based on the priority information when a plurality of objects are recognized in the real space image by the recognition unit.

また、記憶部には、さらに、ユーザによるオブジェクトの属性情報が関連付けて記憶されており、決定部は、認識部により実空間画像内で複数のオブジェクトが認識された場合に、属性情報に基づいてオブジェクトの付加情報を出力することを決定してもよい。   Further, the storage unit further stores attribute information of the object by the user in association with each other, and the determination unit, based on the attribute information when the recognition unit recognizes a plurality of objects in the real space image. You may decide to output the additional information of an object.

また、決定部は、認識部により実空間画像内で複数のオブジェクトが認識された場合に、複数のオブジェクトのうち、所定の閾値以内のオブジェクトの付加情報を出力することを決定してもよい。   The determination unit may determine to output additional information of an object within a predetermined threshold among the plurality of objects when the recognition unit recognizes the plurality of objects in the real space image.

また、決定部は、認識部により実空間画像内で複数のオブジェクトが認識された場合に、表示部の表示サイズに応じて、複数のオブジェクトのうち所定数のオブジェクトの付加情報を出力することを決定してもよい。   In addition, when the recognition unit recognizes a plurality of objects in the real space image, the determination unit outputs additional information of a predetermined number of objects among the plurality of objects according to the display size of the display unit. You may decide.

また、認識部は、実空間画像内で認識したオブジェクトよりも下位の階層であるオブジェクトを認識対象としなくてもよい。   Further, the recognition unit may not recognize an object that is a lower hierarchy than the object recognized in the real space image.

また、上記課題を解決するために、本発明の別の観点によれば、画像内のオブジェクトの特徴を示す特徴情報と、該オブジェクトの階層関係を示す階層情報と、該オブジェクトに付加される付加情報とが関連付けて記憶部に記憶されており、実空間画像を取得するステップと、画像内のオブジェクトの特徴を示す特徴情報をもとに、取得された実空間画像に含まれるオブジェクトを認識するステップと、認識されたオブジェクトに関連付けられたオブジェクトの階層情報に基づいて、オブジェクトに付加される付加情報の表示部への出力可否を決定するステップと、を含む、情報処理方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, feature information indicating characteristics of an object in an image, hierarchical information indicating a hierarchical relationship of the object, and an addition added to the object The information is stored in the storage unit in association with the information, and the object included in the acquired real space image is recognized based on the step of acquiring the real space image and the feature information indicating the characteristics of the object in the image. There is provided an information processing method including a step and a step of determining whether to output additional information added to the object to the display unit based on the hierarchical information of the object associated with the recognized object.

さらに、オブジェクトに付加される付加情報の表示部への出力が決定された場合に、実空間画像に含まれるオブジェクトに付加情報を重畳して表示部に表示させるステップ、を含んでもよい。   Furthermore, when the output of the additional information added to the object to the display unit is determined, a step of superimposing the additional information on the object included in the real space image and displaying the additional information on the display unit may be included.

また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、画像内のオブジェクトの特徴を示す特徴情報と、該オブジェクトの階層関係を示す階層情報と、該オブジェクトに付加される付加情報とを関連付けて記憶している記憶部と、実空間画像を取得する画像取得部と、画像内のオブジェクトの特徴を示す特徴情報をもとに、画像取得部により取得された実空間画像に含まれるオブジェクトを認識する認識部と、認識部により認識されたオブジェクトに関連付けられたオブジェクトの階層情報に基づいて、オブジェクトに付加される付加情報の表示部への出力可否を決定する決定部と、を備える、情報処理装置として機能させるためのプログラムが提供される。   In order to solve the above problem, according to another aspect of the present invention, a computer adds feature information indicating characteristics of an object in an image, hierarchical information indicating a hierarchical relationship of the object, and the object. Based on feature information indicating features of objects in the image, a storage unit that stores the additional information to be associated with each other, an image acquisition unit that acquires a real space image, and an actual image acquired by the image acquisition unit. A recognition unit that recognizes an object included in the spatial image, and a determination that determines whether to output additional information added to the object to the display unit based on hierarchical information of the object associated with the object recognized by the recognition unit A program for causing the information processing apparatus to function.

また、上記課題を解決するために、本発明の別の観点によれば、情報処理装置とネットワークを介して接続され、情報処理装置により撮像された実空間画像を受信する受信部と、画像内のオブジェクトの特徴を示す特徴情報をもとに、画像取得部により取得された実空間画像に含まれるオブジェクトを認識する認識部と、認識部により認識されたオブジェクトに関連付けられたオブジェクトの階層情報に基づいて、オブジェクトに付加される付加情報の表示部への出力可否を決定する決定部と、決定部によりオブジェクトに付加される付加情報の表示部への出力が決定された場合に、実空間画像に含まれるオブジェクトに付加情報を重畳した画像情報を情報処理装置に送信する送信部と、を備える、サーバが提供される。   In order to solve the above problem, according to another aspect of the present invention, a receiving unit connected to an information processing apparatus via a network and receiving a real space image captured by the information processing apparatus, Based on the feature information indicating the characteristics of the object, the recognition unit for recognizing the object included in the real space image acquired by the image acquisition unit, and the hierarchical information of the object associated with the object recognized by the recognition unit A determination unit that determines whether or not the additional information added to the object can be output to the display unit; and the determination unit determines whether to output the additional information added to the object to the display unit. And a transmission unit that transmits image information obtained by superimposing additional information on the object included in the information processing apparatus.

以上説明したように本発明によれば、画像に含まれるオブジェクトの階層情報に基づいて付加情報を出力して情報の視認性を向上させることができる。   As described above, according to the present invention, it is possible to improve the visibility of information by outputting additional information based on hierarchical information of objects included in an image.

本発明の一実施形態にかかる情報処理装置の概要を説明する説明図である。It is explanatory drawing explaining the outline | summary of the information processing apparatus concerning one Embodiment of this invention. 同実施形態にかかる情報処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the information processing apparatus concerning the embodiment. 本発明の第1の実施形態にかかる情報処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the information processing apparatus concerning the 1st Embodiment of this invention. 同実施形態にかかる階層情報について説明する説明図である。It is explanatory drawing explaining the hierarchy information concerning the embodiment. 同実施形態にかかる情報処理装置の全体動作を示すフローチャートである。3 is a flowchart showing an overall operation of the information processing apparatus according to the embodiment. 同実施形態にかかるオブジェクトの認識処理を示すフローチャートである。It is a flowchart which shows the recognition process of the object concerning the embodiment. 同実施形態にかかるオブジェクトの選択処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the selection process of the object concerning the embodiment. 本発明の第2の実施形態にかかる情報処理装置の全体動作を示すフローチャートである。It is a flowchart which shows the whole operation | movement of the information processing apparatus concerning the 2nd Embodiment of this invention. 同実施形態にかかるオブジェクトの認識処理を示すフローチャートである。It is a flowchart which shows the recognition process of the object concerning the embodiment. 同実施形態にかかるオブジェクトの選択処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the selection process of the object concerning the embodiment. 本発明の第3の実施形態にかかる報処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the information processing apparatus concerning the 3rd Embodiment of this invention. 同実施形態にかかる情報処理装置の全体動作を示すフローチャートである。3 is a flowchart showing an overall operation of the information processing apparatus according to the embodiment. 同実施形態にかかる、オブジェクトの意味的な階層関係の決定処理を示すフローチャートである。It is a flowchart which shows the determination process of the semantic hierarchical relationship of an object concerning the embodiment. 同実施形態にかかる、階層関係決定部により決定される意味的な階層関係を説明する説明図である。It is explanatory drawing explaining the semantic hierarchical relationship determined by the hierarchical relationship determination part concerning the embodiment.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、以下に示す順序に従って、当該「発明を実施するための最良の形態」を説明する。
〔1〕本実施形態の目的
〔2〕情報処理装置の概要
〔3〕情報処理装置のハードウェア構成
〔4〕第1実施形態
〔4−1〕情報処理装置の機能構成
〔4−2〕情報処理装置の動作の詳細
〔5〕第2実施形態
〔5−1〕情報処理装置の機能構成
〔5−2〕情報処理装置の動作の詳細
〔6〕第3実施形態
〔6−1〕情報処理装置の機能構成
〔6−2〕情報処理装置の動作の詳細
〔7〕サーバにおける付加情報出力可否の決定
Further, the “best mode for carrying out the invention” will be described in the following order.
[1] Purpose of this embodiment [2] Outline of information processing apparatus [3] Hardware configuration of information processing apparatus [4] First embodiment [4-1] Functional configuration of information processing apparatus [4-2] Information Details of Operation of Processing Device [5] Second Embodiment [5-1] Functional Configuration of Information Processing Device [5-2] Details of Operation of Information Processing Device [6] Third Embodiment [6-1] Information Processing Functional configuration of apparatus [6-2] Details of operation of information processing apparatus [7] Determination of availability of additional information output at server

〔1〕本実施形態の目的
まず、本実施形態の目的について説明する。最近では、拡張現実技術(Augmented Reality)の一環として撮影画像に対して何らかの付加情報を重畳することが行われている。例えば、拡張現実技術を用いて、現在位置の周辺の情報を実映像の画面に重畳して表示させる技術が開示されている。
[1] Purpose of this Embodiment First, the purpose of this embodiment will be described. Recently, some additional information is superimposed on a captured image as part of augmented reality technology (Augmented Reality). For example, using augmented reality technology, a technology is disclosed in which information around a current position is displayed superimposed on a real video screen.

上記技術では、カメラ等の撮像装置で撮像された映像データから視覚的特徴情報を抽出して、装置内に記憶された視覚的特徴情報と比較して類似度を算出する。そして、算出した類似度に基づいて、映像データ内のオブジェクトを特定して、仮想的な情報をアノテーション(注釈)として映像にオーバレイして出力している。   In the above technique, visual feature information is extracted from video data captured by an imaging device such as a camera, and the similarity is calculated by comparison with visual feature information stored in the device. Based on the calculated similarity, an object in the video data is specified, and virtual information is overlaid on the video as annotation (annotation) and output.

しかし、映像データ内に複数のオブジェクトが存在し、1つのオブジェクトに複数のオブジェクトが含まれ、それぞれのオブジェクトに付加情報が設定されている場合には、複数の仮想的な情報が同時にオーバレイされてしまう。この場合、複数の付加情報が重なり合って、情報の視認性が低下するという問題があった。   However, if there are multiple objects in the video data and one object contains multiple objects, and additional information is set for each object, multiple virtual information will be overlaid simultaneously. End up. In this case, there is a problem that a plurality of pieces of additional information are overlapped and information visibility is lowered.

例えば、撮像装置で遠く離れたビルを撮影した場合、撮影したビル全体とビル内の店舗やビル周辺の店舗が同時に認識される。このため、ビル全体に対する仮想的な情報と、個別の店舗に対する仮想的な情報のすべてが同時に撮像画像にオーバレイされてしまう。ユーザが個別の店舗に対する仮想的な情報を不要とする場合には、撮像画像にオーバレイされた情報は過多となり、視認性が低下してしまう。   For example, when a far-away building is photographed with the imaging device, the entire photographed building and stores in the building or stores around the building are simultaneously recognized. For this reason, the virtual information for the entire building and the virtual information for each individual store are simultaneously overlaid on the captured image. When the user does not need virtual information for individual stores, the information overlaid on the captured image is excessive and the visibility is lowered.

そこで、上記のような事情を一着眼点として、本発明の実施形態にかかる情報処理装置10が創作されるに至った。本実施形態にかかる情報処理装置10によれば、画像に含まれるオブジェクトの階層情報に基づいて付加情報を出力して情報の視認性を向上させることが可能となる。   Therefore, the information processing apparatus 10 according to the embodiment of the present invention has been created with the above circumstances as a focus. According to the information processing apparatus 10 according to the present embodiment, it is possible to improve the visibility of information by outputting additional information based on hierarchical information of an object included in an image.

〔2〕情報処理装置の概要
次に、図1を参照して、情報処理装置10の概要について説明する。図1は、情報処理装置10の概要を説明する説明図である。情報処理装置10は、例えば、携帯電話やPDA(Personal Digital Assistant)や小型のPC(Personal Computer)など、表示装置を備える情報処理端末を例示することができる。情報処理装置10には、実画像に付加される仮想情報500が登録されている。仮想情報500として、ビルや店舗の実画像と、該実画像に付加される付加情報が対応付けられている。
[2] Overview of Information Processing Device Next, an overview of the information processing device 10 will be described with reference to FIG. FIG. 1 is an explanatory diagram for explaining an overview of the information processing apparatus 10. Examples of the information processing apparatus 10 include an information processing terminal including a display device such as a mobile phone, a PDA (Personal Digital Assistant), and a small PC (Personal Computer). In the information processing apparatus 10, virtual information 500 added to a real image is registered. As the virtual information 500, an actual image of a building or a store is associated with additional information added to the actual image.

例えば、図1に示したように、ビルの仮想情報501として、ビルの全景の実画像に対応して付加情報「Bビル」が登録されている。また、店舗の仮想情報502として、各店舗の実画像に対応して、「カフェC」、「レストランD」、「ドラッグストアE」、「F医院」などの各店舗の付加情報が登録されている。その他、マンションの仮想情報503として、マンションの実画像に対して「駐車場満車」や「空室入居者募集中」などの付加情報が登録されている。   For example, as illustrated in FIG. 1, additional information “B building” is registered as virtual information 501 of a building corresponding to a real image of the entire view of the building. Further, as store virtual information 502, additional information of each store such as “cafe C”, “restaurant D”, “drug store E”, and “F clinic” is registered corresponding to the actual image of each store. Yes. In addition, as virtual information 503 of the apartment, additional information such as “parking full” and “recruiting vacant residents” is registered for the real image of the apartment.

画像550は、従来の情報処理装置50により撮像画像に仮想情報がオーバレイされた画像である。画像550では、撮像画像内において認識された実画像のすべてに仮想情報が付加されている。例えば、「Bビル」内に「カフェC」、「レストランD」、「ドラッグストアE」、「F医院」などの店舗が含まれている場合には、画像550内のほぼ同位置にこれらの付加情報が表示されることとなる。したがって、画像550では、複数の付加情報が重なり合って表示されて、視認性が低下している。   The image 550 is an image in which virtual information is overlaid on the captured image by the conventional information processing apparatus 50. In the image 550, virtual information is added to all the real images recognized in the captured image. For example, when stores such as “Cafe C”, “Restaurant D”, “Drug Store E”, “F Clinic” are included in “B Building”, these are located at substantially the same position in the image 550. Additional information will be displayed. Therefore, in the image 550, a plurality of additional information is displayed in an overlapping manner, and the visibility is lowered.

一方、図1の画像510は、本実施形態にかかる情報処理装置10により撮像画像に仮想情報がオーバレイされた画像である。画像510では、撮像画像内において認識された実画像のすべてに付加情報が付加されておらず、複数の付加情報から選択された、いくつかの付加情報が表示されている。例えば、Bビルはビルの全景を認識することができるので、ビルの名称「Bビル」のみを実画像に重畳し、Bビルに含まれる複数の店舗の付加情報は表示していない。このように、撮像画像内で認識された実画像の付加情報のすべてを重畳させるのではなく、いくつかの付加情報を選択して表示させることにより、画像550に比較して視認性を向上させることができる。   On the other hand, an image 510 in FIG. 1 is an image in which virtual information is overlaid on a captured image by the information processing apparatus 10 according to the present embodiment. In the image 510, the additional information is not added to all the real images recognized in the captured image, and some additional information selected from the plurality of additional information is displayed. For example, since B building can recognize the entire view of the building, only the building name “B building” is superimposed on the real image, and additional information of a plurality of stores included in B building is not displayed. In this way, rather than superimposing all the additional information of the real image recognized in the captured image, some additional information is selected and displayed, thereby improving the visibility as compared with the image 550. be able to.

以下では、実画像において認識されるビルや店舗などの付加情報の付加対象物をオブジェクトと称する。本実施形態では、オブジェクトの階層関係を示す階層情報を保持している。オブジェクトの階層関係とは、意味的な階層関係であって、例えば、ビルに店舗が含まれている場合には、ビルが上位階層、店舗が下位階層となる。本実施形態では、画像に含まれるオブジェクトの階層情報に基づいて、複数の付加情報からどのオブジェクトの付加情報を表示させるかを決定する。例えば、Bビルと複数の店舗が上位、下位の階層関係にある場合に、上位階層のオブジェクトの階層情報のみを表示することを決定する。   Hereinafter, an additional object of additional information such as a building or a store recognized in a real image is referred to as an object. In the present embodiment, hierarchical information indicating the hierarchical relationship between objects is held. The hierarchical relationship between objects is a semantic hierarchical relationship. For example, when a building includes a store, the building is an upper layer and the store is a lower layer. In the present embodiment, which object additional information is to be displayed is determined from a plurality of additional information based on the hierarchical information of the object included in the image. For example, when the building B and a plurality of stores are in the upper and lower hierarchy relationship, it is determined to display only the hierarchy information of the object in the upper hierarchy.

〔3〕情報処理装置のハードウェア構成
以上、情報処理装置10の概要について説明した。次に、図2を参照して、情報処理装置10のハードウェア構成について説明する。図2は、情報処理装置10のハードウェア構成を示すブロック図である。情報処理装置10は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、ホストバス104と、ブリッジ105と、外部バス106と、インタフェース107と、入力装置108と、出力装置110と、ストレージ装置(HDD)111と、ドライブ112と、通信装置115とを備える。
[3] Hardware Configuration of Information Processing Device The outline of the information processing device 10 has been described above. Next, the hardware configuration of the information processing apparatus 10 will be described with reference to FIG. FIG. 2 is a block diagram illustrating a hardware configuration of the information processing apparatus 10. The information processing apparatus 10 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a host bus 104, a bridge 105, an external bus 106, an interface 107, and the like. , Input device 108, output device 110, storage device (HDD) 111, drive 112, and communication device 115.

CPU101は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。ROM102は、CPU101が使用するプログラムや演算パラメータ等を記憶する。RAM103は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバスなどから構成されるホストバス104により相互に接続されている。   The CPU 101 functions as an arithmetic processing device and a control device, and controls the overall operation in the information processing device 10 according to various programs. Further, the CPU 101 may be a microprocessor. The ROM 102 stores programs and calculation parameters used by the CPU 101. The RAM 103 primarily stores programs used in the execution of the CPU 101, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 104 including a CPU bus.

ホストバス104は、ブリッジ105を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス106に接続されている。なお、必ずしもホストバス104、ブリッジ105および外部バス106を分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。   The host bus 104 is connected via a bridge 105 to an external bus 106 such as a PCI (Peripheral Component Interconnect / Interface) bus. Note that the host bus 104, the bridge 105, and the external bus 106 are not necessarily configured separately, and these functions may be mounted on one bus.

入力装置108は、例えば、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU101に出力する入力制御回路などから構成されている。情報処理装置10のユーザは、該入力装置108を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。   The input device 108 is, for example, an input means for a user to input information, such as a mouse, keyboard, touch panel, button, microphone, switch, and lever, and an input that generates an input signal based on the input by the user and outputs it to the CPU 101 It consists of a control circuit. A user of the information processing apparatus 10 can input various data and instruct a processing operation to the information processing apparatus 10 by operating the input device 108.

出力装置109、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Display)装置およびランプなどの表示装置と、スピーカおよびヘッドホンなどの音声出力装置で構成される。出力装置109は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データ等を音声に変換して出力する。   The output device 109 includes, for example, a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Display) device and a display device such as a lamp, and an audio output device such as a speaker and headphones. . The output device 109 outputs the reproduced content, for example. Specifically, the display device displays various information such as reproduced video data as text or images. On the other hand, the audio output device converts reproduced audio data or the like into audio and outputs it.

ストレージ装置110は、本実施形態にかかる情報処理装置10の記憶部の一例として構成されたデータ格納用の装置であり、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。ストレージ装置110は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置110は、ハードディスクを駆動し、CPU101が実行するプログラムや各種データを格納する。また、このストレージ装置110には、後述の、アイテム、識別番号などを記憶する。   The storage device 110 is a data storage device configured as an example of a storage unit of the information processing device 10 according to the present embodiment. The storage device 110 is a storage medium, a recording device that records data in the storage medium, and reads data from the storage medium. A reading device and a deleting device for deleting data recorded in the storage medium can be included. The storage device 110 is composed of, for example, an HDD (Hard Disk Drive). The storage device 110 drives a hard disk and stores programs executed by the CPU 101 and various data. The storage device 110 also stores items, identification numbers, etc., which will be described later.

ドライブ111は、記憶媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ111は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM103に出力する。   The drive 111 is a storage medium reader / writer, and is built in or externally attached to the information processing apparatus 10. The drive 111 reads information recorded on a removable storage medium 24 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs it to the RAM 103.

通信装置112は、例えば、通信網50に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置112は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。   The communication device 112 is a communication interface configured with, for example, a communication device for connecting to the communication network 50. The communication device 112 may be a wireless LAN (Local Area Network) compatible communication device, a wireless USB compatible communication device, or a wire communication device that performs wired communication.

〔4〕第1実施形態
以上、情報処理装置10のハードウェア構成例を、図2を参照して説明した。次に、図3を参照して、第1実施形態にかかる情報処理装置10の機能構成について説明する。図3は、本実施形態にかかる情報処理装置10の機能構成を示すブロック図である。
[4] First Embodiment The hardware configuration example of the information processing apparatus 10 has been described above with reference to FIG. Next, the functional configuration of the information processing apparatus 10 according to the first embodiment will be described with reference to FIG. FIG. 3 is a block diagram illustrating a functional configuration of the information processing apparatus 10 according to the present embodiment.

〔4−1〕情報処理装置の機能構成
図3に示したように、情報処理装置10は、画像取得部202、認識部204、決定部206、表示制御部208、記憶部210などを備える。
[4-1] Functional Configuration of Information Processing Device As illustrated in FIG. 3, the information processing device 10 includes an image acquisition unit 202, a recognition unit 204, a determination unit 206, a display control unit 208, a storage unit 210, and the like.

画像取得部202は、実空間画像を取得する機能を有する。実空間画像とは、撮像装置(図示せず)により撮像された情報処理装置10の風景などの画像である。撮像装置は、情報処理装置10と一体として構成されていてもよいし、別体の装置として構成されていてもよい。例えば、情報処理装置10とは別体の撮像装置により撮像された画像をメモリカード等の記憶装置に記憶させて、画像取得部202により取り込むようにしてもよい。画像取得部202は、取得した実空間画像を認識部204および表示制御部208に提供する。   The image acquisition unit 202 has a function of acquiring a real space image. The real space image is an image such as a landscape of the information processing apparatus 10 captured by an imaging apparatus (not shown). The imaging device may be configured integrally with the information processing device 10 or may be configured as a separate device. For example, an image captured by an imaging device separate from the information processing device 10 may be stored in a storage device such as a memory card and captured by the image acquisition unit 202. The image acquisition unit 202 provides the acquired real space image to the recognition unit 204 and the display control unit 208.

認識部204は、画像内のオブジェクトの特徴を示す特徴情報をもとに、画像取得部202により取得された実空間画像に含まれるオブジェクトを認識する機能を有する。具体的には、画像取得部202から提供された風景画像等の全体もしくは任意の部分に分割した画像の各領域の特徴情報を抽出する。そして、抽出した特徴情報と、後述する記憶部210に記憶されているオブジェクトの特徴情報とを比較して、類似度を算出する。該類似度が閾値以上であれば、記憶部210に記憶されているオブジェクトが実空間画像に存在すると判定する。   The recognition unit 204 has a function of recognizing an object included in the real space image acquired by the image acquisition unit 202 based on feature information indicating the feature of the object in the image. Specifically, feature information of each area of the image divided into the whole or an arbitrary part of the landscape image provided from the image acquisition unit 202 is extracted. Then, the extracted feature information is compared with the feature information of the object stored in the storage unit 210 described later, and the similarity is calculated. If the similarity is greater than or equal to the threshold value, it is determined that the object stored in the storage unit 210 exists in the real space image.

認識部204は、実空間画像にオブジェクトが存在するか否かの判定を、存在する可能性のあるすべてのオブジェクトについて実行する。認識部204は、上記のオブジェクトの認識処理は、例えば、特表2004−095374号公報に開示されている技術を利用することができる。認識部204は、認識したオブジェクトの情報を決定部206に提供する。   The recognition unit 204 determines whether or not an object exists in the real space image for all objects that may exist. The recognition unit 204 can use, for example, the technique disclosed in Japanese translations of PCT publication No. 2004-095374 for the object recognition process. The recognition unit 204 provides information on the recognized object to the determination unit 206.

決定部206は、認識部204により認識されたオブジェクトに関連付けられた該オブジェクトの階層情報に基づいて、オブジェクトに付加される付加情報の表示部(図示せず)への出力可否を決定する機能を有する。具体的には、認識部204により認識されたオブジェクトが、記憶部210に記憶されているか否かを判断する。そして、記憶部210に認識部204により認識されたオブジェクトが存在する場合に、該オブジェクトの階層情報をもとに所定の条件に合致するオブジェクトを決定して、該オブジェクトに関連付けられた付加情報をオブジェクトに重畳する。   The determination unit 206 has a function of determining whether to output additional information added to the object to a display unit (not shown) based on the hierarchical information of the object associated with the object recognized by the recognition unit 204. Have. Specifically, it is determined whether or not the object recognized by the recognition unit 204 is stored in the storage unit 210. When the object recognized by the recognition unit 204 exists in the storage unit 210, an object that matches a predetermined condition is determined based on the hierarchical information of the object, and additional information associated with the object is determined. Superimpose on the object.

ここで、図4を参照して記憶部210に記憶されている階層情報について説明する。記憶部210に記憶されている階層情報は、意味的な階層関係を示し、図4に示したように、例えば、ビル群Aが上位階層、ビルaおよびビルbが中位階層、店舗1、2、3が下位階層の関係となっている。記憶部210には、オブジェクトの特徴を示す特徴情報と、該オブジェクトの階層関係を示す階層情報と、該オブジェクトに付加される付加情報とが関連付けて記憶されている。したがって、認識部204により認識されたオブジェクトがビルbである場合には、オブジェクトの特徴情報に関連付けられた階層情報により、ビルbがビル群Aの下位階層であり、店舗1〜3の上位階層であることがわかる。   Here, the hierarchical information stored in the storage unit 210 will be described with reference to FIG. The hierarchical information stored in the storage unit 210 indicates a semantic hierarchical relationship. As illustrated in FIG. 4, for example, the building group A is the upper hierarchy, the buildings a and b are the intermediate hierarchy, the store 1, 2 and 3 are in a lower hierarchy. The storage unit 210 stores feature information indicating the characteristics of the object, hierarchical information indicating the hierarchical relationship of the object, and additional information added to the object in association with each other. Therefore, when the object recognized by the recognition unit 204 is the building b, the building b is a lower hierarchy of the building group A and the upper hierarchy of the stores 1 to 3 based on the hierarchical information associated with the feature information of the object. It can be seen that it is.

例えば、認識部204によりビルaと店舗2が同時に認識された場合、ビルaは認識されたオブジェクトのうちで最上位の階層となる。決定部206が、複数のオブジェクトのうち、最上位の階層のオブジェクトの付加情報を出力するとしている場合、認識されたオブジェクトうち最上位の階層であるビルaを、付加情報を付加する対象として選択する。一方、店舗2は、店舗2より上位階層となるビルaが認識されているため、付加情報を付加する対象として選択しない。   For example, when the recognition unit 204 recognizes the building a and the store 2 at the same time, the building a becomes the highest layer among the recognized objects. When the determination unit 206 outputs the additional information of the object of the highest hierarchy among the plurality of objects, the building a which is the highest hierarchy among the recognized objects is selected as a target to which the additional information is added. To do. On the other hand, the store 2 is not selected as a target to which additional information is added because the building a that is a higher hierarchy than the store 2 is recognized.

また、決定部206が、複数のオブジェクトのうち、最下位の階層のオブジェクトの付加情報を出力するとしてもよい。この場合、認識されたオブジェクトのうち最下位の階層である店舗2を、付加情報を付加する対象として選択する。一方、ビルaは、ビルaより下位階層となる店舗2が認識されているため、付加情報を付加する対象として選択しない。   Further, the determination unit 206 may output additional information of an object in the lowest hierarchy among a plurality of objects. In this case, the store 2 which is the lowest hierarchy among the recognized objects is selected as a target to which additional information is added. On the other hand, since the store 2 which is a lower hierarchy than the building a is recognized, the building a is not selected as a target to which additional information is added.

また、記憶部210に、オブジェクトに該オブジェクトの優先度情報が関連付けて記憶されている場合には、優先度情報に基づいてオブジェクトの付加情報の出力可否を決定してもよい。例えば、優先度情報は、口コミ人気や、登録日時や更新日時の新旧、過去にその場所でオブジェクトを参照した頻度などによって決定されるようにしてもよい。この場合、決定部206は、複数のオブジェクトが認識された場合に、優先度の高いオブジェクトの付加情報を出力することを決定する。   Further, when the priority information of the object is associated with the object and stored in the storage unit 210, whether or not the additional information of the object can be output may be determined based on the priority information. For example, the priority information may be determined based on word-of-mouth popularity, registration date / time and update date / time, frequency of referring to an object at the location in the past, and the like. In this case, the determination unit 206 determines to output additional information of an object having a high priority when a plurality of objects are recognized.

また、記憶部210に、オブジェクトの属性情報が関連付けて記憶されている場合には、属性情報にもとづいてオブジェクトの付加情報の出力可否を決定してもよい。例えば、属性情報は、オブジェクトの付加情報をいつ出力するか、どこで出力するかなどの情報である。例えば、ユーザの現在の状態の情報と、オブジェクトの属性情報とが一致する場合に該オブジェクトの付加情報を出力するようにしてもよい。ユーザの現在の状態とは、例えば、夜か昼か、誕生日か、記念日かなどの日時や、ユーザのサービス購入状況や、ユーザの移動速度、ユーザが属しているコミュニティ、ユーザが通常生活している場所、新着情報の希望の有無、ユーザの嗜好情報などが挙げられる。   When the attribute information of the object is stored in the storage unit 210 in association with each other, whether or not the additional information of the object can be output may be determined based on the attribute information. For example, the attribute information is information such as when and where to output additional information of an object. For example, the additional information of the object may be output when the current state information of the user matches the attribute information of the object. The current state of the user is, for example, the date / time such as night or noon, birthday or anniversary, the user's service purchase status, the user's moving speed, the community to which the user belongs, and the user's normal life And the like, the presence / absence of hope for new arrival information, user preference information, and the like.

記憶部210には、オブジェクトの属性情報として、上記したユーザの現在の状態に対応した属性値が記憶されている。例えば、オブジェクトにユーザの誕生日の値が属性情報として記憶されていた場合に、認識部204により認識されたオブジェクトと撮像日時が合致した場合に、該オブジェクトの付加情報を重畳するようにしてもよい。また、記憶部210に、付加情報を重畳するオブジェクトの数の上限値の設定情報を記憶してもよい。決定部206は、出力可否の決定情報を表示制御部208に提供する。   The storage unit 210 stores attribute values corresponding to the current state of the user as object attribute information. For example, when the value of the user's birthday is stored as attribute information in the object and the object recognized by the recognition unit 204 matches the imaging date and time, the additional information of the object may be superimposed. Good. The storage unit 210 may store setting information for an upper limit value of the number of objects on which additional information is superimposed. The determination unit 206 provides the display control unit 208 with output determination information.

表示制御部208は、決定部206により決定されたオブジェクトに対して、記憶部210に記憶されている該オブジェクトに関連付けられた付加情報を重畳して表示部に表示させる機能を有する。表示制御部208は、画像取得部202により提供された実空間画像に、決定部206により決定されたオブジェクトの付加情報を実空間画像の対象オブジェクトに重畳した画像を生成して表示部に表示させる。   The display control unit 208 has a function of superimposing additional information associated with the object stored in the storage unit 210 on the object determined by the determination unit 206 and displaying the superimposed information on the display unit. The display control unit 208 generates an image obtained by superimposing the additional information of the object determined by the determination unit 206 on the target object of the real space image on the real space image provided by the image acquisition unit 202 and displays the generated image on the display unit. .

〔4−2〕情報処理装置の動作の詳細
以上、情報処理装置10の機能構成について説明した。次に、図5〜図7を参照して、情報処理装置10の動作の詳細について説明する。図5は、情報処理装置10の全体動作を示すフローチャートである。まず、画像取得部202は、撮像装置を介して情報処理装置10の周辺の風景などの画像を取得する(S102)。次に、認識部204は、ステップS102において取得した画像上のすべてのオブジェクトを認識する(S104)。ステップS104におけるオブジェクトの認識処理については後で詳細に説明する。
[4-2] Details of Operation of Information Processing Apparatus The functional configuration of the information processing apparatus 10 has been described above. Next, details of the operation of the information processing apparatus 10 will be described with reference to FIGS. FIG. 5 is a flowchart showing the overall operation of the information processing apparatus 10. First, the image acquisition unit 202 acquires an image such as a landscape around the information processing apparatus 10 via the imaging device (S102). Next, the recognition unit 204 recognizes all the objects on the image acquired in step S102 (S104). The object recognition process in step S104 will be described in detail later.

そして、決定部206は、記憶部210に記憶されている階層情報に基づいて、ステップS194において認識されたオブジェクトのうち、仮想情報(付加情報)をオーバレイ(重畳)するオブジェクトを選択する(S106)。ステップS106におけるオブジェクトの選択処理については、後で詳細に説明する。   Then, the determination unit 206 selects an object that overlays (superimposes) the virtual information (additional information) among the objects recognized in step S194 based on the hierarchical information stored in the storage unit 210 (S106). . The object selection process in step S106 will be described in detail later.

そして、表示制御部208は、オブジェクトに仮想情報をオーバレイした画像を生成して表示部に出力させる(S108)。以上、情報処理装置10の全体動作について説明した。   Then, the display control unit 208 generates an image in which virtual information is overlaid on the object and outputs the generated image to the display unit (S108). The overall operation of the information processing apparatus 10 has been described above.

図5に示した動作は、例えば、動画のフレームレート等に合わせて周期的に実行される。また、図5に示したオブジェクト認識ステップS104と仮想情報をオーバレイするオブジェクト選択のステップは、数回の全体動作のうち一回だけ実行するようにしてもよい。これにより、オブジェクト認識ステップS104と仮想情報をオーバレイするオブジェクト選択ステップS106の処理負荷を軽減して、ユーザに違和感のない高フレームレートでの画像出力を実現することが可能となる。   The operation shown in FIG. 5 is periodically executed according to, for example, the frame rate of the moving image. Further, the object recognition step S104 shown in FIG. 5 and the object selection step for overlaying the virtual information may be executed only once out of several overall operations. As a result, it is possible to reduce the processing load of the object recognition step S104 and the object selection step S106 for overlaying virtual information, and to realize image output at a high frame rate that does not give the user a sense of incongruity.

次に、図6を参照して、オブジェクトの認識処理の詳細を説明する。図6は、オブジェクトの認識処理を示すフローチャートである。図6に示したように、認識部204は、まず、記憶部210に記憶されている、認識候補となるオブジェクトの視覚的特徴量を取得する(S202)。ステップS202において認識部204が取得するオブジェクトの視覚的特徴量は、オブジェクトの特徴を示す特徴情報の一例である。   Next, the details of the object recognition process will be described with reference to FIG. FIG. 6 is a flowchart showing object recognition processing. As illustrated in FIG. 6, the recognition unit 204 first obtains the visual feature amount of the object that is a recognition candidate stored in the storage unit 210 (S202). The visual feature amount of the object acquired by the recognition unit 204 in step S202 is an example of feature information indicating the feature of the object.

次に、認識部204は、画像取得部202により取得された風景画像等の実空間画像の部分画像を抽出する(S204)。そして、ステップS204において抽出した部分画像の視覚的特徴量を算出する(S206)。そして、ステップS202において取得した認識候補となるオブジェクトの視覚的特徴量と、ステップS206において取得した部分画像の視覚的特徴量とを用いて、両者の類似度を計算する(S208)。   Next, the recognition unit 204 extracts a partial image of a real space image such as a landscape image acquired by the image acquisition unit 202 (S204). Then, the visual feature amount of the partial image extracted in step S204 is calculated (S206). Then, using the visual feature amount of the object as the recognition candidate acquired in step S202 and the visual feature amount of the partial image acquired in step S206, the similarity between the two is calculated (S208).

そして、実空間画像(風景画像)の全領域に対して、ステップS208の類似度の計算を完了したか否かを判定する(S210)。ステップS210において、実空間画像の全領域に対して類似度の計算を完了していないと判定された場合には、ステップS204からステップS208の処理を繰り返す。   Then, it is determined whether or not the similarity calculation in step S208 has been completed for all regions of the real space image (landscape image) (S210). If it is determined in step S210 that the similarity calculation has not been completed for all regions of the real space image, the processing from step S204 to step S208 is repeated.

ステップS210において、実空間画像の全領域に対して類似度の計算を完了したと判定された場合には、ステップS208において計算した類似度の最大値が所定の閾値以下であるか否かを判定する(S212)。ステップS208において計算される類似度を示す値は、類似性が高いほど小さい値となる。すなわち、ステップS212において、類似度の最大値が所定の閾値以下であれば、部分画像から抽出された画像と認識候補となった記憶部210に記憶されているオブジェクトとが類似していることとなる。   If it is determined in step S210 that the similarity calculation has been completed for all regions of the real space image, it is determined whether or not the maximum similarity calculated in step S208 is equal to or less than a predetermined threshold. (S212). The value indicating the similarity calculated in step S208 becomes a smaller value as the similarity is higher. That is, in step S212, if the maximum value of the similarity is equal to or less than a predetermined threshold, the image extracted from the partial image is similar to the object stored in the storage unit 210 that is a recognition candidate. Become.

ステップS212において、類似度の最大値が所定の閾値以下であると判定された場合には、画像内のオブジェクトを特定する(S214)。ステップS212において、類似度の最大値が所定の閾値より大きいと判定された場合には、ステップS216の処理を実行する。ステップS216では、ステップS202において取得された認識候補であるすべてのオブジェクトに対して処理を終了したか否かを判定する(S216)。   If it is determined in step S212 that the maximum similarity is not more than a predetermined threshold, an object in the image is specified (S214). If it is determined in step S212 that the maximum similarity is greater than a predetermined threshold, the process of step S216 is executed. In step S216, it is determined whether or not processing has been completed for all objects that are recognition candidates acquired in step S202 (S216).

ステップS216において、認識候補であるすべてのオブジェクトに対して処理を終了したと判定された場合には、オブジェクトの認識処理を終了する。一方、ステップS216において、認識候補であるすべてのオブジェクトに対して処理を終了していないと判定された場合には、ステップS202の処理に戻る。   If it is determined in step S216 that the process has been completed for all objects that are recognition candidates, the object recognition process is terminated. On the other hand, if it is determined in step S216 that the processing has not been completed for all objects that are recognition candidates, the process returns to step S202.

以上、オブジェクトの認識処理の詳細について説明した。なお、図6に示した認識処理は、一例であり、記憶部210において記憶されているオブジェクトの特徴情報を用いて、実空間画像上のオブジェクトを認識するのであれば、他の処理方法をであってもよい。   The details of the object recognition process have been described above. Note that the recognition processing shown in FIG. 6 is an example, and other processing methods can be used if the object on the real space image is recognized using the object feature information stored in the storage unit 210. There may be.

次に、図7を参照して、仮想情報(付加情報)をオーバレイするオブジェクトの選択処理の詳細を説明する。図7は、オブジェクトの選択処理の詳細を示すフローチャートである。上記したように、仮想情報をオーバレイするオブジェクトの選択処理では、オブジェクトに関連付けられている階層情報を用いて認識された複数のオブジェクトから選択される。本実施形態では、認識された複数のオブジェクトが階層関係を有している場合、所定の条件に合致するオブジェクトを仮想的な情報をオーバレイする対象として選択する。   Next, with reference to FIG. 7, the details of the process of selecting an object that overlays virtual information (additional information) will be described. FIG. 7 is a flowchart showing details of the object selection process. As described above, in the process of selecting an object that overlays virtual information, a selection is made from a plurality of objects recognized using hierarchical information associated with the object. In the present embodiment, when a plurality of recognized objects have a hierarchical relationship, an object that meets a predetermined condition is selected as a virtual information overlay target.

ここで、所定の条件とは、例えば、階層情報において意味的に最上位の階層である場合や意味的に最下位の階層であることなどが挙げられる。図7ではでは、所定の条件を意味的に最上位の階層であることとして説明する。   Here, the predetermined condition includes, for example, a case where the hierarchical information is a semantically highest hierarchy or a semantically lowest hierarchy. In FIG. 7, the predetermined condition is described as being semantically the highest hierarchy.

まず、ステップS104において認識されたオブジェクトのうち、表示/非表示のマークが設定されていないオブジェクトを一つ選択する(S222)。表示/非表示のマークとは、実空間画像の対応するオブジェクトの付加情報を表示するか非表示とするかのマークである。次に、記憶部210に記憶されているオブジェクトに関連付けられた階層情報を用いて、ステップS222において選択されたオブジェクトより上位のオブジェクトであって、実空間画像内に認識されているオブジェクトのうち最上位のものを抽出する(S224)。   First, among the objects recognized in step S104, one object for which no display / non-display mark is set is selected (S222). The display / non-display mark is a mark indicating whether or not to display the additional information of the corresponding object of the real space image. Next, using the hierarchical information associated with the object stored in the storage unit 210, the highest object among the objects recognized in the real space image that is higher than the object selected in step S222. The upper one is extracted (S224).

そして、ステップS222において抽出された階層が最上位のオブジェクトを、付加情報を表示するオブジェクトとして「表示」のマークを設定する(S228)。そして、実空間画像内で認識されたすべてのオブジェクトに対して表示/非表示がマークされたか否かを判定する(S230)。ステップS230において、すべてのオブジェクトに対して表示/非表示がマークされた場合には処理を終了する。一方、ステップS230において、すべてのオブジェクトに対して表示/非表示がマークされていないと判定された場合には、ステップS222〜ステップS228の処理を繰り返す。   Then, the “display” mark is set as the object whose top level is extracted in step S222 as an object for displaying additional information (S228). Then, it is determined whether display / non-display is marked for all objects recognized in the real space image (S230). If display / non-display is marked for all objects in step S230, the process ends. On the other hand, if it is determined in step S230 that display / non-display is not marked for all objects, the processing in steps S222 to S228 is repeated.

以上、オブジェクトの選択処理について説明した。本実施形態によれば、取得した実空間画像の部分画像の特徴情報と、記憶部210に記憶されているオブジェクトの特徴情報とを比較して、両者の類似度を算出することにより実空間画像内のオブジェクトを認識する。そして、認識されたオブジェクトの階層情報に基づいて、実空間画像内のオブジェクトに付加情報を重畳するか否かを決定する。これにより、例えば、最上位階層のオブジェクトの付加情報のみを重畳したり、最下位階層のオブジェクトの付加情報のみを重畳したりして、実空間画像に重畳される付加情報を適切に表示して視認性を向上することができる。   The object selection process has been described above. According to this embodiment, the real space image is obtained by comparing the feature information of the partial image of the acquired real space image with the feature information of the object stored in the storage unit 210 and calculating the similarity between the two. Recognize objects inside. Then, based on the recognized hierarchy information of the object, it is determined whether to superimpose additional information on the object in the real space image. Thereby, for example, only the additional information of the object of the highest hierarchy is superimposed, or only the additional information of the object of the lowest hierarchy is superimposed, and the additional information superimposed on the real space image is appropriately displayed. Visibility can be improved.

〔5〕第2実施形態
以上、第1実施形態について説明した。次に、第2実施形態について説明する。本実施形態における情報処理装置10′は、第1実施形態にかかる情報処理装置10とほぼ同様の構成を有するため、第1実施形態と異なる機能について特に詳細に説明する。第1実施形態では、記憶部210に記憶されているオブジェクトのすべてに対して認識処理を実行していたが、本実施形態では、認識対象とするオブジェクトと認識対象としないオブジェクトを判定する点で第1実施形態と異なっている。
[5] Second Embodiment The first embodiment has been described above. Next, a second embodiment will be described. Since the information processing apparatus 10 ′ in the present embodiment has substantially the same configuration as the information processing apparatus 10 according to the first embodiment, functions different from those in the first embodiment will be described in detail. In the first embodiment, recognition processing is executed for all the objects stored in the storage unit 210. However, in this embodiment, the object to be recognized and the object not to be recognized are determined. This is different from the first embodiment.

〔5−1〕情報処理装置の機能構成
本実施形態では、第1実施形態と同様に、決定部206がオブジェクトの階層情報に基づいて付加情報を重畳するオブジェクトを選択する。本実施形態では、決定部206が、付加情報を重畳するオブジェクトを選択し、階層情報と所定の条件から認識対象としないオブジェクトを決定して認識部204に通知する。
[5-1] Functional Configuration of Information Processing Device In this embodiment, as in the first embodiment, the determination unit 206 selects an object on which additional information is superimposed based on the hierarchical information of the object. In the present embodiment, the determination unit 206 selects an object on which additional information is to be superimposed, determines an object that is not a recognition target from the hierarchy information and a predetermined condition, and notifies the recognition unit 204 of it.

例えば、所定の条件が階層の最上位のオブジェクトの付加情報を重畳させるという条件である場合に、認識部204によりビルaが認識されたとする。この場合。決定部206は、ビルaより下位の階層にあるオブジェクトについては認識対象としないように認識部204に指示する。   For example, it is assumed that the building a is recognized by the recognition unit 204 when the predetermined condition is a condition that the additional information of the highest object in the hierarchy is superimposed. in this case. The determination unit 206 instructs the recognition unit 204 not to recognize an object in a lower hierarchy than the building a.

〔5−2〕情報処理装置の動作の詳細
次に、図8〜図10を参照して、情報処理装置10′の動作の詳細について説明する。図8は、情報処理装置10′の動作全体を示すフローチャートである。まず、画像取得部202は、撮像装置を介して情報処理装置10′の周辺の風景などの画像を取得する(S302)。次に、認識部204は、ステップS202において取得した画像上の一つのオブジェクトを認識する(S304)。ステップS104におけるオブジェクトの認識処理については後で詳細に説明する。
[5-2] Details of Operation of Information Processing Device Next, details of the operation of the information processing device 10 ′ will be described with reference to FIGS. 8 to 10. FIG. 8 is a flowchart showing the overall operation of the information processing apparatus 10 ′. First, the image acquisition unit 202 acquires an image such as a landscape around the information processing apparatus 10 ′ via the imaging device (S302). Next, the recognition unit 204 recognizes one object on the image acquired in step S202 (S304). The object recognition process in step S104 will be described in detail later.

そして、決定部206は、記憶部210に記憶されている階層情報と、ステップS204におけるオブジェクトの認識結果から、オブジェクト認識処理を実行するオブジェクトを決定する(S306)。ステップS306におけるオブジェクトの選択処理については、後で詳細に説明する。   Then, the determination unit 206 determines an object to execute object recognition processing from the hierarchical information stored in the storage unit 210 and the object recognition result in step S204 (S306). The object selection process in step S306 will be described in detail later.

そして、すべての認識候補オブジェクトに対して処理が終了したか否かを判定する(S308)。ステップS308においてすべての認識候補オブジェクトに対して処理が終了していないと判定された場合には、ステップS304〜ステップS308の処理を繰り返す。ステップS308においてすべての認識候補オブジェクトに対して処理が終了したと判定された場合には、決定部206は、オブジェクトに設定された表示/非表示のマーク結果を表示制御部208に通知する。   Then, it is determined whether or not the processing has been completed for all recognition candidate objects (S308). If it is determined in step S308 that the processing has not been completed for all recognition candidate objects, the processing in steps S304 to S308 is repeated. If it is determined in step S308 that the processing has been completed for all recognition candidate objects, the determination unit 206 notifies the display control unit 208 of the display / non-display mark result set for the object.

そして、表示制御部208は、オブジェクトに仮想情報をオーバレイした画像を生成して表示部に出力する(S310)。以上、情報処理装置10′の全体動作について説明した。   Then, the display control unit 208 generates an image in which virtual information is overlaid on the object and outputs the generated image to the display unit (S310). The overall operation of the information processing apparatus 10 ′ has been described above.

次に、図9を参照して、オブジェクトの認識処理の詳細を説明する。図9は、オブジェクトの認識処理を示すフローチャートである。図9に示したように、認識部204は、まず、記憶部210に記憶されている、認識候補となるオブジェクトの視覚的特徴量の1つを取得する(S402)。ステップS402においてどのオブジェクトの視覚的特徴量を取得するかは、決定部206により指定される。決定部206により指定されなかった場合には、認識部204は、視覚的特徴量を未だ取得しておらず、かつ、決定部206により認識処理を行わないように指示されていないオブジェクトのなかから任意の1つを選択する。   Next, the details of the object recognition process will be described with reference to FIG. FIG. 9 is a flowchart showing object recognition processing. As shown in FIG. 9, the recognition unit 204 first acquires one of the visual feature amounts of an object that is a recognition candidate stored in the storage unit 210 (S402). The determination unit 206 specifies which object's visual feature value is to be acquired in step S402. If not specified by the determining unit 206, the recognizing unit 204 has not yet acquired the visual feature amount, and the object is not instructed by the determining unit 206 not to perform the recognition process. Select any one.

次に、認識部204は、画像取得部202により取得された風景画像等の実空間画像の部分画像を抽出する(S404)。そして、ステップS404において抽出した部分画像の視覚的特徴量を算出する(S406)。そして、ステップS402において取得した認識候補となるオブジェクトの視覚的特徴量と、ステップS406において取得した部分画像の視覚的特徴量とを用いて、両者の類似度を計算する(S408)。   Next, the recognition unit 204 extracts a partial image of a real space image such as a landscape image acquired by the image acquisition unit 202 (S404). Then, the visual feature amount of the partial image extracted in step S404 is calculated (S406). Then, using the visual feature amount of the object as the recognition candidate acquired in step S402 and the visual feature amount of the partial image acquired in step S406, the similarity between the two is calculated (S408).

そして、実空間画像(風景画像)の全領域に対して、ステップS408の類似度の計算を完了したか否かを判定する(S410)。ステップS410において、実空間画像の全領域に対して類似度の計算を完了していないと判定された場合には、ステップS404からステップS408の処理を繰り返す。   Then, it is determined whether or not the similarity calculation in step S408 has been completed for all regions of the real space image (landscape image) (S410). If it is determined in step S410 that the similarity calculation has not been completed for all regions of the real space image, the processing from step S404 to step S408 is repeated.

ステップS410において、実空間画像の全領域に対して類似度の計算を完了したと判定された場合には、ステップS408において計算した類似度の最大値が所定の閾値以下であるか否かを判定する(S412)。ステップS412において、類似度の最大値が所定の閾値以下であると判定された場合には、画像内のオブジェクトを特定する(S414)。ステップS412において、類似度の最大値が所定の閾値より大きいと判定された場合には処理を終了する。   If it is determined in step S410 that the similarity calculation has been completed for all regions of the real space image, it is determined whether the maximum similarity calculated in step S408 is equal to or less than a predetermined threshold. (S412). If it is determined in step S412 that the maximum similarity is not more than a predetermined threshold, an object in the image is specified (S414). If it is determined in step S412 that the maximum similarity value is greater than the predetermined threshold value, the process ends.

以上、オブジェクトの認識処理の詳細について説明した。次に、図10を参照して、仮想情報をオーバレイするオブジェクトの選択処理の詳細を説明する。図10は、オブジェクトの選択処理の詳細を示すフローチャートである。以下では、認識された複数のオブジェクトが階層関係を有している場合、階層関係が最上位であるオブジェクトを仮想的な情報をオーバレイする対象として選択する場合について説明する。しかし、かかる例に限定されず、階層関係が最下位であるオブジェクトを仮想的な情報をオーバレイする対象として選択してもよい。   The details of the object recognition process have been described above. Next, with reference to FIG. 10, the details of the process of selecting an object to overlay virtual information will be described. FIG. 10 is a flowchart showing details of the object selection processing. In the following, a case will be described in which when a plurality of recognized objects have a hierarchical relationship, an object having the highest hierarchical relationship is selected as a target for overlaying virtual information. However, the present invention is not limited to this example, and the object having the lowest hierarchical relationship may be selected as a virtual information overlay target.

まず、認識候補となるオブジェクトが実空間画像内にあったか否かを判定する(S422)。ステップS422において、認識候補となるオブジェクトが実空間画像内にあったと判定された場合には、認識候補となるオブジェクトよりも意味的に上位のオブジェクトを記憶部210から抽出する。ステップS424の抽出処理において、認識候補となるオブジェクトよりも意味的に上位のオブジェクトが記憶部210に記憶されていたか否かを判定する(S426)。ステップS426において、意味的に上位のオブジェクトがあると判定された場合には、意味的に上位のオブジェクトを新たな認識候補オブジェクトに設定する。   First, it is determined whether or not an object as a recognition candidate is in the real space image (S422). If it is determined in step S422 that an object that is a recognition candidate is in the real space image, an object that is semantically higher than the object that is a recognition candidate is extracted from the storage unit 210. In the extraction process of step S424, it is determined whether or not an object that is semantically higher than the recognition candidate object is stored in the storage unit 210 (S426). If it is determined in step S426 that there is a semantically superior object, the semantically superior object is set as a new recognition candidate object.

一方、ステップS422において、認識候補オブジェクトが実空間画像内にないと判定された場合、または、ステップS426において、意味的に上位のオブジェクトがないと判定された場合には、最後に認識されたオブジェクトを、付加情報を重畳する表示オブジェクトとしてマークする(S430)。そして、ステップS430において、表示オブジェクトとしてマークしたオブジェクトより意味的に下位のオブジェクトを非表示オブジェクトとしてマークする。ここで、非表示オブジェクトとしてマークされたオブジェクトは、認識処理を行わないオブジェクトである。   On the other hand, if it is determined in step S422 that the recognition candidate object is not in the real space image, or if it is determined in step S426 that there is no semantically superior object, the last recognized object Are marked as display objects on which additional information is superimposed (S430). In step S430, an object that is semantically lower than the object marked as a display object is marked as a non-display object. Here, an object marked as a non-display object is an object for which recognition processing is not performed.

以上、オブジェクトの選択処理の詳細について説明した。本実施形態によれば、オブジェクトに関連付けられた階層情報を用いて、認識処理を行う対象を、付加情報を重畳する可能性のあるオブジェクトに限定することができる。これにより、記憶部210に記憶されているすべてのオブジェクトに対して認識処理を行う第1実施形態に比べて、認識処理全体の計算時間を短縮することが可能となる。   The details of the object selection process have been described above. According to the present embodiment, it is possible to limit the target to be recognized using the hierarchical information associated with the object to objects that may superimpose additional information. Thereby, it is possible to reduce the calculation time of the entire recognition process as compared with the first embodiment in which the recognition process is performed on all objects stored in the storage unit 210.

〔6〕第3実施形態
以上、第2実施形態について説明した。次に、第3実施形態について説明する。本実施形態における情報処理装置15は、第1実施形態にかかる情報処理装置10および第2実施形態に係る情報処理装置10′とは、仮想情報を入力する機能が追加されている点で異なっている。以下では、第1実施形態および第2実施形態とは異なる点について特に詳細に説明する。
[6] Third Embodiment The second embodiment has been described above. Next, a third embodiment will be described. The information processing apparatus 15 according to the present embodiment is different from the information processing apparatus 10 according to the first embodiment and the information processing apparatus 10 ′ according to the second embodiment in that a function of inputting virtual information is added. Yes. Hereinafter, differences from the first embodiment and the second embodiment will be described in detail.

〔6−1〕情報処理装置の機能構成
図11を参照して、本実施形態にかかる情報処理装置15の機能構成を説明する。図11に示したように、情報処理装置15は、画像取得部202、認識部204、決定部206、表示制御部208、記憶部210、付加情報入力部212、階層関係決定部214などを備える。
[6-1] Functional Configuration of Information Processing Device The functional configuration of the information processing device 15 according to the present embodiment will be described with reference to FIG. As illustrated in FIG. 11, the information processing apparatus 15 includes an image acquisition unit 202, a recognition unit 204, a determination unit 206, a display control unit 208, a storage unit 210, an additional information input unit 212, a hierarchy relationship determination unit 214, and the like. .

画像取得部202、認識部204、決定部206、表示制御部208、記憶部210は第1実施形態と同様の機能を有するため、詳細な説明は省略する。   Since the image acquisition unit 202, the recognition unit 204, the determination unit 206, the display control unit 208, and the storage unit 210 have the same functions as those in the first embodiment, detailed description thereof is omitted.

付加情報入力部212は、ユーザ操作に応じて、付加情報を入力する機能を有する。付加情報とは、実空間画像に重畳される文字情報等の仮想的な情報である。付加情報入力部212は、上記した入力装置108の一例であって、キーボードや音声入力、タッチパネル等を用いて実現される。   The additional information input unit 212 has a function of inputting additional information in response to a user operation. The additional information is virtual information such as character information superimposed on the real space image. The additional information input unit 212 is an example of the input device 108 described above, and is realized using a keyboard, voice input, a touch panel, or the like.

記憶部210は、第1実施形態において説明した情報に加え、オブジェクトの分割された部分領域の視覚的情報も記憶する。オブジェクトの部分領域の視覚的情報は認識部204に利用される。   In addition to the information described in the first embodiment, the storage unit 210 also stores visual information of the divided partial areas of the object. The visual information of the partial area of the object is used by the recognition unit 204.

認識部204は、第1実施形態において説明した機能に加えて、画像取得部202から入力された風景画像等の実空間画像中に、記憶部210により記憶されているオブジェクトの一部が含まれていることを認識する機能も有する。具体的には、風景画像の全体もしくは部分領域と、記憶部210に記憶されている視覚的情報の全体もしくは一部との類似度を算出することにより実現される。認識部204による認識結果は決定部206に出力されると同時に、階層関係決定部214に出力される。   In addition to the functions described in the first embodiment, the recognition unit 204 includes a part of an object stored in the storage unit 210 in a real space image such as a landscape image input from the image acquisition unit 202. It also has a function of recognizing that Specifically, this is realized by calculating the similarity between the entire or partial area of the landscape image and the entire or partial visual information stored in the storage unit 210. The recognition result by the recognition unit 204 is output to the determination unit 206 and simultaneously to the hierarchy relationship determination unit 214.

階層関係決定部214は、付加情報入力部212により入力された付加情報の付与対象となっているオブジェクトの階層関係を決定する機能を有する。付加情報入力部212からユーザが入力した付加情報が提供され、認識部204からオブジェクトの認識結果が提供される。階層関係決定部214は、認識部204から提供された認識結果を用いて、オブジェクトの階層関係を決定する。   The hierarchical relationship determining unit 214 has a function of determining the hierarchical relationship of the object to which the additional information input by the additional information input unit 212 is added. Additional information input by the user from the additional information input unit 212 is provided, and the recognition result of the object is provided from the recognition unit 204. The hierarchical relationship determination unit 214 uses the recognition result provided from the recognition unit 204 to determine the hierarchical relationship of objects.

具体的には、まず、階層関係決定部214は、実空間画像内に認識されたオブジェクトが存在するか否かを判断する。そして、画像取得部202により取得された実空間画像内に認識されたオブジェクトが存在する場合に、認識されたオブジェクトの実空間画像内の面積率と、オブジェクトと合致した記憶部210内の視覚的情報のオブジェクト全体に対する面積率とを用いて、意味的な階層関係を決定する。階層関係決定部214による階層関係の決定方法については後で詳細に説明する。階層関係決定部214により決定されたオブジェクトの階層関係と、ユーザにより入力された付加情報が記憶部210に関連付けて記憶される。   Specifically, first, the hierarchical relationship determination unit 214 determines whether or not a recognized object exists in the real space image. When a recognized object exists in the real space image acquired by the image acquisition unit 202, the area ratio of the recognized object in the real space image and the visual in the storage unit 210 that matches the object are displayed. A semantic hierarchical relationship is determined using the area ratio of the information to the entire object. A method of determining the hierarchical relationship by the hierarchical relationship determining unit 214 will be described in detail later. The hierarchical relationship of the objects determined by the hierarchical relationship determining unit 214 and additional information input by the user are stored in association with the storage unit 210.

〔6−2〕情報処理装置の動作の詳細
以上、情報処理装置15の機能構成について説明した。次に、図12および図13を参照して、情報処理装置15の動作の詳細について説明する。以下では、第1実施形態および第2実施形態と異なる処理について特に詳細に説明し、同様の処理については詳細な説明は省略する。
[6-2] Details of Operation of Information Processing Device The functional configuration of the information processing device 15 has been described above. Next, details of the operation of the information processing apparatus 15 will be described with reference to FIGS. 12 and 13. In the following, processes different from those in the first embodiment and the second embodiment will be described in detail, and detailed description of similar processes will be omitted.

図12は、情報処理装置15の全体動作を示すフローチャートである。まず、画像取得部202は、撮像装置を介して情報処理装置15の周辺の風景などの画像を取得する(S502)。次に、認識部204は、ステップS502において取得した画像上のすべてのオブジェクトを認識する(S504)。   FIG. 12 is a flowchart showing the overall operation of the information processing apparatus 15. First, the image acquisition unit 202 acquires an image such as a landscape around the information processing device 15 via the imaging device (S502). Next, the recognition unit 204 recognizes all objects on the image acquired in step S502 (S504).

そして、階層関係決定部214は、ユーザにより入力された付加情報の付与対象となっているオブジェクトの意味的な階層関係を決定する(S506)。ステップS506におけるオブジェクトの意味的な階層関係の決定処理については、後で詳細に説明する。そして、ステップS506において決定された意味的な階層関係を記憶部210に追加または更新し、入力された付加情報を追加する(S508)。   Then, the hierarchical relationship determining unit 214 determines the semantic hierarchical relationship of the object to which the additional information input by the user is added (S506). The process of determining the semantic hierarchical relationship of objects in step S506 will be described in detail later. Then, the semantic hierarchical relationship determined in step S506 is added or updated to the storage unit 210, and the input additional information is added (S508).

以上、情報処理装置15の全体動作について説明した。次に、図13を参照して、オブジェクトの意味的な階層関係の決定処理について説明する。図13は、オブジェクトの意味的な階層関係の決定処理を示すフローチャートである。図13に示したように、まず、実空間画像(風景画像)内に認識部204により認識されたオブジェクトが存在するか否かを判定する(S602)。   The overall operation of the information processing apparatus 15 has been described above. Next, with reference to FIG. 13, a process for determining the semantic hierarchical relationship of objects will be described. FIG. 13 is a flowchart showing a process for determining the semantic hierarchical relationship of objects. As shown in FIG. 13, first, it is determined whether or not an object recognized by the recognition unit 204 exists in the real space image (landscape image) (S602).

ステップS602において、認識されたオブジェクトが存在すると判定された場合には、ステップS604以降の処理において、認識されたオブジェクトの面積率と、該オブジェクトとマッチした記憶部内の視覚的情報のオブジェクト全体に対する面積率とを用いて、図14に示す意味的な階層関係を決定する。図14は、階層関係決定部214により決定される意味的な階層関係を説明する説明図である。ステップS602以降の処理を実行することにより、図14の意味的な階層関係が決定される。   If it is determined in step S602 that the recognized object exists, the area ratio of the recognized object and the area of the visual information in the storage unit that matches the object with respect to the entire object in the processing after step S604. The semantic hierarchical relationship shown in FIG. 14 is determined using the rate. FIG. 14 is an explanatory diagram for explaining the semantic hierarchical relationship determined by the hierarchical relationship determining unit 214. By executing the processing after step S602, the semantic hierarchical relationship of FIG. 14 is determined.

一方、ステップS602において、認識されたオブジェクトが存在しないと判定された場合には、記憶部210に記憶されているオブジェクトとは意味的な階層関係のないものと決定する(S606)。   On the other hand, if it is determined in step S602 that the recognized object does not exist, it is determined that there is no semantic hierarchical relationship with the object stored in the storage unit 210 (S606).

ステップS604において、認識部204により実空間画像内に複数のオブジェクトが認識された場合には、実空間画像内の面積率最も高いオブジェクトを抽出する(S604)。ステップS604において抽出されたオブジェクトをオブジェクトXと称して以下説明する。   In step S604, when the recognition unit 204 recognizes a plurality of objects in the real space image, the object having the highest area ratio in the real space image is extracted (S604). The object extracted in step S604 is referred to as object X and will be described below.

次に、オブジェクトXの画面占有率が所定の閾値以上であるか否かを判定する(S608)。ステップS608において、オブジェクトXの画面占有率が所定の閾値以上であると判定された場合には、ステップS612の処理を実行する。ステップS612では、オブジェクトXを認識した際に参照した記憶部210の視覚的情報のうち、画像占有率が最大のもの(以下、リファレンスYと称する)を抽出する(S612)。ここで、画像占有率とは、記憶部210に視覚的情報が記憶される際に、認識に用いた画像に対する視覚的情報の面積率である。   Next, it is determined whether or not the screen occupation ratio of the object X is equal to or greater than a predetermined threshold (S608). If it is determined in step S608 that the screen occupation ratio of the object X is equal to or greater than a predetermined threshold value, the process of step S612 is executed. In step S612, the visual information having the maximum image occupancy rate (hereinafter referred to as reference Y) is extracted from the visual information in the storage unit 210 referred to when the object X is recognized (S612). Here, the image occupancy is an area ratio of visual information with respect to an image used for recognition when visual information is stored in the storage unit 210.

一方、ステップS608において、オブジェクトXの画面占有率が所定の閾値以上ではないと判定された場合には、ステップS610の処理を実行する。ステップS610では、ユーザが付加情報を付加しようとしているオブジェクトは、記憶部210に未登録であり、認識されたオブジェクトよりも意味的に上位の階層であると決定する。   On the other hand, if it is determined in step S608 that the screen occupancy rate of the object X is not equal to or greater than the predetermined threshold value, the process of step S610 is executed. In step S610, the object to which the user intends to add additional information is determined to be unregistered in the storage unit 210 and semantically higher than the recognized object.

ステップS612の処理を実行した後、リファレンスYの画面占有率が閾値以上であるか否かを判定する(S614)。ステップS614において、リファレンスYの画面占有率が閾値以上であると判定された場合には、ステップS618の処理を実行する。ステップS618においては、ユーザが付加情報を付加しようとしているオブジェクトはオブジェクトXであり、リファレンスYと同一であると決定する。   After executing the process of step S612, it is determined whether or not the screen occupancy rate of the reference Y is equal to or greater than a threshold value (S614). If it is determined in step S614 that the screen occupancy rate of reference Y is equal to or greater than the threshold value, the process of step S618 is executed. In step S618, it is determined that the object to which the user is to add additional information is the object X and is the same as the reference Y.

一方、ステップS614において、リファレンスYの画面占有率が閾値以上ではないと判定された場合には、ステップS616の処理を実行する。ステップS616においては、ユーザが付加情報を付加しようとしているオブジェクトはオブジェクトXであり、リファレンスYよりも意味的に下位の階層であると決定する。   On the other hand, if it is determined in step S614 that the screen occupancy rate of reference Y is not equal to or greater than the threshold value, the process of step S616 is executed. In step S616, the object to which the user intends to add additional information is the object X, and is determined to be a hierarchically lower layer than the reference Y.

以上、オブジェクトの意味的な階層関係の決定処理について説明した。第3実施形態によれば、情報処理装置15に予め保持されている付加情報以外に、ユーザ入力に応じて任意にオブジェクトに対して独自の付加情報を追加することが可能となる。これにより、ユーザの期待する情報を実空間画像に重畳することが可能となり、ユーザの利便性が向上する。   The processing for determining the semantic hierarchical relationship of objects has been described above. According to the third embodiment, in addition to the additional information held in advance in the information processing apparatus 15, it is possible to arbitrarily add unique additional information to the object in accordance with user input. Thereby, it is possible to superimpose information expected by the user on the real space image, and the convenience for the user is improved.

〔7〕サーバにおける付加情報出力可否の決定
以上、第3実施形態について説明した。上記した第1〜第3実施形態における認識部204、決定部206、記憶部210、階層関係決定部214は、情報処理装置10、10′、15とネットワークを介して接続されたサーバに備えられていてもよい。認識部204、決定部206、記憶部210、階層関係決定部214をサーバに備えることにより、負荷の高いオブジェクトの認識等の処理を演算能力の高いサーバで行って、レスポンスを向上させることが可能となる。また、記憶部210を大容量化することが容易となり、オブジェクトの付加情報を複数のユーザ間で参照し合うことが可能となり、ユーザ利便性が向上する。
[7] Determination of availability of additional information output in server The third embodiment has been described above. The recognition unit 204, determination unit 206, storage unit 210, and hierarchical relationship determination unit 214 in the first to third embodiments described above are provided in a server connected to the information processing apparatuses 10, 10 ', and 15 via a network. It may be. By providing the recognition unit 204, the determination unit 206, the storage unit 210, and the hierarchy relationship determination unit 214 in the server, it is possible to perform a process such as recognition of an object with a high load on the server having a high calculation capacity and improve the response. It becomes. Further, it is easy to increase the capacity of the storage unit 210, and it becomes possible to refer to additional information of an object among a plurality of users, thereby improving user convenience.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

また、本明細書の情報処理装置10、10′、15の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。すなわち、情報処理装置10、10′、15の処理における各ステップは、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)を含んでもよい。   In addition, each step in the processing of the information processing apparatuses 10, 10 ', and 15 in this specification does not necessarily have to be processed in time series in the order described as a flowchart. That is, each step in the processing of the information processing apparatuses 10, 10 ′, and 15 may include processing executed in parallel or individually (for example, parallel processing or object processing).

また、情報処理装置10、10′、15などに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した情報処理装置10、10′、15の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。   In addition, hardware such as a CPU, ROM, and RAM incorporated in the information processing apparatuses 10, 10 ', 15 and the like is used to exhibit functions equivalent to those of the above-described configurations of the information processing apparatuses 10, 10', and 15 Computer programs can also be created. A storage medium storing the computer program is also provided.

10、10′、15 情報処理装置
202 画像取得部
204 認識部
206 決定部
208 表示制御部
210 記憶部
212 付加情報入力部
214 階層関係決定部
10, 10 ', 15 Information processing device 202 Image acquisition unit 204 Recognition unit 206 Determination unit 208 Display control unit 210 Storage unit 212 Additional information input unit 214 Hierarchy relationship determination unit

Claims (13)

画像内のオブジェクトの特徴を示す特徴情報と、該オブジェクトの階層関係を示す階層情報と、該オブジェクトに付加される付加情報とを関連付けて記憶している記憶部と、
実空間画像を取得する画像取得部と、
前記画像内のオブジェクトの特徴を示す特徴情報をもとに、前記画像取得部により取得された前記実空間画像に含まれる前記オブジェクトを認識する認識部と、
前記認識部により認識された前記オブジェクトに関連付けられた前記オブジェクトの階層情報に基づいて、前記オブジェクトに付加される付加情報の表示部への出力可否を決定する決定部と、
を備える、情報処理装置。
A storage unit that stores feature information indicating features of an object in the image, hierarchical information indicating a hierarchical relationship between the objects, and additional information added to the object in association with each other;
An image acquisition unit for acquiring a real space image;
A recognition unit for recognizing the object included in the real space image acquired by the image acquisition unit based on feature information indicating a feature of the object in the image;
A determination unit that determines whether to output the additional information added to the object to the display unit based on the hierarchical information of the object associated with the object recognized by the recognition unit;
An information processing apparatus comprising:
前記決定部により前記オブジェクトに付加される付加情報の表示部への出力が決定された場合に、前記実空間画像に含まれる前記オブジェクトに前記付加情報を重畳して表示部に表示させる表示制御部を備える、請求項1に記載の情報処理装置。   A display control unit that causes the display unit to display the additional information superimposed on the object included in the real space image when the output of the additional information added to the object to the display unit is determined by the determination unit The information processing apparatus according to claim 1, comprising: 前記決定部は、前記認識部により前記実空間画像内で複数の前記オブジェクトが認識された場合に、前記複数のオブジェクトのうち、前記階層情報が最上位の階層であるオブジェクトの付加情報を出力することを決定する、請求項1に記載の情報処理装置。   The determining unit outputs additional information of an object whose hierarchical information is the highest layer among the plurality of objects when the recognizing unit recognizes the plurality of the objects in the real space image. The information processing apparatus according to claim 1, which determines this. 前記決定部は、前記認識部により前記実空間画像内で複数の前記オブジェクトが認識された場合に、前記複数のオブジェクトのうち、前記階層情報が最下位の階層であるオブジェクトの付加情報を出力することを決定する、請求項1に記載の情報処理装置。   The determining unit outputs additional information of an object whose hierarchical information is the lowest hierarchy among the plurality of objects when the recognizing unit recognizes the plurality of objects in the real space image. The information processing apparatus according to claim 1, which determines this. 前記記憶部には、さらに、前記オブジェクトの優先度情報が関連付けて記憶されており、
前記決定部は、前記認識部により前記実空間画像内で複数の前記オブジェクトが認識された場合に、前記優先度情報に基づいて前記オブジェクトの前記付加情報を出力することを決定する、請求項1に記載の情報処理装置。
In the storage unit, the priority information of the object is further stored in association with each other,
The determination unit determines to output the additional information of the object based on the priority information when a plurality of the objects are recognized in the real space image by the recognition unit. The information processing apparatus described in 1.
前記記憶部には、さらに、ユーザによる前記オブジェクトの属性情報が関連付けて記憶されており、
前記決定部は、前記認識部により前記実空間画像内で複数の前記オブジェクトが認識された場合に、前記属性情報に基づいて前記オブジェクトの前記付加情報を出力することを決定する、請求項1に記載の情報処理装置。
In the storage unit, attribute information of the object by the user is further stored in association with each other,
The determination unit determines to output the additional information of the object based on the attribute information when the recognition unit recognizes a plurality of the objects in the real space image. The information processing apparatus described.
前記決定部は、前記認識部により前記実空間画像内で複数の前記オブジェクトが認識された場合に、前記複数のオブジェクトのうち、所定の閾値以内の前記オブジェクトの前記付加情報を出力することを決定する、請求項1に記載の情報処理装置。   The determination unit determines to output the additional information of the object within a predetermined threshold among the plurality of objects when the recognition unit recognizes the plurality of objects in the real space image. The information processing apparatus according to claim 1. 前記決定部は、前記認識部により前記実空間画像内で複数の前記オブジェクトが認識された場合に、表示部の表示サイズに応じて、前記複数のオブジェクトのうち所定数の前記オブジェクトの前記付加情報を出力することを決定する、請求項1に記載の情報処理装置。   The determination unit, when the recognition unit recognizes a plurality of the objects in the real space image, according to a display size of the display unit, the additional information of the predetermined number of the objects among the plurality of objects. The information processing apparatus according to claim 1, wherein the information processing apparatus determines to output the information. 前記認識部は、前記実空間画像内で認識した前記オブジェクトよりも下位の階層である前記オブジェクトを認識対象としない、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the recognition unit does not recognize the object that is in a lower hierarchy than the object recognized in the real space image. 画像内のオブジェクトの特徴を示す特徴情報と、該オブジェクトの階層関係を示す階層情報と、該オブジェクトに付加される付加情報とが関連付けて記憶部に記憶されており、
実空間画像を取得するステップと、
前記画像内のオブジェクトの特徴を示す特徴情報をもとに、前記取得された前記実空間画像に含まれる前記オブジェクトを認識するステップと、
前記認識された前記オブジェクトに関連付けられた前記オブジェクトの階層情報に基づいて、前記オブジェクトに付加される付加情報の表示部への出力可否を決定するステップと、
を含む、情報処理方法。
Feature information indicating the characteristics of the object in the image, hierarchical information indicating the hierarchical relationship of the object, and additional information added to the object are stored in association with each other,
Obtaining a real space image;
Recognizing the object included in the acquired real space image based on feature information indicating a feature of the object in the image;
Determining whether to output the additional information added to the object to the display unit based on the hierarchical information of the object associated with the recognized object;
Including an information processing method.
さらに、前記オブジェクトに付加される付加情報の表示部への出力が決定された場合に、前記実空間画像に含まれる前記オブジェクトに前記付加情報を重畳して表示部に表示させるステップを含む、請求項10に記載の情報処理方法。   And a step of superimposing the additional information on the object included in the real space image and displaying the additional information on the display unit when output of the additional information added to the object to the display unit is determined. Item 11. The information processing method according to Item 10. コンピュータを、
画像内のオブジェクトの特徴を示す特徴情報と、該オブジェクトの階層関係を示す階層情報と、該オブジェクトに付加される付加情報とを関連付けて記憶している記憶部と、
実空間画像を取得する画像取得部と、
前記画像内のオブジェクトの特徴を示す特徴情報をもとに、前記画像取得部により取得された前記実空間画像に含まれる前記オブジェクトを認識する認識部と、
前記認識部により認識された前記オブジェクトに関連付けられた前記オブジェクトの階層情報に基づいて、前記オブジェクトに付加される付加情報の表示部への出力可否を決定する決定部と、
を備える、情報処理装置として機能させるためのプログラム。
Computer
A storage unit that stores feature information indicating features of an object in the image, hierarchical information indicating a hierarchical relationship between the objects, and additional information added to the object in association with each other;
An image acquisition unit for acquiring a real space image;
A recognition unit for recognizing the object included in the real space image acquired by the image acquisition unit based on feature information indicating a feature of the object in the image;
A determination unit that determines whether to output the additional information added to the object to the display unit based on the hierarchical information of the object associated with the object recognized by the recognition unit;
A program for causing an information processing apparatus to function.
情報処理装置とネットワークを介して接続され、
前記情報処理装置により撮像された実空間画像を受信する受信部と、
前記画像内のオブジェクトの特徴を示す特徴情報をもとに、前記画像取得部により取得された前記実空間画像に含まれる前記オブジェクトを認識する認識部と、
前記認識部により認識された前記オブジェクトに関連付けられた前記オブジェクトの階層情報に基づいて、前記オブジェクトに付加される付加情報の表示部への出力可否を決定する決定部と、
前記決定部により前記オブジェクトに付加される付加情報の表示部への出力が決定された場合に、前記実空間画像に含まれる前記オブジェクトに前記付加情報を重畳した画像情報を前記情報処理装置に送信する送信部と、
を備える、サーバ。
Connected to an information processing device via a network,
A receiving unit that receives a real space image captured by the information processing apparatus;
A recognition unit for recognizing the object included in the real space image acquired by the image acquisition unit based on feature information indicating a feature of the object in the image;
A determination unit that determines whether to output the additional information added to the object to the display unit based on the hierarchical information of the object associated with the object recognized by the recognition unit;
When the determination unit determines output of additional information added to the object to the display unit, image information in which the additional information is superimposed on the object included in the real space image is transmitted to the information processing apparatus. A transmitter to
Comprising a server.
JP2009232631A 2009-10-06 2009-10-06 Information processor, method of processing information, program, and server Withdrawn JP2011081556A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009232631A JP2011081556A (en) 2009-10-06 2009-10-06 Information processor, method of processing information, program, and server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009232631A JP2011081556A (en) 2009-10-06 2009-10-06 Information processor, method of processing information, program, and server

Publications (1)

Publication Number Publication Date
JP2011081556A true JP2011081556A (en) 2011-04-21

Family

ID=44075556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009232631A Withdrawn JP2011081556A (en) 2009-10-06 2009-10-06 Information processor, method of processing information, program, and server

Country Status (1)

Country Link
JP (1) JP2011081556A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013008095A (en) * 2011-06-22 2013-01-10 Rakuten Inc Information processing device, information processing method, information processing program, and recording medium recording the information processing program
WO2013019190A1 (en) * 2011-07-29 2013-02-07 Hewlett-Packard Development Company, L.P. System and method of visual layering
JP2013080394A (en) * 2011-10-04 2013-05-02 Canon Inc Display control device, control method of display control device, and program
JP2014120109A (en) * 2012-12-19 2014-06-30 Kddi Corp Program for determining prospect area according to road information, information terminal, server and method
JP2015513155A (en) * 2012-03-15 2015-04-30 ゼットティーイー コーポレーションZte Corporation Mobile augmented reality search method, client, server, and search system
JP2015529478A (en) * 2012-06-28 2015-10-08 コーニンクレッカ フィリップス エヌ ヴェ Overlay and registration of preoperative data on live video using portable devices
JP2016004346A (en) * 2014-06-16 2016-01-12 コニカミノルタ株式会社 Image processor, method for controlling image processor, and control program of image processor
WO2016047286A1 (en) * 2014-09-25 2016-03-31 Necソリューションイノベータ株式会社 Information processing device and operation support method
US9369632B2 (en) 2011-07-29 2016-06-14 Hewlett-Packard Development Company, L.P. Projection capture system, programming and method
JPWO2014017392A1 (en) * 2012-07-24 2016-07-11 日本電気株式会社 Information processing apparatus, data processing method thereof, and program
JPWO2014017393A1 (en) * 2012-07-24 2016-07-11 日本電気株式会社 Information processing apparatus, data processing method thereof, and program
US9521276B2 (en) 2011-08-02 2016-12-13 Hewlett-Packard Development Company, L.P. Portable projection capture device
WO2017104198A1 (en) * 2015-12-14 2017-06-22 ソニー株式会社 Information processing device, information processing method, and program
WO2017169907A1 (en) * 2016-03-29 2017-10-05 日本電気株式会社 Work assistance device, work assistance method, and recording medium
JP2018097580A (en) * 2016-12-13 2018-06-21 富士ゼロックス株式会社 Information processing device and program
JP2019004365A (en) * 2017-06-16 2019-01-10 富士ゼロックス株式会社 Information processing apparatus
US10417801B2 (en) 2014-11-13 2019-09-17 Hewlett-Packard Development Company, L.P. Image projection
JP2020080057A (en) * 2018-11-13 2020-05-28 NeoX株式会社 AR library system
CN111538405A (en) * 2019-02-07 2020-08-14 株式会社美凯利 Information processing method, terminal and non-transitory computer readable storage medium
US10878629B2 (en) 2015-05-26 2020-12-29 Sony Corporation Display apparatus, information processing system, and control method
JP2021015185A (en) * 2019-07-11 2021-02-12 株式会社ネクスコ・エンジニアリング北海道 Projection system, projection device, projection method and program

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013008095A (en) * 2011-06-22 2013-01-10 Rakuten Inc Information processing device, information processing method, information processing program, and recording medium recording the information processing program
US10229538B2 (en) 2011-07-29 2019-03-12 Hewlett-Packard Development Company, L.P. System and method of visual layering
WO2013019190A1 (en) * 2011-07-29 2013-02-07 Hewlett-Packard Development Company, L.P. System and method of visual layering
KR101773988B1 (en) * 2011-07-29 2017-09-01 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. System and method of visual layering
US9560281B2 (en) 2011-07-29 2017-01-31 Hewlett-Packard Development Company, L.P. Projecting an image of a real object
US9369632B2 (en) 2011-07-29 2016-06-14 Hewlett-Packard Development Company, L.P. Projection capture system, programming and method
US9521276B2 (en) 2011-08-02 2016-12-13 Hewlett-Packard Development Company, L.P. Portable projection capture device
JP2013080394A (en) * 2011-10-04 2013-05-02 Canon Inc Display control device, control method of display control device, and program
JP2015513155A (en) * 2012-03-15 2015-04-30 ゼットティーイー コーポレーションZte Corporation Mobile augmented reality search method, client, server, and search system
JP2015529478A (en) * 2012-06-28 2015-10-08 コーニンクレッカ フィリップス エヌ ヴェ Overlay and registration of preoperative data on live video using portable devices
JPWO2014017392A1 (en) * 2012-07-24 2016-07-11 日本電気株式会社 Information processing apparatus, data processing method thereof, and program
JPWO2014017393A1 (en) * 2012-07-24 2016-07-11 日本電気株式会社 Information processing apparatus, data processing method thereof, and program
US9491368B2 (en) 2012-07-24 2016-11-08 Nec Corporation Information obtaining and viewing device, data processing method thereof, and non-transitory computer readable medium storing a program
US9489702B2 (en) 2012-07-24 2016-11-08 Nec Corporation Information processing device, data processing method thereof, and program
JP2014120109A (en) * 2012-12-19 2014-06-30 Kddi Corp Program for determining prospect area according to road information, information terminal, server and method
CN105282393A (en) * 2014-06-16 2016-01-27 柯尼卡美能达株式会社 Image processing device which inserts markers into documents
JP2016004346A (en) * 2014-06-16 2016-01-12 コニカミノルタ株式会社 Image processor, method for controlling image processor, and control program of image processor
JPWO2016047286A1 (en) * 2014-09-25 2017-04-27 Necソリューションイノベータ株式会社 Information processing apparatus and operation support method
WO2016047286A1 (en) * 2014-09-25 2016-03-31 Necソリューションイノベータ株式会社 Information processing device and operation support method
US10417801B2 (en) 2014-11-13 2019-09-17 Hewlett-Packard Development Company, L.P. Image projection
US10878629B2 (en) 2015-05-26 2020-12-29 Sony Corporation Display apparatus, information processing system, and control method
JPWO2017104198A1 (en) * 2015-12-14 2018-09-27 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2017104198A1 (en) * 2015-12-14 2017-06-22 ソニー株式会社 Information processing device, information processing method, and program
US11042743B2 (en) 2015-12-14 2021-06-22 Sony Corporation Information processing device, information processing method, and program for preventing deterioration of visual recognition in a scene
WO2017169907A1 (en) * 2016-03-29 2017-10-05 日本電気株式会社 Work assistance device, work assistance method, and recording medium
JP2018097580A (en) * 2016-12-13 2018-06-21 富士ゼロックス株式会社 Information processing device and program
JP2019004365A (en) * 2017-06-16 2019-01-10 富士ゼロックス株式会社 Information processing apparatus
JP2020080057A (en) * 2018-11-13 2020-05-28 NeoX株式会社 AR library system
JP7250308B2 (en) 2018-11-13 2023-04-03 NeoX株式会社 AR library system
CN111538405A (en) * 2019-02-07 2020-08-14 株式会社美凯利 Information processing method, terminal and non-transitory computer readable storage medium
JP2020129356A (en) * 2019-02-07 2020-08-27 株式会社メルカリ Program, information processing method, and information processing terminal
JP2021015185A (en) * 2019-07-11 2021-02-12 株式会社ネクスコ・エンジニアリング北海道 Projection system, projection device, projection method and program

Similar Documents

Publication Publication Date Title
JP2011081556A (en) Information processor, method of processing information, program, and server
JP4353259B2 (en) Information processing apparatus, image display apparatus, control method therefor, and program causing computer to execute the method
JP4990994B2 (en) Short film generating apparatus, short film generating method, program, and recording medium
JP5904706B2 (en) Method and apparatus for performing media content browsing and related media content functions
KR100796044B1 (en) Method for tagging a person image
US20110246939A1 (en) Information Processing Method and Graphical User Interface
US9465802B2 (en) Content storage processing system, content storage processing method, and semiconductor integrated circuit
US8744178B2 (en) Information processing apparatus, information processing method and program
JP4519531B2 (en) Image display device, image display method, and program
CN101783886A (en) Information processing apparatus, information processing method, and program
JP2012094138A (en) Apparatus and method for providing augmented reality user interface
CN104103085A (en) Objects in screen images
JP5753945B2 (en) Image processing apparatus, image processing apparatus control method, program, and information storage medium
JP2012190349A (en) Image processing device, image processing method, and control program
CN102566895B (en) Electronic device and method for providing menu using the same
JP6020191B2 (en) Display control apparatus and program
US20130293575A1 (en) Information processing device
JP5446700B2 (en) Information processing apparatus, information processing method, and program
JP5906605B2 (en) Information processing device
JP2010205121A (en) Information processor and portable terminal
US10915778B2 (en) User interface framework for multi-selection and operation of non-consecutive segmented information
JP2023098878A (en) Image provision server and image provision method
KR20140134154A (en) Method and Terminal for Extracting a Object from Image
JP2006164011A (en) Operation instruction device, electronic equipment, operation instruction method and operation instruction program
KR20160136726A (en) Electronic apparatus and the controlling method thereof

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130108