JP2013080394A - Display control device, control method of display control device, and program - Google Patents

Display control device, control method of display control device, and program Download PDF

Info

Publication number
JP2013080394A
JP2013080394A JP2011220308A JP2011220308A JP2013080394A JP 2013080394 A JP2013080394 A JP 2013080394A JP 2011220308 A JP2011220308 A JP 2011220308A JP 2011220308 A JP2011220308 A JP 2011220308A JP 2013080394 A JP2013080394 A JP 2013080394A
Authority
JP
Japan
Prior art keywords
information
identifier
displayed
display control
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011220308A
Other languages
Japanese (ja)
Other versions
JP5932278B2 (en
JP2013080394A5 (en
Inventor
Kensuke Yasuma
健介 安間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011220308A priority Critical patent/JP5932278B2/en
Publication of JP2013080394A publication Critical patent/JP2013080394A/en
Publication of JP2013080394A5 publication Critical patent/JP2013080394A5/ja
Application granted granted Critical
Publication of JP5932278B2 publication Critical patent/JP5932278B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To select information to be displayed according to an area of a detected object in a taken image and contents of attribute information, in an AR (Augmented Reality) system which displays the attribute information corresponding to the object in the taken image by making a composite image.SOLUTION: There is provided a display control device which comprises: identifier acquisition means for acquiring an identifier of another device; information acquisition means for acquiring information associated with the identifier; detection means for detecting an object corresponding to the identifier acquired by the identifier acquisition means from a taken image; and selection means for selecting information to be displayed according to the information, which is acquired by the information acquisition means and corresponds to the object detected by the detection means, and an area of the object in the taken image.

Description

本発明は、撮像画像中のオブジェクトの情報を表示させる表示制御装置に関する。   The present invention relates to a display control apparatus that displays information about an object in a captured image.

近年、カメラ等で撮影した撮像画像に、撮像画像中の物体の属性情報を、付加、合成して表示する拡張現実(AR:Augmented Reality)技術がある。例えば、GPS(Global Positioning System)による位置情報に基づいて、撮像画像中の物体の属性情報を合成して、表示する技術がある。   In recent years, there is an augmented reality (AR) technology in which attribute information of an object in a captured image is added to and synthesized by a captured image captured by a camera or the like. For example, there is a technique for synthesizing and displaying attribute information of an object in a captured image based on position information obtained by GPS (Global Positioning System).

また、被写体人物が有する携帯端末から取得した識別に用いる特徴情報に基づいて、撮影画像中の被写体人物を特定し、特定した人物の属性情報をサーバから取得して、撮像画像中の特定した被写体の近傍に情報を表示する技術が提案されている(特許文献1)。   Further, based on the feature information used for identification acquired from the mobile terminal of the subject person, the subject person in the captured image is specified, the attribute information of the specified person is acquired from the server, and the specified subject in the captured image is acquired. A technique for displaying information in the vicinity of the above has been proposed (Patent Document 1).

また、画像中の各被写体のカメラまでの距離情報に応じて、各被写体に対応付けて表示するグラフィック情報の表示に視覚的な優劣関係を付ける技術がある。特許文献2では、例えば、ある人物に対応づけて表示するグラフィック情報を、他の人物が前方にいる場合は、当該他の人物に重ならないように表示する。一方、ある人物に対応づけて表示するグラフィック情報を、他の人物が後方にいる場合は、当該他の人物及び当該他の人物に対応付けて表示するグラフィック情報に重なるように表示する。   In addition, there is a technique for giving a visual superiority or inferiority relationship to the display of graphic information displayed in association with each subject in accordance with distance information to the camera of each subject in the image. In Patent Document 2, for example, graphic information displayed in association with a certain person is displayed so as not to overlap with the other person when the other person is in front. On the other hand, the graphic information displayed in association with a certain person is displayed so as to overlap the graphic information displayed in association with the other person and the other person when the other person is behind.

特開2002−305717JP 2002-305717 A 特開2009−230431JP2009-230431A

このような拡張現実システムにおいて被写体の近傍に被写体に関連した属性情報を被写体と対応づけて表示することが望まれている。すなわち、撮影画像中に様々な被写体が含まれている場合でも、被写体に関連するそれぞれの属性情報が、どの被写体の情報であるのかユーザがわかるような形で表示することが望ましい。したがって、画像中の属性情報の表示位置の制御を行う必要がある。図11に属性情報の表示で他の被写体を隠してしまう例を示す。図11に示すように属性情報の表示位置を考慮しないと属性情報を表示している被写体を識別できなくなってしまう可能性がある。   In such an augmented reality system, it is desired to display attribute information related to the subject in association with the subject in the vicinity of the subject. That is, even when various subjects are included in the photographed image, it is desirable to display in a form that allows the user to know which subject information each attribute information related to the subject is. Therefore, it is necessary to control the display position of the attribute information in the image. FIG. 11 shows an example in which other subjects are hidden by displaying attribute information. As shown in FIG. 11, if the display position of the attribute information is not taken into consideration, there is a possibility that the subject displaying the attribute information cannot be identified.

また、画像中に属性情報を表示すべき被写体がたくさん存在する場合などは、属性情報の表示位置を他の被写体の顔領域を避けて表示したとしても、限られた撮像画像上に全ての属性情報を表示することができなくなることも考えられる。したがって、属性情報と被写体を対応づけて表示するための十分な領域があるかを鑑みて、ユーザにとって有益な属性情報を優先的に表示する表示制御が望まれる。   In addition, when there are many subjects for which attribute information is to be displayed in the image, even if the display position of the attribute information is displayed avoiding the face area of other subjects, all the attributes are displayed on the limited captured image. It is also possible that information cannot be displayed. Therefore, in view of whether there is a sufficient area for displaying the attribute information and the subject in association with each other, display control that preferentially displays attribute information useful for the user is desired.

上述した従来技術の特許文献1は、属性情報の表示位置や表示する情報を選択することに関しては考慮していない。また、特許文献2では、画像中の各被写体のカメラまでの距離情報に応じて、優劣関係を決定しているが、画像中に属性情報を表示すべき被写体がたくさん存在する場合や情報の内容に応じた表示の優劣に関しては考慮していない。   The above-described conventional patent document 1 does not consider the display position of attribute information and the selection of information to be displayed. In Patent Document 2, the superiority or inferiority relationship is determined according to the distance information to the camera of each subject in the image. However, when there are many subjects for which attribute information is to be displayed in the image, or the contents of the information It does not consider the superiority or inferiority of the display according to the.

本発明は、上述の課題に鑑みて、なされた発明であり、撮像画像中の検出されたオブジェクトの領域と該オブジェクトに関連する情報の内容に応じて、撮像画像中に表示する情報を制御することを目的とする。   The present invention has been made in view of the above-described problems, and controls information displayed in a captured image in accordance with the area of the detected object in the captured image and the content of information related to the object. For the purpose.

上述の課題を解決するための手段として、撮像画像を表示させる表示制御装置であって、他の装置の識別子を取得する識別子取得手段と、前記識別子と関連付けられた情報をから取得する情報取得手段と、前記識別子取得手段が取得した識別子に対応するオブジェクトを前記撮像画像から検出する検出手段と、前記検出手段が検出したオブジェクトに対応する前記情報取得手段が取得した情報と前記検出手段が検出した前記撮像画像上のオブジェクトの領域に応じて、表示する前記情報を選択する選択手段とを有することを特徴とする表示制御装置を提供することを目的とする。   As means for solving the above-mentioned problems, there is a display control apparatus for displaying a captured image, an identifier acquisition means for acquiring an identifier of another apparatus, and an information acquisition means for acquiring information associated with the identifier Detection means for detecting an object corresponding to the identifier acquired by the identifier acquisition means from the captured image, information acquired by the information acquisition means corresponding to the object detected by the detection means, and detection by the detection means It is an object of the present invention to provide a display control apparatus comprising selection means for selecting the information to be displayed in accordance with an object area on the captured image.

本発明によれば、情報と撮像画像上のオブジェクト領域に応じて、情報を選択して表示できる。したがって、例えば、全ての属性情報と対応するオブジェクトとを関連付けて表示できない場合は、ユーザが所望とすると考えられる情報と該情報に対応するオブジェクトを優先的に表示させることができる。   According to the present invention, information can be selected and displayed according to the information and the object area on the captured image. Therefore, for example, when all the attribute information and the corresponding object cannot be displayed in association with each other, it is possible to preferentially display the information considered to be desired by the user and the object corresponding to the information.

本実施例に係るシステム構成図である。1 is a system configuration diagram according to the present embodiment. 画像表示装置101のモジュール構成図である。2 is a module configuration diagram of the image display apparatus 101. FIG. 情報管理サーバ102のモジュール構成図である。2 is a module configuration diagram of an information management server 102. FIG. 無線タグ103a〜cのモジュール構成図である。It is a module block diagram of wireless tag 103a-c. 画像表示処理を示すフローチャートである。It is a flowchart which shows an image display process. 情報の種別の変更時の処理を示すフローチャートである。It is a flowchart which shows the process at the time of change of the classification of information. 画像表示装置101、情報管理サーバ102、無線タグ103a〜cのシーケンスを示す図である。It is a figure which shows the sequence of the image display apparatus 101, the information management server 102, and wireless tag 103a-c. 画像表示装置101が属性情報を表示する際の様子を示した図である。It is the figure which showed the mode at the time of the image display apparatus 101 displaying attribute information. 画像表示装置101が全ての属性情報を表示できない際の様子の一例を示した図である。It is the figure which showed an example of the mode when the image display apparatus 101 cannot display all the attribute information. 属性表示装置101が属性情報同士が重なる場合の例を示した図である。It is the figure which showed the example in case attribute information overlaps with the attribute display apparatus 101. FIG. 表示する属性情報で他の表示する属性情報に対応するオブジェクトを隠した際の表示の様子を示した図である。It is the figure which showed the mode of the display when the object corresponding to the other attribute information to display with the attribute information to display was hidden. 無線タグ103a〜103cが保持する属性情報の一例である。It is an example of attribute information held by the wireless tags 103a to 103c. 画像表示装置101が属性情報を表示する際の様子の他の一例を示した図である。It is the figure which showed another example of the mode at the time of the image display apparatus 101 displaying attribute information. 情報の種別の変更時の属性情報を表示する際の様子の一例を示した図である。It is the figure which showed an example of the mode at the time of displaying the attribute information at the time of the change of the classification of information.

[実施例1]
以下、本実施例について、図面を参照して詳細に説明する。図1は、本実施例に係るシステム構成を示した図である。100は、ネットワークである。本実施例におけるネットワーク100は、インターネット、WAN (Wide Area Network)、LAN (Local Area Network)など各種ネットワーク及びそれらの複合であってよい。101は、画像表示装置である。画像表示装置101は、他の端末装置(無線タグ)から受信した該端末装置を一意に識別可能な識別子に関連付けられた属性情報を情報管理サーバ102から取得し、取得した属性情報と撮像画像とを合成して表示部に表示させる表示制御装置である。また、画像表示装置101は、撮像した画像中のオブジェクトの属性情報と該撮像した画像上のオブジェクトとを関連付けて表示部に合成して表示させる。したがって、画像表示装置101の表示画面に重畳して例えば端末装置(無線タグ)の所有者に関する情報を表示することができるので、ユーザは容易に撮像画像のオブジェクトに関する情報を取得することが可能となる。また、撮像画像中のオブジェクトに関連付けて情報を表示するので、どのオブジェクトがどのような情報を発しているかを容易に識別することが可能となる。
[Example 1]
Hereinafter, the present embodiment will be described in detail with reference to the drawings. FIG. 1 is a diagram illustrating a system configuration according to the present embodiment. Reference numeral 100 denotes a network. The network 100 according to the present embodiment may be various networks such as the Internet, a WAN (Wide Area Network), a LAN (Local Area Network), and a combination thereof. Reference numeral 101 denotes an image display device. The image display apparatus 101 acquires attribute information associated with an identifier uniquely identifying the terminal apparatus received from another terminal apparatus (wireless tag) from the information management server 102, and acquires the acquired attribute information, captured image, Is a display control device that synthesizes and displays them on the display unit. Further, the image display device 101 associates the attribute information of the object in the captured image with the object on the captured image and displays the combined information on the display unit. Accordingly, for example, information related to the owner of the terminal device (wireless tag) can be displayed superimposed on the display screen of the image display device 101, so that the user can easily acquire information related to the object of the captured image. Become. Further, since information is displayed in association with the object in the captured image, it is possible to easily identify which object emits what information.

102は、情報管理サーバである。情報管理サーバ102はネットワーク100を介して、画像表示装置101から端末装置(無線タグ)の識別情報を含んだ問い合わせを受信すると、保持する受信した識別情報に対応付けられた属性情報を画像表示装置101に送信する。また、情報管理サーバ102は、受信した識別情報に対応付けられたオブジェクトを撮像画像から検出して、特定するための特徴情報をデータベースにから取得し、画像表示装置101に送信する。なお、本実施例において、画像処理によるオブジェクト特定処理を行うためのリファレンス画像を特徴情報とする。なお、特徴情報としては、画像データに限られず、オブジェクト特定処理に用いるに任意の特徴情報であってよい。また、本実施例において無線タグ103の所有者である人物をオブジェクトとして検出するとする。また、情報管理サーバ102は画像表示装置によって実際に表示された属性情報と該属性情報に対応する識別子を関連付けてその表示回数を、画像表示装置とのメッセージの送受信に基づいて管理する。   Reference numeral 102 denotes an information management server. When the information management server 102 receives an inquiry including the identification information of the terminal device (wireless tag) from the image display device 101 via the network 100, the information management server 102 displays the attribute information associated with the received identification information held by the image display device. 101. Further, the information management server 102 detects an object associated with the received identification information from the captured image, acquires feature information for specifying from the database, and transmits the feature information to the image display apparatus 101. In this embodiment, a reference image for performing object specifying processing by image processing is used as feature information. Note that the feature information is not limited to image data, and may be arbitrary feature information used for object specifying processing. In this embodiment, it is assumed that a person who is the owner of the wireless tag 103 is detected as an object. In addition, the information management server 102 associates attribute information actually displayed by the image display device with an identifier corresponding to the attribute information, and manages the display count based on transmission / reception of messages with the image display device.

103は、無線タグである。無線タグ103a〜cは、被写体(人、建物など)が保持しており、無線タグ103それぞれに別々の識別子が付与されている。無線タグ103a〜cは、定期的あるいは他端末の要求に応じて端末を一意に識別可能な識別子を識別情報として発信する端末装置である。無線タグ103a〜cは、既知の無線方式(無線LAN、ミリ波、RFIDなど)を用いて、画像表示装置101からの識別子の要求に応じて識別子を送信する。   Reference numeral 103 denotes a wireless tag. The wireless tags 103a to 103c are held by subjects (people, buildings, etc.), and different identifiers are assigned to the wireless tags 103, respectively. The wireless tags 103a to 103c are terminal devices that transmit, as identification information, an identifier that can uniquely identify a terminal periodically or in response to a request from another terminal. The wireless tags 103a to 103c transmit identifiers in response to an identifier request from the image display apparatus 101 using a known wireless method (wireless LAN, millimeter wave, RFID, or the like).

続いて、画像表示装置101の構成を図2を用いて説明を行う。なお、画像表示装置101は、CPU(Central Processing Unit)を有する。後述する各構成は、CPUが制御プログラムを実行し、各ハードウェアの制御または情報の演算や加工、を行うことで実現される。また、各構成もしくは一部をハードウェアで構成してよい。図2において、200は、各モジュールを接続するバスである。201は、レンズ、撮像素子、A/D変換により構成され、レンズを介して取得した被写体光を撮像し、撮像した被写体光を画像データとして生成する撮影部である。202は、液晶パネルなどのディスプレイに撮像画像や各種情報を表示させる表示制御を行う表示部である。203は、後述するRF部212、TCP/IP処理部211を制御することにより、通信可能な範囲に存在する無線タグ103の識別子を取得する識別子取得部である。204は、後述する送受信部206を制御することにより、識別子取得部203により取得した識別子をもとにして情報管理サーバ102に問い合わせを行い、識別子に関連付けられた特徴情報を情報管理サーバ102から取得する特徴情報取得部である。205は、識別子取得部203が取得した識別子をもとにして情報管理サーバ102に問い合わせを行い、識別子に関連付けられた属性情報をサーバ111から取得する。属性情報は、本実施例において無線タグの所有者に関する情報であり、たとえば、属性情報には無線タグの所有者のプロフィールや興味対象などが含まれる。なお、属性情報は対応するオブジェクトに関連した情報であれば良く、プロフィールや興味対象のみに限るものではない。   Next, the configuration of the image display apparatus 101 will be described with reference to FIG. The image display apparatus 101 has a CPU (Central Processing Unit). Each configuration to be described later is realized by the CPU executing a control program and controlling each hardware or calculating and processing information. Each configuration or part of the configuration may be configured by hardware. In FIG. 2, reference numeral 200 denotes a bus for connecting the modules. An imaging unit 201 includes a lens, an image sensor, and A / D conversion, captures subject light acquired through the lens, and generates the captured subject light as image data. A display unit 202 performs display control for displaying a captured image and various types of information on a display such as a liquid crystal panel. An identifier acquisition unit 203 acquires an identifier of the wireless tag 103 existing in a communicable range by controlling an RF unit 212 and a TCP / IP processing unit 211 described later. 204 controls the transmission / reception unit 206 (to be described later) to inquire the information management server 102 based on the identifier acquired by the identifier acquisition unit 203 and acquire the feature information associated with the identifier from the information management server 102. A feature information acquisition unit. 205 makes an inquiry to the information management server 102 based on the identifier acquired by the identifier acquisition unit 203 and acquires attribute information associated with the identifier from the server 111. The attribute information is information relating to the owner of the wireless tag in the present embodiment. For example, the attribute information includes the profile of the owner of the wireless tag, the object of interest, and the like. The attribute information may be information related to the corresponding object, and is not limited to the profile or the object of interest.

206は、情報管理サーバ102とのメッセージの送受信を行うための送受信部である。207は、画像データと該画像データ上の検出部210により検出されたオブジェクトの近傍に、対応する属性情報とオブジェクトとを関連付けて合成し、合成画像データを作成する合成部である。209は、取得した属性情報がユーザが所望とする情報かを判定し、複数の属性情報それぞれに表示すべきかの優劣を示す優先度を決定する決定部である。210は、特徴情報取得部204により得られた特徴情報をもとに撮影部201により撮像された画像データ上から、所定のオブジェクトを検出するためのハードウェア乃至はプログラムである。なお、本実施例においては、検出部210は公知の顔認識処理を行い、特徴情報取得部204が取得した特徴情報に対応するオブジェクトを撮像画像上から検出する。   Reference numeral 206 denotes a transmission / reception unit for transmitting / receiving a message to / from the information management server 102. Reference numeral 207 denotes a synthesis unit that creates synthesized image data by associating corresponding attribute information with an object in the vicinity of the image data and the object detected by the detection unit 210 on the image data. Reference numeral 209 denotes a determination unit that determines whether the acquired attribute information is information desired by the user and determines a priority indicating whether the attribute information should be displayed on each of the plurality of attribute information. Reference numeral 210 denotes hardware or a program for detecting a predetermined object from image data captured by the imaging unit 201 based on the feature information obtained by the feature information acquisition unit 204. In this embodiment, the detection unit 210 performs known face recognition processing, and detects an object corresponding to the feature information acquired by the feature information acquisition unit 204 from the captured image.

208は、取得した各属性情報の決定部209により決定した優先度と検出部210が検出した撮像画像上の各オブジェクトの領域に応じて、各属性情報を表示させるか否かを判定する判定部である。また、判定部208は、検出部210が検出した画像中の各オブジェクトの領域に応じて、撮像画像中の属性情報を重畳して表示させない非表示領域を判定し、各属性情報の表示位置を決定する。211は、通信プロトコルの処理を行うTCP/IP処理部である。212は、所定の無線方式(例えば、無線LAN、ミリ波、RFIDなど)で無線タグ103との間で無線信号の送受信を行うためのアンテナや回路の制御を行うRF部である。   A determination unit 208 determines whether to display each attribute information according to the priority determined by the acquired attribute information determination unit 209 and the area of each object on the captured image detected by the detection unit 210. It is. Further, the determination unit 208 determines a non-display area in which the attribute information in the captured image is not superimposed and displayed according to the area of each object in the image detected by the detection unit 210, and determines the display position of each attribute information. decide. A TCP / IP processing unit 211 performs communication protocol processing. Reference numeral 212 denotes an RF unit that controls an antenna and a circuit for transmitting and receiving a wireless signal to and from the wireless tag 103 by a predetermined wireless method (for example, wireless LAN, millimeter wave, RFID, etc.).

続いて、情報管理サーバ102の機能構成を図3に示す。なお、情報管理サーバ102は、CPU(Central Processing Unit)を有する。後述する各構成は、CPUが制御プログラムを実行し、各ハードウェアの制御または情報の演算や加工を行うことで実現される。また、各構成もしくは一部をハードウェアで構成してよい。図3において、300は、各モジュールを接続するバスである。301は、無線タグ103夫々の識別子に対応付けられたオブジェクトを撮像画像から検出して、特定するための特徴情報を保持する特徴情報保持部である。302は、被写体に付与された無線タグ103夫々の識別子に対応付けられた属性情報を保持する属性情報保持部である。303は、画像表示装置101とのメッセージの送受信を行う送受信部である。送受信部303は、画像表示装置101からの装置の識別子を含んだ要求の受信に応じて、該識別子に対応する属性情報、特徴情報を含むメッセージを画像表示装置101に送信する。304は、通信プロトコル処理を行うTCP/IP処理部である。   Next, the functional configuration of the information management server 102 is shown in FIG. The information management server 102 has a CPU (Central Processing Unit). Each configuration to be described later is realized by the CPU executing a control program to control each hardware or perform calculation or processing of information. Each configuration or part of the configuration may be configured by hardware. In FIG. 3, reference numeral 300 denotes a bus for connecting the modules. A feature information holding unit 301 holds feature information for detecting and identifying an object associated with each identifier of the wireless tag 103 from the captured image. Reference numeral 302 denotes an attribute information holding unit that holds attribute information associated with each identifier of the wireless tag 103 attached to the subject. A transmission / reception unit 303 transmits / receives a message to / from the image display apparatus 101. In response to receiving a request including an apparatus identifier from the image display apparatus 101, the transmission / reception unit 303 transmits a message including attribute information and feature information corresponding to the identifier to the image display apparatus 101. A TCP / IP processing unit 304 performs communication protocol processing.

次に、無線タグ103のモジュール構成を図4を用いて説明する。401は、所定の無線方法(無線LAN、ミリ波、RFIDなど)で画像表示装置101との間で無線信号の送受信を行うためのアンテナや回路の制御を行うRF部である。402は、RF部401を制御することで、保持している識別子を定期的あるいは他装置からの要求に応じて送信する識別子情報発信部である。識別子は、たとえば、IEEE802.11に則ったビーコン・フレームのInformation Elementの一要素として付与され、送信される。   Next, the module configuration of the wireless tag 103 will be described with reference to FIG. Reference numeral 401 denotes an RF unit that controls an antenna and a circuit for transmitting and receiving a wireless signal to and from the image display apparatus 101 using a predetermined wireless method (wireless LAN, millimeter wave, RFID, or the like). Reference numeral 402 denotes an identifier information transmission unit that controls the RF unit 401 to transmit a held identifier periodically or in response to a request from another device. The identifier is given and transmitted as an element of an Information Element of a beacon frame conforming to IEEE 802.11, for example.

続いて、以上の構成からなるシステムの動作を説明する。まず、画像表示装置101における画像表示時の処理を図5のフローチャートを用いて説明する。画像表示装置101は、画像表示処理を開始すると、識別子取得部203がRF部212を通じて、通信可能な範囲に存在する装置(無線タグ103a〜c)に対して、識別子要求メッセージ送信する。そして、それぞれの無線タグは該要求の応答として自身のタグID(識別子)を含んだメッセージを返信する。識別子取得部203は、応答を受信し、タグID取得する(ステップS501)。続いて、特徴情報取得部204は、取得したタグIDを含めて、情報管理サーバ102に特徴情報取得要求を送信する。特徴情報取得部204は、情報管理サーバ102からタグIDに対応する特徴情報を取得する。また、属性情報取得部205は、同様に情報管理サーバ102からタグIDに対応する属性情報を取得する(ステップS502)。   Next, the operation of the system having the above configuration will be described. First, processing at the time of image display in the image display apparatus 101 will be described with reference to the flowchart of FIG. When the image display device 101 starts the image display process, the identifier acquisition unit 203 transmits an identifier request message to the devices (wireless tags 103a to 103c) existing in a communicable range through the RF unit 212. Each wireless tag returns a message including its own tag ID (identifier) as a response to the request. The identifier acquisition unit 203 receives the response and acquires a tag ID (step S501). Subsequently, the feature information acquisition unit 204 transmits a feature information acquisition request to the information management server 102 including the acquired tag ID. The feature information acquisition unit 204 acquires feature information corresponding to the tag ID from the information management server 102. Similarly, the attribute information acquisition unit 205 acquires attribute information corresponding to the tag ID from the information management server 102 (step S502).

なお、本実施形態では、情報管理サーバ102から特徴情報および属性情報を取得したが、これに限らず、画像表示装置101内に保持しておいても良いし、以前に取得した情報を再利用しても良い。また、画像表示装置101の特徴情報取得部204および属性情報取得部205は、情報管理サーバ102を介さず無線タグ103から直接特徴情報および属性情報を取得しても良い。次に、検出部210は、撮影部201で撮影された画像から取得した特徴情報を用いて解析し、取得した識別子に対応するオブジェクト(被写体)の検出および識別を行う(ステップS503)。本実施形態では、画像表示装置101内で解析を行ったが、これに限らず、情報管理サーバ102をはじめとする外部装置に解析を依頼することでも実現できる。   In this embodiment, the feature information and the attribute information are acquired from the information management server 102. However, the present invention is not limited to this, and the information may be stored in the image display apparatus 101, and previously acquired information is reused. You may do it. In addition, the feature information acquisition unit 204 and the attribute information acquisition unit 205 of the image display apparatus 101 may acquire the feature information and attribute information directly from the wireless tag 103 without using the information management server 102. Next, the detection unit 210 performs analysis using the feature information acquired from the image captured by the imaging unit 201, and detects and identifies an object (subject) corresponding to the acquired identifier (step S503). In this embodiment, the analysis is performed in the image display apparatus 101. However, the present invention is not limited to this, and it can be realized by requesting an analysis from an external apparatus such as the information management server 102.

決定部209は、取得した属性情報がユーザが所望とする情報かを判定し、複数の属性情報それぞれに表示すべきかの優劣を示す優先度を決定する(ステップS504)。なお、本実施例において、画像表示装置101は、ユーザ所望の情報の種別を設定すること出来る。情報の種別として、例えば、ファッションに関する情報を表示するモード、飲食物に関する情報を表示するモード、趣味に関する情報を表示するモード等あるとする。システムは複数の情報の種別の候補を予め用意しておき、ユーザはそれらの候補の情報の種別から自分が閲覧したい所望とする情報に関する種別を画像表示装置101が提供するUIから選択することができる。また、情報の種別は階層構造化していても良い。例えば、「飲食物に関する情報を表示するモード」を選択して、更に「ケーキに関する情報を表示するモード」、「寿司に関する情報を表示するモード」、「パスタに関する情報を表示するモード」等より具体的な情報の種別を具体化するように構成されていてよい。   The determination unit 209 determines whether the acquired attribute information is information desired by the user, and determines a priority indicating whether the attribute information should be displayed on each of the plurality of attribute information (step S504). In this embodiment, the image display apparatus 101 can set the type of information desired by the user. As information types, for example, it is assumed that there are a mode for displaying information about fashion, a mode for displaying information about food and drink, a mode for displaying information about hobbies, and the like. The system prepares a plurality of information type candidates in advance, and the user can select from the UI provided by the image display apparatus 101 the type related to the information he / she wants to browse from the information types of the candidates. it can. The type of information may be a hierarchical structure. For example, select “Mode for displaying information about food and drink”, and more specifically “Mode for displaying information about cake”, “Mode for displaying information about sushi”, “Mode for displaying information about pasta”, etc. It may be configured to embody the type of typical information.

ここで、ユーザの指定により画像表示装置101が、「飲食店」の「ケーキ」を探索するモードであるとする。図12は、無線タグ103a〜103cが保持する属性情報の一例を示す図である。無線タグ103aは、識別子に対応付けられた属性情報として、「飲食店」カテゴリに「鈴木ケーキ店:50」(数字「50」は他の画像表示装置により閲覧された数である)の情報を持つ。無線タグ103bは、「飲食店」カテゴリに「佐々木ケーキ:15」の情報を持つ。無線タグ103cは、「飲食店」カテゴリに「ケーキ横山:95」の情報を持つ。   Here, it is assumed that the image display apparatus 101 is in a mode for searching for “cake” of “restaurant” according to the user's specification. FIG. 12 is a diagram illustrating an example of attribute information held by the wireless tags 103a to 103c. The wireless tag 103a includes, as attribute information associated with the identifier, information of “Suzuki cake shop: 50” (number “50” is the number viewed by another image display device) in the “restaurant” category. Have. The wireless tag 103b has information of “Sasaki cake: 15” in the “restaurant” category. The wireless tag 103c has information of “cake Yokoyama: 95” in the “restaurant” category.

決定部209は、取得した属性情報がユーザが所望とする情報かを判定するために、設定した情報の種別に対応する情報が属性情報に含まれているかの判定を行う。また、設定した情報の種別に対応する情報が属性情報に含まれているかの判定及び属性情報の内容に応じて、属性情報夫々に優先度を決定する。ここで、決定部209は、閲覧数が多い情報の種別に関連する情報をよりユーザに提示すべき有用な情報とし判断を行い、より優先度を高める。したがって、ここで無線タグ103a〜103cの識別子に対応する属性情報が図12に示す属性情報であるとすると、全てにユーザ所望の「ケーキ」に関連する情報が存在する。続いて、決定部209はユーザが所望とする情報であると判定された属性情報の閲覧数を取得し、閲覧数が多い属性情報に決定部209は、ここでは、無線タグ103c、無線タグ103a、無線タグ103bの順で優先度を割り振る。なお、ユーザ所望の情報を有していない属性情報の場合、ユーザ所望の情報を有している属性情報より優先度を下げる構成とする。   The determination unit 209 determines whether the attribute information includes information corresponding to the set type of information in order to determine whether the acquired attribute information is information desired by the user. In addition, the priority is determined for each attribute information according to the determination whether the information corresponding to the set type of information is included in the attribute information and the content of the attribute information. Here, the determination unit 209 determines that information related to the type of information having a large number of browsing is useful information to be presented to the user, and further increases the priority. Therefore, assuming that the attribute information corresponding to the identifiers of the wireless tags 103a to 103c is the attribute information shown in FIG. 12, all the information related to the user-desired “cake” exists. Subsequently, the determination unit 209 obtains the number of viewings of the attribute information determined to be information desired by the user, and the determination unit 209 determines that the attribute information has a large number of viewings, in this case, the wireless tag 103c and the wireless tag 103a. The priority is assigned in the order of the wireless tag 103b. In the case of attribute information that does not have user-desired information, the priority is set lower than attribute information that has user-desired information.

続いて、判定部208は、検出部210により検出されたオブジェクトの領域に基づいて、撮像画像中の属性情報を表示させない非表示領域を決定する(ステップS505)。ここで、判定部208は、撮像画像中の検出されたオブジェクトに対応する領域を非表示領域として初期設定する。判定部208は、画像の全体の領域から検出部210により検出されたオブジェクトの領域の和を引いた面積を計算し、該面積を検出した被写体数で割り、1つの被写体に対する属性情報の表示領域(非表示領域でない属性情報を表示できる領域)の面積を計算する。続いて、判定部208は、優先度及び検出された被写体の領域に応じて表示する属性情報を判定する(ステップS506)。ここで、判定部208は、次式により表示する属性情報の数である属性情報表示数(n)を決定する。   Subsequently, the determination unit 208 determines a non-display region in which attribute information in the captured image is not displayed based on the object region detected by the detection unit 210 (step S505). Here, the determination unit 208 initially sets a region corresponding to the detected object in the captured image as a non-display region. The determination unit 208 calculates an area obtained by subtracting the sum of the object regions detected by the detection unit 210 from the entire region of the image, and divides the area by the number of detected subjects to display the attribute information display region for one subject The area of (area that can display attribute information that is not a non-display area) is calculated. Subsequently, the determination unit 208 determines the attribute information to be displayed according to the priority and the detected subject area (step S506). Here, the determination unit 208 determines the attribute information display number (n) that is the number of attribute information to be displayed by the following equation.

Figure 2013080394
Figure 2013080394

ここで、aは画像全体の領域の面積、iは各属性情報の優先度の順位、biは各属性情報に対応する被写体の領域の面積、nは属性情報表示数、xは1つあたりの属性情報を表示するのに必要な領域である一定値とする。判定部208は(1)式に示される数式を満たす最大のnを求めることにより表示する属性情報の数を判定する。例えば、1つの被写体に対する表示領域が属性情報を表示可能な一定値x以上である場合、検出部210により検出された全ての被写体に対応する属性情報を表示すると判定する。また、1つの被写体に対する表示領域が一定値x以下である場合、1つの被写体に対する表示領域が一定値以上になる被写体数を計算し、属性情報表示数(n)とする。つまり、判定部208は、全ての属性情報を表示できないと判断した場合、優先度が高い属性情報を優先的に表示させるため優先度が低い属性情報を表示しないと判定する。また、判定部208は、表示させない属性情報に対応する被写体の画像中の領域を、属性情報を表示可能な表示領域とすることを判定する。以上の処理によって、判定部208は、属性情報表示数を決定する(ステップS506)。たとえば、画像の全体の領域が100、検出された被写体の領域の和が49、一定値xが25であるとすると、最大の属性情報表示数は2である。このように、属性情報表示数を決定できる。   Here, a is the area of the entire image area, i is the priority order of each attribute information, bi is the area of the subject area corresponding to each attribute information, n is the number of attribute information displays, and x is the number per attribute information. A constant value that is an area necessary for displaying attribute information is set. The determination unit 208 determines the number of pieces of attribute information to be displayed by obtaining the maximum n that satisfies the mathematical expression represented by the expression (1). For example, when the display area for one subject is equal to or greater than a certain value x that can display attribute information, it is determined that attribute information corresponding to all the subjects detected by the detection unit 210 is displayed. When the display area for one subject is less than or equal to a certain value x, the number of subjects for which the display area for one subject is greater than or equal to a certain value is calculated and set as the attribute information display number (n). In other words, when determining that all the attribute information cannot be displayed, the determination unit 208 determines that attribute information with a low priority is not displayed in order to preferentially display attribute information with a high priority. Further, the determination unit 208 determines that an area in the image of the subject corresponding to the attribute information that is not displayed is a display area in which the attribute information can be displayed. Through the above processing, the determination unit 208 determines the number of attribute information displays (step S506). For example, if the total area of the image is 100, the sum of the areas of the detected subject is 49, and the constant value x is 25, the maximum number of attribute information displays is 2. In this way, the number of attribute information displays can be determined.

続いて、判定部208は、表示する属性情報に対応する被写体の領域を非表示領域と再設定を行う(ステップS507)。換言すると、判定部208は、S505により設定した非表示領域から表示しない属性情報に対応する被写体の領域を表示領域とするよう設定を変更する。画像表示装置101は、優先度の順番を示す処理用変数aを定義し、その初期値をa=1と設定する(ステップS507)。画像表示装置101は、n ≧ aの真偽の判定により表示すべき全ての属性情報の表示が終了したかを判定する(ステップS509)。画像表示装置101は、n ≧ aが真であると判断すると、ステップS510に進む。画像表示装置101は、n ≧ aが偽であると判断すると、処理を終了する。   Subsequently, the determination unit 208 resets the area of the subject corresponding to the attribute information to be displayed as a non-display area (step S507). In other words, the determination unit 208 changes the setting so that the area of the subject corresponding to the attribute information not displayed from the non-display area set in S505 is set as the display area. The image display apparatus 101 defines a processing variable a indicating the order of priority, and sets its initial value as a = 1 (step S507). The image display apparatus 101 determines whether or not the display of all attribute information to be displayed has been completed by determining whether or not n ≧ a is true (step S509). If the image display apparatus 101 determines that n ≧ a is true, the process proceeds to step S510. If the image display apparatus 101 determines that n ≧ a is false, the image display apparatus 101 ends the process.

判定部208は、優先度a番目の属性情報を表示する領域を決定する(ステップS510)。ここで、属性情報を表示する領域としては、該属性情報に対応する被写体の画像中の領域の近傍(被写体の領域から所定の距離以内)の表示領域内にすることが好ましい。合成部207は、決定された領域に属性情報を合成して、表示させる(ステップS511)。   The determination unit 208 determines an area for displaying the a-th priority attribute information (step S510). Here, the area for displaying the attribute information is preferably in the display area in the vicinity of the area in the subject image corresponding to the attribute information (within a predetermined distance from the subject area). The synthesizing unit 207 synthesizes the attribute information with the determined area and displays it (step S511).

判定部208は、ステップS511により表示された属性情報を表示する撮像画像中の領域を非表示領域に追加する。(ステップS511)。画像表示装置101は、a = a + 1の処理を行い、処理対象とする属性情報の優先度の順番を一つ繰り下げる(ステップS513)。画像表示装置101は、表示すべき全ての属性情報の表示が完了するまでS509〜S513の処理を繰り返す。   The determination unit 208 adds an area in the captured image that displays the attribute information displayed in step S511 to the non-display area. (Step S511). The image display apparatus 101 performs the process of a = a + 1 and lowers the priority order of the attribute information to be processed by one (step S513). The image display apparatus 101 repeats the processing of S509 to S513 until display of all the attribute information to be displayed is completed.

続いて、画像表示装置101においてユーザ指示に基づいて設定した情報の種別を変更時の処理を図6に示すフローチャートを用いて説明を行う。画像表示装置101は、モードの変更を検出する(ステップS601)。たとえば、ユーザまたはシステムが、お勧めの飲食店を優先的に表示するモードを、好きな音楽を優先的に表示するモードに変更する。その他のモードとしては、人物の属性情報を優先的に閲覧する人物モードや建物の属性情報を優先的に閲覧する建物モードがある。これらを実行することで、ユーザ所望の情報を他の被写体やユーザ所望でない他の情報に邪魔されることなく属性情報を表示することができる。   Next, processing when changing the type of information set based on a user instruction in the image display apparatus 101 will be described with reference to the flowchart shown in FIG. The image display apparatus 101 detects a mode change (step S601). For example, the user or the system changes the mode in which recommended restaurants are preferentially displayed to the mode in which favorite music is preferentially displayed. As other modes, there are a person mode for preferentially browsing person attribute information and a building mode for preferentially browsing building attribute information. By executing these, it is possible to display attribute information without disturbing user-desired information by other subjects or other information not desired by the user.

画像表示装置101は、モードが変更されたかの判断を行う(ステップS602)。決定部209が、以前に設定されたモードと同じであり、モードが変更されていないと判断すると、処理を終了する。決定部209が、以前に設定されたモードとは異なるモードに変更されたと判断すると、ステップS603に進む。画像表示装置101は、画像の表示を再実行する。図5に示した画像表示処理を実行する。再実行する前に、合成部207は表示している属性情報を消去を行う。なお、S501〜S503の処理は、既に実行されているので処理を省略しても構わない。   The image display apparatus 101 determines whether the mode has been changed (step S602). If the determination unit 209 determines that the mode is the same as the previously set mode and that the mode has not been changed, the process ends. If the determination unit 209 determines that the mode has been changed to a mode different from the previously set mode, the process proceeds to step S603. The image display device 101 re-executes image display. The image display process shown in FIG. 5 is executed. Before re-execution, the composition unit 207 deletes the displayed attribute information. In addition, since the process of S501-S503 is already performed, you may abbreviate | omit a process.

続いて、図7は、画像表示装置101、情報管理サーバ102、無線タグ103a〜cのシーケンスを示す図である。画像表示装置101の撮影部201は、画像を撮影する(M701)。画像表示装置101のRF部212は、無線タグ103のセンシングを行う(M702)。画像表示装置101の識別子取得部203は、無線タグ103a〜無線タグ103cからそれぞれのタグID(識別子)の取得要求を行う(M703〜M705)。画像表示装置101の識別子取得部203は、無線タグ103a〜無線タグ103cからそれぞれのタグID(識別子)を受信する(M706〜M708)(図5のS501)。   Next, FIG. 7 is a diagram illustrating a sequence of the image display apparatus 101, the information management server 102, and the wireless tags 103a to 103c. The imaging unit 201 of the image display apparatus 101 captures an image (M701). The RF unit 212 of the image display apparatus 101 performs sensing of the wireless tag 103 (M702). The identifier acquisition unit 203 of the image display apparatus 101 makes an acquisition request for each tag ID (identifier) from the wireless tags 103a to 103c (M703 to M705). The identifier acquisition unit 203 of the image display apparatus 101 receives the respective tag IDs (identifiers) from the wireless tags 103a to 103c (M706 to M708) (S501 in FIG. 5).

画像表示装置101の特徴情報取得部204は、情報管理サーバ102に無線タグ103a〜103cのタグID(識別子)を鍵として、それぞれの識別子に対応する特徴情報を要求する。画像表示装置101の属性情報取得部205は、情報管理サーバ102に無線タグ103a〜103cのタグID(識別子)を鍵として、それぞれの識別子に対応する属性情報を要求する(M709)(図5のS502)。本実施例では、要求のメッセージを一つにまとめたが、これに限らず、特徴情報と属性情報をそれぞれ別個に送信してもよいし、タグID(識別子)毎に送信してもよい。また、本実施例では特徴情報と属性情報を保持する情報管理サーバは一つであったが、これに限らず、別々のサーバで管理してもよいし、タグID(識別子)の値によって異なる情報管理サーバに接続してもよい。情報管理サーバ102の送受信部303は、画像表示装置101から特徴情報の要求および属性情報の要求を受信する。特徴情報保持部301は、受信したそれぞれのタグID(識別子)を鍵として、それぞれの関連付けられた特徴情報を検索し、画像表示装置101に送信する。特徴情報保持部301は、それぞれのタグID(識別子)を鍵として、それぞれのタグID(識別子)関連付けられた属性情報を検索し、画像表示装置101に送信する(M710)。本実施例では、特徴情報と属性情報をまとめて送信したが、別々に送信してもよい。   The feature information acquisition unit 204 of the image display apparatus 101 requests the information management server 102 for feature information corresponding to each identifier using the tag IDs (identifiers) of the wireless tags 103a to 103c as keys. The attribute information acquisition unit 205 of the image display apparatus 101 requests the attribute information corresponding to each identifier from the information management server 102 using the tag IDs (identifiers) of the wireless tags 103a to 103c as keys (M709) (FIG. 5). S502). In this embodiment, the request messages are combined into one. However, the present invention is not limited to this, and the feature information and attribute information may be transmitted separately, or may be transmitted for each tag ID (identifier). Further, in the present embodiment, there is one information management server that holds the feature information and the attribute information. However, the information management server is not limited to this. You may connect to an information management server. The transmission / reception unit 303 of the information management server 102 receives a request for feature information and a request for attribute information from the image display apparatus 101. The feature information holding unit 301 searches each associated feature information using each received tag ID (identifier) as a key, and transmits it to the image display apparatus 101. The feature information holding unit 301 searches the attribute information associated with each tag ID (identifier) using each tag ID (identifier) as a key, and transmits the attribute information to the image display apparatus 101 (M710). In this embodiment, the feature information and attribute information are transmitted together, but may be transmitted separately.

画像表示装置101の検出部210は、情報管理サーバから取得した特徴情報に基づいて、撮像画像からオブジェクトの特定を行う(M711)(図5のS503)。オブジェクトの特定が出来なかった場合、関連する属性情報は表示せず、属性情報表示数には含めない。画像表示装置101の決定部209は、特定されたオブジェクトの属性情報の内容と設定されている情報の種別から優先度を決定する(M712、S504)。画像表示装置101の判定部208は、属性情報表示数を決定する(M713、S506)。画像表示装置101の判定部208は、優先度の高い被写体の領域から、ステップS506で決定された属性情報表示数分だけを非表示領域とする(M714、S507)。画像表示装置101の合成部207は、属性情報を撮影した画像と合成する(S508〜S513)。画像表示装置101の表示部202は、合成された画像をディスプレイに表示させる(M715)。   The detection unit 210 of the image display apparatus 101 identifies an object from the captured image based on the feature information acquired from the information management server (M711) (S503 in FIG. 5). If the object cannot be specified, the related attribute information is not displayed and is not included in the attribute information display count. The determination unit 209 of the image display apparatus 101 determines the priority from the content of the attribute information of the identified object and the type of information set (M712, S504). The determination unit 208 of the image display apparatus 101 determines the number of attribute information displays (M713, S506). The determination unit 208 of the image display apparatus 101 sets only the number of attribute information displays determined in step S506 from the high priority subject area as a non-display area (M714, S507). The synthesizing unit 207 of the image display apparatus 101 synthesizes the attribute information with the captured image (S508 to S513). The display unit 202 of the image display apparatus 101 displays the synthesized image on the display (M715).

続いて、属性情報を表示部に表示するための動作を説明するための一例を図8に示す。図8(a)は、撮影部201が取得した属性情報を合成する前の撮像画像である。RF部212および識別子取得部203が、撮像画像中の被写体が有する無線タグ103a〜cを認識する(S501)。なお、無線タグを図示したが、無線タグは撮像画像中に写る必要は無い。図8(b)は、検出部210がタグID(識別子)に関連した特徴情報を用いて画像認識を行い、被写体を検出した様子である。801が検出されたオブジェクトの画像中の領域である。図8(c)は、判定部208が認識された被写体の領域を非表示領域として設定した様子である。802は非表示領域である。図8(d)は、各被写体の属性情報を表示領域に表示した様子である。803は撮像画像に合成されて表示される属性情報である。図8の例では、表示領域が検出されたオブジェクトに対応する属性情報全て表示可能であるため、オブジェクトに対応する属性情報全ての属性情報を表示する。なお、図8において被写体を検出した領域や非表示領域を説明するために領域を図示したが、実際の表示部に図示して表示されるものではない。   Subsequently, an example for explaining an operation for displaying the attribute information on the display unit is shown in FIG. FIG. 8A is a captured image before the attribute information acquired by the imaging unit 201 is combined. The RF unit 212 and the identifier acquisition unit 203 recognize the wireless tags 103a to 103c included in the subject in the captured image (S501). Although the wireless tag is illustrated, the wireless tag does not need to be captured in the captured image. FIG. 8B shows a state where the detection unit 210 performs image recognition using feature information related to a tag ID (identifier) and detects a subject. Reference numeral 801 denotes a region in the image of the detected object. FIG. 8C shows a state where the area of the subject recognized by the determination unit 208 is set as a non-display area. Reference numeral 802 denotes a non-display area. FIG. 8D shows a state where the attribute information of each subject is displayed in the display area. Reference numeral 803 denotes attribute information combined with the captured image and displayed. In the example of FIG. 8, since all attribute information corresponding to the object in which the display area is detected can be displayed, the attribute information of all attribute information corresponding to the object is displayed. In addition, although the area | region was illustrated in order to demonstrate the area | region which detected the object in FIG.

続いて、属性情報を表示部に表示するための動作を説明するための他の一例を図14に示す。図14は、図8に示した無線タグ103a〜cに関連付けられたオブジェクトである人物を含んで構図を変更した際の例である。図14(a)は、撮影部201が取得した属性情報を合成する前の撮像画像である。RF部212および識別子取得部203が、撮像画像中の被写体が有する無線タグ103a〜cを認識する(S501)。図14(b)は、検出部210がタグID(識別子)に関連した特徴情報を用いて画像認識を行い、被写体を検出した様子である(S503)。1401は、検出されたオブジェクトの画像中の領域である。なお、図14(b)において、撮像画像の全領域と検出されたオブジェクトに対応する撮像画像中の領域の総和と差分が、無線タグ103a〜c全ての属性情報を表示するのに十分ではないと判定される。そして、属性情報表示数nは検出したオブジェクト数を下回らなければならないと決定される。ここでは、属性情報表示数が2に決定されたとする(S505)。判定部208は、設定した情報の種別に応じた優先度に応じて、表示する属性情報を判定する(S506)。この例では、無線タグ103bに関連付けられた属性情報が検出された識別子に対応するオブジェクトの属性情報のうち最も優先度が低いものとする。   Next, FIG. 14 shows another example for explaining an operation for displaying the attribute information on the display unit. FIG. 14 is an example when the composition is changed to include a person who is an object associated with the wireless tags 103a to 103c shown in FIG. FIG. 14A shows a captured image before the attribute information acquired by the imaging unit 201 is combined. The RF unit 212 and the identifier acquisition unit 203 recognize the wireless tags 103a to 103c included in the subject in the captured image (S501). FIG. 14B shows a state where the detection unit 210 performs image recognition using feature information related to a tag ID (identifier) and detects a subject (S503). Reference numeral 1401 denotes a region in the image of the detected object. In FIG. 14B, the sum and difference of the entire area of the captured image and the area in the captured image corresponding to the detected object are not sufficient to display the attribute information of all the wireless tags 103a to 103c. It is determined. Then, it is determined that the attribute information display number n must be less than the detected number of objects. Here, it is assumed that the attribute information display number is determined to be 2 (S505). The determination unit 208 determines the attribute information to be displayed according to the priority according to the set type of information (S506). In this example, it is assumed that the priority is the lowest among the attribute information of the object corresponding to the identifier in which the attribute information associated with the wireless tag 103b is detected.

図14(c)は、属性情報表示数(n)に応じて、非表示領域の再設定を行った際の様子である。1402は、非表示領域であり、優先度が高い属性情報に対応するオブジェクトの領域が非表示老域に設定される(S507)。ここでは、無線タグ103aと無線タグ103cに対応するオブジェクトの領域が非表示領域に設定される。一方、優先度が最も低い無線タグ103bに対応するオブジェクトの領域1403は表示領域として設定される。図14(d)は、表示すると判定された属性情報のみ表示領域に表示した様子である。1404は、無線タグ103aに関連付けられた属性情報であり、対応するオブジェクトと関連付けて表示される。また、撮像画像に合成されて表示される属性情報である。1405は、無線タグ103cに関連付けられた属性情報であり、対応するオブジェクトと関連付けて表示される。属性情報1404と属性情報1405は、撮像画像中の表示しない属性情報と判定された無線タグ103bのオブジェクトの領域1403に表示される。なお、図14において被写体を検出した領域や非表示領域を説明するために領域を図示したが、実際の表示部に図示して表示されるものではない。   FIG. 14C shows a state where the non-display area is reset according to the attribute information display count (n). Reference numeral 1402 denotes a non-display area, and an object area corresponding to attribute information having a high priority is set as a non-display old area (S507). Here, the area of the object corresponding to the wireless tag 103a and the wireless tag 103c is set as a non-display area. On the other hand, an object area 1403 corresponding to the wireless tag 103b having the lowest priority is set as a display area. FIG. 14D shows a state in which only attribute information determined to be displayed is displayed in the display area. 1404 is attribute information associated with the wireless tag 103a, and is displayed in association with the corresponding object. Moreover, it is attribute information displayed by being synthesized with the captured image. Reference numeral 1405 denotes attribute information associated with the wireless tag 103c, which is displayed in association with the corresponding object. The attribute information 1404 and the attribute information 1405 are displayed in the object area 1403 of the wireless tag 103b determined as non-displayed attribute information in the captured image. In addition, although the area | region was illustrated in FIG. 14 in order to demonstrate the area | region which detected the object, and the non-display area | region, it is not illustrated and displayed on an actual display part.

図14(d)と図8(d)とを比較すると、撮像画像中に同一のオブジェクトとが存在するが検出されたオブジェクトの撮像画像中の領域に応じて、無線タグ103bの属性情報が表示されてなくなっていることが分かる。即ち、撮像画像中の検出されたオブジェクトの領域以外の領域が、検出されたオブジェクト全ての属性情報を表示可能な分存在するか否かで表示する属性情報が変わる。撮像画像中の検出された識別子に対応するオブジェクトの領域以外の領域が、検出されたオブジェクト全ての属性情報が表示可能な分存在しない場合は、検出されたオブジェクトに対応する属性情報の内容に応じて設定された優先度が高い属性情報を優先して表示し、優先度が低い属性情報は表示されない。また、撮像画像中の優先度が低い属性情報に対応するオブジェクトの領域に優先度が高い属性情報が表示される。   Comparing FIG. 14D and FIG. 8D, the attribute information of the wireless tag 103b is displayed according to the area in the captured image of the detected object, although the same object exists in the captured image. You can see that it is gone. In other words, the attribute information to be displayed changes depending on whether or not there is an area other than the detected object area in the captured image that can display the attribute information of all the detected objects. If there is no area other than the object area corresponding to the detected identifier in the captured image as long as the attribute information of all the detected objects can be displayed, depending on the content of the attribute information corresponding to the detected object The attribute information with the higher priority set in the above is displayed with priority, and the attribute information with the lower priority is not displayed. In addition, attribute information having a high priority is displayed in an object area corresponding to attribute information having a low priority in the captured image.

続いて、図9は、検出されたオブジェクトに対応する全ての属性情報を表示できない際の様子を示した図である。図9(a)は、検出部210がタグID(識別子)に関連した特徴情報を用いて画像認識を行い、10個の被写体を検出した場合の例である。901は、検出されたオブジェクトの画像中の領域を非表示領域とした際の領域である。図9(b)は、各被写体に対応する属性情報の優先度を決定された様子を示した図である。902は検出された全オブジェクトにおける優先度の順位を示す。図9(c)は、属性情報表示数が3であると決まった時の図である。属性情報表示数が3であるため、優先度1〜3の被写体に対応する領域のみ非表示領域とし、他の優先度4〜10の被写体の領域を表示領域に設定する。図9(d)は、被写体の属性情報を表示領域に表示した様子である。903〜905は、撮像画像に合成されて表示される属性情報である。図9(a)において、非表示領域901に設定されていた領域に属性情報903が表示されている。図9(d)に示した位置に属性情報が結果として画像表示装置101の表示部202に表示される。なお、図9において被写体を検出した領域や非表示領域を説明するために領域を図示したが、実際の表示部に図示して表示されるものではない。   Next, FIG. 9 is a diagram illustrating a state where all the attribute information corresponding to the detected object cannot be displayed. FIG. 9A shows an example in which the detection unit 210 performs image recognition using feature information related to a tag ID (identifier) and detects 10 subjects. Reference numeral 901 denotes an area when the area in the image of the detected object is set as a non-display area. FIG. 9B is a diagram illustrating a state in which the priority of the attribute information corresponding to each subject is determined. Reference numeral 902 indicates the priority order of all detected objects. FIG. 9C is a diagram when the attribute information display number is determined to be three. Since the attribute information display number is 3, only the areas corresponding to the subjects having the priorities 1 to 3 are set as non-display areas, and the areas of the other subjects having the priorities 4 to 10 are set as the display areas. FIG. 9D shows a state in which subject attribute information is displayed in the display area. Reference numerals 903 to 905 denote attribute information that is combined with the captured image and displayed. In FIG. 9A, the attribute information 903 is displayed in the area set as the non-display area 901. As a result, the attribute information is displayed on the display unit 202 of the image display apparatus 101 at the position shown in FIG. In addition, although the area is illustrated in FIG. 9 for explaining the area where the subject is detected and the non-display area, it is not illustrated and displayed on the actual display unit.

図13は、図9に示した画像表示装置101の表示画面からユーザが情報の種別の変更を行った際の動作を説明する例である。図13(a)は、検出部210がタグID(識別子)に関連した特徴情報を用いて画像認識を行い、10個の被写体を検出した場合の例であり、図9(a)と同様である。図13(b)は、ユーザが情報の種別の変更を行った際に変更された各被写体に対応する属性情報の優先度が決定された様子を示した図である。図9(b)と図13(b)を比較すると、ユーザによる情報の種別の設定の変更により、各オブジェクトに対応する属性情報の優先度の順位が変更していることが分かる。1302は変更された、検出された全オブジェクトの優先度の順位を示す。図13(c)は、属性情報表示数が3であると決まった時の図である。属性情報表示数が3であるため、優先度1〜3の被写体に対応する領域のみ非表示領域とし、他の優先度4〜10の被写体の領域を表示領域に設定する。図13(c)と図9(c)を比べると、図9(d)は、情報の種別の設定の変更により、被写体の属性情報を表示領域に表示した様子である。903は、撮像画像に合成されて表示される属性情報である。図9(a)において、非表示領域901に設定されていた領域に属性情報903が表示されている。なお、図13において被写体を検出した領域や非表示領域を説明するために領域を図示したが、実際の表示部に図示して表示されるものではない。   FIG. 13 is an example for explaining the operation when the user changes the type of information from the display screen of the image display apparatus 101 shown in FIG. FIG. 13A shows an example in which the detection unit 210 performs image recognition using feature information related to the tag ID (identifier) and detects 10 subjects, and is similar to FIG. 9A. is there. FIG. 13B is a diagram showing a state in which the priority of the attribute information corresponding to each changed subject is determined when the user changes the type of information. Comparing FIG. 9B and FIG. 13B, it can be seen that the priority order of the attribute information corresponding to each object is changed by the change in the setting of the information type by the user. Reference numeral 1302 indicates a changed priority order of all detected objects. FIG. 13C is a diagram when the attribute information display number is determined to be three. Since the attribute information display number is 3, only the areas corresponding to the subjects having the priorities 1 to 3 are set as the non-display areas, and the areas of the other subjects having the priorities 4 to 10 are set as the display areas. Comparing FIG. 13 (c) and FIG. 9 (c), FIG. 9 (d) shows that the attribute information of the subject is displayed in the display area by changing the setting of the information type. Reference numeral 903 denotes attribute information that is combined with the captured image and displayed. In FIG. 9A, the attribute information 903 is displayed in the area set as the non-display area 901. In addition, although the area | region was illustrated in order to demonstrate the area | region which detected the object in FIG. 13, and a non-display area | region, it is not illustrated and displayed on an actual display part.

以上説明したように、画像中に属性情報を関連付けて表示するべきオブジェクトの数が多すぎて、全ての属性情報をオブジェクトに重ならないように表示できない場合は、ユーザの所望の情報を優先的に表示させることができる。これにより、ユーザは所望の情報と該情報を発信しているオブジェクトを関連付けて閲覧することができる。また、属性情報を表示する領域と属性情報を表示するオブジェクトの領域を非表示領域とすることで、他の属性情報の表示によりオブジェクトが隠れてしまうことが低減される。また、表示する情報同士が重ならないようにすることが出来る。また、ユーザが設定した情報の種別により優先度を設定するので、ユーザの所望の情報を優先的に表示することができる。   As described above, when there are too many objects to be displayed in association with attribute information in the image and all the attribute information cannot be displayed so as not to overlap the object, the user's desired information is given priority. Can be displayed. As a result, the user can browse the desired information in association with the object transmitting the information. In addition, by setting the area for displaying attribute information and the area for displaying the attribute information as non-display areas, it is possible to reduce the object from being hidden by displaying other attribute information. In addition, the information to be displayed can be prevented from overlapping. Further, since the priority is set according to the type of information set by the user, the user's desired information can be displayed with priority.

なお、本実施例において、属性情報を表示する領域を非表示領域にしたが、この時、表示する属性情報の表示枠(属性情報が記述されていない部分)を必要に応じて他の属性情報を表示可能な領域である準表示領域にとする構成としても良い。たとえば、図10の1001に示すように属性情報の表示領域同士が重なっていてもよい。この時の重なりの前後は、前記優先度に応じて決定される。また、距離などほかの指標に従って決定してもよい。また、検出された被写体の近傍などを準表示領域として設定してもよい。   In this embodiment, the area for displaying the attribute information is a non-display area. At this time, the display frame of the attribute information to be displayed (the part where the attribute information is not described) is changed to other attribute information as necessary. It is good also as a structure made into the semi-display area | region which is an area | region which can be displayed. For example, as indicated by 1001 in FIG. 10, the attribute information display areas may overlap each other. Before and after the overlap at this time is determined according to the priority. Moreover, you may determine according to other parameters | indexes, such as distance. Further, the vicinity of the detected subject may be set as the semi-display area.

また、ステップS502において、特徴情報と属性情報を同時に取得していた。これに限らず、画像表示装置101が特徴情報を先に取得した後、検出部210により検出出来たオブジェクトに対応する識別子の属性情報を取得する構成としてもよい。また、本実施例では、属性情報に含まれた閲覧数に基づいて優先度を決定したが、これに限らず、情報管理サーバ102が画像表示装置101と無線タグ103の関係(表示の拒否や表示の優先などの関係)を判断し決定してもよい。また、属性情報と選択した情報の種別の関連に基づいて、優先度を決定していたが、情報の種別を選択するのではなくユーザ入力によるキーワードと属性情報の関連により優先度を決定して構わない。また、本実施例において、システムが予め情報の種別の候補をユーザに提示するが、提示する情報の種別の候補を画像表示装置と通信可能な範囲に存在する無線タグの識別子と関連付けられた属性情報に応じて、可変とする構成としても良い例えば、通信可能な範囲に存在する無線タグの識別子と関連付けられた属性情報が有している情報の種別を選択する候補としてユーザに提示して、選択させる構成としてもよい。   In step S502, feature information and attribute information are acquired simultaneously. Not limited to this, the image display apparatus 101 may acquire the attribute information of the identifier corresponding to the object detected by the detection unit 210 after acquiring the feature information first. Further, in this embodiment, the priority is determined based on the number of browsing included in the attribute information. However, the present invention is not limited to this, and the information management server 102 has the relationship between the image display device 101 and the wireless tag 103 (display rejection, It is also possible to determine and determine the relationship (such as display priority). Moreover, the priority is determined based on the relationship between the attribute information and the type of the selected information, but the priority is determined based on the relationship between the keyword and the attribute information input by the user instead of selecting the information type. I do not care. Also, in this embodiment, the system presents information type candidates to the user in advance, but the information type candidates to be presented are attributes associated with identifiers of wireless tags that exist within a range that can communicate with the image display device. Depending on the information, it may be configured to be variable. The configuration may be selected.

また、本実施例では、設定した情報の種別に関連する情報を有さない属性情報にも優先度を割り当てる構成としたが、情報の種別に関連する情報を有さない属性情報には優先度を割り当てない構成としても良い。例えば、画像表示装置101の設定する情報の種別が、「ファッション」を探索するモードであるとする。図12において、無線タグ103cのみが「ファッション」に関する情報を持つため、無線タグ103cに対応する属性情報のみ優先度が割り当てられる。したがって、無線タグ103cに対応する属性情報のみ表示されることとなる。このように、ユーザが所望とする情報のみ撮像画像に重畳して表示されるので、不必要な情報により情報の視認性が損なわれることが低減されるので、ユーザビリティが向上する。   In this embodiment, the priority is assigned to attribute information that does not have information related to the set information type. However, priority is given to attribute information that does not have information related to the information type. It is good also as a structure which does not allocate. For example, it is assumed that the type of information set by the image display apparatus 101 is a mode for searching for “fashion”. In FIG. 12, since only the wireless tag 103c has information related to “fashion”, priority is assigned only to attribute information corresponding to the wireless tag 103c. Therefore, only attribute information corresponding to the wireless tag 103c is displayed. Thus, since only the information desired by the user is displayed superimposed on the captured image, it is reduced that the visibility of the information due to unnecessary information is reduced, so that usability is improved.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

101 画像表示装置
102 情報管理サーバ
103 無線タグ
DESCRIPTION OF SYMBOLS 101 Image display apparatus 102 Information management server 103 Wireless tag

Claims (13)

撮像画像を表示させる表示制御装置であって、
他の装置の識別子を取得する識別子取得手段と、
前記識別子と関連付けられた情報を取得する情報取得手段と、
前記識別子取得手段が取得した識別子に対応するオブジェクトを前記撮像画像から検出する検出手段と、
前記検出手段が検出したオブジェクトに対応する前記情報取得手段が取得した情報と前記検出手段が検出した前記撮像画像上のオブジェクトの領域に応じて、表示する前記情報を選択する選択手段とを有することを特徴とする表示制御装置。
A display control device for displaying a captured image,
Identifier acquisition means for acquiring an identifier of another device;
Information acquisition means for acquiring information associated with the identifier;
Detection means for detecting an object corresponding to the identifier acquired by the identifier acquisition means from the captured image;
Selection means for selecting the information to be displayed according to the information acquired by the information acquisition means corresponding to the object detected by the detection means and the area of the object on the captured image detected by the detection means A display control device.
ユーザが設定した情報の種別と関連する前記情報取得手段が取得した情報を判断する判断手段を更に有し、
前記選択手段は、前記判断手段による判断に基づいて、表示する前記情報を選択することを特徴とする請求項1記載の表示制御装置。
A judgment unit for judging the information acquired by the information acquisition unit related to the type of information set by the user;
The display control apparatus according to claim 1, wherein the selection unit selects the information to be displayed based on a determination by the determination unit.
前記撮像画像と前記選択手段により選択された前記情報取得手段が取得した情報とを重畳して表示させる表示制御手段を更に有し、
前記表示制御手段は、前記検出手段が検出したオブジェクトと当該オブジェクトに対応する前記情報取得手段が取得した情報とを関連づけて表示させることを特徴とする請求項1または2に記載の表示制御装置。
A display control means for displaying the captured image and the information acquired by the information acquisition means selected by the selection means in a superimposed manner;
The display control apparatus according to claim 1, wherein the display control unit displays an object detected by the detection unit in association with information acquired by the information acquisition unit corresponding to the object.
前記表示制御手段は、前記選択手段により選択された前記情報に対応する前記オブジェクトの撮像画像上の領域に前記情報取得手段が取得した他の情報を表示させないことを特徴とする請求項3に記載の表示制御装置。   The said display control means does not display the other information which the said information acquisition means acquired in the area | region on the picked-up image of the said object corresponding to the said information selected by the said selection means. Display controller. 前記表示制御手段は、表示する前記情報同士が重ならないように表示させることを特徴とする請求項3または請求項4に記載の表示制御装置。   The display control apparatus according to claim 3, wherein the display control unit displays the information to be displayed so as not to overlap each other. 前記表示制御手段は、前記選択手段により表示すると選択されなかった前記情報に対応する前記オブジェクトの撮像画像上の領域に表示すると選択された前記情報を表示させること特徴とする請求項3乃至5何れか1項に記載の表示制御装置。   6. The display control unit according to claim 3, wherein the display control unit displays the selected information when displayed in a region on the captured image of the object corresponding to the information not selected when displayed by the selection unit. The display control apparatus according to claim 1. 前記選択手段は、前記検出手段が検出した撮像画像上のオブジェクトの面積に応じて、表示させる情報を選択すること特徴とする請求項1乃至6何れか1項に記載の表示制御装置。   The display control apparatus according to claim 1, wherein the selection unit selects information to be displayed according to an area of an object on a captured image detected by the detection unit. 前記選択手段は、前記検出手段が検出した前記撮像画像上のオブジェクトの領域に応じて、前記検出手段が検出したオブジェクトに対応する前記情報取得手段が取得した情報のうち前記判断手段によりユーザが設定した情報の種別と関連すると判断した情報を表示し、前記判断手段によりユーザが設定した情報の種別と関連すると判断していない情報は表示しないことを特徴とする請求項2に記載の表示制御装置。   The selection unit is set by the user by the determination unit among the information acquired by the information acquisition unit corresponding to the object detected by the detection unit according to the area of the object on the captured image detected by the detection unit. 3. The display control apparatus according to claim 2, wherein information determined to be related to the type of information displayed is displayed, and information not determined to be related to the type of information set by the user by the determination unit is not displayed. . 前記検出手段が検出した前記撮像画像上のオブジェクトの領域に応じて、前記撮像画像に表示させる情報の数を決定する決定手段を更に有し、
前記選択手段は、前記決定手段が決定した数の情報を選択することを特徴とする請求項1乃至8何れか1項に記載の表示制御装置。
A determining unit that determines the number of pieces of information to be displayed on the captured image according to a region of the object on the captured image detected by the detecting unit;
The display control apparatus according to claim 1, wherein the selection unit selects the number of pieces of information determined by the determination unit.
撮像画像を表示させる表示制御装置であって、
他の装置の識別子を取得する識別子取得手段と、
前記識別子と関連付けられた情報をから取得する情報取得手段と、
前記識別子取得手段が取得した識別子に対応するオブジェクトを前記撮像画像から検出する検出手段とを有し、
前記検出手段が検出したオブジェクトに対応する前記情報取得手段が取得した情報と前記検出手段が検出した前記撮像画像上のオブジェクトの領域に応じて、前記情報取得手段が取得した情報のうち表示する情報が変わることを特徴とする表示制御装置。
A display control device for displaying a captured image,
Identifier acquisition means for acquiring an identifier of another device;
Information acquisition means for acquiring information associated with the identifier from;
Detecting means for detecting an object corresponding to the identifier acquired by the identifier acquiring means from the captured image;
Information to be displayed among the information acquired by the information acquisition unit according to the information acquired by the information acquisition unit corresponding to the object detected by the detection unit and the area of the object on the captured image detected by the detection unit A display control device characterized in that changes.
撮像画像を表示させる表示制御装置の制御方法であって、
他の装置の識別子を取得する識別子取得工程と、
前記識別子と関連付けられた情報を取得する情報取得工程と、
前記識別子取得工程が取得した識別子に対応するオブジェクトを前記撮像画像から検出する検出工程と、
前記検出工程が検出したオブジェクトに対応する前記情報取得工程が取得した情報と前記検出工程が検出した前記撮像画像上のオブジェクトの領域に応じて、表示する前記情報を選択する選択工程とを有することを特徴とする表示制御装置の制御方法。
A control method of a display control device for displaying a captured image,
An identifier acquisition step of acquiring an identifier of another device;
An information acquisition step of acquiring information associated with the identifier;
A detection step of detecting an object corresponding to the identifier acquired by the identifier acquisition step from the captured image;
A selection step of selecting the information to be displayed according to the information acquired by the information acquisition step corresponding to the object detected by the detection step and the area of the object on the captured image detected by the detection step. A control method for a display control device.
撮像画像を表示させる表示制御装置の制御方法であって、
他の装置の識別子を取得する識別子取得工程と、
前記識別子と関連付けられた情報を取得する情報取得工程と、
前記識別子取得工程が取得した識別子に対応するオブジェクトを前記撮像画像から検出する検出工程とを有し、
前記検出工程が検出したオブジェクトに対応する前記情報取得工程が取得した情報と前記検出工程が検出した前記撮像画像上のオブジェクトの領域に応じて、前記情報取得工程が取得した情報のうち表示する情報が変わることを特徴とする表示制御装置の制御方法。
A control method of a display control device for displaying a captured image,
An identifier acquisition step of acquiring an identifier of another device;
An information acquisition step of acquiring information associated with the identifier;
A detection step of detecting an object corresponding to the identifier acquired by the identifier acquisition step from the captured image,
Information to be displayed among the information acquired by the information acquisition step according to the information acquired by the information acquisition step corresponding to the object detected by the detection step and the area of the object on the captured image detected by the detection step A control method for a display control device, wherein
請求項11または12に記載の制御方法をコンピュータに実行させるためのプログラム。   The program for making a computer perform the control method of Claim 11 or 12.
JP2011220308A 2011-10-04 2011-10-04 Display control apparatus, display control apparatus control method, and program Active JP5932278B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011220308A JP5932278B2 (en) 2011-10-04 2011-10-04 Display control apparatus, display control apparatus control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011220308A JP5932278B2 (en) 2011-10-04 2011-10-04 Display control apparatus, display control apparatus control method, and program

Publications (3)

Publication Number Publication Date
JP2013080394A true JP2013080394A (en) 2013-05-02
JP2013080394A5 JP2013080394A5 (en) 2014-11-20
JP5932278B2 JP5932278B2 (en) 2016-06-08

Family

ID=48526711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011220308A Active JP5932278B2 (en) 2011-10-04 2011-10-04 Display control apparatus, display control apparatus control method, and program

Country Status (1)

Country Link
JP (1) JP5932278B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013050953A3 (en) * 2011-10-04 2013-09-12 Nokia Corporation Methods, apparatuses, and computer program products for restricting overlay of an augmentation
JP2016004292A (en) * 2014-06-13 2016-01-12 富士通株式会社 Terminal device, information processing system, and display control program
JP2016076021A (en) * 2014-10-03 2016-05-12 富士通株式会社 Display control program, display control method and information processor
JP2017054185A (en) * 2015-09-07 2017-03-16 株式会社東芝 Information processor, information processing method, and information processing program
CN107067295A (en) * 2017-03-13 2017-08-18 联想(北京)有限公司 A kind of information processing method and electronic equipment
JP6289762B1 (en) * 2016-12-26 2018-03-07 三菱電機株式会社 Video processing apparatus, video processing method, video processing program, and video monitoring system
JP2019204431A (en) * 2018-05-25 2019-11-28 株式会社野村総合研究所 Computer program and method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323239A (en) * 2002-05-08 2003-11-14 Sony Corp Information processor, information processing method, recording medium, and computer program
JP2004364044A (en) * 2003-06-05 2004-12-24 Sony Corp Image recording apparatus
JP2007122533A (en) * 2005-10-31 2007-05-17 Seiko Epson Corp Comment layout for image
JP2007228195A (en) * 2006-02-22 2007-09-06 Fujitsu Ltd Device, program, and method for automatically imparting video attribute
JP2007286569A (en) * 2006-03-24 2007-11-01 Fujifilm Corp Information provision apparatus, information provision system and information provision method
JP2009017540A (en) * 2007-05-31 2009-01-22 Panasonic Corp Image capturing device, additional information providing server, and additional information filtering system
JP2009194644A (en) * 2008-02-14 2009-08-27 Fujifilm Corp Image processor, image processing method and image pick-up device
JP2011081556A (en) * 2009-10-06 2011-04-21 Sony Corp Information processor, method of processing information, program, and server

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323239A (en) * 2002-05-08 2003-11-14 Sony Corp Information processor, information processing method, recording medium, and computer program
JP2004364044A (en) * 2003-06-05 2004-12-24 Sony Corp Image recording apparatus
JP2007122533A (en) * 2005-10-31 2007-05-17 Seiko Epson Corp Comment layout for image
JP2007228195A (en) * 2006-02-22 2007-09-06 Fujitsu Ltd Device, program, and method for automatically imparting video attribute
JP2007286569A (en) * 2006-03-24 2007-11-01 Fujifilm Corp Information provision apparatus, information provision system and information provision method
JP2009017540A (en) * 2007-05-31 2009-01-22 Panasonic Corp Image capturing device, additional information providing server, and additional information filtering system
JP2009194644A (en) * 2008-02-14 2009-08-27 Fujifilm Corp Image processor, image processing method and image pick-up device
JP2011081556A (en) * 2009-10-06 2011-04-21 Sony Corp Information processor, method of processing information, program, and server

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013050953A3 (en) * 2011-10-04 2013-09-12 Nokia Corporation Methods, apparatuses, and computer program products for restricting overlay of an augmentation
US9418292B2 (en) 2011-10-04 2016-08-16 Here Global B.V. Methods, apparatuses, and computer program products for restricting overlay of an augmentation
JP2016004292A (en) * 2014-06-13 2016-01-12 富士通株式会社 Terminal device, information processing system, and display control program
JP2016076021A (en) * 2014-10-03 2016-05-12 富士通株式会社 Display control program, display control method and information processor
JP2017054185A (en) * 2015-09-07 2017-03-16 株式会社東芝 Information processor, information processing method, and information processing program
JP6289762B1 (en) * 2016-12-26 2018-03-07 三菱電機株式会社 Video processing apparatus, video processing method, video processing program, and video monitoring system
WO2018122895A1 (en) * 2016-12-26 2018-07-05 三菱電機株式会社 Image processing device, image processing method, image processing program, and image monitoring system
CN107067295A (en) * 2017-03-13 2017-08-18 联想(北京)有限公司 A kind of information processing method and electronic equipment
CN107067295B (en) * 2017-03-13 2021-12-24 联想(北京)有限公司 Information processing method and electronic equipment
JP2019204431A (en) * 2018-05-25 2019-11-28 株式会社野村総合研究所 Computer program and method

Also Published As

Publication number Publication date
JP5932278B2 (en) 2016-06-08

Similar Documents

Publication Publication Date Title
JP5932278B2 (en) Display control apparatus, display control apparatus control method, and program
US10641863B2 (en) Power saving intelligent locator
JP5468585B2 (en) Augmented reality providing apparatus and method using relationships between objects
JP2017134823A (en) Method and device for recommending application and method and device for displaying recommended application
US20160119751A1 (en) Electronic device and method of operating content receiver recommendation service
EP3360309B1 (en) Iot interaction system
US10264404B2 (en) Information processing apparatus, system, and method
JP2019101957A (en) Designation reception system, retrieval system, retrieval terminal, designation reception program, retrieval program and retrieval terminal control program
WO2016157271A1 (en) Sensor network system
US20160171353A1 (en) Method and apparatus for generating or using interaction activity information
JP5854714B2 (en) Display control apparatus, display control apparatus control method, and program
CN105009114A (en) Predictively presenting search capabilities
KR20120134321A (en) Cloud-based ar system
US20150120483A1 (en) Wireless communication system, mobile terminal device, and program for use in mobile terminal device
CN101847239A (en) Intelligent fitting system and method, and human computer interaction device
US10152548B2 (en) Locating mobile users
JP6354848B2 (en) Sensor management system, sensor management device, sensor device, sensor management method and program
JP2018156623A (en) Real estate information providing system, server, method, and program
CN105378626A (en) Situation-aware presentation of information
JP2014056548A (en) Information providing system and information management server
JP6842207B1 (en) Store search device and store search application program
KR20190068318A (en) Method, apparatus and computer program for providing place context information
JP6900082B1 (en) Information processing equipment, programs and information processing methods
JP2016057827A (en) Information processing system, control method thereof, and program
KR20170130128A (en) Method of Interlocking Mobile Terminal and Signage Using Signage Image Keyword

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141006

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160428

R151 Written notification of patent or utility model registration

Ref document number: 5932278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151