JP2013114653A - Information processor, method of controlling the same, and program - Google Patents

Information processor, method of controlling the same, and program Download PDF

Info

Publication number
JP2013114653A
JP2013114653A JP2011263419A JP2011263419A JP2013114653A JP 2013114653 A JP2013114653 A JP 2013114653A JP 2011263419 A JP2011263419 A JP 2011263419A JP 2011263419 A JP2011263419 A JP 2011263419A JP 2013114653 A JP2013114653 A JP 2013114653A
Authority
JP
Japan
Prior art keywords
information
feature information
predetermined object
specifying
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011263419A
Other languages
Japanese (ja)
Other versions
JP5885480B2 (en
JP2013114653A5 (en
Inventor
Hitoshi Aoki
仁志 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011263419A priority Critical patent/JP5885480B2/en
Publication of JP2013114653A publication Critical patent/JP2013114653A/en
Publication of JP2013114653A5 publication Critical patent/JP2013114653A5/ja
Application granted granted Critical
Publication of JP5885480B2 publication Critical patent/JP5885480B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To identify a predetermined object from an image which is robust in the direction and position of a subject.SOLUTION: A system comprises a first image display device and a second image display device. The first image display device acquires an identifier, identifies an object in an image from first feature information associated with the identifier, and on the basis of the identified object, generates second feature information. When first object identifying means fails to identify the object, the second image display device identifies an object on the basis of the second feature information generated by the first image display device, and displays the object with superposing thereon attribute information associated with the identifier near the object.

Description

本発明は、撮像画像中のオブジェクトを特定する情報処理装置に関する。   The present invention relates to an information processing apparatus that identifies an object in a captured image.

近年、カメラ等で撮影した撮像画像に、撮像画像中の物体の属性情報を合成して表示するAR(Augmented Reality:拡張現実)技術がある。例えば、GPS(Global Positioning System)による位置情報に基づいて、撮像画像中の物体の属性情報を合成して表示する技術がある(非特許文献1)。
このようなARシステムにおいて被写体の近傍に被写体に関連した情報を表示することが望まれている。すなわち、撮影画像中に様々な被写体が含まれている場合、被写体に関連するそれぞれの情報が、どの被写体の情報であるのかユーザがわかるような形で表示することが望ましい。
特許文献1では、撮像装置が携帯情報機器等から取得した顔情報を用いて撮影画像の顔認識処理を行い、特定した人物に関する情報を撮像画像と合成して表示する。特許文献2では、撮像処理から得られた画像の特徴量だけでなく、撮像位置/方向に基づいて、撮像範囲と思われる被写体の情報を取得して、撮影画像中に表示する。
In recent years, there is an AR (Augmented Reality) technology that combines and displays attribute information of an object in a captured image captured by a camera or the like. For example, there is a technique of combining and displaying attribute information of an object in a captured image based on position information obtained by GPS (Global Positioning System) (Non-patent Document 1).
In such an AR system, it is desired to display information related to the subject in the vicinity of the subject. In other words, when various subjects are included in the photographed image, it is desirable to display the information so that the user can know which subject information is associated with each subject.
In Patent Document 1, a face recognition process of a captured image is performed using face information acquired from a portable information device or the like by an imaging device, and information relating to the specified person is combined with the captured image and displayed. In Patent Document 2, information on a subject that is considered to be an imaging range is acquired based on not only a feature amount of an image obtained from an imaging process but also an imaging position / direction and displayed in a captured image.

http://sekaicamera.comhttp: // sekaicamera. com

特開2002−305717JP 2002-305717 A 特開2010−118019JP2010-118019

しかしながら、従来の技術では、撮像画像中の被写体の近傍に該被写体に関連した情報を表示することが必ずしも出来る訳ではないという問題がある。特許文献1では、予め登録してある顔画像情報などの特徴情報から撮影画像中の被写体を特定しようとしているため、登録してある画像と被写体の向きまたは位置が異なっていた場合には撮影画像中から被写体を特定することが難しい。即ち、リファレンス顔画像と撮像時の顔画像とでは、経時変化や撮像環境により特徴情報が大きく変動してしまい、登録してある画像を認識処理に用いるのみでは必ずしも高度な認識ができることが保障されているわけではない。特に、リファレンス画像と撮像時の顔画像の顔の向きが違う場合も特徴情報は多きく変動してしまう。また、非特許文献1及び特許文献2は、撮像位置/方向に基づいて、撮像範囲と思われる被写体の情報を撮像画像中に表示するので必ずしも撮像画像中の被写体に関する情報が表示される訳では無い。また、撮像画像中の被写体に関する情報が表示されているとしても、正確な被写体の撮像画像中の領域を特定するわけでは無いので、被写体に関連する情報が、どの被写体の情報であるのかユーザがわかるような形で表示されるとは限らない。
本発明は上述の課題を鑑みてなされた発明であり、撮像画像から所定のオブジェクトの認識率を向上し、特定したオブジェクトと所定の情報とを関連付けて表示させることを目的とする。
However, the conventional technique has a problem that information related to the subject cannot always be displayed in the vicinity of the subject in the captured image. In Patent Document 1, since an object in a captured image is to be specified from feature information such as face image information registered in advance, the captured image is different if the registered image differs from the orientation or position of the object. It is difficult to identify the subject from the inside. In other words, the feature information of the reference face image and the face image at the time of imaging greatly fluctuates due to changes over time and the imaging environment, and it is guaranteed that advanced recognition is not necessarily possible only by using the registered image for recognition processing. I don't mean. In particular, the feature information varies greatly even when the face orientation of the reference image and the face image at the time of imaging is different. In Non-Patent Document 1 and Patent Document 2, information on a subject that appears to be in the imaging range is displayed in the captured image based on the imaging position / direction, so information on the subject in the captured image is not necessarily displayed. No. In addition, even if information about the subject in the captured image is displayed, it does not necessarily specify an accurate region in the captured image of the subject, so the user can determine which subject information the information related to the subject is. It is not always displayed in an understandable form.
The present invention has been made in view of the above-described problems, and an object of the present invention is to improve a recognition rate of a predetermined object from a captured image and display the identified object and predetermined information in association with each other.

上述の課題を解決する手段として、撮像画像において所定のオブジェクトを特定するための第1の特徴情報を用いて、前記撮像画像から前記所定のオブジェクトを特定する第1の特定手段と、第1の他の装置が前記第1の特徴情報を用いて前記所定のオブジェクトの特定に成功した画像から生成された前記所定のオブジェクトを特定するための第2の特徴情報を取得する第2の特徴情報取得手段と、前記第1の特定手段が前記所定のオブジェクトを特定できなかった場合に、前記第2の特徴情報を用いて、前記撮像画像から前記所定のオブジェクトを特定する第2の特定手段と、前記第1の特定手段または第2の特定手段により特定された前記所定のオブジェクトと当該所定のオブジェクトに関する情報とを関連付けて表示部に表示させる表示制御手段と、を有することを特徴とする情報処理装置を提供する。   As means for solving the above-mentioned problems, first specifying means for specifying the predetermined object from the captured image using first feature information for specifying the predetermined object in the captured image, Second feature information acquisition for acquiring second feature information for specifying the predetermined object generated from an image in which the other device has successfully specified the predetermined object using the first feature information And a second specifying means for specifying the predetermined object from the captured image using the second feature information when the first specifying means cannot specify the predetermined object; A table that causes the display unit to display the predetermined object specified by the first specifying unit or the second specifying unit in association with information about the predetermined object. To provide an information processing apparatus characterized by comprising a control means.

本発明によれば、複数の特徴情報を用いて撮像画像から所定のオブジェクトの特定を行うので、所定のオブジェクトの認識率を上げることができる。したがって、所定のオブジェクトと所定の情報とを関連付けて表示する際の精度を高めることができる。   According to the present invention, since a predetermined object is specified from a captured image using a plurality of feature information, the recognition rate of the predetermined object can be increased. Therefore, it is possible to improve the accuracy when displaying the predetermined object and the predetermined information in association with each other.

実施例1乃至2におけるシステムの構成を示す図である。It is a figure which shows the structure of the system in Example 1-2. 実施例1におけるサーバのデータベース概念図である。1 is a conceptual diagram of a database of a server in Embodiment 1. FIG. 実施例1乃至2におけるデジタルカメラの構成を示す図である。1 is a diagram illustrating a configuration of a digital camera according to Embodiments 1 and 2. FIG. 実施例1乃至2における携帯電話の構成を示す図である。It is a figure which shows the structure of the mobile telephone in Example 1-2. 実施例1におけるデジタルカメラ101の撮影処理を示すシーケンス図である。FIG. 6 is a sequence diagram illustrating a shooting process of the digital camera 101 according to the first exemplary embodiment. 実施例1乃至2におけるデジタルカメラ101による撮影直後の画像データの一例を示す図である。6 is a diagram illustrating an example of image data immediately after photographing by the digital camera 101 in Embodiments 1 and 2. FIG. 実施例1乃至2におけるデジタルカメラ101による画像合成後の画像データの一例を示す図である。FIG. 6 is a diagram illustrating an example of image data after image synthesis by the digital camera 101 according to the first and second embodiments. 実施例1におけるデジタルカメラ102の撮影処理を示すシーケンス図である。FIG. 6 is a sequence diagram illustrating a shooting process of the digital camera in the first embodiment. 実施例1乃至2におけるデジタルカメラ102による撮影直後の画像データ一例を示す図である。FIG. 6 is a diagram illustrating an example of image data immediately after shooting by the digital camera in the first and second embodiments. 実施例1乃至2におけるデジタルカメラ102による画像合成後の画像データ一例を示す図である。FIG. 6 is a diagram illustrating an example of image data after image synthesis by the digital camera in the first and second embodiments. 実施例2におけるデジタルカメラ101の撮影処理を示すシーケンス図である。FIG. 10 is a sequence diagram illustrating a shooting process of the digital camera 101 according to the second embodiment. 実施例2におけるサーバのデータベース概念図である。It is a database conceptual diagram of the server in Example 2. 実施例2におけるデジタルカメラ102の撮影処理を示すシーケンス図である。FIG. 10 is a sequence diagram illustrating a shooting process of the digital camera in the second embodiment. 実施例1乃至2におけるデジタルカメラ101、102の動作を示すフローチャートである。6 is a flowchart illustrating operations of the digital cameras 101 and 102 according to the first and second embodiments.

[実施例1]
以下は、添付図面に従って本発明に係る各実施例を説明する。図1は本実施例におけるシステムの構成を示す。本実施例では、デジタルカメラ101およびデジタルカメラ102が人物105、人物106を撮影する場合について述べる。また、人物105は携帯電話103の所有者である。
[Example 1]
Hereinafter, embodiments according to the present invention will be described with reference to the accompanying drawings. FIG. 1 shows a system configuration in this embodiment. In this embodiment, a case where the digital camera 101 and the digital camera 102 capture a person 105 and a person 106 will be described. The person 105 is the owner of the mobile phone 103.

サーバ104は、デジタルカメラ101、102から端末装置の識別情報を含んだ問い合わせを受信すると、データベースに保持する受信した識別情報に対応付けられた属性情報をデジタルカメラ101、102に送信する。また、サーバ104は、受信した識別情報に対応付けられたオブジェクトを撮像画像から検出して、特定するための特徴情報をデータベースにから取得し、デジタルカメラ101、102に送信する。   When the server 104 receives an inquiry including the identification information of the terminal device from the digital cameras 101 and 102, the server 104 transmits attribute information associated with the received identification information held in the database to the digital cameras 101 and 102. Further, the server 104 detects an object associated with the received identification information from the captured image, acquires feature information for specifying from the database, and transmits the feature information to the digital cameras 101 and 102.

サーバ104が管理するデータベースに保持される情報の一例を図2に示す。データベースには、端末装置を一意に識別するための識別子として識別情報201、端末装置に対応する属性情報として所有者の名前202、端末装置に対応する人物を特定するために用いる特徴情報203とを夫々関連付けているテーブルデータが保持されている。識別情報201は、端末装置を一意に識別可能な識別子として、例えば、MACアドレスや端末装置の所有者のユーザIDとする。名前202は、識別情報に関連付けられた属性情報の一例であり、デジタルカメラ101において撮像された画像と重畳して表示される情報である。なお、属性情報としては名前に限られず、URLなどで外部のサイトへのリンクでもよいし、趣味や生年月日など複数の項目を有していてもよい。特徴情報203は、識別情報に対応付けられたオブジェクトを撮像画像から検出して、特定するための情報である。本実施例においては、画像処理によるオブジェクト特定処理を行うためのリファレンス画像を特徴情報とする。なお、特徴情報としては、画像データに限られず、オブジェクト特定処理に用いるに任意の特徴情報であってよい。   An example of information held in a database managed by the server 104 is shown in FIG. The database includes identification information 201 as an identifier for uniquely identifying the terminal device, an owner name 202 as attribute information corresponding to the terminal device, and feature information 203 used for specifying a person corresponding to the terminal device. Each associated table data is held. The identification information 201 is, for example, a MAC address or a user ID of the owner of the terminal device as an identifier that can uniquely identify the terminal device. The name 202 is an example of attribute information associated with the identification information, and is information that is displayed superimposed on an image captured by the digital camera 101. Note that the attribute information is not limited to a name, and may be a link to an external site such as a URL, or may have a plurality of items such as hobbies and dates of birth. The feature information 203 is information for detecting and specifying an object associated with the identification information from the captured image. In this embodiment, a reference image for performing object specifying processing by image processing is used as feature information. Note that the feature information is not limited to image data, and may be arbitrary feature information used for object specifying processing.

デジタルカメラ101、デジタルカメラ102は、他の端末装置から受信した該端末装置の識別情報に関連付けられた属性情報をサーバ104から取得し、取得した属性情報と撮像画像とを合成して表示部に表示させる情報処理装置である。また、デジタルカメラ101、102は、取得した属性情報と撮像した画像上のオブジェクトとを関連付けて表示部に合成して表示させる。したがって、デジタルカメラ101、102の表示画面に重畳して例えば端末装置の所有者に関する情報を表示するので、ユーザは容易に撮像画像中のオブジェクトに関する情報を取得することが可能となる。また、撮像画像中のオブジェクトに関連付けて情報を表示するので、どのオブジェクトがどのような情報を発しているかを容易に識別することが可能となる。また、デジタルカメラ101、102は、IEEE802.11シリーズに則った無線通信機能を有する。   The digital camera 101 and the digital camera 102 acquire attribute information associated with the identification information of the terminal device received from another terminal device from the server 104, and synthesizes the acquired attribute information and the captured image on the display unit. An information processing apparatus to be displayed. In addition, the digital cameras 101 and 102 associate the acquired attribute information with the object on the captured image and display the combined information on the display unit. Therefore, since information related to the owner of the terminal device is displayed on the display screen of the digital cameras 101 and 102, for example, the user can easily acquire information related to the object in the captured image. Further, since information is displayed in association with the object in the captured image, it is possible to easily identify which object emits what information. The digital cameras 101 and 102 have a wireless communication function in accordance with the IEEE 802.11 series.

携帯電話103は、定期的あるいは他の装置の要求に応じて、自装置を一意に識別可能な識別子を識別情報として発信する端末装置である。本実施例において、携帯電話103は、IEEE802.11シリーズに則った無線通機能を有する。携帯電話103が発信する識別情報は、端末装置を一意に決定するための識別子であり、各装置にそれぞれ固有に設定される情報である。なお、識別情報として、端末装置のユーザを一意に識別するための情報であってもよい。識別情報はIEEE802.11シリーズに則ったビーコン・フレームのInformation Elementの一要素として付与され、送信されるものとする。携帯電話103の所有者は人物105であるとする。   The mobile phone 103 is a terminal device that transmits, as identification information, an identifier that can uniquely identify the device itself periodically or in response to a request from another device. In this embodiment, the mobile phone 103 has a wireless communication function conforming to the IEEE 802.11 series. The identification information transmitted by the mobile phone 103 is an identifier for uniquely determining a terminal device, and is information set uniquely for each device. The identification information may be information for uniquely identifying the user of the terminal device. The identification information is given as an element of an information element of a beacon frame conforming to the IEEE 802.11 series, and is transmitted. Assume that the owner of the mobile phone 103 is a person 105.

続いて、情報処理装置であるデジタルカメラ101、102の構成を図3を用いて説明する。なお、デジタルカメラ101、102は、CPU(Central Processing Unit)を有する。後述する処理は、CPUが制御プログラムを実行し、情報の演算や加工、各ハードウェアの制御を行うことで実現される。無線通信制御部301は、外部装置との間で無線信号の送受信により通信を行うためにアンテナや回路を制御する。なお、無線通信制御部301はIEEE802.11シリーズに則った通信処理を制御するものとする。シャッターボタン302は撮影を開始するためのボタンで、ユーザのシャッターボタン302の押下を検出し、撮像部303において撮影処理の開始を制御する。撮像部303はレンズ、撮像素子、A/D変換により構成され、レンズを介して取得した被写体光を撮像し、撮像した被写体光を画像データとして生成する。表示部304は、ディスプレイに撮像画像や各種情報を表示させる表示制御を行う。識別情報取得部305は、無線通信制御部301により受信した通信可能な範囲に存在する端末装置の識別情報を取得する。第1の特徴情報取得部306は、識別情報取得部305により取得した識別情報をもとにしてサーバ104に問い合わせを行い、識別情報に関連付けられ、予め登録されている特徴情報(第1の特徴情報)をサーバ104から取得する。属性情報取得部307は、識別情報取得部305が取得した識別情報をもとにしてサーバ104に問い合わせを行い、識別情報に関連付けられた属性情報をサーバ104から取得する。   Next, the configuration of the digital cameras 101 and 102 as information processing apparatuses will be described with reference to FIG. The digital cameras 101 and 102 have a CPU (Central Processing Unit). Processing to be described later is realized by the CPU executing a control program to calculate and process information and control each hardware. The wireless communication control unit 301 controls an antenna and a circuit in order to communicate with an external device by transmitting / receiving a wireless signal. Note that the wireless communication control unit 301 controls communication processing conforming to the IEEE 802.11 series. A shutter button 302 is a button for starting shooting. The shutter button 302 detects that the user has pressed the shutter button 302, and the imaging unit 303 controls the start of shooting processing. The imaging unit 303 includes a lens, an imaging element, and A / D conversion. The imaging unit 303 images subject light acquired through the lens, and generates the captured subject light as image data. The display unit 304 performs display control for displaying a captured image and various types of information on a display. The identification information acquisition unit 305 acquires the identification information of the terminal device existing in the communicable range received by the wireless communication control unit 301. The first feature information acquisition unit 306 makes an inquiry to the server 104 based on the identification information acquired by the identification information acquisition unit 305, and is associated with the identification information and registered in advance (first feature information). Information) is acquired from the server 104. The attribute information acquisition unit 307 makes an inquiry to the server 104 based on the identification information acquired by the identification information acquisition unit 305 and acquires attribute information associated with the identification information from the server 104.

第1の特定部308は、取得した特徴情報をもとに撮像部303により撮像された画像データ上から、所定のオブジェクトを特定するためのハードウェア乃至はプログラムである。なお、本実施例においては、第1の特定部308は公知のオブジェクト認識処理を行い、取得した特徴情報に対応するオブジェクトを検出する。合成部309は、画像データ上の第1の特定部308または第2の特定部312により特定されたオブジェクトの近傍または任意の場所に、対応する属性情報とオブジェクトとを関連付けて合成し、合成画像データを作成する。特徴情報生成部310は、第1の特定部308または後述する第2の特定部312により特定したオブジェクトに関する新たな特徴情報を、特定に用いた撮像画像に基づいて生成する。生成された特徴情報は記憶部313に保存される。   The first specifying unit 308 is hardware or a program for specifying a predetermined object from the image data picked up by the image pickup unit 303 based on the acquired feature information. In the present embodiment, the first specifying unit 308 performs a known object recognition process to detect an object corresponding to the acquired feature information. The synthesizing unit 309 synthesizes the corresponding attribute information and the object in the vicinity of the object specified by the first specifying unit 308 or the second specifying unit 312 on the image data or in an arbitrary place, and combines them. Create data. The feature information generation unit 310 generates new feature information related to the object specified by the first specifying unit 308 or the second specifying unit 312 described later based on the captured image used for specifying. The generated feature information is stored in the storage unit 313.

第2の特徴情報取得部311は無線制御部301を制御して、識別情報取得部305により取得した識別情報をもとにして他の装置に問い合わせを行い、識別情報に関連付けられ、他の装置により生成された特徴情報を取得する。第2の特定部312は、第2の特徴情報取得部311により取得された特徴情報をもとに撮像部303から得られた画像データから被写体を特定するためのプログラムまたはハードウェアである。記憶部313は、特徴情報生成部310で生成された特徴情報や各種情報を格納するためのメモリである。   The second feature information acquisition unit 311 controls the wireless control unit 301 to make an inquiry to another device based on the identification information acquired by the identification information acquisition unit 305, and is associated with the identification information. The feature information generated by is acquired. The second specifying unit 312 is a program or hardware for specifying a subject from image data obtained from the imaging unit 303 based on the feature information acquired by the second feature information acquiring unit 311. The storage unit 313 is a memory for storing the feature information generated by the feature information generation unit 310 and various types of information.

続いて、携帯電話103の構成を図4を用いて説明する。携帯電話103は、IEEE802.11シリーズに準拠した無線通信機能を有する。携帯電話103は自装置を一意に識別可能な識別情報を保持している。また、携帯電話103はCPUを有し、後述する各処理は、CPUが制御プログラムを実行し、情報の演算や加工、各ハードウェアの制御を行うことで実現される。図4に示すRF部401は無線LANで他の無線装置との間で無線信号の送受信を行うためのアンテナや回路を制御する。識別情報発信部402はRF401を制御することで、保持する識別情報を定期的、もしくは他の装置からの要求に応じて報知する。識別情報発信部402は、識別情報(識別子)をIEEE802.11シリーズに則ったビーコン・フレームのInformation Elementの一要素として付与し、送信する。携帯電話制御部403は、携帯電話として動作するためのアンテナや回路を制御することで携帯電話通信網と接続し、他の装置と通信を行う。   Next, the configuration of the mobile phone 103 will be described with reference to FIG. The mobile phone 103 has a wireless communication function conforming to the IEEE 802.11 series. The mobile phone 103 holds identification information that can uniquely identify its own device. Further, the mobile phone 103 has a CPU, and each process described later is realized by the CPU executing a control program to calculate and process information and control each hardware. An RF unit 401 illustrated in FIG. 4 controls an antenna and a circuit for transmitting / receiving a wireless signal to / from another wireless device via a wireless LAN. The identification information transmission unit 402 controls the RF 401 to notify the held identification information periodically or in response to a request from another device. The identification information transmission unit 402 assigns identification information (identifier) as an element of an Information Element of a beacon frame conforming to the IEEE 802.11 series and transmits the information. The mobile phone control unit 403 is connected to a mobile phone communication network by controlling an antenna and a circuit for operating as a mobile phone, and communicates with other devices.

以上説明を行った構成を有するシステムの動作を説明する。ここでは、デジタルカメラ101とデジタルカメラ102が撮影する際の処理の説明を行う。デジタルカメラ101、102が図1に示すように人物105と人物106を撮影する場合を例に述べる。デジタルカメラ101の撮像部303は人物105と人物106の正面に向いており、顔の検出、特定が可能である。一方、デジタルカメラ102の撮像部303は人物105と人物106の背面に向いており、正面から顔の撮像ができないものとする。   The operation of the system having the configuration described above will be described. Here, processing when the digital camera 101 and the digital camera 102 capture images will be described. An example in which the digital cameras 101 and 102 photograph the person 105 and the person 106 as shown in FIG. 1 will be described. The imaging unit 303 of the digital camera 101 faces the front of the person 105 and the person 106, and can detect and specify a face. On the other hand, the imaging unit 303 of the digital camera 102 faces the back of the person 105 and the person 106, and cannot capture a face from the front.

まず、デジタルカメラ101が撮影する場合を図5のシーケンス図を用いて説明する。まず、デジタルカメラ101は、シャッターボタン302の操作の検出により、撮影処理を開始する(S501)。撮影された画像を図6に示す。画像601が撮影された画像であり、画像601には、人物105と人物106が撮影されている。被写体画像602は人物105に対応する被写体画像(画像601中の領域)であり、被写体画像603は人物106に対応する被写体画像(画像601中の領域)である。次に、デジタルカメラ101の識別情報取得部305は通信可能な範囲に存在する端末装置に対して識別情報を要求する。具体的には、識別情報取得部305は無線通信制御部301を制御し、IEEE802.11シリーズに則ったプローブ・リクエスト・フレームをブロードキャストで送信する(S502)。プローブ・リクエスト・フレームを受信した携帯電話103は、自装置の識別情報を付与したプローブ・レスポンス・フレームで応答する(S503)。デジタルカメラ101はプローブ・レスポンス・フレームを受信すると、識別情報取得部305は携帯電話103の識別情報を得ることができる。しかし、デジタルカメラ101はこの時点では、得られた識別情報が撮像画像中のどのオブジェクトに対応するものであるか、即ちどの人物が所有する装置から発信されかを認識することができない。   First, the case where the digital camera 101 captures an image will be described with reference to the sequence diagram of FIG. First, the digital camera 101 starts photographing processing upon detecting the operation of the shutter button 302 (S501). A photographed image is shown in FIG. An image 601 is a captured image. In the image 601, a person 105 and a person 106 are captured. The subject image 602 is a subject image corresponding to the person 105 (region in the image 601), and the subject image 603 is a subject image corresponding to the person 106 (region in the image 601). Next, the identification information acquisition unit 305 of the digital camera 101 requests identification information from a terminal device existing within a communicable range. Specifically, the identification information acquisition unit 305 controls the wireless communication control unit 301 to broadcast and transmit a probe request frame conforming to the IEEE 802.11 series (S502). The mobile phone 103 that has received the probe request frame responds with a probe response frame to which its own device identification information is added (S503). When the digital camera 101 receives the probe response frame, the identification information acquisition unit 305 can obtain the identification information of the mobile phone 103. However, at this point, the digital camera 101 cannot recognize which object in the captured image corresponds to the obtained identification information, that is, which person owns the device.

続いて、デジタルカメラ101は識別情報取得部305によって取得した識別情報を得ると、第1の特徴情報取得部306と属性情報取得部307を用いて、取得した識別情報に対応する特徴情報および属性情報を取得するためサーバ104に問い合わせる。(S504)。すなわち、デジタルカメラ101は携帯電話103から取得した識別情報に基づいて、該識別情報に対応するオブジェクトの特徴情報および属性情報をサーバ104に要求する。サーバ104はデジタルカメラ101からの問い合わせを受信すると、問い合わせに含まれる識別情報をもとにデータベースから該識別情報に関連付けられた属性情報と特徴情報とを検索する(S505)。サーバ104は受信した識別情報に関連付けられた属性情報と顔の特徴情報が取得できると、これらの情報をデジタルカメラ101に送信する(S506)。デジタルカメラ101は、サーバ104から属性情報と特徴情報(第1の特徴情報)を受信すると、第1の特定部308は、取得した特徴情報をもとに、画像601から該当するオブジェクトの特定を試みる(S507)。第1の特定部308は、得られた特徴情報と画像601から取得した顔画像の特徴とを比較し、画像601(人物105)が対応するオブジェクトであると特定する。デジタルカメラ101は、第1の特徴情報を用いて撮像画像からオブジェクトの特定に成功した場合、特徴情報生成部310により画像601から人物105に関する新たな特徴情報を生成する(S508)。本実施例においては、特徴情報生成部310は、特定できた人物の衣服(服装)に該当する領域の特徴情報を生成する。服装に関する特徴情報は、色彩に関する情報であるとする。なお、生成する特徴情報としては色彩に関する情報でなくとも、服装を特定するために用いる任意の情報を特徴情報として構わない。生成した服装の特徴情報は、他の端末装置からの要求が発生したときのために記憶部に保存される(S509)。   Subsequently, when the digital camera 101 obtains the identification information acquired by the identification information acquisition unit 305, it uses the first feature information acquisition unit 306 and the attribute information acquisition unit 307 to use the feature information and attributes corresponding to the acquired identification information. Queries the server 104 to obtain information. (S504). That is, based on the identification information acquired from the mobile phone 103, the digital camera 101 requests the server 104 for feature information and attribute information of an object corresponding to the identification information. Upon receiving the inquiry from the digital camera 101, the server 104 searches the database for attribute information and feature information associated with the identification information based on the identification information included in the inquiry (S505). When the server 104 can acquire attribute information and facial feature information associated with the received identification information, the server 104 transmits these pieces of information to the digital camera 101 (S506). When the digital camera 101 receives the attribute information and the feature information (first feature information) from the server 104, the first specifying unit 308 specifies the corresponding object from the image 601 based on the acquired feature information. Try (S507). The first specifying unit 308 compares the obtained feature information with the feature of the face image acquired from the image 601, and specifies that the image 601 (person 105) is a corresponding object. When the digital camera 101 succeeds in identifying an object from the captured image using the first feature information, the feature information generating unit 310 generates new feature information about the person 105 from the image 601 (S508). In the present embodiment, the feature information generation unit 310 generates feature information of an area corresponding to the identified person's clothes (clothes). It is assumed that the feature information regarding clothes is information regarding colors. Note that, as the feature information to be generated, any information used for specifying the clothes may be used as the feature information, not the information regarding the color. The generated clothes feature information is stored in the storage unit when a request from another terminal device is generated (S509).

デジタルカメラ101の合成部309は、特定できた被写体画像602の近傍にS506で得られた属性情報を合成部309で合成し、表示部304は該合成画像を表示するよう表示制御を行う。(S510)。このときの表示部304に表示される画像のイメージを図7に示す。画像701は、撮像画像601と属性情報とを合成して生成され、表示部304により表示される画像の全体である。被写体画像702と被写体画像703はそれぞれ画像合成後の被写体画像602と被写体画像603に相当する。属性情報画像704はS506で得られた属性情報を画像として表示しているものであり、特定されたオブジェクトである被写体画像702に関連付けられて、その近傍(所定の距離内)に表示される。デジタルカメラ101のユーザは、これにより人物105に関する情報を視覚的に見ることができる。   The synthesizing unit 309 of the digital camera 101 synthesizes the attribute information obtained in S506 in the vicinity of the identified subject image 602 by the synthesizing unit 309, and the display unit 304 performs display control to display the synthesized image. (S510). An image of the image displayed on the display unit 304 at this time is shown in FIG. The image 701 is an entire image generated by combining the captured image 601 and attribute information and displayed on the display unit 304. The subject image 702 and the subject image 703 correspond to the subject image 602 and the subject image 603 after image composition, respectively. The attribute information image 704 displays the attribute information obtained in S506 as an image, and is displayed in the vicinity (within a predetermined distance) in association with the subject image 702 that is the identified object. Thus, the user of the digital camera 101 can visually see information about the person 105.

次に、デジタルカメラ102が撮影する場合を図8のシーケンス図を用いて説明する。まず、デジタルカメラ102は、シャッターボタン302の操作の検出により、撮影処理を開始する(S501)。撮影された画像を図9に示す。画像901が撮影された画像であり、画像901には、人物105と人物106が撮影されている。被写体画像902は人物105に対応する被写体画像であり、被写体画像903は人物106に対応する被写体画像である。人物105と人物106ともに背面からの画像である。   Next, the case where the digital camera 102 captures images will be described with reference to the sequence diagram of FIG. First, the digital camera 102 starts photographing processing upon detection of an operation of the shutter button 302 (S501). The photographed image is shown in FIG. An image 901 is a captured image. In the image 901, a person 105 and a person 106 are captured. The subject image 902 is a subject image corresponding to the person 105, and the subject image 903 is a subject image corresponding to the person 106. Both the person 105 and the person 106 are images from the back.

S802からS806の処理は、S502からS506と同様であるので説明を省略する。S807はS507と同様に、サーバ104から取得した第1の特徴情報をもとに第1の特定部によって、画像901から該当するオブジェクトの特定を試みる。デジタルカメラ102から人物105は背面にあるため、取得した人物105の顔画像の特徴情報は、画像901上に存在しないため、特定処理に失敗する。デジタルカメラ102は、第1の特徴情報に基づいたオブジェクトの特定に失敗すると、別の特徴情報を用いての人物特定を試みる。そこで、デジタルカメラ102は第2の特徴情報取得部311により、特定処理に成功した周囲の装置から、特定処理に用いた撮像画像から生成した特徴情報(第2の特徴情報)の取得を試みる。具体的には、第2の特徴情報取得部311は、第2の特徴情報の要求を無線制御部301を介して通信可能な範囲に存在する周囲の端末装置に対してブロードキャストする(S808)。このときに、第2の特徴情報取得部は、特定処理の失敗したオブジェクトに対応する識別情報を付与することで、どのオブジェクトの特徴情報要求を行っているのか判別できるようにする。   Since the processing from S802 to S806 is the same as that from S502 to S506, description thereof will be omitted. S807, like S507, attempts to identify the corresponding object from the image 901 by the first identifying unit based on the first feature information acquired from the server 104. Since the person 105 from the digital camera 102 is on the back side, the characteristic information of the acquired face image of the person 105 does not exist on the image 901, so the specifying process fails. If the digital camera 102 fails to specify an object based on the first feature information, the digital camera 102 tries to specify a person using another feature information. Therefore, the digital camera 102 attempts to acquire feature information (second feature information) generated from the captured image used in the specifying process from surrounding devices that have succeeded in the specifying process by using the second feature information acquiring unit 311. Specifically, the second feature information acquisition unit 311 broadcasts a request for the second feature information to surrounding terminal devices existing in a communicable range via the wireless control unit 301 (S808). At this time, the second feature information acquisition unit adds identification information corresponding to the object for which the specific process has failed, so that it is possible to determine which object is requested for feature information.

デジタルカメラ101は、デジタルカメラ102から特徴情報要求を受信すると、要求に含まれる識別情報に対応するオブジェクトの特定に成功しているかを判定する。デジタルカメラ101は、上述したS507により、携帯電話103の識別情報に対応するオブジェクトの特定に成功している。したがって、S508において生成した被写体画像602(被写体画像702)から生成した特徴情報を記憶部313から取得して、該特徴情報をデジタルカメラ102に送信する(S809)。これにより、デジタルカメラ102は、取得した識別情報に対応する第1の特徴情報を用いて特定処理に失敗した場合でも、他の装置により生成された他の特徴情報(第2の特徴情報)を得ることができる。   Upon receiving the feature information request from the digital camera 102, the digital camera 101 determines whether the object corresponding to the identification information included in the request has been successfully identified. The digital camera 101 has succeeded in identifying the object corresponding to the identification information of the mobile phone 103 through S507 described above. Therefore, the feature information generated from the subject image 602 (subject image 702) generated in S508 is acquired from the storage unit 313, and the feature information is transmitted to the digital camera 102 (S809). Thereby, even when the digital camera 102 fails in the specific process using the first feature information corresponding to the acquired identification information, the digital camera 102 uses other feature information (second feature information) generated by another device. Can be obtained.

デジタルカメラ102はデジタルカメラ101から第2の特徴情報を取得すると、それをもとに第2の特定部312によって、画像901から該当するオブジェクトの特定を試みる(S810)。第2の特定部312は、取得した第2の特徴情報と画像901から生成した画像特徴量を比較する。第2の特定部312は、取得した第2の特徴情報と被写体画像902の画像特徴量との相関が高く、所定の閾値を超えている場合は、被写体画像902を該当するオブジェクトと特定する。ここで、第2の特徴情報は、人物105の服装の色彩に関する特徴情報である、したがって、顔のように向きに関する特徴情報の変動が少ないため、向きに対してロバストに特定処理を行うことができる。特定処理に成功すると、デジタルカメラ102は特定できた被写体画像902の近傍にS806で得られた属性情報を合成部309で合成し、生成した画像を表示部304に表示する(S811)。   Upon acquiring the second feature information from the digital camera 101, the digital camera 102 tries to specify the corresponding object from the image 901 by the second specifying unit 312 based on the second feature information (S810). The second specifying unit 312 compares the acquired second feature information with the image feature amount generated from the image 901. The second specifying unit 312 specifies the subject image 902 as a corresponding object when the correlation between the acquired second feature information and the image feature amount of the subject image 902 is high and exceeds a predetermined threshold. Here, the second feature information is feature information related to the color of the clothes of the person 105. Therefore, since the feature information related to the orientation is small as in the face, the specific processing can be performed robustly with respect to the orientation. it can. If the specifying process is successful, the digital camera 102 combines the attribute information obtained in S806 in the vicinity of the specified subject image 902 with the combining unit 309, and displays the generated image on the display unit 304 (S811).

このときの表示部304に表示される画像のイメージを図10に示す。画像1001は表示部304に表示される画像の全体である。被写体画像1002と被写体画像1003はそれぞれ画像合成後の被写体画像902と被写体画像903に相当する。属性情報画像904はS806で得られた属性情報を画像として表示しているものであり、属性情報と特定したオブジェクトである被写体画像1003とを関連付けて表示する。   FIG. 10 shows an image displayed on the display unit 304 at this time. An image 1001 is the entire image displayed on the display unit 304. The subject image 1002 and the subject image 1003 correspond to the subject image 902 and the subject image 903 after image composition, respectively. The attribute information image 904 displays the attribute information obtained in S806 as an image, and displays the attribute information and the subject image 1003 that is the identified object in association with each other.

以上説明したように、本実施例では、デジタルカメラ102は、取得した携帯電話103の識別子に対応するオブジェクトを特定するための第1の特徴情報を用いて撮像画像からオブジェクト検出、特定を試みる。また、第1の特徴情報を用いてオブジェクトの特定に成功した装置に対して、第1の特徴情報を用いてオブジェクトの特定に成功した撮像画像から生成した新たな特徴情報(第2の特徴情報)を取得する。デジタルカメラ102は、第1の特徴情報を用いて特定に失敗した場合は、第2の特徴情報を用いて再度オブジェクトの特定を試みることができる。このように、予め登録されている第1の特徴情報から画像中からオブジェクトを特定できなかった場合においても、別の装置が新たに生成した特徴情報によりオブジェクトを特定できる。   As described above, in this embodiment, the digital camera 102 attempts to detect and specify an object from the captured image using the first feature information for specifying the object corresponding to the acquired identifier of the mobile phone 103. Also, new feature information (second feature information) generated from a captured image that has succeeded in identifying an object using the first feature information for a device that succeeded in identifying the object using the first feature information. ) To get. When the identification fails using the first feature information, the digital camera 102 can try to identify the object again using the second feature information. As described above, even when the object cannot be specified from the image from the first registered feature information, the object can be specified by the feature information newly generated by another device.

また、通信可能な周囲の装置に対してブロードキャストで第2の特徴情報の要求を行うため、被写体の近くに存在し、直近に該当するオブジェクトの特定に成功している可能性が高い装置に該要求が受信される。そのため、経時変化が少ない特徴情報を用いて再度特定処理を行うので認識率を向上することができる。また、第2の特徴情報として向きにロバストな特徴情報を用いることで認識率を向上することができる。   In addition, since the second feature information is requested by broadcast to surrounding devices capable of communication, the device that exists near the subject and is likely to have succeeded in identifying the object corresponding to the most recent object is assigned to the device. A request is received. For this reason, the recognition process can be improved because the specific process is performed again using feature information with little temporal change. In addition, the recognition rate can be improved by using feature information that is robust in direction as the second feature information.

したがって、認識率が向上することにより、オブジェクトとオブジェクトに関する属性情報を関連付けて表示することができるので、どの情報がどのオブジェクトに関するものかユーザが容易にわかるような形で表示を行うことができる。   Therefore, since the recognition rate is improved, it is possible to display the object and attribute information related to the object in association with each other, so that it is possible to display in such a way that the user can easily know which information is related to which object.

[実施例2]
本実施例と実施例1との差異は、第2の特徴情報の格納の方法と、第2の特徴情報の取得方法である。具体的には、実施例1においては、第2の特徴情報をデジタルカメラ102は第2の特徴情報を生成したデジタルカメラ101から取得した。即ち、第2の特徴情報を生成した装置と取得先の装置が同一である例を示した。本実施例では、第2の特徴情報を生成した装置と取得先の装置が同一でない例を示す。システムの構成、およびデジタルカメラ101、102、および携帯電話103は、実施例1と同様に図1と図3と図4で示される。実施例1と同様である点に関しては、ここでは説明を省略する。
[Example 2]
The difference between the present embodiment and the first embodiment is the second feature information storage method and the second feature information acquisition method. Specifically, in the first embodiment, the digital camera 102 acquires the second feature information from the digital camera 101 that generated the second feature information. That is, the example in which the device that generated the second feature information is the same as the acquisition destination device is shown. In the present embodiment, an example in which the device that generated the second feature information is not the same as the acquisition destination device is shown. The configuration of the system, the digital cameras 101 and 102, and the mobile phone 103 are shown in FIGS. 1, 3, and 4 as in the first embodiment. Description of points that are the same as those in the first embodiment is omitted here.

図11はデジタルカメラ101が、人物105、106を正面から撮影する際の処理のシーケンス図である。S1101からS1108は、実施例1のS501からS508と同じであるので説明は省略する。デジタルカメラ101は特定処理に成功した撮像画像から新たに特徴情報を生成すると、生成した特徴情報と携帯電話103の識別情報とを関連付けてサーバ104に送信する(S1109)。サーバ104は受信した識別情報をもとに、送信された特徴情報をデータベースに登録する(S1110)。   FIG. 11 is a sequence diagram of processing when the digital camera 101 photographs the persons 105 and 106 from the front. Steps S1101 to S1108 are the same as steps S501 to S508 in the first embodiment, and a description thereof will be omitted. When the digital camera 101 newly generates the feature information from the captured image that has been successfully identified, the digital camera 101 associates the generated feature information with the identification information of the mobile phone 103 and transmits it to the server 104 (S1109). The server 104 registers the transmitted feature information in the database based on the received identification information (S1110).

サーバ104のデータベースの概念図を図12に示す。各人物に対して、識別情報、属性情報(名前)、第1の特徴情報、第2の特徴情報が夫々関連付けられている。また、第2の特徴情報は、必ずしも登録されているとは限らない。   A conceptual diagram of the database of the server 104 is shown in FIG. Identification information, attribute information (name), first feature information, and second feature information are associated with each person. Further, the second feature information is not necessarily registered.

デジタルカメラ101は生成した特徴情報を送信した後に、被写体の近傍に属性情報を表示する(S1111)。得られる画像データは実施例1と同様に図7で示される。S1111は、実施例1におけるS510と同様の処理であるので詳細な説明は省略する。   After transmitting the generated feature information, the digital camera 101 displays the attribute information near the subject (S1111). The obtained image data is shown in FIG. Since S1111 is the same processing as S510 in the first embodiment, detailed description thereof is omitted.

図13はデジタルカメラ102が、後ろ姿の人物105、106を撮影する際の処理のフローチャートである。S1301からS1307までの処理はS801からS807と同じであるので説明は省略する。デジタルカメラ102はS1307で第1の特徴情報に基づいた特定処理に失敗すると、サーバ104に第2の特徴情報を要求する(S1308)。このとき、携帯電話103の識別情報をクエリに問い合わせを行う。   FIG. 13 is a flowchart of processing when the digital camera 102 photographs the persons 105 and 106 in the back. Since the processing from S1301 to S1307 is the same as that from S801 to S807, description thereof is omitted. If the digital camera 102 fails in the specific process based on the first feature information in S1307, the digital camera 102 requests the second feature information from the server 104 (S1308). At this time, the identification information of the mobile phone 103 is inquired to the query.

サーバ104は携帯電話103の識別情報に対応する第2の特徴情報の要求を受信すると、データベースから該識別情報に関連付けられた第2の特徴情報を検索する(S1309)。ここで検索結果としてデジタルカメラ101がS1109で送信した第2の特徴情報を得ることができる。サーバ104は検索した第2の特徴情報をデジタルカメラ102に応答として返す(S1310)。これにより、デジタルカメラ102は第2の特徴情報を得ることができる。S1311、S1312の処理はS810、S811と同じ処理であるので説明は省略する。これらの撮影処理を実施することで、図10のような画像データを得ることができ、人物105の後ろ姿からでも人物105を特定することができ、その属性情報を視覚的に見ることができる。   When the server 104 receives the request for the second feature information corresponding to the identification information of the mobile phone 103, the server 104 searches the database for the second feature information associated with the identification information (S1309). Here, the second feature information transmitted by the digital camera 101 in S1109 can be obtained as a search result. The server 104 returns the searched second feature information to the digital camera 102 as a response (S1310). Thereby, the digital camera 102 can obtain the second feature information. Since the processing of S1311, S1312 is the same as that of S810, S811, description thereof will be omitted. By performing these photographing processes, image data as shown in FIG. 10 can be obtained, the person 105 can be identified even from the back of the person 105, and the attribute information can be visually seen.

実施例2では、人物を特定できたデジタルカメラがサーバに生成した特徴情報を送信し、サーバが登録する。そのため、撮影時に周囲に人物を特定できたデジタルカメラが存在しない場合でも、サーバに問い合わせることで、生成された特徴情報を用いて画像データ中から特定することができる。   In the second embodiment, the digital camera that can identify the person transmits the feature information generated to the server, and the server registers it. For this reason, even if there is no digital camera that can identify a person in the vicinity at the time of shooting, it can be identified from the image data using the generated feature information by inquiring of the server.

以上説明を行った実施例1および実施例2のデジタルカメラ101、102の動作を図14に示すフローチャートを用いてまとめる。まず、デジタルカメラ101、102のシャッターボタン302を操作することで撮影処理が開始される(S1401)。なお、ここでシャッターボタン302の操作とは、シャッターボタン302の半押し等の所定の操作により開始される自動焦点制御の指示も含む。続いて、撮影処理が開始されると、デジタルカメラ101は通信可能な範囲に存在する端末装置から識別情報(識別子)を取得する(S1402)。識別子が取得できなければ、属性情報を表示しないことを決定して(S1413)、処理を処終了する。   The operations of the digital cameras 101 and 102 of the first and second embodiments described above will be summarized with reference to the flowchart shown in FIG. First, shooting processing is started by operating the shutter button 302 of the digital cameras 101 and 102 (S1401). Here, the operation of the shutter button 302 includes an instruction of automatic focus control started by a predetermined operation such as half-pressing of the shutter button 302. Subsequently, when the photographing process is started, the digital camera 101 acquires identification information (identifier) from a terminal device existing in a communicable range (S1402). If the identifier cannot be acquired, it is determined not to display the attribute information (S1413), and the process ends.

デジタルカメラ101、102は、通信可能な範囲に存在する端末装置の識別情報を取得すると、取得した識別情報を含む要求を行い、サーバ104から識別情報に関連付けられた属性情報および特徴情報を取得する(S1403)。デジタルカメラ101、102の第1の特定部308は、取得した特徴情報を用いて撮像画像上に特徴情報に対応するオブジェクトの検出を試みる(S1404)。続いて、デジタルカメラ101、102はS1404による特定処理が成功したかを判断する(S1405)。S1405の結果、特定処理が成功した場合は、S1411に処理を進める。   When the digital cameras 101 and 102 acquire the identification information of the terminal devices existing within the communicable range, the digital cameras 101 and 102 make a request including the acquired identification information and acquire attribute information and feature information associated with the identification information from the server 104. (S1403). The first specifying unit 308 of the digital cameras 101 and 102 tries to detect an object corresponding to the feature information on the captured image using the acquired feature information (S1404). Subsequently, the digital cameras 101 and 102 determine whether the specific processing in S1404 is successful (S1405). As a result of S1405, if the specific process is successful, the process proceeds to S1411.

一方、S1405の結果、特定処理が失敗した場合は、第2の特徴情報取得部311は、S1403で取得した識別子を含めて、他の装置に第2の特定情報を要求する(S1407)。ここで、他の装置とは実施例1では周囲に存在するデジタルカメラであり、実施例2ではサーバ104である。続いて、デジタルカメラ101、102はS1406による要求の他の装置からの応答があるかどうかを判定する(S1407)。S1407の結果、応答がある場合は、S1408に処理を進め、ない場合は属性情報を表示しないことを決定して(S1413)、処理を終了する。   On the other hand, if the identification process fails as a result of S1405, the second feature information acquisition unit 311 requests the second identification information from another device including the identifier acquired in S1403 (S1407). Here, the other apparatus is a digital camera existing in the vicinity in the first embodiment, and the server 104 in the second embodiment. Subsequently, the digital cameras 101 and 102 determine whether or not there is a response from another device requested in S1406 (S1407). As a result of S1407, if there is a response, the process proceeds to S1408. If not, it is determined not to display the attribute information (S1413), and the process ends.

デジタルカメラ101、102の第2特徴情報取得部311は、他の装置からの応答に含まれる第2の特徴情報を取得する(S1408)。続いて、第2の特定部312は、取得し第2の特徴情報を用いて撮像画像上に特徴情報に対応するオブジェクトの検出を試みる(S1409)。デジタルカメラ101、102はS1409による特定処理が成功したかを判断する(S1410)。S1410の結果、特定処理が成功した場合は、S1411に処理を進める。一方、S1410の結果、特定処理が失敗した場合は属性情報を表示しないことを決定して(S1413)、処理を処終了する。   The second feature information acquisition unit 311 of the digital cameras 101 and 102 acquires second feature information included in a response from another device (S1408). Subsequently, the second specifying unit 312 tries to detect an object corresponding to the feature information on the captured image using the acquired second feature information (S1409). The digital cameras 101 and 102 determine whether the specific processing in S1409 is successful (S1410). As a result of S1410, when the specific process is successful, the process proceeds to S1411. On the other hand, if the result of S1410 is that the specific process has failed, it is determined not to display the attribute information (S1413), and the process ends.

S1411では、特徴情報生成部310は特定処理に成功した撮像画像から特定したオブジェクトに関する特徴情報を新たに生成する。生成された特徴情報は、実施例1では他の装置から要求があれば送信するために記憶部313に保持する。実施例2では、生成された特徴情報は、サーバ104に送信される。S1412では、撮像画像から識別情報に対応するオブジェトを検出し、特定されると、合成部309は、検出されたオブジェクトと関連付けてその近傍に属性情報を合成する。そして、表示部304は該合成画像を表示する(S1412)。このように、予め登録されている第1の特徴情報から画像中からオブジェクトを特定できなかった場合においても、別の装置が新たに生成した特徴情報によりオブジェクトを特定できる。そして、デジタルカメラ101のユーザは、属性情報がオブジェクトに関連付けられて表示される合成画像を見ることにより、撮像画像中のオブジェクトに関連する情報を得ることができる。また、ユーザは、表示された情報がどのオブジェクトに関連付けられた情報であることが容易に知ることができる。   In step S1411, the feature information generation unit 310 newly generates feature information related to the identified object from the captured image that has been successfully identified. In the first embodiment, the generated feature information is held in the storage unit 313 for transmission when requested by another device. In the second embodiment, the generated feature information is transmitted to the server 104. In S1412, when the object corresponding to the identification information is detected from the captured image and specified, the combining unit 309 combines the attribute information with the detected object in association with the detected object. Then, the display unit 304 displays the composite image (S1412). As described above, even when the object cannot be specified from the image from the first registered feature information, the object can be specified by the feature information newly generated by another device. Then, the user of the digital camera 101 can obtain information related to the object in the captured image by viewing the composite image displayed with the attribute information associated with the object. In addition, the user can easily know which displayed information is associated with which object.

(その他の実施形態)
その他の構成として、本発明は静止画によらず動画像において人物を特定し、属性情報を表示してもよい。その場合、動画像の各フレームを静止画として連続して処理することで実現してもよい。識別情報の発信や取得などに関わる通信は、IEEE802.11シリーズに則った無線LANの通信に限らず、Bluetooth(登録商標)やパッシブ/アクティブ型のRFIDなどでよい。また、無線LANとパッシブ型RFIDなど複数の無線通信インタフェースで同時に、識別情報に関する通信を行ってもよい。また、デジタルカメラ101、102に識別情報発信部を備え付けて、デジタルカメラにおいても識別情報を発信してもよい。
(Other embodiments)
As another configuration, the present invention may specify a person in a moving image and display attribute information regardless of a still image. In that case, you may implement | achieve by processing each flame | frame of a moving image as a still image continuously. Communication related to transmission and acquisition of identification information is not limited to wireless LAN communication conforming to the IEEE802.11 series, but may be Bluetooth (registered trademark), passive / active RFID, or the like. In addition, communication regarding identification information may be simultaneously performed by a plurality of wireless communication interfaces such as a wireless LAN and a passive RFID. Further, the identification information transmission unit may be provided in the digital cameras 101 and 102 so that the identification information is transmitted also in the digital camera.

また、実施例1、2では、第一の特徴情報として顔の特徴情報、第二の特徴情報として服装の特徴情報を用いたが、本発明はどの特徴情報を用いるかどうかは規定しない。第一の特徴情報として服装の特徴情報を用いて、第二の特徴情報として顔の特徴情報を用いてもよい。また、第一の特徴情報として、顔の特徴情報と服装の特徴情報といった複数の特徴情報を組み合わせてもよい。ただし第一の特徴情報は、顔のようにあまり中期的に変化しない特徴情報であることが好ましい。一方で、第二の特徴情報は、その都度、新しく生成される特徴情報であるので、服装のように変化がある特徴情報であってもよい。   In the first and second embodiments, facial feature information is used as the first feature information and clothing feature information is used as the second feature information. However, the present invention does not define which feature information is used. The feature information of clothes may be used as the first feature information, and the feature information of the face may be used as the second feature information. Further, as the first feature information, a plurality of feature information such as facial feature information and clothing feature information may be combined. However, the first feature information is preferably feature information that does not change so much in the medium term, such as a face. On the other hand, since the second feature information is newly generated feature information each time, the second feature information may be feature information having a change such as clothes.

ただし、変化が激しい特徴情報を用いた場合には、記憶部313は服装の特徴情報を記憶した後に、一定時間経過後は該服装の特徴情報をクリアすることが望ましい。あるいは、日付が変わる等、ある特定の時間帯のタイミングでクリアしてもよい。   However, when feature information that changes rapidly is used, it is desirable that the storage unit 313 clears the feature information of the clothing after a certain period of time after storing the feature information of the clothing. Or you may clear at the timing of a certain specific time slot | zone, such as a date changing.

その他の特徴情報としては、髪型や帽子や装飾品などから特徴情報を用いてもよい。また、第一の特徴情報で顔の特徴情報を用いて、第二の特徴情報として、特定した人物の顔の下にある色や形に基づいて特徴情報を生成してもよい。また顔と体の割合に基づいて特徴情報を生成してもよい。周りの物体との大きさの比率などから特徴情報を算出してもよい。   As other feature information, the feature information may be used from a hairstyle, a hat, a decoration, or the like. Further, the feature information may be generated based on the color or shape under the identified person's face as the second feature information by using the face feature information in the first feature information. The feature information may be generated based on the ratio of the face and the body. The feature information may be calculated from a size ratio with surrounding objects.

また、本発明は、以下の処理を実行することによっても実現される。上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは情報処理装置に供給し、そのシステム或いは情報処理装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. Software (program) that realizes the functions of the above-described embodiments is supplied to a system or information processing apparatus via a network or various storage media, and the computer (or CPU, MPU, or the like) of the system or information processing apparatus executes the program. It is a process to read and execute.

101、102 デジタルカメラ
103 携帯電話
104 サーバ
105、106 人物
101, 102 Digital camera 103 Mobile phone 104 Server 105, 106 People

Claims (11)

情報処理装置であって、
撮像画像において所定のオブジェクトを特定するための第1の特徴情報を用いて、前記撮像画像から前記所定のオブジェクトを特定する第1の特定手段と、
第1の他の装置が前記第1の特徴情報を用いて前記所定のオブジェクトの特定に成功した画像から生成された前記所定のオブジェクトを特定するための第2の特徴情報を取得する第2の特徴情報取得手段と、
前記第1の特定手段が前記所定のオブジェクトを特定できなかった場合に、前記第2の特徴情報を用いて、前記撮像画像から前記所定のオブジェクトを特定する第2の特定手段と、
前記第1の特定手段または第2の特定手段により特定された前記所定のオブジェクトと当該所定のオブジェクトに関する情報とを関連付けて表示部に表示させる表示制御手段と、
を有することを特徴とする情報処理装置。
An information processing apparatus,
First specifying means for specifying the predetermined object from the captured image using first feature information for specifying the predetermined object in the captured image;
A second second device acquires second feature information for identifying the predetermined object generated from an image in which the predetermined object has been successfully identified using the first feature information. Feature information acquisition means;
A second specifying means for specifying the predetermined object from the captured image using the second feature information when the first specifying means cannot specify the predetermined object;
Display control means for displaying the predetermined object specified by the first specifying means or the second specifying means on the display unit in association with information on the predetermined object;
An information processing apparatus comprising:
第2の他の装置の識別子を取得する識別情報取得手段と、
前記識別情報取得手段により取得した識別子に関連付けられた情報を取得する情報取得手段とを更に有し、
前記所定のオブジェクトに関する情報は、前記情報取得手段により取得された情報であることを特徴とする
を更に有することを特徴とする請求項1に記載の情報処理装置。
Identification information acquisition means for acquiring an identifier of the second other device;
Further comprising information acquisition means for acquiring information associated with the identifier acquired by the identification information acquisition means,
The information processing apparatus according to claim 1, further comprising: the information related to the predetermined object is information acquired by the information acquisition unit.
前記第1の特定手段または前記第2の特定手段により前記撮像画像から前記所定のオブジェクトの特定に成功した場合、当該撮像画像から前記所定のオブジェクトに関する第3の特徴情報を生成する生成手段とを更に有することを特徴とする請求項1または2に記載の情報処理装置。   Generating means for generating third characteristic information relating to the predetermined object from the captured image when the predetermined object is successfully identified from the captured image by the first specifying means or the second specifying means; The information processing apparatus according to claim 1, further comprising: 前記生成手段が生成した前記第3の特徴情報を第3の他の装置に送信する送信手段を有することを特徴とする請求項3に記載の情報処理装置。   The information processing apparatus according to claim 3, further comprising: a transmission unit that transmits the third feature information generated by the generation unit to a third other device. 前記識別情報取得手段が取得した前記識別子を含めて、当該識別子に関連付けられた前記所定のオブジェクトを前記撮像画像から特定するための前記第2の特徴情報を送信するように第4の他の装置に要求する要求手段を更に有し、
前記第2の特徴情報取得手段は、前記要求手段の要求に対する前記第4の他の装置の応答から前記第2の特徴情報を取得することを特徴とする請求項2に記載の情報処理装置。
A fourth other device that transmits the second feature information for specifying the predetermined object associated with the identifier from the captured image, including the identifier acquired by the identification information acquisition means. Further comprising request means for requesting
The information processing apparatus according to claim 2, wherein the second feature information acquisition unit acquires the second feature information from a response of the fourth other device to the request of the request unit.
前記第1の他の装置と前記第4の他の装置とが同一の装置であることを特徴とする請求項5に記載の情報処理装置。   6. The information processing apparatus according to claim 5, wherein the first other apparatus and the fourth other apparatus are the same apparatus. 前記所定のオブジェクトは、前記識別情報取得手段により取得した識別子に関連付けられていることを特徴とする請求項2、5、6の何れか1項に記載の情報処理装置   The information processing apparatus according to claim 2, wherein the predetermined object is associated with an identifier acquired by the identification information acquisition unit. 前記第1の特徴情報を外部装置から取得する第1の特徴情報取得手段を更に有することを特徴とする請求項1乃至7何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising a first feature information acquisition unit configured to acquire the first feature information from an external device. 前記第1の特徴情報と前記第2の特徴情報は、異なる外部装置から夫々取得されることを特徴とする請求項1乃至8何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the first feature information and the second feature information are acquired from different external devices, respectively. 情報処理装置の制御方法であって、
撮像画像において所定のオブジェクトを特定するための第1の特徴情報を用いて、前記撮像画像から前記所定のオブジェクトを特定する第1の特定工程と、
第1の他の装置が前記第1の特徴情報を用いて前記所定のオブジェクトの特定に成功した画像から生成された前記所定のオブジェクトを特定するための第2の特徴情報を取得する第2の特徴情報取得工程と、
前記第1の特定手段が前記所定のオブジェクトを特定できなかった場合に、前記第2の特徴情報を用いて、前記撮像画像から前記所定のオブジェクトを特定する第2の特定工程と、
前記第1の特定工程または第2の特定工程において特定された前記所定のオブジェクトと当該所定のオブジェクトに関する情報とを関連付けて表示部に表示させる表示制御工程と、
を有することを特徴とする情報処理装置の制御方法。
A method for controlling an information processing apparatus,
A first specifying step of specifying the predetermined object from the captured image using first feature information for specifying the predetermined object in the captured image;
A second second device acquires second feature information for identifying the predetermined object generated from an image in which the predetermined object has been successfully identified using the first feature information. A feature information acquisition process;
A second specifying step of specifying the predetermined object from the captured image using the second feature information when the first specifying unit cannot specify the predetermined object;
A display control step of associating and displaying the predetermined object specified in the first specific step or the second specific step and information on the predetermined object on a display unit;
A method for controlling an information processing apparatus, comprising:
情報処理装置に請求項9記載の制御方法を実行させるためのプログラム。   A program for causing an information processing apparatus to execute the control method according to claim 9.
JP2011263419A 2011-12-01 2011-12-01 Information processing apparatus, control method for information processing apparatus, and program Active JP5885480B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011263419A JP5885480B2 (en) 2011-12-01 2011-12-01 Information processing apparatus, control method for information processing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011263419A JP5885480B2 (en) 2011-12-01 2011-12-01 Information processing apparatus, control method for information processing apparatus, and program

Publications (3)

Publication Number Publication Date
JP2013114653A true JP2013114653A (en) 2013-06-10
JP2013114653A5 JP2013114653A5 (en) 2015-01-22
JP5885480B2 JP5885480B2 (en) 2016-03-15

Family

ID=48710102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011263419A Active JP5885480B2 (en) 2011-12-01 2011-12-01 Information processing apparatus, control method for information processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP5885480B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018106696A (en) * 2016-12-23 2018-07-05 雨暹 李 Virtual information construction method of mobile object, virtual information retrieval method of mobile object and application system
CN111045627A (en) * 2013-07-25 2020-04-21 交互数字Ce专利控股公司 Method and apparatus for displaying object

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155096A (en) * 2004-11-26 2006-06-15 Fuji Photo Film Co Ltd Image recognition system, image recognition method, and image recognition program
JP2012043435A (en) * 2010-08-18 2012-03-01 Pantech Co Ltd Augmented reality service sharing method, and user terminal, remote terminal and system used for sharing augmented reality service

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155096A (en) * 2004-11-26 2006-06-15 Fuji Photo Film Co Ltd Image recognition system, image recognition method, and image recognition program
JP2012043435A (en) * 2010-08-18 2012-03-01 Pantech Co Ltd Augmented reality service sharing method, and user terminal, remote terminal and system used for sharing augmented reality service

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111045627A (en) * 2013-07-25 2020-04-21 交互数字Ce专利控股公司 Method and apparatus for displaying object
CN111045627B (en) * 2013-07-25 2024-05-03 交互数字Ce专利控股公司 Method and apparatus for displaying objects
JP2018106696A (en) * 2016-12-23 2018-07-05 雨暹 李 Virtual information construction method of mobile object, virtual information retrieval method of mobile object and application system
US10264207B2 (en) 2016-12-23 2019-04-16 Yu-Hsien Li Method and system for creating virtual message onto a moving object and searching the same

Also Published As

Publication number Publication date
JP5885480B2 (en) 2016-03-15

Similar Documents

Publication Publication Date Title
KR101680714B1 (en) Method for providing real-time video and device thereof as well as server, terminal device, program, and recording medium
US10264207B2 (en) Method and system for creating virtual message onto a moving object and searching the same
US10587847B2 (en) Content capture and transmission of data of a subject to a target device
US20090241039A1 (en) System and method for avatar viewing
US20150029350A1 (en) Imaging apparatus capable of wireless communication
US9716820B2 (en) Remote-camera control method, remote photography system, and server
JP5854714B2 (en) Display control apparatus, display control apparatus control method, and program
JP6631694B2 (en) Search support device, search support system, search support method, and program
US9692956B2 (en) Imaging apparatus, communication device, imaging method, and information notification method
US20220012469A1 (en) Method for sharing information for identifying a person or object
JP2014035642A (en) Display device, control method therefor, display system, and program
JP2013085200A (en) Image processing device, image processing method, and program
JP5885480B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP6614782B2 (en) Communication device, control method, and program
US20210258505A1 (en) Image processing apparatus, image processing method, and storage medium
JP6305757B2 (en) program
JP2013021473A (en) Information processing device, information acquisition method, and computer program
JP5801690B2 (en) Image processing apparatus and image processing method
CN114982218A (en) Apparatus and method for remote image capture with automatic object selection
JP2013219608A (en) Information processing apparatus, control method for information processing apparatus, and program
JP2009124539A (en) Photographic image providing server, photographic image providing system and method
JP6979643B2 (en) Surveillance video display system, surveillance video display device, surveillance information management server, and surveillance video display method
JP2011199800A (en) Information providing apparatus, portable terminal, information providing system, information providing method, and information providing program
JP6435640B2 (en) Congestion degree estimation system
JP2013037402A (en) Information processing device, control method for information processing device, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160209

R151 Written notification of patent or utility model registration

Ref document number: 5885480

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151