JP5801690B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5801690B2
JP5801690B2 JP2011236478A JP2011236478A JP5801690B2 JP 5801690 B2 JP5801690 B2 JP 5801690B2 JP 2011236478 A JP2011236478 A JP 2011236478A JP 2011236478 A JP2011236478 A JP 2011236478A JP 5801690 B2 JP5801690 B2 JP 5801690B2
Authority
JP
Japan
Prior art keywords
user
captured image
unit
identification
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011236478A
Other languages
Japanese (ja)
Other versions
JP2013098588A5 (en
JP2013098588A (en
Inventor
匠 宮川
匠 宮川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011236478A priority Critical patent/JP5801690B2/en
Publication of JP2013098588A publication Critical patent/JP2013098588A/en
Publication of JP2013098588A5 publication Critical patent/JP2013098588A5/ja
Application granted granted Critical
Publication of JP5801690B2 publication Critical patent/JP5801690B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像画像中に映っている被写体の情報を提示するための技術に関する。   The present invention relates to a technique for presenting information on a subject shown in a captured image.

近年、カメラ等で撮影した現実環境の画像に、現実環境中の物体の属性情報や、CG(Computer Graphics)を用いたバーチャルな物体を、付加、合成するAR(Augmented Reality:拡張現実)技術が盛んである。例えば、カメラをかざすと、GPS(Global Positioning System)による位置情報から現実の映像上に関連するタグ情報を重ね合わせて表示する携帯電話用拡張現実ソフトウェアなども登場している。   In recent years, AR (Augmented Reality) technology that adds and synthesizes virtual object using CG (Computer Graphics) and attribute information of objects in the real environment to images of the real environment taken with cameras etc. It is thriving. For example, augmented reality software for mobile phones has appeared that displays related tag information superimposed on real images from GPS (Global Positioning System) position information over a camera.

このようなARシステムにおいて、被写体の近傍に被写体に関連した情報を表示することが望まれている。すなわち、撮影画像中に様々な被写体が含まれている場合、被写体に関連するそれぞれの情報が、どの被写体の情報であるのかをユーザがわかるような形で表示することが望ましい。またこのためには、撮影画像中から被写体を一意に特定すること、そして特定した被写体と被写体の近傍に表示すべき情報とを結びつけることが必要である。   In such an AR system, it is desired to display information related to the subject in the vicinity of the subject. In other words, when various subjects are included in the photographed image, it is desirable to display in such a way that the user can know which subject information each piece of information related to the subject is. For this purpose, it is necessary to uniquely identify the subject from the captured image, and to link the identified subject and information to be displayed in the vicinity of the subject.

特許文献1には、撮影画像に被写体が所有する無線タグが報知した情報を付属情報として付加する技術が開示されている。より詳しくは、無線タグの報知情報には無線タグ所有者の顔等を識別できる画像特徴情報が含まれており、撮影画像と比較することで被写体の特定を行うことができる画像検索装置を開示している。   Patent Document 1 discloses a technique for adding information notified by a wireless tag owned by a subject to attached images as attached information. More specifically, an image retrieval apparatus that includes image feature information that can identify the face of the wireless tag owner and the like in the notification information of the wireless tag and that can identify the subject by comparing with the captured image is disclosed. doing.

特許文献2は、RFタグを持つ被写体が指向性アンテナのエリアを通過する際、画角が指向性アンテナエリアと連動したカメラにて撮影を行い、撮影画像にRFタグの所有者である被写体が存在することを検出可能な映像属性自動付与装置を開示している。   In Patent Document 2, when a subject having an RF tag passes through the area of the directional antenna, the subject is photographed with a camera whose angle of view is linked to the directional antenna area. An apparatus for automatically assigning video attributes that can be detected is disclosed.

特許文献3は、制御装置が被写体の存在する場所をカメラに通知し、カメラは、被写体とカメラとの相対位置を算出することで、被写体の場所を特定する方法を開示している。   Patent Document 3 discloses a method in which a control device notifies a camera of a location where a subject exists, and the camera calculates a relative position between the subject and the camera to identify the location of the subject.

特開2007-052646号公報JP 2007-052646 特開2007-228195号公報JP 2007-228195 A 特開2008-066963号公報JP 2008-066963

しかしながら、複数の被写体が近接している場合や、被写体の向きによっては、被写体を個別に特定することが困難となる場合がある。   However, when a plurality of subjects are close to each other or depending on the orientation of the subject, it may be difficult to specify the subject individually.

例えば、特許文献1に開示されている技術では、被写体が後ろを向いた撮影画像の場合、被写体を顔等の画像特徴情報から特定することは難しい。また、特許文献2や特許文献3に開示されている技術では、被写体が繁華街のような同一のエリアに多数存在する場合、近接する被写体同士の区別が難しい。   For example, in the technique disclosed in Patent Document 1, it is difficult to specify a subject from image feature information such as a face when the subject is a captured image facing backward. Also, with the techniques disclosed in Patent Document 2 and Patent Document 3, when there are many subjects in the same area such as a downtown area, it is difficult to distinguish between adjacent subjects.

本発明はこのような問題に鑑みてなされたものであり、被写体の特徴情報から該被写体を特定できない場合であっても、該被写体を一意に特定するための技術を提供することを目的とする。   The present invention has been made in view of such a problem, and an object of the present invention is to provide a technique for uniquely identifying a subject even when the subject cannot be identified from feature information of the subject. .

上述の目的を達成するために、本発明の画像処理装置は、撮像画像を取得する手段と、
センサによりユーザをセンシングすることで得られた、該ユーザの状態を表すセンサ情報を受信する受信手段と、
前記ユーザの属性情報と、前記撮像画像中における前記ユーザを識別するための識別パラメータと、を取得する取得手段と、
前記受信手段が受信したセンサ情報と、前記取得手段が取得した識別パラメータと、に基づいて、前記撮像画像中の被写体の中から、前記ユーザを識別する識別手段と、
前記取得手段が取得した属性情報を、前記識別手段による識別の結果に応じた前記撮像画像上の位置に合成して出力する出力手段と
を有することを特徴とする。
In order to achieve the above-described object, the image processing apparatus of the present invention includes means for acquiring a captured image,
Receiving means for receiving sensor information representing the state of the user obtained by sensing the user with a sensor;
Acquisition means for acquiring the attribute information of the user and an identification parameter for identifying the user in the captured image;
An identification unit for identifying the user from among subjects in the captured image based on the sensor information received by the reception unit and the identification parameter acquired by the acquisition unit;
And output means for combining and outputting the attribute information acquired by the acquisition means at a position on the captured image corresponding to a result of identification by the identification means.

本発明の構成により、被写体の特徴情報から該被写体を特定できない場合であっても、該被写体を一意に特定することができる。   According to the configuration of the present invention, even when the subject cannot be identified from the feature information of the subject, the subject can be uniquely identified.

システムの構成を示す図。The figure which shows the structure of a system. サーバ109が保持する情報について説明する図。The figure explaining the information which the server 109 hold | maintains. デジタルカメラ101の機能構成例を示すブロック図。FIG. 2 is a block diagram illustrating an example of a functional configuration of the digital camera 101. 携帯電話の機能構成例を示すブロック図。The block diagram which shows the function structural example of a mobile telephone. 処理シーケンスを示す図。The figure which shows a process sequence. 識別情報の構成例を示す図。The figure which shows the structural example of identification information. ステップS510における処理の詳細を示すフローチャート。The flowchart which shows the detail of the process in step S510. ステップS905において生成されるテーブルの構成例を示す図。The figure which shows the structural example of the table produced | generated in step S905. ステップS703において行う処理のフローチャート。The flowchart of the process performed in step S703. 識別情報の構成例を示す図。The figure which shows the structural example of identification information. ステップS905において生成されるテーブルの構成例を示す図。The figure which shows the structural example of the table produced | generated in step S905. テーブルの構成例を示す図。The figure which shows the structural example of a table. テーブルの構成例を示す図。The figure which shows the structural example of a table. テーブルの構成例を示す図。The figure which shows the structural example of a table.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態に係る画像処理装置は、撮像画像上に、該撮像画像中に映っている被写体の属性情報を合成して表示するデジタルカメラである。図1に、このデジタルカメラを含むシステムの構成を示す。
[First Embodiment]
The image processing apparatus according to the present embodiment is a digital camera that synthesizes and displays attribute information of a subject appearing in the captured image on the captured image. FIG. 1 shows the configuration of a system including this digital camera.

デジタルカメラ101は、被写体を撮像することで撮像画像の生成、記録、表示を行う機能に加え、IEEE802.11に則った無線LAN機能を有する。図1では、デジタルカメラ101の周囲には人物102,104,106が存在しており、人物102,104,106はそれぞれ、携帯電話103,105,107を手に把持している。携帯電話103、105,107の何れも、IEEE802.11に則った無線LAN機能を有する機器であり、デジタルカメラ101との無線通信を可能にする。携帯電話103,105,107は何れも携帯端末の一例であり、携帯電話103,105,107が行うものとして後述する各処理を実行可能な機器であれば、如何なる携帯端末を携帯電話103,105,107に適用してもよい。また、図1では、デジタルカメラ101の周囲には3台の携帯電話が存在するものとしているが、その台数はこれに限るものではない。   The digital camera 101 has a wireless LAN function conforming to IEEE 802.11 in addition to a function of generating, recording, and displaying a captured image by capturing an image of a subject. In FIG. 1, there are persons 102, 104, and 106 around the digital camera 101, and the persons 102, 104, and 106 hold the mobile phones 103, 105, and 107 in their hands, respectively. Each of the mobile phones 103, 105, and 107 is a device having a wireless LAN function conforming to IEEE 802.11, and enables wireless communication with the digital camera 101. Each of the mobile phones 103, 105, and 107 is an example of a mobile terminal. Any mobile terminal can be used as long as the mobile phone 103, 105, and 107 can perform each process described below. , 107 may be applied. In FIG. 1, it is assumed that there are three mobile phones around the digital camera 101, but the number is not limited to this.

携帯電話103,105,107は何れも、自機に関する情報及び自機の所有者(ユーザ)に関する情報を含む識別情報を定期的若しくは不定期的に、無線LAN機能によってデジタルカメラ101に送信する。なお、この識別情報の送信は、デジタルカメラ101からの送信要求を受けたことに応じて行ってもよい。この識別情報は、IEEE802.11に則ったフレームの一要素として付与され、送信されるものとする。この識別情報について詳しくは後述する。   Each of the mobile phones 103, 105, and 107 transmits identification information including information related to the own device and information related to the owner (user) of the own device to the digital camera 101 by the wireless LAN function periodically or irregularly. The identification information may be transmitted in response to a transmission request from the digital camera 101. This identification information is given and transmitted as an element of a frame conforming to IEEE 802.11. Details of this identification information will be described later.

デジタルカメラ101はまた、インターネットなどのネットワーク108を介して、外部装置としてのサーバ109とのデータ通信を行うことができる。然るにデジタルカメラ101は、携帯電話103,105,107のそれぞれから受信した識別情報を用いて、携帯電話103、105,107のそれぞれの所有者である人物102,104,106に係る後述の様々な情報をサーバ109から取得する。そしてデジタルカメラ101は、この取得した情報や上記識別情報を用いて、自身が撮像した撮像画像中の被写体(人物102,104,106のうち1以上)を識別すると共に、この識別した被写体に関する情報をこの撮像画像上に重畳して表示する。   The digital camera 101 can also perform data communication with a server 109 as an external device via a network 108 such as the Internet. However, the digital camera 101 uses the identification information received from each of the mobile phones 103, 105, and 107, and uses various identifications described later relating to the persons 102, 104, and 106 who are owners of the mobile phones 103, 105, and 107. Information is acquired from the server 109. The digital camera 101 uses the acquired information and the identification information to identify a subject (one or more of the persons 102, 104, and 106) in the captured image captured by the digital camera 101, and information about the identified subject. Are superimposed on the captured image and displayed.

次に、デジタルカメラ101の機能構成例について、図3のブロック図を用いて説明する。制御部320は、記憶部312に格納されているコンピュータプログラムやデータを用いて各種の処理を実行すると共に、デジタルカメラ101を構成する各部の動作制御を行う。   Next, a functional configuration example of the digital camera 101 will be described with reference to the block diagram of FIG. The control unit 320 executes various processes using computer programs and data stored in the storage unit 312 and controls the operation of each unit constituting the digital camera 101.

無線通信制御部301は、携帯電話103,105,107との間で無線信号の送受信を行うためのアンテナや回路、それらを制御することで無線通信を制御する制御部、を有する。   The wireless communication control unit 301 includes an antenna and a circuit for transmitting and receiving wireless signals to and from the mobile phones 103, 105, and 107, and a control unit that controls wireless communication by controlling them.

シャッターボタン302は、撮像を開始時するためのボタンであり、デジタルカメラ101のユーザがシャッターボタン302を押下すると、制御部320による制御により、撮像部303において撮像処理が開始される。   The shutter button 302 is a button for starting imaging. When the user of the digital camera 101 presses the shutter button 302, imaging processing is started in the imaging unit 303 under the control of the control unit 320.

撮像部303は、レンズやRGBセンサ、赤外線センサ(熱センサ)、X線センサ、A/D変換器、それらを制御する制御部、を有し、撮像部303が撮像処理を行うことで、撮像画像を生成することができる。   The imaging unit 303 includes a lens, an RGB sensor, an infrared sensor (thermal sensor), an X-ray sensor, an A / D converter, and a control unit that controls them, and the imaging unit 303 performs imaging processing to perform imaging. An image can be generated.

表示部304は、撮像部303が撮像した撮像画像や、その他の情報(画像情報や文字情報)を表示するための表示領域を有しており、液晶ディスプレイやそれを制御する制御部を有する。識別情報取得部305は、無線通信制御部301を制御することで、携帯電話103,105,107のそれぞれから識別情報を受信する。   The display unit 304 has a display area for displaying a captured image captured by the imaging unit 303 and other information (image information and character information), and includes a liquid crystal display and a control unit that controls the display. The identification information acquisition unit 305 receives the identification information from each of the mobile phones 103, 105, and 107 by controlling the wireless communication control unit 301.

顔特徴情報取得部306は無線通信制御部301を制御し、識別情報取得部305が携帯電話103,105,107のそれぞれから取得した識別情報を用いて、サーバ109に携帯電話103,105,107のそれぞれの所有者の顔の特徴量を問い合わせる。なお、本実施形態では、所有者を識別するために使用可能な識別パラメータの一例として顔の特徴量を用いるが、所有者を識別するために使用可能なパラメータであれば、顔の特徴量以外のパラメータを採用してもよい。   The face feature information acquisition unit 306 controls the wireless communication control unit 301, and the identification information acquisition unit 305 uses the identification information acquired from each of the mobile phones 103, 105, and 107 to send the mobile phone 103, 105, 107 to the server 109. Queries the facial features of each owner. In this embodiment, a facial feature quantity is used as an example of an identification parameter that can be used to identify the owner. However, any parameter that can be used to identify the owner is not a facial feature quantity. These parameters may be adopted.

属性情報取得部307は無線通信制御部301を制御し、識別情報取得部305が携帯電話103,105,107のそれぞれから取得した識別情報を用いて、サーバ109に携帯電話103,105,107のそれぞれの所有者の属性情報を問い合わせる。本実施形態ではこの属性情報は所有者の名前とするが、他の属性を表す情報であってもよい。   The attribute information acquisition unit 307 controls the wireless communication control unit 301, and the identification information acquisition unit 305 uses the identification information acquired from each of the mobile phones 103, 105, and 107 to send the mobile phone 103, 105, 107 to the server 109. Queries attribute information of each owner. In this embodiment, this attribute information is the name of the owner, but may be information representing other attributes.

被写体特定部308は、顔特徴情報取得部306が取得したそれぞれの所有者の顔の特徴量を用いて、撮像部303により生成された撮像画像中の被写体を識別する。なお、この識別が失敗した場合、被写体特定部308は、識別情報から得られる後述の様々な情報を用いて再度、撮像部303により生成された撮像画像中の被写体を識別する。   The subject specifying unit 308 identifies a subject in the captured image generated by the imaging unit 303 using the feature amount of each owner's face acquired by the face feature information acquisition unit 306. When this identification fails, the subject specifying unit 308 identifies the subject in the captured image generated by the imaging unit 303 again using various information described later obtained from the identification information.

加速度情報取得部309は、3軸方向の加速度を取得する加速度センサと、該加速度センサを制御する制御部と、を有する。位置情報取得部311は、デジタルカメラ101の現在位置を特定するための緯度、経度、方位、高度、上下などの情報を取得するGPSおよび3軸の地磁気センサ、ジャイロセンサ等と、これを制御する制御部と、を有する。   The acceleration information acquisition unit 309 includes an acceleration sensor that acquires acceleration in three axis directions, and a control unit that controls the acceleration sensor. The position information acquisition unit 311 controls the GPS, three-axis geomagnetic sensor, gyro sensor, and the like that acquire information such as latitude, longitude, azimuth, altitude, and up / down for specifying the current position of the digital camera 101. And a control unit.

記憶部312は、RAMやROM等により構成されており、無線通信制御部301が携帯電話103,105,107から受信した識別情報や、サーバ109から受信した様々な情報を一時的に記憶するためのエリアを有する。更に記憶部312は、制御部320による実行対象となるコンピュータプログラムやデータを一時的に記憶するためのエリア、制御部320が各種の処理を実行する際に用いるワークエリアを有する。即ち、記憶部312は、各種のエリアを適宜に提供することができる。   The storage unit 312 includes a RAM, a ROM, and the like, and temporarily stores identification information received by the wireless communication control unit 301 from the mobile phones 103, 105, and 107 and various information received from the server 109. Have an area. Further, the storage unit 312 has an area for temporarily storing computer programs and data to be executed by the control unit 320, and a work area used when the control unit 320 executes various processes. That is, the storage unit 312 can provide various areas as appropriate.

姿勢情報取得部316は、位置情報取得部311から取得した3軸の方位情報と、加速度情報取得部309から取得した3軸の加速度情報と、から、ピッチ角、ロール角、ヨー角を抽出する。ここで、ピッチ角とは、X軸を軸とする回転角のことであり、ロール角とは、Y軸を軸とする回転角のことであり、ヨー角とは、Z軸を軸とする回転角のことである。即ち、デジタルカメラ101の姿勢を算出する。そして更に、姿勢情報取得部316は、3軸の加速度情報と、ロール角・ピッチ角・ヨー角と、からデジタルカメラ101の動き情報を求める。   The posture information acquisition unit 316 extracts a pitch angle, a roll angle, and a yaw angle from the three-axis azimuth information acquired from the position information acquisition unit 311 and the three-axis acceleration information acquired from the acceleration information acquisition unit 309. . Here, the pitch angle is a rotation angle around the X axis, the roll angle is a rotation angle around the Y axis, and the yaw angle is around the Z axis. It is a rotation angle. That is, the attitude of the digital camera 101 is calculated. Further, the posture information acquisition unit 316 obtains motion information of the digital camera 101 from the triaxial acceleration information and the roll angle, pitch angle, and yaw angle.

画像合成部310は、被写体特定部308が識別した所有者に関する情報を、撮像部303が生成した撮像画像上に合成して出力する。合成位置については特に限定するものではなく、被写体特定部308が識別した所有者の画像領域の近傍に位置に合成してもよいし、撮像画像上の規定の位置に合成してもよい。また、画像合成部310による画像の出力先については特に限定するものではなく、表示部304に対して出力してもよいし、記憶部312に対して出力してもよい。   The image composition unit 310 synthesizes and outputs information related to the owner identified by the subject specifying unit 308 on the captured image generated by the image capturing unit 303. The combining position is not particularly limited, and the combining position may be combined with a position in the vicinity of the image area of the owner identified by the subject specifying unit 308 or may be combined with a specified position on the captured image. The output destination of the image by the image composition unit 310 is not particularly limited, and may be output to the display unit 304 or output to the storage unit 312.

次に、携帯電話103,105,107の機能構成例について、図4のブロック図を用いて説明する。無線通信制御部401は、デジタルカメラ101との間で無線信号の送受信を行うためのアンテナや回路、それらを制御することで無線通信を制御する制御部、を有する。   Next, functional configuration examples of the mobile phones 103, 105, and 107 will be described using the block diagram of FIG. The wireless communication control unit 401 includes an antenna and a circuit for transmitting and receiving wireless signals to and from the digital camera 101, and a control unit that controls wireless communication by controlling them.

識別情報発信部402は、無線通信制御部401を制御することで、自機に固有の識別情報をデジタルカメラ101に対して送信する。携帯電話制御部403は、自機を構成する各部の動作制御を行うと共に、自機が行うものとして後述する各処理を実行する。   The identification information transmission unit 402 transmits identification information unique to the own device to the digital camera 101 by controlling the wireless communication control unit 401. The mobile phone control unit 403 controls the operation of each unit constituting the own device, and executes each process described later as what the own device performs.

位置情報取得部404は、自機の位置を特定するための緯度、経度、方位、高度などの情報を取得するGPSおよび3軸の地磁気センサ等と、これらを制御する制御部と、を有する。加速度情報取得部405は、3軸方向の加速度を取得する加速度センサと、加速度センサを制御する制御部と、を有する。   The position information acquisition unit 404 includes a GPS and a triaxial geomagnetic sensor that acquire information such as latitude, longitude, azimuth, and altitude for specifying the position of the own device, and a control unit that controls these. The acceleration information acquisition unit 405 includes an acceleration sensor that acquires acceleration in three axis directions, and a control unit that controls the acceleration sensor.

姿勢情報取得部406は、位置情報取得部404が取得した3軸の方位情報と、加速度情報取得部405が取得した3軸の加速度情報と、から、ピッチ角、ロール角、ヨー角を抽出する。ここで、ピッチ角とは、X軸を軸とする回転角のことであり、ロール角とは、Y軸を軸とする回転角のことであり、ヨー角とは、Z軸を軸とする回転角のことである。即ち、自機の姿勢を算出する。そして更に、姿勢情報取得部406は、3軸の加速度情報と、ロール角・ピッチ角・ヨー角と、から自機の動き情報を求める。生体情報取得部407は、心拍センサ、音声センサ、体温センサ等の生体情報を収集するセンサを備え、自機の所有者の心拍数、音声、体温等の生体情報を取得する。   The posture information acquisition unit 406 extracts a pitch angle, a roll angle, and a yaw angle from the three-axis azimuth information acquired by the position information acquisition unit 404 and the three-axis acceleration information acquired by the acceleration information acquisition unit 405. . Here, the pitch angle is a rotation angle around the X axis, the roll angle is a rotation angle around the Y axis, and the yaw angle is around the Z axis. It is a rotation angle. That is, the attitude of the own device is calculated. Further, the posture information acquisition unit 406 obtains the motion information of the own device from the three-axis acceleration information and the roll angle / pitch angle / yaw angle. The biological information acquisition unit 407 includes sensors that collect biological information such as a heart rate sensor, a voice sensor, and a body temperature sensor, and acquires biological information such as the heart rate, voice, and body temperature of the owner of the own device.

ここで、識別情報発信部402が送信する識別情報の構成例について、図6を用いて説明する。図6は、携帯電話103,105,107のそれぞれが送信する識別情報の構成をテーブル形式で示している。   Here, a configuration example of identification information transmitted by the identification information transmission unit 402 will be described with reference to FIG. FIG. 6 shows the configuration of identification information transmitted by each of the mobile phones 103, 105, and 107 in a table format.

識別情報は、識別子(列601)、端末位置(列602)、時刻(列603)、動き(列604)、心拍数(列605)、体温(列606)、音(列607)、の情報を含む。   The identification information includes information on an identifier (column 601), terminal position (column 602), time (column 603), movement (column 604), heart rate (column 605), body temperature (column 606), and sound (column 607). including.

「識別子」は、携帯電話の所有者を一意に決定するためのユニークな値として無線通信制御部401で使用するイーサネット(登録商標)MACアドスであり、携帯電話に対して適宜設定されたものである。「端末位置」は、携帯電話の所有者が該携帯電話を把持している場所である。「時刻」は、識別情報が生成されたときの時刻(携帯電話制御部403が計時)である。   The “identifier” is an Ethernet (registered trademark) MAC address used by the wireless communication control unit 401 as a unique value for uniquely determining the owner of the mobile phone, and is appropriately set for the mobile phone. is there. The “terminal position” is a place where the owner of the mobile phone holds the mobile phone. “Time” is the time when the identification information is generated (the time is measured by the mobile phone control unit 403).

「動き」は、姿勢情報取得部406が求めた加速度情報若しくは該加速度情報から得られる動きがどの程度の動きであるのかを表す情報である。図6では、加速度情報が表す動きが、「静止している」、「歩いている」、「走っている」の何れであるのかを「動き」としている。これは例えば、加速度情報が表す動き(加速度)が第1の閾値以下であれば「静止している」とし、第1の閾値よりも大きく第2の閾値以下であれば「歩いている」とし、第2の閾値よりも大きければ「走っている」としている。   “Movement” is information indicating the degree of movement obtained from the acceleration information obtained by the posture information acquisition unit 406 or the movement obtained from the acceleration information. In FIG. 6, “motion” indicates whether the motion represented by the acceleration information is “still”, “walking”, or “running”. For example, if the motion (acceleration) represented by the acceleration information is less than or equal to the first threshold, it is “still”, and if it is greater than the first threshold and less than or equal to the second threshold, it is “walking”. If it is larger than the second threshold, it is said that “running”.

なお、この「動き」を、図10に示す如く、加速度情報をそれぞれの携帯電話を原点とし、方位および上下、時間を軸とした4次元関数へのフーリエ変換した関数としてもよい。   As shown in FIG. 10, this “movement” may be a function obtained by Fourier transforming acceleration information into a four-dimensional function with each mobile phone as the origin and the azimuth, up and down, and time as axes.

「心拍数」は、生体情報取得部407が取得した携帯電話の所有者の心拍数である。「体温」は、生体情報取得部407が取得した携帯電話の所有者の体温である。「音」は、生体情報取得部407が取得した携帯電話の所有者の音声情報であり、この音声情報は適宜圧縮してもよい。   “Heart rate” is the heart rate of the owner of the mobile phone acquired by the biometric information acquisition unit 407. “Body temperature” is the body temperature of the owner of the mobile phone acquired by the biological information acquisition unit 407. “Sound” is voice information of the owner of the mobile phone acquired by the biometric information acquisition unit 407, and this voice information may be compressed as appropriate.

次に、サーバ109が保持する情報について、図2を用いて説明する。サーバ109が管理するデータベースには、図2に示す如く、携帯電話の所有者(人物102,104,106)ごとに、該所有者に対する「識別子、名前、コメント、顔の特徴量」のセットが登録されている。   Next, information held by the server 109 will be described with reference to FIG. In the database managed by the server 109, as shown in FIG. 2, for each owner (person 102, 104, 106) of the mobile phone, a set of “identifier, name, comment, facial feature amount” for the owner is stored. It is registered.

「識別子」は、携帯電話側に設定されている上記の「識別子」に対応しており、例えば、図6の携帯電話103の「識別子」は図2の人物102の「識別子」と同じとなっている。   The “identifier” corresponds to the above “identifier” set on the mobile phone side. For example, the “identifier” of the mobile phone 103 in FIG. 6 is the same as the “identifier” of the person 102 in FIG. ing.

「名前」は、携帯電話の所有者の属性情報としての名前である。然るに、携帯電話の所有者の属性情報には、名前以外にも住所や所属先など様々なものが考え得るので、他の属性情報を登録してもよい。「コメント」は、適宜入力されたコメントである。なお、「名前」や「コメント」については、例えば、テキスト形式のデータとして登録しておけばよい。   “Name” is a name as attribute information of the owner of the mobile phone. However, as the attribute information of the owner of the mobile phone, various things such as an address and affiliation can be considered in addition to the name, and other attribute information may be registered. “Comment” is a comment entered as appropriate. Note that “name” and “comment” may be registered as data in text format, for example.

「顔の特徴量」は、携帯電話の所有者の顔が画像中に映っている場合に、この顔の識別処理で用いる識別パラーメータの一例である。「顔の特徴量」は、例えば、バイナリ形式のデータとして登録しておけばよい。   The “face feature amount” is an example of an identification parameter used in the face identification process when the face of the owner of the mobile phone is shown in the image. The “face feature amount” may be registered as binary data, for example.

次に、デジタルカメラ101、携帯電話103,105,107、サーバ109のそれぞれによる処理シーケンスについて、図5を用いて説明する。デジタルカメラ101のユーザがシャッターボタン302を押下すると、ステップS501において制御部320はこれを検知して撮像開始を撮像部303に指示する。これにより撮像部303は被写体(人物102,104,106を含む)の撮像を行い、撮像画像を生成する。この撮像画像は記憶部312などに格納される。   Next, processing sequences by the digital camera 101, the mobile phones 103, 105, 107, and the server 109 will be described with reference to FIG. When the user of the digital camera 101 presses the shutter button 302, in step S501, the control unit 320 detects this and instructs the imaging unit 303 to start imaging. As a result, the imaging unit 303 images a subject (including the persons 102, 104, and 106) and generates a captured image. This captured image is stored in the storage unit 312 or the like.

ステップS502では、制御部320は、無線通信制御部301を制御し、識別情報の取得要求を示す無線信号を発する。より具体的には、無線通信制御部301により、IEEE802.11に則ったプローブ・リクエスト・フレームをブロードキャストで送信する。図1の場合、デジタルカメラ101の周囲には携帯電話103,105,107が存在しているために、結果的には、これらの携帯電話103,105,107に対して識別情報の取得要求を送信することになる。   In step S502, the control unit 320 controls the wireless communication control unit 301 and issues a wireless signal indicating an acquisition request for identification information. More specifically, the wireless communication control unit 301 transmits a probe request frame according to IEEE 802.11 by broadcast. In the case of FIG. 1, since the mobile phones 103, 105, and 107 exist around the digital camera 101, as a result, an acquisition request for identification information is sent to the mobile phones 103, 105, and 107. Will be sent.

なお、上記のとおり、識別情報は、それぞれの携帯電話が定期的若しくは不定期的に送信しても良く、その場合は、識別情報の取得要求を送信する必要はなく、デジタルカメラ101はそれぞれの携帯電話から送信された識別情報を受信するだけでよい。   As described above, the identification information may be transmitted periodically or irregularly by each mobile phone. In that case, there is no need to transmit an acquisition request for the identification information, and the digital camera 101 It is only necessary to receive the identification information transmitted from the mobile phone.

ステップS503,S504,S505のそれぞれは、携帯電話103,105,107において識別情報を生成する処理である。携帯電話103,105,107のそれぞれの無線通信制御部401が識別情報の取得要求を受信すると、携帯電話制御部403は、位置情報取得部404、加速度情報取得部405、姿勢情報取得部406、生体情報取得部407を動作させる。これにより、図6や図10に示すような識別情報に含める情報を収集することができる。   Steps S503, S504, and S505 are processes for generating identification information in the mobile phones 103, 105, and 107, respectively. When the wireless communication control unit 401 of each of the mobile phones 103, 105, and 107 receives the identification information acquisition request, the mobile phone control unit 403 includes a position information acquisition unit 404, an acceleration information acquisition unit 405, an attitude information acquisition unit 406, The biometric information acquisition unit 407 is operated. Thereby, information included in the identification information as shown in FIG. 6 or 10 can be collected.

ステップS506では、携帯電話103,105,107のそれぞれの識別情報発信部402は無線通信制御部401を制御して、識別情報をデジタルカメラ101に対して送信する。この送信は、プローブ・レスポンス・フレームでそれぞれ応答するようにしてもよい。   In step S <b> 506, the identification information transmission unit 402 of each of the mobile phones 103, 105, and 107 controls the wireless communication control unit 401 to transmit identification information to the digital camera 101. This transmission may be each responded with a probe response frame.

これによりデジタルカメラ101は、携帯電話103,105,107のそれぞれから送信された識別情報を取得することができる。なお、識別情報の受信は、識別情報取得部305が無線通信制御部301を制御することで行い、識別情報取得部305は、この受信したそれぞれの携帯電話の識別情報を記憶部312に格納する。   As a result, the digital camera 101 can acquire the identification information transmitted from each of the mobile phones 103, 105, and 107. The identification information is received by the identification information acquisition unit 305 controlling the wireless communication control unit 301, and the identification information acquisition unit 305 stores the received identification information of each mobile phone in the storage unit 312. .

ステップS507では、顔特徴情報取得部306は、携帯電話103,105,107のそれぞれから受信した識別情報中の識別子をサーバ109に対して送信することで、該識別子に対応する顔の特徴量の取得要求を行う。更に、属性情報取得部307は、携帯電話103,105,107のそれぞれから受信した識別情報中の識別子をサーバ109に対して送信することで、該識別子に対応する名前の取得要求を行う。   In step S507, the facial feature information acquisition unit 306 transmits the identifier in the identification information received from each of the mobile phones 103, 105, and 107 to the server 109, thereby determining the facial feature amount corresponding to the identifier. Make an acquisition request. Furthermore, the attribute information acquisition unit 307 transmits an identifier in the identification information received from each of the mobile phones 103, 105, and 107 to the server 109, thereby requesting acquisition of a name corresponding to the identifier.

ステップS508では、サーバ109は、ステップS507で送信された識別子を受信すると、この識別子とセットにして登録されている名前及び顔の特徴量を、自身が管理するデータベースから取得する。   In step S508, when the server 109 receives the identifier transmitted in step S507, the server 109 acquires the name and facial feature quantity registered as a set with this identifier from the database managed by the server 109.

そしてステップS509ではサーバ109は、ステップS507で送信された識別子とセットにしてデータベース内で管理している名前及び顔の特徴量を、デジタルカメラ101に対して送信する。   In step S509, the server 109 transmits the name and facial feature quantity managed in the database as a set with the identifier transmitted in step S507 to the digital camera 101.

これによりデジタルカメラ101は、サーバ109に対して送信した識別子に対応する名前及び顔の特徴量を受信することができる。なお、顔の特徴量の受信は顔特徴情報取得部306が行い、名前の受信は属性情報取得部307が行う。   As a result, the digital camera 101 can receive the name and facial feature amount corresponding to the identifier transmitted to the server 109. The face feature information is received by the face feature information acquisition unit 306, and the name is received by the attribute information acquisition unit 307.

ステップS510では、被写体特定部308は、サーバ109から取得した顔の特徴量を用いて、人物102,104,106が、ステップS501で生成して記憶部312に格納した撮像画像中のどの被写体であるのかを識別する。ステップS510における処理の詳細については後述する。   In step S <b> 510, the subject specifying unit 308 uses the facial feature amount acquired from the server 109 to determine which subject in the captured image the persons 102, 104, and 106 have generated in step S <b> 501 and stored in the storage unit 312. Identify if there is. Details of the processing in step S510 will be described later.

次にステップS511では、画像合成部310は、被写体特定部308が識別した所有者の名前を、ステップS501で生成して記憶部312に格納した撮像画像上に合成して、表示部304に出力する。   In step S <b> 511, the image composition unit 310 composes the name of the owner identified by the subject specifying unit 308 on the captured image generated in step S <b> 501 and stored in the storage unit 312, and outputs it to the display unit 304. To do.

次に、上記のステップS510における処理の詳細について、図7のフローチャートを用いて説明する。ステップS701では被写体特定部308は、サーバ109から取得した顔の特徴量を用いて、人物102,104,106が、ステップS501で生成して記憶部312に格納した撮像画像中のどの被写体であるのかを識別する。この識別処理は一般的な技術であるために説明は省略する。   Next, details of the processing in step S510 will be described using the flowchart of FIG. In step S <b> 701, the subject specifying unit 308 uses the facial feature amount acquired from the server 109 to indicate which subject in the captured image the persons 102, 104, and 106 have generated in step S <b> 501 and stored in the storage unit 312. To identify. Since this identification process is a general technique, a description thereof will be omitted.

ステップS702では被写体特定部308は、撮像画像から人物102,104,106の全てが識別されたか否かを判断する。この判断の結果、撮像画像から人物102,104,106の何れかが識別されなかった場合は処理はステップS703に進み、全て識別された場合は、処理はステップS705に進む。ステップS705では、被写体特定部308は、被写体の識別処理は成功したと判断して、図7のフローチャートの処理を終える。   In step S702, the subject specifying unit 308 determines whether all of the persons 102, 104, and 106 have been identified from the captured image. As a result of the determination, if any one of the persons 102, 104, and 106 is not identified from the captured image, the process proceeds to step S703. If all the persons are identified, the process proceeds to step S705. In step S705, the subject specifying unit 308 determines that the subject identification process has been successful, and ends the process of the flowchart of FIG.

ステップS703で被写体特定部308は、携帯電話103,105,107のそれぞれから受信した識別情報中の情報を用いて、撮像画像中の被写体のうち人物102,104,106の何れとも識別されなかった被写体について識別処理を行う。この識別処理では、識別情報中の「動き」の情報を用いた識別処理、識別情報中の生体情報(「心拍数」や「体温」)を用いた識別処理、識別情報中の「音」の情報を用いた識別処理、の何れかを実行する。ステップS703における処理の詳細については後述する。   In step S703, the subject identifying unit 308 has not identified any of the subjects 102, 104, and 106 among the subjects in the captured image using the information in the identification information received from each of the mobile phones 103, 105, and 107. Identification processing is performed on the subject. In this identification process, the identification process using the “movement” information in the identification information, the identification process using the biological information (“heart rate” or “body temperature”) in the identification information, and the “sound” in the identification information One of identification processing using information is executed. Details of the processing in step S703 will be described later.

ステップS704では、被写体特定部308は、ステップS703での識別処理により、撮像画像から人物102,104,106の全てが識別されたか否かを判断する。この判断の結果、撮像画像から人物102,104,106の何れかが識別されなかった場合は処理はステップS706に進み、全て識別された場合は、処理はステップS705に進む。ステップS706では、被写体特定部308は、被写体の識別処理は失敗したと判断して、図7のフローチャートの処理を終える。   In step S704, the subject specifying unit 308 determines whether all of the persons 102, 104, and 106 have been identified from the captured image by the identification processing in step S703. As a result of this determination, if any one of the persons 102, 104, and 106 is not identified from the captured image, the process proceeds to step S706. If all the persons are identified, the process proceeds to step S705. In step S706, the subject specifying unit 308 determines that the subject identification processing has failed, and the processing of the flowchart of FIG. 7 ends.

次に、上記のステップS703において行う「識別情報中の「動き」の情報を用いた識別処理」について、同処理のフローチャートを示す図9を用いて説明する。なお、以下では、撮像画像中には人物106は映ってはいるものの、この人物106が図1に示す如く背面をデジタルカメラ101に向けた状態であったが故に、撮像画像には人物106の顔が映っていない場合を想定する。   Next, the “identification process using the“ motion ”information in the identification information” performed in step S703 will be described with reference to FIG. 9 showing a flowchart of the process. In the following description, although the person 106 is shown in the captured image, the person 106 is in a state where the back face is directed to the digital camera 101 as shown in FIG. Assume that no face is shown.

即ち、携帯電話103の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物102であるのか、携帯電話105の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物104であるのか、の識別は成功している。しかし、携帯電話107の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物106であるのか、の識別は失敗している。   That is, which subject in the captured image is the person 102 using the facial feature amount corresponding to the identifier of the mobile phone 103, and which subject in the captured image is the facial feature amount corresponding to the identifier of the mobile phone 105. Whether the subject is the person 104 has been successfully identified. However, identification of which subject in the captured image is the person 106 using the facial feature amount corresponding to the identifier of the mobile phone 107 has failed.

ステップS901では、被写体特定部308は、撮像画像から、人と推定されるオブジェクト(人型オブジェクト)を検出する(識別済みの人型オブジェクトは省く)。この検出処理は、一般の認識処理で実現できるため、これに係る説明は省略する。   In step S <b> 901, the subject specifying unit 308 detects an object (humanoid object) that is estimated to be a person from the captured image (the identified humanoid object is omitted). Since this detection process can be realized by a general recognition process, a description thereof will be omitted.

ここで、撮像部303は、ユーザによるシャッターボタン302の押下が無くても、画像記録を行わないだけで、常に撮像画像は生成している。然るにステップS902では、被写体特定部308は、ステップS901の処理の後に連続して生成されるそれぞれの撮像画像から、ステップS901と同様にして、人型オブジェクトを検出する。   Here, the imaging unit 303 always generates a captured image just by not recording an image even if the user does not press the shutter button 302. However, in step S902, the subject specifying unit 308 detects a humanoid object from each captured image continuously generated after the processing in step S901, in the same manner as in step S901.

ステップS903で被写体特定部308は、次のような処理を行う。即ち、ステップS901で検出した人型オブジェクトの撮像画像上の位置と、ステップS902で検出した人型オブジェクトの撮像画像上の位置と、を用いて、撮像時刻が隣接している撮像画像間で人型オブジェクトの位置の差分(移動量)を求める。   In step S903, the subject specifying unit 308 performs the following process. That is, using the position on the captured image of the humanoid object detected in step S901 and the position on the captured image of the humanoid object detected in step S902, the person between the captured images whose imaging times are adjacent is used. Find the difference (movement amount) of the position of the type object.

この時、携帯電話107は端末位置が頭部と通知示していることより、画像中の人型のオブジェクトに対して、各オブジェクトの頭部のみの移動量の特定としてもよい。また、移動量を判定するためにさらに複数の画像データに対して人型オブジェクトの移動量を画像処理より特定しても良い。また、画像中の人型のオブジェクトの移動量を判定するに当たって、デジタルカメラ101の移動および回転を姿勢情報取得部316から取得し、人型オブジェクトの移動量がデジタルカメラ101の移動または回転に影響されないよう考慮してもよい。   At this time, the mobile phone 107 may specify the movement amount of only the head of each object with respect to the humanoid object in the image because the terminal position indicates that it is the head. Further, in order to determine the movement amount, the movement amount of the humanoid object may be specified by image processing for a plurality of image data. In determining the movement amount of the humanoid object in the image, the movement and rotation of the digital camera 101 is acquired from the posture information acquisition unit 316, and the movement amount of the humanoid object affects the movement or rotation of the digital camera 101. You may consider not to be.

ステップS904では、被写体特定部308は、ステップS903で求めたそれぞれの移動量を時系列に並べたときの移動量の変化量から、撮像画像内における人型オブジェクトの加速度情報を求める。そしてこの加速度情報が表す動きが、「静止している」、「歩いている」、「走っている」の何れであるのかを特定する。   In step S904, the subject specifying unit 308 obtains acceleration information of the humanoid object in the captured image from the amount of change in the movement amount when the movement amounts obtained in step S903 are arranged in time series. Then, it is specified whether the motion represented by the acceleration information is “still”, “walking”, or “running”.

ステップS905では、人型オブジェクトごとに、該人型オブジェクトについて求めた加速度情報から特定された動きをテーブルに登録する。ここで、撮像画像から人型オブジェクトA,B,Cが検出された場合にステップS905において生成されるテーブルの構成例を図8に示す。   In step S905, for each humanoid object, the movement specified from the acceleration information obtained for the humanoid object is registered in the table. Here, FIG. 8 shows a configuration example of the table generated in step S905 when the humanoid objects A, B, and C are detected from the captured image.

図8では、人型オブジェクトごとに、該人型オブジェクトについて求めた加速度情報から特定された動きとして、「静止している」、「歩いている」、「走っている」の何れかが登録されている。   In FIG. 8, for each humanoid object, any one of “still”, “walking”, and “running” is registered as the movement specified from the acceleration information obtained for the humanoid object. ing.

そしてステップS905では更に、被写体特定部308は、ステップS905で生成したテーブルのうち、人物106の識別子とセットになって識別情報に登録されている「動き」(「歩いている」)と一致(合致)する人型オブジェクトを特定する。そしてこの特定した人型オブジェクトが人物106であると識別する。図8の場合、人型オブジェクトCの「動き」が「歩いている」であるため、人型オブジェクトCが人物106であると識別する。   In step S905, the subject specifying unit 308 further matches the “movement” (“walking”) registered in the identification information as a set with the identifier of the person 106 in the table generated in step S905 ( Identify human objects that match. The identified humanoid object is identified as a person 106. In the case of FIG. 8, since the “movement” of the humanoid object C is “walking”, the humanoid object C is identified as the person 106.

なお、ステップS904では、加速度情報を、姿勢情報取得部316から取得した方位情報を用いてデジタルカメラ101を原点とし、方位および上下を軸としたベクトル情報に変換し、方位、上下、時間を軸とした4次元関数にフーリエ変換してもよい。この場合にステップS905で生成されるテーブルの構成は図11に示したようなものとなる。   In step S904, the acceleration information is converted into vector information using the azimuth information acquired from the posture information acquisition unit 316 as the origin, the azimuth and the vertical as axes, and the azimuth, vertical and time as axes. Fourier transform may be performed on the four-dimensional function. In this case, the configuration of the table generated in step S905 is as shown in FIG.

図11のテーブルは、撮像画像から人型オブジェクトA,B,Cが検出された場合にステップS905で生成されるテーブルであり、人型オブジェクトごとに、該人型オブジェクトについて求めた加速度情報から生成された4次元関数の絶対値が登録されている。   The table in FIG. 11 is a table generated in step S905 when the humanoid objects A, B, and C are detected from the captured image, and is generated from the acceleration information obtained for the humanoid object for each humanoid object. The absolute value of the obtained four-dimensional function is registered.

この場合、ステップS905では、被写体特定部308は、ステップS905で生成したテーブルのうち、人物106の識別子とセットになって識別情報に登録されている4次元関数の絶対値と一致する人型オブジェクトを特定する。そしてこの特定した人型オブジェクトが人物106であると識別する。   In this case, in step S905, the subject specifying unit 308 matches the absolute value of the four-dimensional function registered in the identification information as a set with the identifier of the person 106 in the table generated in step S905. Is identified. The identified humanoid object is identified as a person 106.

次に、上記のステップS703において行う「識別情報中の生体情報を用いた識別処理」について説明する。記憶部312には、図12に例示するような構成を有するテーブルが登録されている。このテーブルには、「静止状態」、「歩き状態」、「走り状態」のそれぞれの動き状態に対する、心拍数、体温、のセットが登録されている。このセットは、予め測定されたものであってもよいし、ユーザが作成したものであってもよい。   Next, the “identification process using the biological information in the identification information” performed in step S703 will be described. A table having a configuration illustrated in FIG. 12 is registered in the storage unit 312. In this table, a set of heart rate and body temperature for each of the movement states of “still state”, “walking state”, and “running state” is registered. This set may be measured in advance or may be created by the user.

この場合、被写体特定部308は、図9のフローチャートに従って図8に例示するような、人型オブジェクトごとに、該人型オブジェクトについて求めた加速度情報から特定された動きが登録されたテーブルを生成する。   In this case, the subject specifying unit 308 generates, for each humanoid object as illustrated in FIG. 8 according to the flowchart of FIG. 9, a table in which the movement specified from the acceleration information obtained for the humanoid object is registered. .

次に被写体特定部308は、図12のテーブルから、人物106の識別子とセットになって識別情報に登録されている「心拍数」に対応する動き状態を特定する。図6の場合、人物106の識別子とセットになって識別情報に登録されている「心拍数」は120であるため、図12のテーブルから、この心拍数に対応する動き状態は「歩き状態」となる。そして図8のテーブルにおいて、この「歩き状態」に対応する人型オブジェクトは人型オブジェクトCであるため、人型オブジェクトCが人物106であると識別する。   Next, the subject specifying unit 308 specifies the movement state corresponding to the “heart rate” registered in the identification information as a set with the identifier of the person 106 from the table of FIG. In the case of FIG. 6, since the “heart rate” registered in the identification information as a set with the identifier of the person 106 is 120, the motion state corresponding to this heart rate is “walking state” from the table of FIG. It becomes. In the table of FIG. 8, since the humanoid object corresponding to this “walking state” is the humanoid object C, the humanoid object C is identified as the person 106.

また被写体特定部308は、心拍数の代わりに、「体温」を用いて判定処理を行ってもよい。この場合、図12のテーブルから、人物106の識別子とセットになって識別情報に登録されている「体温」に対応する動き状態を特定する。図6の場合、携帯電話107の識別子とセットになって識別情報に登録されている「体温」は37.5であるため、図12のテーブルから、この体温に対応する動き状態は「歩き状態」となる。そして図8のテーブルにおいて、この「歩き状態」に対応する人型オブジェクトは人型オブジェクトCであるため、人型オブジェクトCが人物106であると識別する。   The subject specifying unit 308 may perform the determination process using “body temperature” instead of the heart rate. In this case, the movement state corresponding to the “body temperature” registered in the identification information as a set with the identifier of the person 106 is specified from the table of FIG. In the case of FIG. 6, since “body temperature” registered in the identification information as a set with the identifier of the mobile phone 107 is 37.5, the movement state corresponding to this body temperature is “walking state” from the table of FIG. " In the table of FIG. 8, since the humanoid object corresponding to this “walking state” is the humanoid object C, the humanoid object C is identified as the person 106.

なお、生体情報として「心拍数」や「体温」以外の情報を用いてもかまわず、その場合、図12のテーブルには、それぞれの動き状態に対応する生体情報を登録しておく必要があるし、識別情報にも、それに対応する生体情報を含める必要がある。   Note that information other than “heart rate” and “body temperature” may be used as the biological information. In this case, it is necessary to register biological information corresponding to each movement state in the table of FIG. However, it is necessary to include biometric information corresponding to the identification information.

また、図1に示す如く、人物104がデジタルカメラ101から比較的遠方に位置しているが為に、画像処理によって顔特徴の判定を得るために必要な解像度が確保できない場合において、被写体を特定する方法を説明する。   Further, as shown in FIG. 1, the subject 104 is specified when the person 104 is located relatively far from the digital camera 101, and thus the resolution necessary for obtaining the facial feature determination cannot be secured by image processing. How to do it.

人物104は遠方に位置するため、ステップS701では被写体を特定することができない。図7で説明した通り、人物104に関してはステップS701の被写体特定を行う。人物104はこれまで説明した動き状態による被写体判定、加速度による被写体判定、生体状態による被写体判定の何れも適用可能であるが、人物106とは異なり、デジタルカメラ101に対して正面を向いているため、音声情報による被写体判定も可能である。以下の説明では、携帯電話105の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物104であるのか、の識別は失敗しているとする。   Since the person 104 is located far away, the subject cannot be specified in step S701. As described with reference to FIG. 7, subject identification in step S <b> 701 is performed for the person 104. The person 104 can apply any of the above-described subject determination based on the motion state, subject determination based on the acceleration, and subject determination based on the biological state. However, unlike the person 106, the person 104 faces the digital camera 101. Subject determination based on audio information is also possible. In the following description, it is assumed that the identification of which subject in the captured image is the person 104 using the facial feature amount corresponding to the identifier of the mobile phone 105 has failed.

この場合、人型オブジェクトごとに、撮像画像から口の形を認識し、認識した口の形から発生している音(口の動き)が何であるのかを認識する。この認識処理も周知の技術であるためにこれについての説明は省略する。そして、人型オブジェクトごとに、該人型オブジェクトが発生している音を示す情報をテーブルに登録する。ここで、撮像画像から人型オブジェクトA,B,Cが検出された場合に生成されるテーブルの構成例を図13に示す。   In this case, the shape of the mouth is recognized from the captured image for each humanoid object, and the sound (movement of the mouth) generated from the recognized mouth shape is recognized. Since this recognition process is also a well-known technique, a description thereof will be omitted. For each humanoid object, information indicating the sound generated by the humanoid object is registered in the table. Here, FIG. 13 shows a configuration example of a table generated when the humanoid objects A, B, and C are detected from the captured image.

図13では、人型オブジェクトごとに、該人型オブジェクトが発生している音を示す情報が登録されており、人型オブジェクトAに対しては音を示す情報として「ん」、人型オブジェクトBに対しては音を示す情報として「あ」が登録されている。人型オブジェクトCに対しては、認識処理が失敗したなどが原因で音を示す情報が得られなかったため、「不明」が登録されている。   In FIG. 13, information indicating the sound generated by the humanoid object is registered for each humanoid object. For the humanoid object A, “n” is displayed as information indicating the sound, and the humanoid object B Is registered as information indicating sound. For the humanoid object C, “unknown” is registered because information indicating a sound was not obtained because the recognition process failed.

そして、被写体特定部308は、このテーブルから、人物104の識別子とセットになって識別情報に登録されている「音」(「あ」)と一致する人型オブジェクトを特定する。そしてこの特定した人型オブジェクトが人物104であると識別する。図13の場合、人型オブジェクトBの「音」が「あ」であるため、人型オブジェクトBが人物104であると識別する。   Then, the subject specifying unit 308 specifies a humanoid object that matches the “sound” (“A”) registered in the identification information as a set with the identifier of the person 104 from this table. Then, the identified humanoid object is identified as the person 104. In the case of FIG. 13, since the “sound” of the humanoid object B is “A”, the humanoid object B is identified as the person 104.

なお、図3,4に示した各機能部は何れもハードウェアで構成してもよいが、部分的にソフトウェア(コンピュータプログラム)で構成してもよい。その場合、このコンピュータプログラムは、記憶部312や携帯電話のメモリ内に格納されることになる。   Each of the functional units shown in FIGS. 3 and 4 may be configured with hardware, but may be partially configured with software (computer program). In this case, the computer program is stored in the storage unit 312 or the memory of the mobile phone.

上述のようにして、画像処理により得られた結果だけでなく、センサによりユーザをセンシングすることで得られたセンサ情報も利用して特定のユーザを識別するので、特定のユーザの識別精度が向上する。従って、撮像画像中における特定のユーザの近傍に特定のユーザに関する情報を提示できる可能性を高めることができる。   As described above, a specific user is identified using not only the result obtained by image processing but also sensor information obtained by sensing the user with a sensor, so that the identification accuracy of the specific user is improved. To do. Therefore, it is possible to increase the possibility that information related to a specific user can be presented in the vicinity of the specific user in the captured image.

[第2の実施形態]
以下では、本実施形態が第1の実施形態と異なる点のみについて説明する。本実施形態では、上記のステップS703において、赤外線画像データを用いる。然るに本実施形態に係るデジタルカメラ101には、赤外線画像データを取得するための構成を加える必要がある。
[Second Embodiment]
In the following, only the differences of the present embodiment from the first embodiment will be described. In the present embodiment, infrared image data is used in step S703 described above. However, it is necessary to add a configuration for acquiring infrared image data to the digital camera 101 according to the present embodiment.

なお、以下では、撮像画像中には人物106は映ってはいるもの、この人物106が図1に示す如く背面をデジタルカメラ101に向けた状態であったが故に、撮像画像には人物106の顔が映っていない場合を想定する。   In the following, although the person 106 is reflected in the captured image, the person 106 is in a state where the back face is directed to the digital camera 101 as shown in FIG. Assume that no face is shown.

即ち、携帯電話103の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物102であるのか、携帯電話105の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物104であるのか、の識別は成功している。しかし、携帯電話107の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物106であるのか、の識別は失敗している。   That is, which subject in the captured image is the person 102 using the facial feature amount corresponding to the identifier of the mobile phone 103, and which subject in the captured image is the facial feature amount corresponding to the identifier of the mobile phone 105. Whether the subject is the person 104 has been successfully identified. However, identification of which subject in the captured image is the person 106 using the facial feature amount corresponding to the identifier of the mobile phone 107 has failed.

この場合、被写体特定部308は、撮像部303による撮像画像から上記の如く人型オブジェクトを検出し、更に別途取得した赤外線画像データを画像処理して取得したサーモグラフィーデータから該人型オブジェクトの温度情報を取得する。そして図14に例示する如く、人型オブジェクトごとに、該人型オブジェクトの温度情報を登録したテーブルを生成する。然るに、図14において、携帯電話107の識別子とセットになって識別情報に登録されている「体温」(37.5)に最も近い体温の人型オブジェクトは人型オブジェクトB(37.6)であるので、人型オブジェクトBが人物106であると識別する。   In this case, the subject specifying unit 308 detects the humanoid object from the image captured by the imaging unit 303 as described above, and further processes the temperature information of the humanoid object from the thermographic data acquired by performing image processing on the separately acquired infrared image data. To get. Then, as illustrated in FIG. 14, for each humanoid object, a table in which the temperature information of the humanoid object is registered is generated. However, in FIG. 14, the humanoid object having the body temperature closest to the “body temperature” (37.5) registered in the identification information as a set with the identifier of the mobile phone 107 is the humanoid object B (37.6). Therefore, it is identified that the humanoid object B is the person 106.

[第3の実施形態]
上記の実施形態では、静止画像に対する処理であったが、この処理を動画像を構成する各フレームについて行うようにしてもよい。
[Third Embodiment]
In the above embodiment, the process is performed on a still image. However, this process may be performed on each frame constituting a moving image.

また、識別情報の発信や取得などに関わる通信は、IEEE802.11に則った無線LANの通信に限らず、Bluetooth(登録商標)やパッシブ/アクティブ型のRFIDなどでもよい。無線LANとパッシブ型RFIDなど複数の無線通信インタフェースで同時に、識別情報に関する通信を行ってもよい。また、ミリ波などの指向性のある無線方式を利用して識別情報の発信、取得をしてもよい。   Further, communication related to transmission and acquisition of identification information is not limited to wireless LAN communication conforming to IEEE 802.11, but may be Bluetooth (registered trademark), passive / active RFID, or the like. Communication regarding identification information may be simultaneously performed by a plurality of wireless communication interfaces such as a wireless LAN and a passive RFID. Further, the identification information may be transmitted and acquired using a directional wireless system such as millimeter wave.

また、第1、2の実施形態では各識別子は人物に紐づけられていたが、人物である必要はなく、動物や自動車、またはやある特定の物体などに紐づけられていてもよい。   In the first and second embodiments, each identifier is associated with a person. However, the identifier does not have to be a person, and may be associated with an animal, a car, or a specific object.

また、第1,2の実施形態において、動き状態による被写体判定、加速度による被写体判定、生体状態による被写体判定、音声情報による被写体判定の方法を説明したが、それぞれの判定において時刻の一致を条件としてもよい。すなわち、撮像部303から得られた画像データの時刻情報と、携帯電話103、105、107が通知する識別情報の時刻が近接していない場合、オブジェクトの一致判定を「否」と判定してもよい。   In the first and second embodiments, the method of subject determination based on the motion state, subject determination based on the acceleration, subject determination based on the biological state, and subject determination based on the audio information have been described. Also good. That is, when the time information of the image data obtained from the imaging unit 303 and the time of the identification information notified by the mobile phones 103, 105, and 107 are not close to each other, the object match determination may be determined as “No”. Good.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (8)

撮像画像を取得する手段と、
センサによりユーザをセンシングすることで得られた、該ユーザの状態を表すセンサ情報を受信する受信手段と、
前記ユーザの属性情報と、前記撮像画像中における前記ユーザを識別するための識別パラメータと、を取得する取得手段と、
前記受信手段が受信したセンサ情報と、前記取得手段が取得した識別パラメータと、に基づいて、前記撮像画像中の被写体の中から、前記ユーザを識別する識別手段と、
前記取得手段が取得した属性情報を、前記識別手段による識別の結果に応じた前記撮像画像上の位置に合成して出力する出力手段と
を有することを特徴とする画像処理装置。
Means for acquiring a captured image;
Receiving means for receiving sensor information representing the state of the user obtained by sensing the user with a sensor;
Acquisition means for acquiring the attribute information of the user and an identification parameter for identifying the user in the captured image;
An identification unit for identifying the user from among subjects in the captured image based on the sensor information received by the reception unit and the identification parameter acquired by the acquisition unit;
An image processing apparatus comprising: output means for combining and outputting the attribute information acquired by the acquisition unit at a position on the captured image corresponding to a result of identification by the identification unit.
前記出力手段は、前記識別手段が識別した前記ユーザの前記撮像画像中における位置の近傍に、前記属性情報を合成して出力することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the output unit synthesizes and outputs the attribute information in the vicinity of a position in the captured image of the user identified by the identification unit. 前記識別手段は、前記取得手段が取得した識別パラメータを用いて前記撮像画像の中から前記ユーザを識別できなかった場合、
前記撮像画像中の被写体の動きを求め、前記受信手段が受信したセンサ情報に含まれている前記ユーザの動きと一致する動きの被写体を前記ユーザとして識別することを特徴とする請求項1又は2に記載の画像処理装置。
When the identification unit cannot identify the user from the captured image using the identification parameter acquired by the acquisition unit,
Obtains a motion of the subject in the captured image, according to claim 1 or 2 subject movement matching the motion of the user which the receiving means is included in the received sensor information, wherein the identifying as the user An image processing apparatus according to 1.
前記識別手段は、前記取得手段が取得した識別パラメータを用いて前記撮像画像の中から前記ユーザを識別できなかった場合、
前記撮像画像中の被写体の動きを求め、前記受信手段が受信したセンサ情報に含まれている前記ユーザの生体情報に対して予め対応づけられている動きと一致する動きの被写体を前記ユーザとして識別することを特徴とする請求項1又は2に記載の画像処理装置。
When the identification unit cannot identify the user from the captured image using the identification parameter acquired by the acquisition unit,
The movement of the subject in the captured image is obtained, and the subject having the movement that matches the movement previously associated with the biological information of the user included in the sensor information received by the receiving unit is identified as the user. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記識別手段は、前記取得手段が取得した識別パラメータを用いて前記撮像画像の中から前記ユーザを識別できなかった場合、
前記撮像画像中の被写体の口の動きを求め、前記受信手段が受信したセンサ情報に含まれている前記ユーザの口の動きと一致する口の動きの被写体を前記ユーザとして識別することを特徴とする請求項1又は2に記載の画像処理装置。
When the identification unit cannot identify the user from the captured image using the identification parameter acquired by the acquisition unit,
The movement of the mouth of the subject in the captured image is obtained, and the subject having the mouth movement that matches the movement of the user's mouth included in the sensor information received by the receiving unit is identified as the user. The image processing apparatus according to claim 1 or 2.
前記識別手段は、前記取得手段が取得した識別パラメータを用いて前記撮像画像の中から前記ユーザを識別できなかった場合、
赤外線画像を取得して該赤外線画像から被写体の温度を求め、前記受信手段が受信したセンサ情報に含まれている前記ユーザの温度にもっとも近い温度の被写体を前記ユーザとして識別することを特徴とする請求項1又は2に記載の画像処理装置。
When the identification unit cannot identify the user from the captured image using the identification parameter acquired by the acquisition unit,
An infrared image is acquired, a temperature of a subject is obtained from the infrared image, and a subject having a temperature closest to the user's temperature included in sensor information received by the receiving unit is identified as the user. The image processing apparatus according to claim 1.
画像処理装置が行う画像処理方法であって、
撮像画像を取得する工程と、
センサによりユーザをセンシングすることで得られた、該ユーザの状態を表すセンサ情報を受信する受信工程と、
前記ユーザの属性情報と、前記撮像画像中における前記ユーザを識別するための識別パラメータと、を取得する取得工程と、
前記受信工程で受信したセンサ情報と、前記取得工程で取得した識別パラメータと、に基づいて、前記撮像画像中の被写体の中から、前記ユーザを識別する識別工程と、
前記取得工程で取得した属性情報を、前記識別工程による識別の結果に応じた前記撮像画像上の位置に合成して出力する出力工程と
を有することを特徴とする画像処理方法。
An image processing method performed by an image processing apparatus,
Obtaining a captured image;
A receiving step of receiving sensor information representing the state of the user obtained by sensing the user with a sensor;
An acquisition step of acquiring the attribute information of the user and an identification parameter for identifying the user in the captured image;
An identification step for identifying the user from among subjects in the captured image based on the sensor information received in the reception step and the identification parameter acquired in the acquisition step;
An image processing method comprising: an output step of combining and outputting the attribute information acquired in the acquisition step at a position on the captured image corresponding to a result of identification in the identification step.
コンピュータを、請求項1乃至6の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 6.
JP2011236478A 2011-10-27 2011-10-27 Image processing apparatus and image processing method Active JP5801690B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011236478A JP5801690B2 (en) 2011-10-27 2011-10-27 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011236478A JP5801690B2 (en) 2011-10-27 2011-10-27 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2013098588A JP2013098588A (en) 2013-05-20
JP2013098588A5 JP2013098588A5 (en) 2014-12-11
JP5801690B2 true JP5801690B2 (en) 2015-10-28

Family

ID=48620146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011236478A Active JP5801690B2 (en) 2011-10-27 2011-10-27 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5801690B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9400943B2 (en) * 2013-08-02 2016-07-26 Qualcomm Incorporated Identifying IoT devices/objects/people using out-of-band signaling/metadata in conjunction with optical images
JP2019070887A (en) * 2017-10-06 2019-05-09 株式会社バサイ Object recognition device for recognizing place and object by two steps
EP4328516A4 (en) * 2021-12-24 2024-08-21 Wuhu Midea Kitchen & Bath Appliances Mfg Co Ltd Control device, water heater system and control method and apparatus therefor, and storage medium

Also Published As

Publication number Publication date
JP2013098588A (en) 2013-05-20

Similar Documents

Publication Publication Date Title
EP3798983B1 (en) Camera orientation tracking method and apparatus, device, and system
US10419657B2 (en) Swarm approach to consolidating and enhancing smartphone target imagery by virtually linking smartphone camera collectors across space and time using machine-to machine networks
CN104820488B (en) User&#39;s directional type personal information assistant
US11769306B2 (en) User-exhibit distance based collaborative interaction method and system for augmented reality museum
US20090241039A1 (en) System and method for avatar viewing
US20080318622A1 (en) Handheld intelligent mobile and fixed wireless device
JPWO2016017254A1 (en) Information processing apparatus, information processing method, and program
JPWO2016017253A1 (en) Information processing apparatus, information processing method, and program
WO2022012019A1 (en) Height measuring method, height measuring device, and terminal
US20200273200A1 (en) Camera localization based on skeletal tracking
CN109788910B (en) Moving object information providing system and computer-readable storage medium
JP2014035642A (en) Display device, control method therefor, display system, and program
JP5801690B2 (en) Image processing apparatus and image processing method
US20180342109A1 (en) Determining full-body pose for a virtual reality environment
WO2018088035A1 (en) Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor, and electronic device
US20220157032A1 (en) Multi-modality localization of users
JP2013055537A (en) Display control apparatus, method for controlling display control apparatus, and program
KR20130134986A (en) Slam system and method for mobile robots with environment picture input from user
JPWO2009110276A1 (en) User information presentation system, user information presentation device, user information presentation method, and user information presentation program
JP5885480B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP2023131905A (en) Behavior estimation system, behavior estimation method, and program
CN111344776B (en) Information processing device, information processing method, and program
JP2017199980A (en) Image display system, information processing apparatus, imaging apparatus, and program
WO2015105075A1 (en) Information processing apparatus and electronic device
JP6523353B2 (en) Terminal device and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141023

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150827

R151 Written notification of patent or utility model registration

Ref document number: 5801690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151