JP5164767B2 - Image processing apparatus, image processing apparatus control method, and program - Google Patents
Image processing apparatus, image processing apparatus control method, and program Download PDFInfo
- Publication number
- JP5164767B2 JP5164767B2 JP2008245985A JP2008245985A JP5164767B2 JP 5164767 B2 JP5164767 B2 JP 5164767B2 JP 2008245985 A JP2008245985 A JP 2008245985A JP 2008245985 A JP2008245985 A JP 2008245985A JP 5164767 B2 JP5164767 B2 JP 5164767B2
- Authority
- JP
- Japan
- Prior art keywords
- identification information
- image data
- individual identification
- recording
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、たとえば、複数のデジタルカメラなどから人物の顔画像を収集する際に、同一人物についてグループ化して画像検索の効率化を図る画像処理装置、画像処理装置の制御方法及びプログラムに関する。 The present invention relates to an image processing apparatus, a control method for an image processing apparatus, and a program that improve the efficiency of image search by grouping the same person, for example, when collecting human face images from a plurality of digital cameras or the like.
一般に、人物認識装置は、認識対象となる人物の個体識別情報を取得し、この取得した個体識別情報と、あらかじめ記録手段に記録されている認識対象となる人物の個体識別情報とを照合することにより、人物が本人であるか否かを認識するようになっている。 Generally, the person recognition device acquires individual identification information of a person to be recognized, and collates the acquired individual identification information with the individual identification information of a person to be recognized that is recorded in a recording unit in advance. Thus, it is recognized whether or not the person is the person himself / herself.
従来の人物認識装置は、個体識別情報の取得と照合を単一の機器で行い、複数の機器から人物情報を収集し、照合を行うことは想定されていない(特許文献1)。
ところで、たとえばデジタルカメラ等の携帯機器にも顔認識装置が組み込まれており、人の顔情報などを複数の人物認識装置間でやりとりすることも十分に考えられる。 By the way, for example, a face recognition device is incorporated in a portable device such as a digital camera, and it is sufficiently conceivable to exchange human face information and the like between a plurality of person recognition devices.
しかし、このように人の顔情報などを複数の人物認識装置間でやりとりする場合、次の問題が発生する。 However, when exchanging human face information and the like between a plurality of person recognition devices, the following problem occurs.
即ち、複数の機器から人物の情報を受け取った際に、それぞれの機器に同一人物の情報が含まれていた場合、情報を受け取った装置側では、同一人物なのに異なる人物として記録されてしまう。 That is, when information on a person is received from a plurality of devices and information on the same person is included in each device, the information is recorded as a different person on the device side that has received the information.
たとえば、個体識別情報を顔画像として、図31に示すように、デジタルカメラAとデジタルカメラBからパーソナルコンピュータ(以下、PCという)に、それぞれのカメラA,Bに登録されている顔画像を送信する場合を例に採る。 For example, using individual identification information as a face image, as shown in FIG. 31, the face images registered in the cameras A and B are transmitted from the digital camera A and the digital camera B to a personal computer (hereinafter referred to as a PC). Take the case of an example.
図32をデジタルカメラAに登録されている顔画像テーブル、図33をデジタルカメラBに登録されている顔画像テーブルとし、両機器からPCに対し、顔画像テーブルを送信する。 32 is a face image table registered in the digital camera A, and FIG. 33 is a face image table registered in the digital camera B, and the face image tables are transmitted from both devices to the PC.
この場合、PCには図34に示す顔画像テーブルが生成される。しかし、デジタルカメラAに登録されていた「山田」とデジタルカメラBに登録されていた「山ちゃん」とが同一人物だとしても、従来のままでは図34のように同一人物だと認識されずに登録されてしまう。 In this case, the face image table shown in FIG. 34 is generated on the PC. However, even if “Yamada” registered in digital camera A and “Yama-chan” registered in digital camera B are the same person, they are not recognized as the same person as in FIG. Will be registered.
また、デジタルカメラAからPCに図35に示す画像データが送信されたとする。ここで、図35の画像データには「山田」が写っており、顔画像「山田」が関連付けられている。 Further, it is assumed that the image data shown in FIG. 35 is transmitted from the digital camera A to the PC. Here, “Yamada” is shown in the image data of FIG. 35, and the face image “Yamada” is associated therewith.
この場合、PC上で画像の検索を行ったとき、図35の画像は「山田」で検索した場合のみヒットし、同一人物の「山ちゃん」で検索しても図35の画像がヒットせず、効率が悪い。即ち、従来においては、顔画像単位でしか分類することができないという問題がある。 In this case, when searching for an image on the PC, the image of FIG. 35 is hit only when searching for “Yamada”, and even if searching for “Yama-chan” of the same person, the image of FIG. 35 is not hit. ,ineffective. That is, in the prior art, there is a problem that classification can be performed only in units of face images.
そこで、本発明は、複数の画像記録装置から収集された個体識別情報を人物単位で分類して、人物の写っている画像を検索する際に効率的な画像検索を可能にした画像処理装置、画像処理装置の制御方法、及びプログラムを提供することを目的とする。 Therefore, the present invention classifies individual identification information collected from a plurality of image recording devices in units of persons, and enables an efficient image search when searching for an image showing a person, An object of the present invention is to provide an image processing apparatus control method and program.
上記目的を達成するために、本発明の画像処理装置は、画像データ及び該画像データの個体識別情報を記録することが可能な複数の画像記録装置から前記画像データ及び前記個体識別情報を収集する収集手段と、該収集手段で収集した複数の個体識別情報を照合して同一の個体であるか否かを判定する照合手段と、該照合手段において同一の個体であると判定された複数の個体識別情報をグループ化して記録する記録手段と、前記記録手段によってグループ化された複数の個体識別情報に対して共通の名称を設定するとともに、該複数の個体識別情報のそれぞれに対して前記画像記録装置において設定されていた名称と該共通の名称とを関連付ける設定手段と、前記設定手段による前記共通の名称が設定された後に、前記複数の個体識別情報のそれぞれに対して前記画像記録装置において設定されていた名称、および、前記共通の名称の入力を受け付け、入力された名称に関連する画像データを前記収集手段によって収集された画像データから検索する検索手段と、を備えることを特徴とする。 In order to achieve the above object, an image processing apparatus of the present invention collects the image data and the individual identification information from a plurality of image recording apparatuses capable of recording image data and individual identification information of the image data. A collection unit, a collation unit that collates a plurality of pieces of individual identification information collected by the collection unit to determine whether or not they are the same individual, and a plurality of individuals that are determined to be the same individual by the collation unit Recording means for grouping and recording identification information, and setting a common name for a plurality of individual identification information grouped by the recording means, and recording the image for each of the plurality of individual identification information A setting means for associating the name set in the apparatus with the common name; and after the common name is set by the setting means, the plurality of individual identification information Retrieval means for accepting input of the name set in the image recording apparatus and the common name for each of them and searching for image data related to the input name from the image data collected by the collection means And .
本発明の画像処理装置の制御方法は、画像データ及び該画像データの個体識別情報を記録することが可能な複数の画像記録装置から前記画像データ及び前記個体識別情報を収集する収集ステップと、該収集ステップで収集した複数の個体識別情報を照合して同一の個体であるか否かを判定する照合ステップと、該照合ステップで同一の個体であると判定された複数の個体識別情報をグループ化して記録する記録ステップと、前記記録ステップによってグループ化された複数の個体識別情報に対して共通の名称を設定するとともに、該複数の個体識別情報のそれぞれに対して前記画像記録装置において設定されていた名称と該共通の名称とを関連付ける設定ステップと、前記設定ステップによる前記共通の名称が設定された後に、前記複数の個体識別情報のそれぞれに対して前記画像記録装置において設定されていた名称、および、前記共通の名称の入力を受け付け、入力された名称に関連する画像データを前記収集ステップによって収集された画像データから検索する検索ステップと、を備えることを特徴とする。 An image processing apparatus control method according to the present invention includes: a collecting step of collecting the image data and the individual identification information from a plurality of image recording apparatuses capable of recording image data and individual identification information of the image data; A collation step for collating a plurality of individual identification information collected in the collecting step to determine whether or not they are the same individual, and a plurality of individual identification information determined to be the same individual in the collation step are grouped A common name is set for the plurality of individual identification information grouped by the recording step and the recording step, and each of the plurality of individual identification information is set in the image recording apparatus. A setting step for associating the common name with the common name, and after the common name is set by the setting step, Accepts input of the name set in the image recording apparatus for each piece of identification information and the common name, and searches for image data related to the input name from the image data collected by the collecting step And a search step .
本発明のプログラムは、画像データ及び該画像データの個体識別情報を記録することが可能な複数の画像記録装置から前記画像データ及び前記個体識別情報を収集する収集ステップと、該収集ステップで収集した複数の個体識別情報を照合して同一の個体であるか否かを判定する照合ステップと、該照合ステップで同一の個体であると判定された複数の個体識別情報をグループ化して記録する記録ステップと、前記記録ステップによってグループ化された複数の個体識別情報に対して共通の名称を設定するとともに、該複数の個体識別情報のそれぞれに対して前記画像記録装置において設定されていた名称と該共通の名称とを関連付ける設定ステップと、前記設定ステップによる前記共通の名称が設定された後に、前記複数の個体識別情報のそれぞれに対して前記画像記録装置において設定されていた名称、および、前記共通の名称の入力を受け付け、入力された名称に関連する画像データを前記収集ステップによって収集された画像データから検索する検索ステップと、をコンピュータに実行させることを特徴とする。 The program of the present invention is a collection step for collecting the image data and the individual identification information from a plurality of image recording devices capable of recording the image data and the individual identification information of the image data, and collected in the collection step. A collation step for collating a plurality of individual identification information to determine whether or not they are the same individual, and a recording step for grouping and recording a plurality of individual identification information determined to be the same individual in the collation step And a common name for the plurality of individual identification information grouped by the recording step, and the common name and the name set in the image recording apparatus for each of the plurality of individual identification information A setting step for associating with the names of the plurality of individual identification information after the common name is set by the setting step. Receiving the input of the name set in the image recording apparatus and the common name for each of them, and searching the image data related to the input name from the image data collected by the collecting step And a search step .
本発明によれば、複数の画像記録装置から収集された個体識別情報を人物単位で分類することができるので、人物の写っている画像を検索する際に効率的な画像検索が可能となる。 According to the present invention, individual identification information collected from a plurality of image recording devices can be classified by person, so that an efficient image search can be performed when searching for an image of a person.
以下、本発明の実施形態を図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(第1の実施形態)
図1に示すように、本発明の画像処理装置の第1の実施形態であるノートPC10には、2台のデジタルカメラ(画像記録装置)1,2からそれぞれのカメラ1,2に登録されている顔画像が送信される。なお、本実施形態では、人物の個体識別情報として人物の顔画像を用いて説明するが、人物の顔画像以外の他の個体識別情報を用いてもよい。
(First embodiment)
As shown in FIG. 1, in the notebook PC 10 which is the first embodiment of the image processing apparatus of the present invention, two digital cameras (image recording apparatuses) 1 and 2 are registered in the respective cameras 1 and 2. The face image is sent. In the present embodiment, a person face image is used as the individual identification information of the person, but other individual identification information other than the person face image may be used.
図2は、デジタルカメラ1,2の構成例を説明するためのブロック図である。 FIG. 2 is a block diagram for explaining a configuration example of the digital cameras 1 and 2.
図2において、光学系501は、フォーカスレンズや絞りなどを含み、該光学系501に入射した光は、撮像素子502の受光面に結像し、アナログ信号として出力される。アナログ信号は、A/D変換回路503でデジタル信号に変換され、信号処理部504に入力される。
In FIG. 2, an
信号処理部504は、入力されたデジタル信号を任意の画像データに変換してから、表示部505に表示したり、記録媒体506に記録したりする。表示部505は、信号処理部504よって処理された画像データを逐次表示することで、電子ビューファインダ(EVF)の機能を実現することが出来る。
The
また、記録媒体506は、画像データだけではなく、後述する顔画像データもしくは顔の特徴量データを記録する。なお、記録媒体506としては、一般にSDカードやCFカード等が用いられるが、これらに限られるものではない。
The
外部通信部507は、外部機器(本実施形態では、ノートPC10)との通信を行う。外部通信部507の物理層は、有線、無線のどちらでも構わない。顔検出回路508は、撮影した画像データから顔領域を検出する。
The
なお、顔領域を検出する技術としては、顔の位置及びサイズ情報を取得できればどのような手法を用いてもよく、特に限定されない。例えば、ニュートラルネットワークに代表される学習を用いた方法や、目や鼻といった物理的形状に特徴のある部位を画像領域からテンプレートマッチングで抽出する手法が知られている。 The technique for detecting the face area is not particularly limited as long as the face position and size information can be acquired. For example, a method using learning typified by a neutral network and a method of extracting a part having a characteristic physical shape such as eyes and nose from an image region by template matching are known.
他にも、肌の色や目の形といった画像特徴量を検出し、統計的手法を用いて解析する手法が挙げられる(例えば、特開平10−232934号公報、特開2000−48184号公報参照)。 In addition, there is a method of detecting an image feature amount such as a skin color or an eye shape and analyzing it using a statistical method (see, for example, JP-A-10-232934 and JP-A-2000-48184). ).
顔画像照合回路509は、顔検出回路508で検出された顔の特徴量を抽出し、記録媒体506に記録されている各顔画像と同一人物か否かの照合を行う。
The face
なお、顔画像の照合技術としては、それぞれのデータが同一人物か否かを判断する手法であればどのような手法を用いてもよく、特に限定されない。例えば、顔の目、鼻腔、耳などから一つ以上を選択して特徴点とし、その絶対長、パターン方向、重心などをパラメータ化して人物の照合を行う手法が知られている(特開平10−283472号公報参照)。 The face image matching technique is not particularly limited as long as it is a technique for determining whether or not each data is the same person. For example, a method is known in which one or more of face eyes, nasal cavity, ears, and the like are selected as feature points, and the person is collated by parameterizing the absolute length, pattern direction, center of gravity, etc. No. -283472).
操作部510は、各種設定等を行う上下左右の操作ボタンや決定ボタンなどで構成される。制御部511は、デジタルカメラ全体の処理を制御する。メモリ512は、画像の一時記憶装置として用いられる。また、メモリ512に顔画像もしくは顔の特徴量データを記録しても構わない。
The
図3は、ノートPC10の構成例を説明するためのブロック図である。 FIG. 3 is a block diagram for explaining a configuration example of the notebook PC 10.
図3において、外部通信部601は、外部機器との通信を行う。外部通信部601の物理層は、有線、無線のどちらでも構わない。顔画像照合部602は、図2の顔画像照合回路509と同様の構成であり、入力された顔画像が同一人物か否かの照合を行う。顔画像検出部603は、図2の顔検出回路508と同様の構成であり、画像データから顔領域を検出する。
In FIG. 3, an
記録媒体605は、画像データや顔画像もしくは顔の特徴量データを記録する。一般的にPCでは、記録媒体605にハードディスクが用いられるが、これに限られるものではない。メモリ604は、画像の一時記憶装置として用いられる。また、メモリ604に顔画像もしくは顔の特徴量データを記録しても構わない。
The
操作部606は、マウスやキーボードなどにより構成される。表示部607は、CRTや液晶ディスプレイなどにより構成される。制御部608は、ノートPC10全体の制御を行う。
The
次に、ノートPC10がデジタルカメラ1,2から画像データと顔テーブルを収集する際の処理について説明する。
Next, processing when the
まず、図4を参照して、デジタルカメラ1,2が画像データと顔テーブルを記録媒体506に登録するまでの処理を説明する。なお、図4での各処理は、デジタルカメラ1,2のメモリ512等に記憶されたプログラムがRAMにロードされて、制御部511のCPUにより実行される。
First, with reference to FIG. 4, processing until the digital cameras 1 and 2 register image data and a face table in the
本実施形態では、まず、顔画像登録モードで顔テーブルの作成を行い、その後、撮影をして画像データを取り込む場合を説明する。 In the present embodiment, a case will be described in which a face table is first created in the face image registration mode, and then image data is captured and image data is captured.
図4において、ステップS2000では、制御部511は、顔画像登録モードで撮影処理を行い、ステップS2001に進む。具体的には、制御部511は、表示部505にメニューを表示し、そのメニューの中から操作部510でユーザが顔画像登録モード用のボタンを選択すると、顔画像登録モードを設定する。
In FIG. 4, in step S2000, the
また、制御部511は、ユーザによるレリーズボタン等の押下により、光学系501に入射した光を撮像素子502で電気信号に変換し、A/D変換回路503でデジタル信号に変換後、信号処理部504で画像データを作成し、顔検出回路508に出力する。
Further, the
ステップS2001では、制御部511は、顔検出回路508を制御して、前記画像データから顔画像を検出し、ステップS2002に進む。
In step S2001, the
ステップS2002では、制御部511は、ステップS2001で検出した顔画像を記録媒体506に記録(登録)し、ステップS2003に進む。図5に、デジタルカメラ1の記録媒体506に記録された顔テーブルを示し、図6に、デジタルカメラ2の記録媒体506に記録された顔テーブルを示す。ここで、図5の顔テーブルの「山田」と図6の顔テーブルの「山ちゃん」とは同一人物であることを前提とする。また、名称である「山田」や「山ちゃん」は、顔画像を記録媒体506に登録する際や、顔画像登録モードを開始した際などに、表示部505に文字入力メニューを表示してデジタルカメラ1,2のユーザーに入力させる。
In step S2002, the
以上の処理で顔画像の登録処理が終了し、ステップS2003では、制御部511は、通常の撮影処理を行い、ステップS2004に進む。
With the above processing, the face image registration processing ends, and in step S2003, the
具体的には、ユーザによるレリーズボタン等の押下により、光学系501に入射した光を撮像素子502で電気信号に変換し、A/D変換回路503でデジタル信号に変換後、信号処理部504で画像データを作成し、記録媒体506に記録する。
Specifically, when the user presses a release button or the like, light incident on the
ステップS2004では、制御部511は、顔検出回路508を制御して、前記画像データから顔画像を検出する。また、制御部511は、検出した顔画像を顔照合回路509で登録済みの顔テーブルと照合し、検出した顔画像と登録済みの顔テーブルの顔情報とが一致した場合に、ステップS2005に進む。
In step S2004, the
ステップS2005では、制御部511は、ステップS2004で一致した顔情報をステップS2003で撮影した画像データに対して関連付け、ステップS2006に進む。本実施形態では、デジタルカメラ1で図7に示す画像データを撮影し、該画像データの被写体と図5に示す顔テーブルに登録済みの「山田」が一致し、「山田」が図7に示す画像データに対して関連付けられものとする。この関連付けは、図8に示す関連付けテーブルにより管理されている。なお、デジタルカメラ2には、画像データは存在しないものとする。
In step S2005, the
ステップS2006では、制御部511は、ステップS2005で関連付けした画像データを記録媒体506に記録し、処理を終了する。以上の処理によって、デジタルカメラ1,2は、画像データと顔テーブルを自身の記録媒体に登録する。
In step S2006, the
次に、図9を参照して、ノートPC10がデジタルカメラ1,2から画像データと顔テーブルを収集する際の処理を、送信元のデジタルカメラ1,2ごとに説明する。本実施形態では、デジタルカメラ1及びデジタルカメラ2の順番に処理を行う。なお、図9での各処理は、ノートPC10のメモリ604等に記憶されたプログラムがRAMにロードされて、制御部608のCPUにより実行される。
Next, a process when the
まず、デジタルカメラ1側では、たとえば、表示部505にメニューを表示し、その中から操作部510で送信用のボタンを選択することで、画像データと顔テーブルをノートPC10に送信する。
First, on the digital camera 1 side, for example, a menu is displayed on the
そして、ノートPC10側では、ステップS200において、制御部608が、デジタルカメラ1から送信された画像データと顔画像テーブルを外部通信部601を介して受信し、S201へ進む。
On the
ステップS201では、制御部608は、受信した画像データ及び顔テーブルのうち、最初に画像データを処理するものとしてステップS203に進む。
In step S201, the
ステップS203では、制御部608は、画像データ関連付け処理2を行い、ステップS206に進む。
In step S203, the
ここで、図10を参照して、ステップS203での画像データ関連付け処理2について説明する。 Here, the image data association processing 2 in step S203 will be described with reference to FIG.
図10において、ステップS2201では、制御部608は、画像データに顔情報が既に関連付けられているかどうかを判断し、関連付けられていなければステップS2202へ進み、関連付けられていればステップS2207で画像データを記録して終了する。
In FIG. 10, in step S2201, the
本実施形態では、前述したように、図7の画像データに顔情報「山田」が関連付けられているため、ステップS2207へ進み、画像データを記録媒体605に記録して処理を終了する。なお、画像データに顔情報が関連付けられていない場合の処理(ステップS2202以降の処理)については、後述する本発明の第2の実施形態で説明する。
In the present embodiment, as described above, since the face information “Yamada” is associated with the image data in FIG. 7, the process proceeds to step S <b> 2207, the image data is recorded on the
図9に戻って、ステップS206では、制御部608は、全ての受信データを処理したかの判断を行う。ここでは、まだ顔テーブルの処理が残っているためステップS201へ戻り、次に顔テーブルを処理するためステップS202の登録処理に進む。
Returning to FIG. 9, in step S206, the
ここで、図11を参照して、ステップS202の登録処理について説明する。 Here, the registration process in step S202 will be described with reference to FIG.
まず、ステップS300では、制御部608は、受信した顔テーブルの全ての顔情報を処理したかの判断を行う。ここでは、図5に示す顔テーブルの顔画像を1つも処理していないため、ステップS301へ進む。
First, in step S300, the
ステップS301では、制御部608は、次の入力顔情報を読み出す処理を行い、ステップS302に進む。本実施形態では、図5の顔テーブルの顔情報を上から順に処理をする。ここでは、図5の顔テーブルの顔情報「山田」が読み出される。
In step S301, the
ステップS302では、制御部608は、既に顔テーブルが登録されているかの判断を行う。
In step S302, the
ここで、図11の処理開始時にノートPC10に登録されている顔テーブルを、以下、旧顔テーブルと呼ぶ。デジタルカメラ1から顔テーブルを受信する前には、ノートPC10に顔テーブルは登録されていないので、ここでは制御部608はステップS309へ処理を進める。
Here, the face table registered in the
ステップS309では、制御部608は、新しい顔テーブルを作成し、新規人物として顔情報、つまり、顔情報「山田」を登録し、ステップS300に戻る。ここで、新しく作成された顔テーブルを、以下、新顔テーブルと呼ぶ。
In step S309, the
ステップS300では、制御部608は、受信した顔テーブルの全ての顔情報を処理したかの判定を行う。ここでは、まだ受信した顔テーブルの全ての顔情報を処理していないためステップS301へ進む。
In step S300, the
ステップS301では、制御部608は、受信した顔テーブルから顔情報「鈴木」を読み出し、ステップS302に進む。
In step S301, the
ステップS302では、制御部608は、旧顔テーブルが存在しないため、ステップS309へ進む。
In step S302, since the old face table does not exist, the
ステップS309では、制御部608は、顔情報「鈴木」を新顔テーブルに登録し、ステップS300に戻る。
In step S309, the
ステップS300では、制御部608は、受信した顔テーブルの全ての顔情報を処理したかの判定を行う。ここでは、まだ受信した顔テーブルの全ての顔情報を処理していないためステップS301へ進む。
In step S300, the
ステップS301では、制御部608は、受信した顔テーブルから顔情報「佐藤」を読み出し、ステップS302に進む。
In step S301, the
ステップS302では、制御部608は、旧顔テーブルが存在しないため、ステップS309へ進む。
In step S302, since the old face table does not exist, the
ステップS309では、制御部608は、顔情報「佐藤」を新顔テーブルに登録し、ステップS300に戻る。
In step S309, the
ステップS300では、制御部608は、受信した顔テーブルの全ての顔情報を処理していると判断し、ステップS310に進む。
In step S300, the
ステップS310では、制御部608は、新顔テーブルを記憶媒体605に記録し、処理を終了する。以上より、ノートPC10の記録媒体605に図5に示す顔テーブルが記録される。
In step S310, the
図9に戻って、ステップS204では、制御部608は、グループ名称決めの処理を行う。
Returning to FIG. 9, in step S204, the
ここで、図12を参照して、グループ名称決め処理について説明する。 Here, the group name determination process will be described with reference to FIG.
まず、ステップS800では、制御部608は、先の登録処理において新しいグループが生成されたかどうかを判定する。先の登録処理では、「山田」「鈴木」「佐藤」が新規人物として登録されたのみで、グループは生成されていないため、ここでは、ステップS803へ進む。
First, in step S800, the
ステップS803では、制御部608は、先の登録処理において既存のグループに顔情報が追加されたかどうかを判定する。ここでは、先の登録処理が行われる前に既存のグループは存在していなかったため、何もせずに名称決め処理を終了する。
In step S803, the
図9に戻って、ステップS205では、制御部608は、画像データの関連付け処理1を行う。
Returning to FIG. 9, in step S <b> 205, the
ここで、図13を参照して、画像データの関連付け処理1について説明する。 Here, the image data association processing 1 will be described with reference to FIG.
まず、ステップS900では、制御部608は、先の登録処理において新しいグループが生成されたか、または既存グループに顔情報が追加されたかどうかを判定する。先の登録処理では、「山田」「鈴木」「佐藤」が新規人物として登録されたのみで、グループは生成されていないため、ここでは、何もせずに画像データの関連付け処理を終了する。
First, in step S900, the
図9に戻って、ステップS206では、制御部608は、全てのデータを処理したか否かを判断する。ここでは、全てのデータを処理しているため、デジタルカメラ1から画像データと顔画像テーブルを収集する際の一連の処理を終了する。
Returning to FIG. 9, in step S206, the
次に、上述したデジタルカメラ1の場合と同様に、図9を参照して、ノートPC10がデジタルカメラ2から画像データと顔テーブルを収集する際の処理を説明する。
Next, similarly to the case of the digital camera 1 described above, a process when the
まず、デジタルカメラ2側では、上述したように、画像データはないため、図6に示す顔テーブルのみをノートPC10に送信する。
First, since there is no image data on the digital camera 2 side as described above, only the face table shown in FIG. 6 is transmitted to the
そして、ステップS200において、制御部608は、デジタルカメラ2から顔テーブルを受信すると、ステップS201に進む。
In step S200, when the
ステップS201では、制御部608は、顔テーブルのみを処理するためステップS202へ進み、登録処理を行う。
In step S201, the
ここで、図11を参照して、登録処理について説明する。 Here, the registration process will be described with reference to FIG.
まず、ステップS300では、制御部608は、受信した顔テーブルの全ての顔情報を処理したかを判断する。ここでは、図6の顔テーブルの顔情報を1つも処理していないため、ステップS301へ進む。
First, in step S300, the
ステップS301では、制御部608は、入力顔情報である、図6の顔テーブルの顔情報「なべやん」を読み出し、ステップS302に進む。
In step S301, the
ステップS302では、制御部608は、旧顔テーブルが登録されているかの判断を行う。ここでは、デジタルカメラ1から受信した図5の顔テーブルが旧顔テーブルとして既に登録されているため、ステップS303に進む。
In step S302, the
ステップS303では、制御部608は、ステップS301で読み出した顔情報と旧顔テーブルに記録されている全ての顔情報とを照合したか否かを判断する。ここでは、まだ旧顔テーブルの全ての顔情報と照合していないため、ステップS304に進む。
In step S303, the
ステップS304では、制御部608は、旧顔テーブルから最初の顔情報である「山田」を読み出し、ステップS305に進む。
In step S304, the
ステップS305では、制御部608は、顔情報に付帯している情報が一致しているか否か、或いは顔情報に付帯している情報が存在しないか否かを判断する。
In step S305, the
そして、制御部608は、前記付帯情報が一致していない場合、或いは前記付帯情報が存在する場合はステップS303に戻り、前記付帯情報が一致する場合、或いは前記付帯情報が存在しない場合はステップS306に進む。本実施形態では、顔情報に付帯情報は存在しないため、ステップS306に進む。
Then, the
ステップS306では、制御部608は、顔画像照合部602を制御して、受信した顔テーブルの顔情報「なべやん」と旧顔テーブルの顔情報「山田」が同一人物であるかどうかを判断するための照合処理を行い、ステップS307に進む。
In step S306, the
ステップS307では、制御部608は、ステップS306での照合処理の結果、照合対象の2人が同一人物であるかを判定し、同一人物であればステップS308に進み、同一人物でなければステップS303に戻る。ここでは、「なべやん」と「山田」は同一人物ではないため、ステップS303へ戻る。
In step S307, the
ステップS303では、制御部608は、再び旧顔テーブルに記録されている全ての顔情報を照合したかどうかを判断する。ここでは、まだすべての顔情報と照合していないため、ステップS304に進む。
In step S303, the
ステップS304では、制御部608は、旧顔テーブル(図5)から次の顔情報「鈴木」を読み出し、ステップS305に進む。
In step S304, the
ステップS305では、制御部608は、上記同様に顔情報に付帯情報が存在しないため、ステップS306に進む。
In step S305, the
ステップS306では、制御部608は、顔画像照合部602を制御して、受信した顔テーブルの顔情報「なべやん」と旧顔テーブルの顔情報「鈴木」が同一人物であるかどうかを判断するための照合処理を行い、ステップS307に進む。
In step S306, the
ステップS307では、制御部608は、ステップS306での照合処理の結果、照合対象の2人が同一人物であるかを判定し、同一人物であればステップS308に進み、同一人物でなければステップS303に戻る。ここでは、「なべやん」と「鈴木」は同一人物ではないため、ステップS303へ戻る。
In step S307, the
ステップS303では、制御部608は、再び旧顔テーブルに記録されている全ての顔情報を照合したかどうかを判断する。ここでは、まだすべての顔情報と照合していないため、ステップS304に進む。
In step S303, the
ステップS304では、制御部608は、旧顔テーブル(図5)から次の顔情報「佐藤」を読み出し、ステップS305に進む。
In step S304, the
ステップS305では、制御部608は、上記同様に顔情報に付帯情報が存在しないため、ステップS306に進む。
In step S305, the
ステップS306では、制御部608は、顔画像照合部602を制御して、受信した顔テーブルの顔情報「なべやん」と旧顔テーブルの顔情報「佐藤」が同一人物であるかどうかを判断するための照合処理を行い、ステップS307に進む。
In step S306, the
ステップS307では、制御部608は、ステップS306での照合処理の結果、照合対象の2人が同一人物であるかを判定し、同一人物であればステップS308に進み、同一人物でなければステップS303に戻る。ここでは、「なべやん」と「佐藤」は同一人物ではないため、ステップS303へ戻る。
In step S307, the
ステップS303では、制御部608は、再び旧顔テーブルに記録されている全ての顔情報を照合したかどうかを判断する。ここでは、旧顔テーブルの全ての顔情報と照合を行ったため条件を満たし、ステップS309に進む。この段階では、デジタルカメラ1の旧顔テーブルの顔情報とデジタルカメラ2の顔テーブルの顔情報「なべやん」は一致しなかったことになる。
In step S303, the
ステップS309では、制御部608は、新顔テーブルに「なべやん」を新規人物として登録し、ステップS300に戻る。
In step S309, the
ステップS300以降は、制御部608は、上記同様の処理を行う。即ち、制御部608は、ステップS301で図6の顔テーブルから次の入力顔情報「山ちゃん」を読み出し、ステップS302及びステップS303で上記同様の処理を行い、ステップS304で旧顔テーブルから顔情報「山田」を読み出す。
After step S300, the
また、制御部608は、上記同様にして、ステップS305からステップS306へ進み、顔画像照合部602を制御して、顔情報「山ちゃん」と旧顔テーブルの顔情報「山田」が同一人物であるかどうかを判断するための照合処理を行い、ステップS307に進む。
In the same manner as described above, the
ステップS307では、制御部608は、ステップS306での照合処理の結果、照合対象の2人が同一人物であるかを判定し、同一人物であればステップS308に進み、同一人物でなければステップS303に戻る。ここでは、「山ちゃん」と「山田」は同一人物であるため、ステップS308へ進む。
In step S307, the
ステップS308では、制御部608は、同一人物と判定された「山ちゃん」と「山田」をグループ化して新規顔テーブルに登録し、ステップS300へ戻る。
In step S308, the
この時点での新顔テーブルを、図14に示す。図14のグループ名称「A」は、後述するグループ名称決め処理で名称が決まるまでの間、仮で付けている名称である。 The new face table at this time is shown in FIG. The group name “A” in FIG. 14 is a name that is provisionally assigned until the name is determined in the group name determination process described later.
ステップS300では、制御部608は、まだ入力顔情報が残っているためステップS302へ進み、顔情報「枝っち」を読み出す。「枝っち」と旧顔テーブルの顔情報とで一致するものはなく、「枝っち」の処理は「なべやん」と同様であるので省略する。
In step S300, since the input face information still remains, the
ステップS309において、制御部608は、「枝っち」を新顔テーブルに登録し終えたら、すべての入力情報に対する処理が終了するため、ステップS300の条件を満たしステップS310へ進む。
In step S309, after registering “branch” in the new face table, the
最後に、ステップS310では、制御部608は、新顔テーブルを記録媒体605に記録し、処理を終了する。以上より、ノートPC10の記録媒体605には、図15に示す顔テーブルが記録される。
Finally, in step S310, the
次に、図9に戻って、ステップS204では、制御部608は、グループ名称決めの処理を行う。
Next, returning to FIG. 9, in step S204, the
ここで、図12を参照して、グループ名称決め処理について説明する。 Here, the group name determination process will be described with reference to FIG.
まず、ステップS800では、制御部608は、先の登録処理において新しいグループが生成されたかどうかを判定する。ここでは、先の登録処理で「山ちゃん」と「山田」が同一人物として人物単位を示すためのグループ化をして登録されているため、ステップS801へ進む。
First, in step S800, the
ステップS801では、制御部608は、グループ化された各顔情報に付ける共通のグループ名称の決定方法を決定する。具体的には、制御部608は、表示部607に、図16に示すように、「新規に名称を付ける」か「既存名称から選択」のUIを表示し、ユーザが操作部606でどちらかを選択する。
In step S801, the
ここで、制御部608は、ユーザが「新規に名称を付ける」を選択した場合、ステップS802に進み、図17に示す画面でユーザによる新規名称の入力を待ち、入力されると、ステップS803に進む。新規名称の入力は、ユーザが操作部606のキーボードなどを用いて行う。
Here, when the user selects “newly name”, the
一方、ステップS801において、ユーザが「既存名称から選択」を選択した場合、制御部608は、ステップS805に進み、図18の画面で既存の名称からグループ名称をユーザが選択するのを待つ。
On the other hand, when the user selects “select from existing name” in step S801, the
具体的には、制御部608は、グループ化された各顔情報の名称(「山ちゃん」と「山田」)を表示部607に表示し、ユーザが操作部606でいずれかを決定すると、ステップS803に進む。
Specifically, the
以上の処理でグループ名称が決定されるが、本実施形態では、ステップS802でグループ名称「山田太郎」を新たに設定するものとし、図19に示す顔テーブルが作成される。 The group name is determined by the above processing. In this embodiment, the group name “Taro Yamada” is newly set in step S802, and the face table shown in FIG. 19 is created.
ステップS803では、制御部608は、既存のグループに顔情報が追加されたかどうかを判断し、追加された場合はステップS804に進み、追加されていない場合は処理を終了する。ここでは、先の登録処理が行われる前に既存のグループは存在していなかったため、何もせずに名称決め処理を終了する。
In step S803, the
なお、ステップS803において、既存グループが存在し、そこに顔情報が追加された場合は、制御部608は、ステップS804において、既存グループに付加されている共通のグループ名称を、新たに追加された顔情報にも付加し記録する更新処理を行う。以上の処理で、グループの名称決め処理を終了する。
In step S803, if an existing group exists and face information is added thereto, the
次に、図9に戻って、ステップS205では、制御部608は、画像データの関連付け処理1を行う。
Next, returning to FIG. 9, in step S <b> 205, the
ここで、図13を参照して、画像データの関連付け処理1について説明する。 Here, the image data association processing 1 will be described with reference to FIG.
まず、ステップS900では、制御部608は、先の登録処理において新しいグループが生成されたか、または既存グループに顔情報が追加されたかどうかを判定する。ここでは、先の登録処理では「山ちゃん」と「山田」が新しいグループとして登録されているため、ステップS901へ進む。
First, in step S900, the
ステップS901では、制御部608は、グループ化された各顔画像が関連付けられている画像データに、他のグループ化された顔画像を関連付けする。
In step S901, the
具体的には、前述したように、図7の画像データには、図8に示すように、顔画像「山田」が関連付けられている。ここでは、顔画像「山田」とグループ化された顔画像「山ちゃん」も図7の画像データに関連付けする。 Specifically, as described above, the face data “Yamada” is associated with the image data in FIG. 7 as shown in FIG. Here, the face image “Yama-chan” grouped with the face image “Yamada” is also associated with the image data in FIG. 7.
次に、ステップS902では、制御部608は、グループ化された各顔画像が関連付けられている画像データに、グループ化した際に付加したグループ名称を関連付けする。
Next, in step S902, the
具体的には、ここでグループ化した際に付加されたグループ名称「山田太郎」も図7の画像データに関連付けする。 Specifically, the group name “Taro Yamada” added when grouping here is also associated with the image data of FIG.
以上より、図20に示すように、「山田太郎」、「山田」、「山ちゃん」が関連付けられているファイルテーブルが作成され、再生時には図21に示すように表示される。 As described above, as shown in FIG. 20, a file table in which “Taro Yamada”, “Yamada”, and “Yama-chan” are associated is created and displayed as shown in FIG.
この画像データには、同一人物の名称すべてが関連付けられているので、図22に示す検索画面において「山ちゃん」を検索しても図21の画像はヒットするし、「山田」や「山田太郎」で検索してもヒットするため、効率的な画像検索を行うことが可能となる。 Since all the names of the same person are associated with this image data, even if “Yama-chan” is searched on the search screen shown in FIG. 22, the image of FIG. 21 will be hit, and “Yamada” or “Taro Yamada” The search is successful even if a search is performed with “”, so that an efficient image search can be performed.
なお、デジタルカメラ2には画像データはないものとして説明を行ったが、デジタルカメラ2に顔画像「山ちゃん」が関連付けられた画像データが存在した場合には、この画像データに対しても関連付けが行われる。具体的には、ステップS901で、顔画像「山ちゃん」が関連付けられた画像データに対して顔画像「山田」も関連付け、ステップS902で、さらにグループ名称「山田太郎」を関連付ける。 Although the digital camera 2 has been described as having no image data, if image data associated with the face image “Yama-chan” exists in the digital camera 2, the image data is also associated with the image data. Is done. Specifically, in step S901, the face image “Yamada” is also associated with the image data associated with the face image “Yama-chan”, and in step S902, the group name “Taro Yamada” is further associated.
図9に戻って、ステップS206では、制御部608は、全てのデータを処理しているため、デジタルカメラ2から顔テーブルを収集する際の一連の処理を終了する。
Returning to FIG. 9, in step S <b> 206, the
以上説明したように、本実施形態のノートPC10では、2台のデジタルカメラ1,2から収集された顔情報を人物単位で分類することができるので、人物の写っている画像を検索する際に、効率的な画像検索が可能となる。
As described above, in the
(第2の実施形態)
次に、図23〜図30を参照して、本発明の画像処理装置の第2の実施形態であるデジタルカメラについて説明する。なお、上記第1の実施形態に対して重複又は相当する部分については、図及び符号を流用して説明する。
(Second Embodiment)
Next, a digital camera which is a second embodiment of the image processing apparatus of the present invention will be described with reference to FIGS. Note that portions that overlap or correspond to the first embodiment will be described with reference to the drawings and symbols.
図23に示すように、本発明の画像処理装置の第2の実施形態であるデジタルカメラ4には、3台のデジタルカメラ(画像記録装置)1,2,3からそれぞれのカメラ1,2,3に登録されている顔画像が送信される。 As shown in FIG. 23, the digital camera 4 which is the second embodiment of the image processing apparatus of the present invention includes three digital cameras (image recording apparatuses) 1, 2, 3 to each camera 1, 2, The face image registered in 3 is transmitted.
なお、デジタルカメラ3,4の基本的構成は、既に図2で説明したデジタルカメラ1,2と同様であるため、その説明を省略する。また、本実施形態では、人物の個体識別情報として人物の顔画像を用いて説明するが、人物の顔画像以外の他の個体識別情報を用いてもよい。 The basic configuration of the digital cameras 3 and 4 is the same as that of the digital cameras 1 and 2 already described with reference to FIG. In the present embodiment, a person face image is used as the person identification information. However, other individual identification information other than the person face image may be used.
デジタルカメラ1,2,3が画像データと顔テーブルを自身の記録媒体506に登録するまでの処理は、一部を除いて上記第1の実施形態の図4に示す処理と同様である。上記第1の実施形態に対して、本実施形態では、図4のステップS2002で顔登録する際に、男性か女性かの付帯情報の入力をユーザ促し、その性別情報をファイル名にも反映させる点が異なる。
The processes until the digital cameras 1, 2, and 3 register the image data and the face table in the
具体的には、デジタルカメラ1,2,3の制御部511は、表示部505に男性か女性を選択するボタンを表示し、ユーザが操作部510で選択し、決定ボタンを押すことで性別の入力を行う。なお、本実施形態では、付帯情報を性別としているが、これに限定されない。
Specifically, the
その結果、デジタルカメラ1の記録媒体506には、図24に示す顔テーブルが記録され、デジタルカメラ2の記録媒体506には、図25に示す顔テーブルが記録されるものとする。
As a result, the face table shown in FIG. 24 is recorded on the
また、デジタルカメラ3の記録媒体506には、図26に示す画像データが記録されているものとする。図26の画像データは、図7の画像データと同様に、デジタルカメラ1に登録された「山田」、デジタルカメラ2に登録された「山ちゃん」と同一人物が含まれる画像が記録されている。ただし、デジタルカメラ3は、記録媒体506に顔テーブルが記録されておらず、前記画像データには誰も関連付けられていない(図27参照)ことを前提とする。
It is assumed that the image data shown in FIG. 26 is recorded on the
次に、図9を参照して、デジタルカメラ4が、デジタルカメラ1〜3から画像データと顔テーブルとを収集する際の処理を、送信元のデジタルカメラ1〜3ごとに説明する。本実施形態では、デジタルカメラ1、デジタルカメラ2、及びデジタルカメラ3の順番に処理を行う。 Next, the processing when the digital camera 4 collects the image data and the face table from the digital cameras 1 to 3 will be described for each of the transmission source digital cameras 1 to 3 with reference to FIG. In this embodiment, processing is performed in the order of the digital camera 1, the digital camera 2, and the digital camera 3.
なお、デジタルカメラ4がデジタルカメラ1,2から顔テーブルを収集する際の処理については、顔テーブルに前記付帯情報が付加された点以外は上記第1の実施形態と同様であるため、相違点についてのみ説明する。 The processing when the digital camera 4 collects the face table from the digital cameras 1 and 2 is the same as that in the first embodiment except that the supplementary information is added to the face table. Only will be described.
また、本実施形態における図9での各処理は、デジタルカメラ4のメモリ512等に記憶されたプログラムがRAMにロードされて、制御部511のCPUにより実行される。
9 in this embodiment is executed by the CPU of the
図9のステップS200で、デジタルカメラ4がデジタルカメラ1から送信された画像データと顔テーブルとを受信した際の制御部511の処理については、上記第1の実施形態のノートPC10の制御部608の処理と同様であるため、その説明を省略する。
The processing of the
次に、図9のステップS200で、デジタルカメラ4がデジタルカメラ2から顔テーブルを受信すると、デジタルカメラ4の制御部511は、ステップS201からステップS202へ進み、図11に示す登録処理を行う。
Next, when the digital camera 4 receives the face table from the digital camera 2 in step S200 of FIG. 9, the
図11においては、制御部511は、ステップS300、ステップS301と進み、受信した顔テーブルから最初の顔情報「なべやん」を読み出す。次に、制御部511は、ステップS302、ステップS303、ステップS304と進み、登録されている最初の顔情報「山田」を読み出す。
In FIG. 11, the
次に、ステップS305において、制御部511は、顔情報「なべやん」と顔情報「山田」の付帯情報が一致しているかどうかを判断し、一致していればステップS306へ進み、一致していなければステップS303へ戻る。
Next, in step S305, the
ここでは、顔情報「なべやん」と顔情報「山田」の性別は共に男で付帯情報が一致するため、制御部511は、ステップS306へ進み、顔照合回路509を制御して、顔情報「なべやん」と顔情報「山田」の照合処理を行う。
Here, since the genders of the face information “Nabeyan” and the face information “Yamada” are both male and the accompanying information matches, the
次に、ステップS307では、制御部511は、ステップS306の照合処理の結果、顔情報「なべやん」と顔情報「山田」とが同一人物か否かを判断し、同一人物であればステップS308に進み、同一人物でなければステップS303に戻る。
Next, in step S307, the
ここでは、顔情報「なべやん」と顔情報「山田」は同一人物ではないため、ステップS303へ戻る。 Here, since face information “Nabeyan” and face information “Yamada” are not the same person, the process returns to step S303.
そして、制御部511は、再びステップS303、ステップS304と進み、次の登録されている顔情報である「鈴木」を読み出す。
Then, the
次に、ステップS305では、制御部511は、顔情報「なべやん」と顔情報「鈴木」も性別は共に男で付帯情報が一致するため、ステップS306へ進み、顔照合回路509を制御して、顔情報「なべやん」と顔情報「鈴木」の照合処理を行う。
Next, in step S305, the
次に、ステップS307では、制御部511は、ステップS306の照合処理の結果、顔情報「なべやん」と顔情報「鈴木」とが同一人物か否かを判断し、同一人物であればステップS308に進み、同一人物でなければステップS303に戻る。
In step S307, the
ここでは、顔情報「なべやん」と顔情報「鈴木」は同一人物ではないため、ステップS303へ戻る。 Here, the face information “Nabeyan” and the face information “Suzuki” are not the same person, so the process returns to step S303.
そして、制御部511は、再びステップS303、ステップS304と進み、次の登録されている顔情報である「佐藤」を読み出す。
Then, the
次に、ステップS305において、制御部511は、顔情報「なべやん」は男で顔情報「佐藤」は女なので付帯情報が一致せず条件を満たさないため、ステップS306の照合処理を省略して、ステップS303へ戻る。
Next, in step S305, the
ステップS303では、制御部511は、旧顔テーブルの全ての顔情報と照合を行ったため、ステップS309に進み、新顔テーブルに顔情報「なべやん」を新規人物として登録し、ステップS300に戻る。
In step S303, since the
以上のように、ステップS305で付帯情報の一致か否かの判断を行うことで、ステップS306での照合処理の回数を削減できることが上記第1の実施形態との相違点であり、他の入力顔情報「山ちゃん」、「枝っち」に対しても、同様の処理を行う。この結果、デジタルカメラ4の記録媒体506には、図28に示す顔テーブルが記録される。
As described above, it is different from the first embodiment that the number of collation processes in step S306 can be reduced by determining whether or not the incidental information matches in step S305. The same processing is performed for the face information “Yama-chan” and “Edachi”. As a result, the face table shown in FIG. 28 is recorded on the
次に、図9を参照して、デジタルカメラ4がデジタルカメラ3から画像データを収集する際の処理を説明する。なお、デジタルカメラ3は、デジタルカメラ4に対して画像データのみを送信するものとする。 Next, processing when the digital camera 4 collects image data from the digital camera 3 will be described with reference to FIG. Note that the digital camera 3 transmits only image data to the digital camera 4.
ステップS200では、デジタルカメラ4の制御部511は、デジタルカメラ3から送信された画像データを受信すると、ステップS201に進む。
In step S200, when the
ステップS201では、制御部511は、画像データのみの受信のため、ステップS203に進む。
In step S201, the
ステップS203では、制御部511は、画像データの関連付け処理2を行う。
In step S <b> 203, the
ここで、図10を参照して、ステップS203での画像データの関連付け処理2について説明する。 Here, the image data association processing 2 in step S203 will be described with reference to FIG.
まず、ステップS2201では、制御部511は、受信した画像データに顔情報が既に関連付けられているか否かを判断する。
First, in step S2201, the
そして、制御部511は、受信した画像データに顔情報が関連付けられていなければステップS2202へ進み、関連付けられていればステップS2207に進んで、画像データを記録して処理を終了する。本実施形態では、デジタルカメラ3から収集した図26の画像データは関連付けられていないため、ステップS2202へ進む。
If the face information is not associated with the received image data, the
ここで、図29を参照して、ステップS2202での顔検出関連付け処理について説明する。 Here, with reference to FIG. 29, the face detection association process in step S2202 will be described.
まず、ステップS2101では、制御部511は、顔検出回路508を制御して、受信した画像データから顔情報の検出処理を行い、ステップS2102に進む。
First, in step S2101, the
ステップS2102では、制御部511は、ステップS2101で顔が検出できたか否かを判断し、顔が検出できた場合はステップS2103へ進み、顔が検出できない場合は処理を終了する。ここでは、受信した画像データには顔情報が存在するためステップS2103へ進む。
In step S2102, the
ステップS2103では、制御部511は、デジタルカメラ4に旧顔テーブルが登録されているかどうかを判断し、旧顔テーブルが登録されていればステップS2104へ進み、登録されていなければ処理を終了する。ここで、デジタルカメラ4は、図28の顔テーブルを記録媒体506に記録しているため、ステップS2104へ進む。
In step S2103, the
ステップS2104では、制御部511は、旧顔テーブルの全ての顔情報を処理したかを判断し、全ての顔情報の処理をしている場合は処理を終了し、全ての顔情報の処理をしてない場合はステップS2105に進む。ここでは、まだ全ての顔情報を処理していないためステップS2105へ進む。
In step S2104, the
ステップS2105では、制御部511は、旧顔テーブルから顔情報(ここでは、「山田」)を読み出し、ステップS2106に進む。
In step S2105, the
ステップS2106では、制御部511は、顔照合回路509を制御して、ステップS2102で検出した顔画像とステップS2105で読み出した顔画像とを照合し、ステップS2107に進む。ここでは、受信した画像データ(図26)から検出された顔情報と旧顔テーブルから読み出した顔情報「山田」とが照合される。
In step S2106, the
ステップS2107では、制御部511は、ステップS2106の照合処理の結果、照合対象の2人が同一人物か否かを判断し、同一人物であればステップS2108へ進み、同一人物でなければステップS2104へ戻る。ここでは、図26の画像データから検出される顔情報と旧顔テーブルから読み出した顔情報「山田」とは同一人物と判断されるため、ステップS2108へ進む。
In step S2107, the
ステップS2108では、制御部511は、図26の画像データに対して顔情報「山田」を関連付けし、処理を終了する。具体的には、図26の画像データには図27のように誰も関連付けられていない状態だが、ここに顔情報「山田」を関連付ける。
In step S2108, the
図10に戻って、ステップS2203では、制御部511は、ステップS2202の一連の処理中に一致する顔画像が見つかったかどうかを判断する。
Returning to FIG. 10, in step S2203, the
そして、制御部511は、一致する顔画像が見つからない場合や、関連付けられていない画像の場合は、ステップS2207に進んで、画像データの記録を行い、処理を終了する。ここでは、一致する顔画像が見つかるため、制御部511は、ステップS2204へ進む。
If the matching face image is not found or the image is not associated, the
ステップS2204では、制御部511は、ステップS2203で一致すると判断された顔画像がグループ化されているか否かを判断する。
In step S2204, the
そして、制御部511は、グループ化されていれば、ステップS2205へ進み、グループ化されていなければ、ステップS2207に進み、画像データを記録して処理を終了する。ここでは、顔情報「山田」はグループ化されているため、ステップS2205へ進む。
If it is grouped, the
ステップS2205では、制御部511は、画像データに「山田」とグループ化されている各顔情報とを関連付けし、ステップS2206に進む。ここでは、顔画像「山田」とグループ化されている顔画像「山ちゃん」も画像データに関連付けされる。
In step S2205, the
ステップS2206では、制御部511は、ステップS2205で顔画像が関連付けられている画像データに対してグループ名称を関連付けし、ステップS2207に進む。具体的には、顔情報「山田」のグループ名称「山田太郎」も画像データに関連付けする。
In step S2206, the
ステップS2207では、制御部511は、画像データを記録し処理を終了する。以上より、図26の画像データに図30に示す「山田太郎」、「山田」、「山ちゃん」が関連付けられ、図30に示すファイルテーブルが作成される。
In step S2207, the
図9に戻って、ステップS206では、制御部511は、全てのデータを処理したか否かを判断する。ここでは、全てのデータを処理しているため、制御部511は、デジタルカメラ3から画像データを収集する際の一連の処理を終了する。
Returning to FIG. 9, in step S206, the
以上説明したように、本実施形態では、上記第1の実施形態に加えて、付帯情報の一致か否かの判断を行うことで、照合処理の負荷を減らすことができるという効果が得られるまた、関連付けられていない画像データを取得した際も、既に記録されている顔情報と照合を行うことで、画像の検索を効率よく行うことが可能となる。 As described above, in this embodiment, in addition to the first embodiment, it is possible to obtain an effect of reducing the load of collation processing by determining whether or not incidental information matches. Even when image data that is not associated with each other is acquired, it is possible to efficiently search for an image by collating it with face information already recorded.
なお、本発明は、上記各実施形態に例示したものに限定されるものではなく、本発明の要旨を逸脱しない範囲において適宜変更可能である。 In addition, this invention is not limited to what was illustrated by said each embodiment, In the range which does not deviate from the summary of this invention, it can change suitably.
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。 The object of the present invention can also be achieved by executing the following processing. That is, a storage medium that records a program code of software that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus is stored in the storage medium. This is the process of reading the code.
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention.
また、プログラムコードを供給するための記憶媒体としては、次のものを用いることができる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROM等である。または、プログラムコードをネットワークを介してダウンロードしてもよい。 Moreover, the following can be used as a storage medium for supplying the program code. For example, floppy (registered trademark) disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic tape, nonvolatile memory card, ROM or the like. Alternatively, the program code may be downloaded via a network.
また、コンピュータが読み出したプログラムコードを実行することにより、上記実施の形態の機能が実現される場合も本発明に含まれる。加えて、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。 Further, the present invention includes a case where the function of the above-described embodiment is realized by executing the program code read by the computer. In addition, an OS (operating system) running on the computer performs part or all of the actual processing based on an instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Is also included.
更に、前述した実施形態の機能が以下の処理によって実現される場合も本発明に含まれる。即ち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う場合である。 Furthermore, a case where the functions of the above-described embodiment are realized by the following processing is also included in the present invention. That is, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.
1〜4 デジタルカメラ
10 ノートPC
501 光学系
502 撮像素子
503 A/D変換回路
504 信号処理部
505 表示部
506 記録媒体
507 外部通信部
508 顔検出回路
509 顔画像照合回路
510 操作部
511 制御部
512 メモリ
601 外部通信部
602 顔画像照合部
603 顔画像検出部
604 メモリ
605 記録媒体
606 操作部
607 表示部
608 制御部
1-4
501
Claims (10)
該収集手段で収集した複数の個体識別情報を照合して同一の個体であるか否かを判定する照合手段と、
該照合手段において同一の個体であると判定された複数の個体識別情報をグループ化して記録する記録手段と、
前記記録手段によってグループ化された複数の個体識別情報に対して共通の名称を設定するとともに、該複数の個体識別情報のそれぞれに対して前記画像記録装置において設定されていた名称と該共通の名称とを関連付ける設定手段と、
前記設定手段による前記共通の名称が設定された後に、前記複数の個体識別情報のそれぞれに対して前記画像記録装置において設定されていた名称、および、前記共通の名称の入力を受け付け、入力された名称に関連する画像データを前記収集手段によって収集された画像データから検索する検索手段と、
を備えることを特徴とする画像処理装置。 Collecting means for collecting the image data and the individual identification information from a plurality of image recording devices capable of recording the image data and the individual identification information of the image data;
Collating means for collating a plurality of individual identification information collected by the collecting means to determine whether or not they are the same individual;
A recording means for grouping and recording a plurality of pieces of individual identification information determined to be the same individual in the matching means;
A common name is set for a plurality of pieces of individual identification information grouped by the recording unit, and the name set in the image recording apparatus for each of the plurality of pieces of individual identification information and the common name A setting means for associating with
After the common name is set by the setting means, the name set in the image recording apparatus for each of the plurality of individual identification information and the input of the common name are accepted and input Search means for searching image data related to the name from the image data collected by the collecting means;
An image processing apparatus comprising:
前記照合手段は、前記検出手段で取得された個体識別情報と前記記録手段に記録されている個体識別情報とが同一の個体であるか否かを判定し、
前記記録手段は、前記照合手段が同一の個体であると判定した場合に、該記録手段に記録されている前記個体識別情報と前記グループ化されている個体識別情報を前記画像データに対して関連付けて記録する、ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 Comprising detection means for detecting individual identification information of a person from the image data collected by the collection means,
The collation means determines whether the individual identification information acquired by the detection means and the individual identification information recorded in the recording means are the same individual,
The recording means associates the individual identification information recorded in the recording means and the grouped individual identification information with the image data when the collating means determines that they are the same individual. recording Te, the image processing apparatus according to any one of claims 1 to 4, characterized in that.
前記照合手段は、前記検出手段で取得された個体識別情報と前記記録手段に記録されている個体識別情報とが同一の個体であるか否かを判定し、
前記記録手段は、前記照合手段が同一の個体であると判定した場合に、該記録手段に記録されている個体識別情報が前記グループ化された際に前記設定手段により設定される共通の名称を前記画像データに対して関連付けて記録する、
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 Comprising detection means for detecting individual identification information of a person from the image data collected by the collection means,
The collation means determines whether the individual identification information acquired by the detection means and the individual identification information recorded in the recording means are the same individual,
When the recording unit determines that the collating unit is the same individual, the recording unit sets a common name set by the setting unit when the individual identification information recorded in the recording unit is grouped. Recording in association with the image data;
The image processing apparatus according to claim 1 , wherein the image processing apparatus is an image processing apparatus.
前記収集手段によって前記画像記録装置から収集された前記付帯情報に基づいて前記照合手段による照合処理を行うか否かを判断する判断手段を備える、
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The image recording apparatus includes input means for inputting incidental information,
A determination unit that determines whether or not to perform collation processing by the collation unit based on the incidental information collected from the image recording apparatus by the collection unit;
The image processing apparatus according to any one of claims 1 to 6, characterized in that.
該収集ステップで収集した複数の個体識別情報を照合して同一の個体であるか否かを判定する照合ステップと、
該照合ステップで同一の個体であると判定された複数の個体識別情報をグループ化して記録する記録ステップと、
前記記録ステップによってグループ化された複数の個体識別情報に対して共通の名称を設定するとともに、該複数の個体識別情報のそれぞれに対して前記画像記録装置において設定されていた名称と該共通の名称とを関連付ける設定ステップと、
前記設定ステップによる前記共通の名称が設定された後に、前記複数の個体識別情報のそれぞれに対して前記画像記録装置において設定されていた名称、および、前記共通の名称の入力を受け付け、入力された名称に関連する画像データを前記収集ステップによって収集された画像データから検索する検索ステップと、
を備えることを特徴とする画像処理装置の制御方法。 Collecting the image data and the individual identification information from a plurality of image recording devices capable of recording the image data and the individual identification information of the image data;
A collation step of collating a plurality of individual identification information collected in the collection step to determine whether or not they are the same individual;
A recording step of grouping and recording a plurality of individual identification information determined to be the same individual in the matching step;
A common name is set for the plurality of individual identification information grouped by the recording step, and the name set in the image recording apparatus for each of the plurality of individual identification information and the common name A configuration step for associating with
After the common name is set by the setting step, the name set in the image recording apparatus for each of the plurality of individual identification information and the input of the common name are accepted and input A retrieval step of retrieving image data related to the name from the image data collected by the collecting step;
An image processing apparatus control method comprising:
該収集ステップで収集した複数の個体識別情報を照合して同一の個体であるか否かを判定する照合ステップと、
該照合ステップで同一の個体であると判定された複数の個体識別情報をグループ化して記録する記録ステップと、
前記記録ステップによってグループ化された複数の個体識別情報に対して共通の名称を設定するとともに、該複数の個体識別情報のそれぞれに対して前記画像記録装置において設定されていた名称と該共通の名称とを関連付ける設定ステップと、
前記設定ステップによる前記共通の名称が設定された後に、前記複数の個体識別情報のそれぞれに対して前記画像記録装置において設定されていた名称、および、前記共通の名称の入力を受け付け、入力された名称に関連する画像データを前記収集ステップによって収集された画像データから検索する検索ステップと、
をコンピュータに実行させることを特徴とするプログラム。 Collecting the image data and the individual identification information from a plurality of image recording devices capable of recording the image data and the individual identification information of the image data;
A collation step of collating a plurality of individual identification information collected in the collection step to determine whether or not they are the same individual;
A recording step of grouping and recording a plurality of individual identification information determined to be the same individual in the matching step;
A common name is set for the plurality of individual identification information grouped by the recording step, and the name set in the image recording apparatus for each of the plurality of individual identification information and the common name A configuration step for associating with
After the common name is set by the setting step, the name set in the image recording apparatus for each of the plurality of individual identification information and the input of the common name are accepted and input A retrieval step of retrieving image data related to the name from the image data collected by the collecting step;
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008245985A JP5164767B2 (en) | 2008-09-25 | 2008-09-25 | Image processing apparatus, image processing apparatus control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008245985A JP5164767B2 (en) | 2008-09-25 | 2008-09-25 | Image processing apparatus, image processing apparatus control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010079519A JP2010079519A (en) | 2010-04-08 |
JP5164767B2 true JP5164767B2 (en) | 2013-03-21 |
Family
ID=42209902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008245985A Active JP5164767B2 (en) | 2008-09-25 | 2008-09-25 | Image processing apparatus, image processing apparatus control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5164767B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6049253B2 (en) * | 2011-12-02 | 2016-12-21 | 綜合警備保障株式会社 | Face authentication database management method, face authentication database management apparatus, and face authentication database management program |
JP5936376B2 (en) * | 2012-02-06 | 2016-06-22 | キヤノン株式会社 | Image management device |
JP6071287B2 (en) * | 2012-07-09 | 2017-02-01 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP7204596B2 (en) | 2019-06-28 | 2023-01-16 | 富士フイルム株式会社 | Image processing device, image processing method, image processing program, and recording medium storing the program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0581320A (en) * | 1991-09-25 | 1993-04-02 | Matsushita Electric Ind Co Ltd | Information retrieving device |
JP2004310287A (en) * | 2003-04-03 | 2004-11-04 | Toshiba Corp | Person recognition device and passing controller |
JP2006202237A (en) * | 2005-01-24 | 2006-08-03 | Matsushita Electric Ind Co Ltd | Image classification device and image classification method |
JP2007148691A (en) * | 2005-11-25 | 2007-06-14 | Nikon Corp | Image processor |
JP4725377B2 (en) * | 2006-03-15 | 2011-07-13 | オムロン株式会社 | Face image registration device, face image registration method, face image registration program, and recording medium |
JP2007272604A (en) * | 2006-03-31 | 2007-10-18 | Omron Corp | Information processor and information processing method, and program |
-
2008
- 2008-09-25 JP JP2008245985A patent/JP5164767B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010079519A (en) | 2010-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6132490B2 (en) | Authentication apparatus, authentication method, and program | |
CN101609505B (en) | Method and apparatus for recognizing characters | |
JP2007052646A (en) | Image retrieval device, image printer, print ordering system, storefront print terminal device, imaging device, and image retrieval program and method | |
WO2007004520A1 (en) | Searching system and searching method | |
WO2008059926A1 (en) | Object pursuing computer program product, object pursuing device and camera | |
JP2008131330A (en) | Image display device and image displaying method | |
JP5868164B2 (en) | Imaging apparatus, information processing system, control method, and program | |
CN103188444A (en) | Imaging apparatus and method for controlling the same | |
JP5164767B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP2008146191A (en) | Image output device and image output method | |
JP2011244043A (en) | Recorded video playback system | |
JP4293055B2 (en) | Camera apparatus and program | |
JP2014186580A (en) | Authentication device, imaging device, registration method of authentication data, program, and storage medium | |
JP6410427B2 (en) | Information processing apparatus, information processing method, and program | |
JP2013046374A (en) | Image processor | |
JP6023577B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP2009049886A (en) | Image retrieval device, photographing device, image retrieval method, and program | |
JP5267136B2 (en) | Electronic camera | |
JP2008134868A (en) | Image recognition device, electronic device, image recognition method and control program | |
JP6097632B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP5943603B2 (en) | Imaging apparatus and control method thereof | |
JP2005352727A (en) | Portrait retrieving device | |
WO2006016461A1 (en) | Imaging device | |
JP5950571B2 (en) | Imaging apparatus and control method thereof | |
JP5387103B2 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120904 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121218 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151228 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5164767 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151228 Year of fee payment: 3 |