JP2014142810A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2014142810A JP2014142810A JP2013010850A JP2013010850A JP2014142810A JP 2014142810 A JP2014142810 A JP 2014142810A JP 2013010850 A JP2013010850 A JP 2013010850A JP 2013010850 A JP2013010850 A JP 2013010850A JP 2014142810 A JP2014142810 A JP 2014142810A
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- group
- relationship
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、顔が含まれる画像データから人物関係を構築する技術に関するものである。 The present invention relates to a technique for constructing a person relationship from image data including a face.
近年、デジタルカメラの普及により、手軽に写真を撮影することが可能になり、撮影する枚数も増えてきている。また、撮影した画像を家族や友人間で共有することが行われている。撮影する機会が多くなることで、所有する画像の数も多くなり、写真を効率的に管理することが課題となっていきている。一方、写真内の顔を検出する顔検出技術や、顔検出技術を応用して、検出された顔が誰であるかを認識して人物別にグループ分けされ、画像検索に利用される例などが知られている。 In recent years, with the widespread use of digital cameras, it has become possible to take pictures easily, and the number of shots has increased. In addition, a photographed image is shared among family members and friends. As the number of opportunities to shoot increases, the number of images owned increases, and it is becoming an issue to efficiently manage photographs. On the other hand, examples include face detection technology that detects faces in a photo, and face detection technology that recognizes who the detected faces are, grouped by person, and used for image search. Are known.
しかし、人は家族、親戚、会社、学校、サークル等様々なコミュニティーに属しており、それぞれの場面で写真を撮影する。また、画像には複数の人物が写っていることが多く、画像を効率良く適切な人と共有するためには、単に画像内の人物を認識するだけではなく、人間関係を考慮することが必要となる。
従来、画像共有する際に、画像内の顔画像を利用して人物関係データベースを構築して、データベース情報を元に写真の共有先を算出するものが知られている(例えば、特許文献1参照)。
However, people belong to various communities such as family, relatives, companies, schools, circles, etc., and take pictures in each scene. In addition, there are many people in the image, and in order to share the image efficiently with an appropriate person, it is necessary not only to recognize the person in the image but also to consider human relations. It becomes.
Conventionally, when an image is shared, a person relation database is constructed using face images in the image, and a photo sharing destination is calculated based on the database information (for example, see Patent Document 1). ).
また、画像に映る人物の情報からグループを生成してタグを付与することで、新たな検索キーを提供することでユーザの傾向にあった画像検索をおこなうものも知られている。 In addition, there is also known a method of performing image search that matches a user's tendency by providing a new search key by generating a group from information on a person shown in an image and adding a tag.
しかしながら、先行技術では、対象となる画像全てに対して同様の処理を行うため、例えば、複数の集まりで撮影者を交代して連続して撮影した場合、複数の画像に共通して映っている人物の関係度が本来より高くなる。逆に、交代して撮影した人物同士は、共通の写真に写っていないため、関係度が追加されない。
このように、本来の人物関係とは異なる人物関係データベースが構築されてしまうという問題があった。
However, in the prior art, all the target images are processed in the same manner. For example, when a plurality of groups of photographers are replaced and continuously photographed, the images are commonly displayed in the plurality of images. The degree of relationship between people is higher than the original. On the other hand, since the persons who took turns are not shown in a common photo, the degree of relationship is not added.
In this way, there is a problem that a personal relationship database different from the original personal relationship is constructed.
そこで、本発明の目的は、写真の連続性を解析することにより、同一グループと判断された写真群に関しては、グループ内の写真群全体に対して人物関係を解析することにより、より現実に近い人物関係データベースを構築することにある。 Therefore, an object of the present invention is closer to reality by analyzing the continuity of photographs and analyzing a person relationship with respect to the entire photograph group in the group for photograph groups determined to be the same group. The purpose is to build a personal relationship database.
本発明の画像処理装置は、各画像の撮影日時の差と各画像から認識された人物構成の差とに基づいて複数の画像が同じ画像グループに属するか否かを判断する画像グループ化手段と、
前記画像グループ化手段によって同じ画像グループに属すると判断された画像群に映る人物間の関係度を第1の値とする画像グループ内人物関係度決定手段と、
前記画像グループ内人物関係度決定手段によって決定された画像グループ内人物関係度を人物関係データベースに合成する人物関係データベース合成手段と、を有する。
The image processing apparatus according to the present invention includes an image grouping unit that determines whether or not a plurality of images belong to the same image group based on a difference in photographing date / time of each image and a difference in person configuration recognized from each image. ,
A person relationship degree determining means in an image group having a first value as a degree of relationship between persons appearing in an image group determined to belong to the same image group by the image grouping means;
And a person relation database synthesizing unit that synthesizes the person relation degree in the image group determined by the person relation degree determining unit in the image group with a person relation database.
本発明によれば、より現実に近い人物関係データベースを構築することができる。 According to the present invention, a person relation database closer to reality can be constructed.
以下、本発明の実施の形態を図面を参照して詳細に説明する。尚、以下の実施の形態は本発明の特許請求の範囲を限定するものではなく、また以下の実施の形態で説明されている特徴の組み合わせの全てが本発明を構成する上で必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments do not limit the scope of the claims of the present invention, and all combinations of features described in the following embodiments are indispensable for constituting the present invention. Is not limited.
<第1の実施形態>
まず、第1の実施形態について説明する。
図1は、第1の実施形態に係る画像処理装置の構成を示すブロック図である。図1において、CPU101は、システム制御部であり、画像処理装置全体を制御する。ROM102は、CPU101の制御プログラムや各種固定データを格納する読取専用のメモリである。RAM103は、SRAM、DRAM等で構成された書換え可能なメモリであり、プログラム制御変数等を格納する。各種設定パラメータ、各種ワーク用バッファ等もRAM103に格納される。表示部104は、LCD等を用いてオペレータに表示通知する。操作部105は、キーボードやポインティングデバイス等で構成され、オペレータが各種入力操作を行うためのものである。システムバス106はCPU101、ROM102、RAM103、表示部104および操作部105を通信可能に接続する。
<First Embodiment>
First, the first embodiment will be described.
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to the first embodiment. In FIG. 1, a
図2は、第1の実施形態に係る人物関係データベースを構築する画像処理装置の構成を示すブロック図である。CPU101が、ROM102やRAM103に記憶されているデータやプログラムを読み込み実行することによってブロック図に示す各手段として機能する。
画像グループ化手段210は、各画像の撮影日時の差と各画像から認識された人物構成の差とに基づいて複数の画像が同じ画像グループに属するか否かを判断する。
画像グループ内人物関係度決定手段220は、画像グループ化手段210によって同じ画像グループに属すると判断された画像群に映る人物間の関係度を第1の値(本実施形態では「1」)とする。
人物関係データベース合成手段230は、画像グループ内人物関係度決定手段220によって決定された画像グループ内人物関係度を人物関係データベース240に合成する。
FIG. 2 is a block diagram illustrating a configuration of the image processing apparatus that constructs the personal relationship database according to the first embodiment. The
The
The person-in-image group
The person relation
図3は、本実施形態に係る、画像群をグループ化して、グループ化された画像群について人物関係を解析して人物関係データベースに反映させるまでの画像処理装置の処理の手順を示すフローチャートである。 FIG. 3 is a flowchart showing a processing procedure of the image processing apparatus according to the present embodiment, in which the image groups are grouped, and the person relations of the grouped image groups are analyzed and reflected in the person relation database. .
図4は、RAM103に記憶されている画像群の一例を示す図である。本実施形態では図4に示す2つの画像(第1の画像310と第2の画像320)を用いて説明する。
第1の画像には、B、C、D、Eの4つの円があるが、これは写真内の人物構成を簡略化して表したものであり、各アルファベットが人物に対応づけられるものとする。つまり、第1の画像には、4人の人物B、C、D、Eが存在している。同様に、第2の画像には、4人の人物A、C、D、Eが存在している。
また、各円は、顔が写っている位置に対応しているものとする。
さらに、第1の画像の撮影日時は2011年11月25日の13時10分であり、撮影位置は(経度,緯度)が(139.88,35.63)であることを表している。
また、第2の画像の撮影日時は2011年11月25日の13時11分であり、撮影位置は(経度,緯度)が(139.88,35.63)であることを表している。
FIG. 4 is a diagram illustrating an example of an image group stored in the
In the first image, there are four circles B, C, D, and E. This is a simplified representation of the person structure in the photograph, and each alphabet is associated with a person. . That is, there are four persons B, C, D, and E in the first image. Similarly, there are four persons A, C, D, and E in the second image.
Each circle corresponds to the position where the face is shown.
Further, the shooting date and time of the first image is 13:10 on November 25, 2011, and the shooting position indicates that (longitude, latitude) is (139.88, 35.63).
The shooting date and time of the second image is 13:11 on November 25, 2011, and the shooting position indicates that (longitude, latitude) is (139.88, 35.63).
以下、第1の画像と第2の画像について、人物関係データベースを構築する処理の流れを説明する。本実施形態では、同じ画像、同じグループに存在する人物間の関係度は1とし、各画像、グループの関係度を合算したものを人物関係データベースとする。また、画像群は予め時系列に並んだ状態になっているものとし、処理もこの順番に行う。 Hereinafter, the flow of processing for constructing a personal relationship database for the first image and the second image will be described. In the present embodiment, the degree of relationship between persons existing in the same image and the same group is 1, and the sum of the degree of relationship between each image and group is used as a person relationship database. Further, it is assumed that the image groups are arranged in time series in advance, and the processing is also performed in this order.
[画像グループ化処理]
図3に示すフローチャートにおいて、まずCPU101(画像グループ化手段210)は画像グループ化処理をする(ステップS201)。
本実施形態では、図5に示すフローチャートに従って画像グループ化処理をする。CPU101は、対象画像について以下の処理を繰り返す(ステップS401)。本実施形態では、グループ化の条件として、撮影日時と人物構成を比較する。
具体的な条件は図8に示したものに従い、一つ前の画像と比較して、撮影日時の差が5分未満であることと、人物構成の差が50%以上の人物が共通であることとする。
[Image grouping]
In the flowchart shown in FIG. 3, first, the CPU 101 (image grouping unit 210) performs an image grouping process (step S201).
In this embodiment, image grouping processing is performed according to the flowchart shown in FIG. The
The specific conditions are the same as those shown in FIG. 8, and the difference in shooting date and time is less than 5 minutes and the person composition difference is 50% or more compared to the previous image. I will do it.
以上の条件に従って、まずCPU101は、人物認識処理して画像内の人物情報を取得する(ステップS402)。
本実施形態では、予めデータベースに追加される可能性のある人物の顔情報を保持しているものとする。そのため、ステップS402によって検出された顔画像がどの人物であるかを識別することができる。人物認識技術については、様々な公知技術があり、本処理は人物認識技術の種類を問わない。第1の画像310については、B、C、D、Eの4名の人物情報が抽出される。
続いてCPU101は、人物関係データベースにおける新規人物情報(人物関係データベースにまだ記憶されていない人物の情報)を人物関係データベースに追加する(ステップS403)。
第1の画像310が処理される時点では、人物関係データベースが空の状態なので、B、C、D、Eの全人物が人物関係データベースに追加される。
続いてCPU101は、一つ前の画像との撮影日時の差が閾値以内か否かを判別する(ステップS404)。
第1の画像310が読みこまれた時点では一つ前の画像がないため、判別結果はNOとなる。
ステップS404でNOと判別されると、CPU101は新規グループ(第1のグループ)を作成して人物情報をグループに追加する(ステップS407)。
第1の画像310の処理時には、B、C、D、Eの4名が追加される。そして、次の第2の画像320を読み込む。
In accordance with the above conditions, the
In this embodiment, it is assumed that face information of a person who may be added to the database is held in advance. Therefore, it is possible to identify which person the face image detected in step S402 is. There are various known techniques for the person recognition technique, and this processing is not limited to the type of person recognition technique. For the
Subsequently, the
Since the person relation database is empty at the time when the
Subsequently, the
Since there is no previous image when the
If NO is determined in step S404, the
When the
第2の画像320の処理について、ステップS402では、A、C、D、Eの4名の人物情報が取得される。
続くステップS403では、人物関係データベースにおける新規人物はAのため、新規人物Aを人物関係データベースに追加する。
そしてステップS404では、第1の画像310との撮影日時の差が1分であることから、図8に示す5分未満という条件を満たすため、ステップS404の判別結果はYESなる。
続いてCPU101は一つ前の画像との人物構成の差が閾値以内であるか否かを判別する(ステップS405)。
一つ前の画像である第1の画像310の人物構成は、B、C、D、Eの4名であり、第2の画像320の人物構成は、A、C、D、Eの4名であるため、4人中3名(75%)が共通である。そのため、図8に示す、50%以上の人が共通という条件を満たすため、S405の判別結果はYESとなる。
続いてCPU101は、グループ内新規人物を第1のグループに追加する(ステップS406)。第1のグループ内の新規人物はAなので、Aを第1のグループに追加する。
Regarding the processing of the
In subsequent step S403, since the new person in the person relation database is A, the new person A is added to the person relation database.
In step S404, since the difference in shooting date and time from the
Subsequently, the
The person composition of the
Subsequently, the
第1の画像と第2の画像を画像グループ化処理した時点で、人物関係データベースには、A、B、C、D、Eの5名が登録され、第1のグループにもA、B、C、D、Eの5名が登録されている状態となる。以上が画像グループ化処理である。 When the first image and the second image are subjected to the image grouping process, five persons A, B, C, D, and E are registered in the person relation database, and A, B, and A are also registered in the first group. The five names C, D, and E are registered. The above is the image grouping process.
図3に示すフローチャートにおいて、CPU101は続いて、全グループについて以下の処理を繰り返す(ステップS202)。
In the flowchart shown in FIG. 3, the
[画像グループ内人物関係度決定処理]
まずCPU101(画像グループ内人物関係度決定手段220)は、画像グループ内人物関係度決定処理をする(ステップS203)。本実施形態では、図6に示すフローチャートに従って処理する。つまり、グループ内人物間の関係度を1とする(ステップS504)。第1の画像と第2の画像で構成されるグループにおいては、AB間、AC間、AD間、AE間、BC間、BD間、BE間、CD間、CE間、DE間の関係度がそれぞれ1となる。
[Individual relationship determination processing within image group]
First, the CPU 101 (in-image group person relationship determination means 220) performs an in-image group person relationship determination process (step S203). In the present embodiment, processing is performed according to the flowchart shown in FIG. That is, the degree of relationship between the persons in the group is set to 1 (step S504). In the group composed of the first image and the second image, the degree of relationship between AB, between AC, between AD, between AE, between BC, between BD, between BE, between CD, between CE, and between DE Each becomes 1.
[人物関係データベースへの合成処理]
続いてCPU101(人物関係データベース合成手段230)は、画像グループ内人物関係度を人物関係データベースに合成処理する(ステップS204)。
本実施形態では、図7に示すフローチャートに従って処理する。
CPU101は、算出された画像グループ内人物関係度について以下の処理を繰り返す(ステップS601)。
CPU101は画像グループ内人物関係度を人物関係データベースに加算する(ステップS602)。
本実施形態では、第1の画像と第2の画像がグループとなった一つのグループのみがあるので、上記処理で算出した関係度が人物関係データベースに加算され、結果として第1の画像と第2の画像によるグループの関係度と一致する。
以上の処理によって、人物関係データベースを構築できる。
[Compositing to Person Relation Database]
Subsequently, the CPU 101 (person relation database synthesizing unit 230) synthesizes the person relation degree in the image group into the person relation database (step S204).
In this embodiment, processing is performed according to the flowchart shown in FIG.
The
The
In this embodiment, since there is only one group in which the first image and the second image are grouped, the degree of relationship calculated in the above process is added to the person relationship database, and as a result, the first image and the second image are added. It agrees with the degree of group relation by the two images.
The person relationship database can be constructed by the above processing.
この結果として得られる、第1の画像と第2の画像を処理した後の本実施形態における人物関係データベースは、図9(a)のようになる。
一方、図9(d)は、本実施形態と同様の処理をグループ化しなかった場合に構築される人物関係データベースである。グループ化無しの方法の処理手順を簡単に説明する。
まず、第1の画像を処理した後の時点で、図9(b)に示すように、B、C、D、E間の関係度が1となり、これら関係度が人物関係データベースに加算される。
そして第2の画像の処理で、図9(c)に示すように、A、C、D、E間の関係度が1となり、それが、人物関係データベースに加算される。
その結果、図9(d)に示すように、同じ画像に登場しないAとBの間の関係度が0となる。また、第1の画像と第2の画像の両方にC、D、Eが登場するため、C、D、E間の関係度は2となっている。
しかし、第1の画像と第2の画像は、撮影日時の差が短く、共通の人物も多いため、これら画像に写っている人物は共通のグループに属する人物である可能性が高く、人物間の関係度も等しい可能性が高い。
そのため、本実施形態による人物関係データベースのように、A、B、C、D、E間が等しく関係度1になる方が望ましい。
The resulting personal relationship database in this embodiment after processing the first image and the second image is as shown in FIG. 9A.
On the other hand, FIG. 9D is a personal relationship database constructed when the same processing as in this embodiment is not grouped. The processing procedure of the method without grouping will be briefly described.
First, at the time after processing the first image, as shown in FIG. 9B, the degree of relationship between B, C, D, and E becomes 1, and these degree of relationship is added to the person relation database. .
In the second image processing, as shown in FIG. 9C, the degree of relationship between A, C, D, and E becomes 1, and this is added to the person relationship database.
As a result, as shown in FIG. 9D, the degree of relationship between A and B that does not appear in the same image is zero. In addition, since C, D, and E appear in both the first image and the second image, the degree of relationship between C, D, and E is 2.
However, the first image and the second image have a short difference in shooting date and time, and there are many common people, so it is highly likely that the people in these images belong to a common group. The degree of relationship is likely to be equal.
Therefore, it is desirable that A, B, C, D, and E have the same degree of
本実施形態によれば、ある条件を満たす画像群をグループ化した上で人物構成を解析することで、より現実に近い人物関係データベースを構築することができる。 According to the present embodiment, a person relation database closer to reality can be constructed by analyzing a person configuration after grouping image groups that satisfy a certain condition.
<第2の実施形態>
次に第2の実施形態について説明する。
第2の実施形態に係る画像処理装置も、図3に示すフローチャートに従って処理する点も同様である。さらに、画像グループ化処理S201の詳細と画像グループ内人物関係度の人物関係データベースへの合成処理S204の詳細も同じである。異なるのは、画像グループ内人物関係度決定処理S203の詳細である。
<Second Embodiment>
Next, a second embodiment will be described.
The image processing apparatus according to the second embodiment is the same in that processing is performed according to the flowchart shown in FIG. Further, the details of the image grouping process S201 and the details of the synthesizing process S204 to the person relation database of the person relation degree in the image group are the same. The difference is in the details of the person relationship degree determination process S203 in the image group.
図10は、第2の実施形態に係る人物関係データベースを構築する画像処理装置の構成を示すブロック図である。CPU101が、ROM102やRAM103に記憶されているデータやプログラムを読み込み実行することによってブロック図に示す各手段として機能する。
画像グループ内人物関係度決定手段220は、人物グループ化手段221と、人物グループ間関係度算出手段222と、未算出人物間関係度決定手段223とを有する。
人物グループ化手段221は、同じ画像から認識された顔画像について、各顔画像に対応する人物が同じ人物グループに属するか否かを判断する。
画像グループ内人物関係度決定手段220は、人物グループ化手段221によって同じ人物グループに属すると判断され各顔画像間の人物関係度を前記第1の値(本実施形態では「1」)とする。
人物グループ間関係度算出手段222は、人物グループ化手段221によって、同じ人物グループに属すると判断されなかった顔画像について、
一方の人物グループに属すると判断された人物の顔画像と、他方の人物グループに属する判断された人物の顔画像の中で最も距離が近い2つの顔画像を選択し、前記選択された2つの顔画像間の関係度を算出し、算出された関係度を、一方の人物グループに属する各人物と、他方の人物グループに属する各人物との間の関係度とする。
未算出人物間関係度決定手段223は、
同じ画像グループに属するが異なる画像から認識されたために、関係度が未算出である人物間の関係度を、
各人物が写っている画像内で関係度が前記第1の値である人物を両者が共有している場合は、当該両者間の関係度も前記第1の値とし、
各人物が写っている画像内で関係度が前記第1の値である人物を両者が共有していない場合は、当該両者間の関係度を第2の値(本実施形態では「0」)とする。
FIG. 10 is a block diagram illustrating a configuration of an image processing apparatus that constructs a personal relationship database according to the second embodiment. The
The in-image group person relationship degree determination means 220 includes a person grouping means 221, a person group relationship degree calculation means 222, and an uncalculated person relationship degree determination means 223.
The person grouping means 221 determines whether or not the person corresponding to each face image belongs to the same person group for the face images recognized from the same image.
In the image group person relationship determination means 220, the person grouping means 221 determines that they belong to the same person group, and sets the person relationship between each face image as the first value (“1” in this embodiment). .
The degree-of-person-group relationship calculation means 222 performs the processing on the face images that are not determined to belong to the same person group by the person grouping means 221.
The face image of the person determined to belong to one person group and the face image of the person determined to belong to the other person group are selected from the two closest face images, and the two selected face images are selected. The degree of relationship between the face images is calculated, and the calculated degree of relationship is set as the degree of relationship between each person belonging to one person group and each person belonging to the other person group.
The uncalculated person relationship determination means 223
The degree of relationship between persons whose relationship degrees have not been calculated because they are recognized from different images belonging to the same image group,
In the case where both share the person whose degree of relationship is the first value in the image in which each person is shown, the degree of relationship between the two is also the first value,
In the case where both persons do not share the person whose degree of relationship is the first value in the image in which each person is shown, the degree of relation between the two is the second value (“0” in this embodiment). And
本実施形態では、図11(a)、(b)に示す第3の画像と第4の画像を用いて説明する。図4(a)、(b)に示す画像と同様、図11(a)、(b)中の円は顔画像を表し、内部のアルファベットは人物を表している。第3の画像には、4人の人物、A、B、C、Eが存在し、第4の画像には3人の人物B、C、Dが存在している。また撮影日時、撮影位置については、それぞれ第1の画像、第2の画像と同じ条件である。 In the present embodiment, a description will be given using the third image and the fourth image shown in FIGS. Similar to the images shown in FIGS. 4A and 4B, the circles in FIGS. 11A and 11B represent face images, and the internal alphabet represents a person. In the third image, there are four persons, A, B, C, and E, and in the fourth image, there are three persons B, C, and D. The shooting date / time and shooting position are the same as those of the first image and the second image, respectively.
[画像グループ化処理]
まず、CPU101(画像グループ化手段210)は画像グループ化処理をする(S201)。実施形態1と同様に、図5に示す画像グループ化処理に従って処理すると、第3の画像と第4の画像は、撮影日時の差が1分であり、人物構成は、C、Dが共通なため、同一グループとなる。
次にCPU101は、全グループについて以下の処理を繰り返す(S202)。
[Image grouping]
First, the CPU 101 (image grouping unit 210) performs an image grouping process (S201). Similar to the first embodiment, when the processing is performed according to the image grouping process shown in FIG. 5, the third image and the fourth image have a difference in shooting date and time of 1 minute, and the person composition is common to C and D. Therefore, it becomes the same group.
Next, the
[画像グループ内人物関係度決定処理]
まずCPU101(画像グループ内人物関係度決定手段220)は、図12に示すフローチャートに従って画像グループ内人物関係度決定処理をする。
図12に示すフローチャートにおいて、CPU101はグループ内の全画像について以下の処理を繰り返す(S1001)。
・人物グループ化処理
まずCPU101(人物グループ化手段221)は、人物グループ化処理を行う。本実施形態では、図13に示すフローチャートに従って人物グループ化処理する。
[Individual relationship determination processing within image group]
First, the CPU 101 (image group person relationship determination means 220) performs image group person relationship determination processing according to the flowchart shown in FIG.
In the flowchart shown in FIG. 12, the
-Person grouping process First, CPU101 (person grouping means 221) performs a person grouping process. In the present embodiment, the person grouping process is performed according to the flowchart shown in FIG.
図13に示すフローチャートにおいて、まずCPU101は、画像内の全人物組合せについて以下の処理を繰り返す。
まずCPU101は、人物間の顔画像の大きさと距離の情報を元に人物グループ判定処理をする(S1102)。本実施形態では以下の処理によって、人物グループ判定する。判定対象となる人物Mと人物Nにおいて、人物Mの画像における顔画像の中心座標と人物Nの画像における顔画像の中心座標の距離をDとし、人物Mの顔画像をぎりぎり包含する円の半径をRmとし、人物Nの顔画像をぎりぎり包含する円の半径をRnとする。このとき、下記式1および式2の2つの条件を両方ともに満たす場合に、人物Mと人物Nを同一グループとする。
In the flowchart shown in FIG. 13, first, the
First, the
式1は、2つの顔画像の位置の近さを表しており、式2は、2つの顔画像の大きさの類似度を表している。つまり、2つの顔画像の位置がある閾値より近く、2つの顔画像の大きさがある閾値より近い場合に同一グループとすることになる。
これは、顔画像の位置によって、被写体が近くにいるかどうかを判別し、顔画像の大きさによって、被写体がカメラからどれだけ離れているかを判別することと同様である。つまり、画像中の位置が近くても、顔画像の大きさがかけ離れている場合には、カメラからの距離が大きく異なると判断して、同一のグループとは判断しない。 This is the same as determining whether or not the subject is close by the position of the face image and determining how far the subject is from the camera based on the size of the face image. That is, even if the position in the image is close, if the size of the face image is far away, it is determined that the distance from the camera is greatly different and not the same group.
図11(c)は、第3の画像内の各人物における顔画像を包含する円の半径を表し、図11(d)は、第3の画像内の各人物間の距離を表している。
上記の条件をこれらの値に当てはめると、人物Aと人物Bが同一人物グループとなり、人物Bと人物Cが同一人物グループとなり、Eが単独のグループとなる。
FIG. 11C represents the radius of a circle that includes the face image of each person in the third image, and FIG. 11D represents the distance between the persons in the third image.
When the above conditions are applied to these values, person A and person B become the same person group, person B and person C become the same person group, and E becomes a single group.
そして、最後に共通人物が属するグループを統合する(S1106)。この処理によって、寄り添って写っている人物同士を一つのグループにすることができる。
人物Aと人物Bが属する人物グループと、人物Bと人物Cが属する人物グループとは、共通人物Bが属する人物グループであるから、これら人物グループは統合され、人物Aと人物Bと人物Cが同一人物グループとなる。
以上が、人物グループ化処理(S1002)である。
Finally, the groups to which the common person belongs are integrated (S1106). By this processing, persons who are close to each other can be made into one group.
Since the person group to which person A and person B belong and the person group to which person B and person C belong are person groups to which common person B belongs, these person groups are integrated, and person A, person B, and person C are combined. It becomes the same person group.
The above is the person grouping process (S1002).
続いて、図12に示すフローチャートにおいてCPU101は、同一人物グループに属する人物間の関係度を1とする(S1003)。
第3の画像においては、人物A、人物B、人物Cが同一人物グループに属するので、人物A−B間、人物A−C間、人物B−C間の関係度を、図16(a)に示すように、いずれも1とする。
Subsequently, in the flowchart shown in FIG. 12, the
In the third image, since person A, person B, and person C belong to the same person group, the degree of relationship between persons A-B, between persons A-C, and between persons B-C is shown in FIG. As shown in FIG.
・人物グループ間の関係度算出処理
続いてCPU101(人物グループ間関係度算出手段222)は、人物グループ間の関係度算出処理をする(S1004)。この処理は図14に示すフローチャートに従う。
図14に示すフローチャートにおいて、まずCPU101は、同一画像内の全人物グループ間の組合せについて繰り返す。第3の画像では、人物A、人物B、人物Cが属するグループと人物Eのみが属するグループがあるので、この両人物グループ間について次の処理をする。
CPU101は、各人物グループ間で最も近い人物間の関係度を算出する(S1202)。図11(d)によれば、人物A、人物B、人物Cが属するグループと、人物Eのみが属するグループ間で最も近いのは人物C−E間となるので、人物C−E間の関係度を算出する。
本実施形態における人物間の関係度は以下の式3又は式4を用いて算出する。
-Relationship degree calculation process between person groups Subsequently, the CPU 101 (relationship degree calculation means 222 between person groups) performs a relationship degree calculation process between person groups (S1004). This process follows the flowchart shown in FIG.
In the flowchart shown in FIG. 14, first, the
The
The degree of relationship between persons in the present embodiment is calculated using the following
この式に従うと、人物C−E間の関係度は、0.33となる。算出過程は以下のとおりである。
Rmが人物Cの顔画像を包含する円の半径(=7)であるとし、Rnが人物Eの顔画像を包含する円の半径(=3)であるとすると、Rn<Rmであるから、式3より
人物C−E間の関係度=(3/7)*{(3+7)/13}=0.33
となる。
そして、CPU101は、算出した関係度を人物グループ間(一方の人物グループに属する人物と、他方の人物グループに属する人物との間)の人物関係度とする(S1203)。
よって、第3の画像では、人物C−E間、人物A−E間、人物B−E間の関係度が、図16(b)に示すように、いずれも0.33となる。
According to this equation, the degree of relationship between the persons CE is 0.33. The calculation process is as follows.
If Rm is the radius of a circle that includes the face image of the person C (= 7), and Rn is the radius of the circle that includes the face image of the person E (= 3), then Rn <Rm. From
It becomes.
Then, the
Therefore, in the third image, as shown in FIG. 16B, the degrees of relationship between the persons CE, the persons A-E, and the persons BE are all 0.33.
以上の処理を第4の画像に対しても行う。
・人物グループ化処理
第4の画像には、人物B、人物C、人物Dが写っており、それぞれ顔画像を包含する円が一部重なりあっている。人物Bと人物Cが属する人物グループと、人物Cと人物Dが属する人物グループは、共通人物Cが属する人物グループであるから、統合されて同一人物グループとなる(S1106)。
・人物グループ間の関係度算出処理
第4の画像には、人物グループが一つしか存在しないから、人物グループ間の関係度算出処理は実行されない。
そして、同一人物グループに属する人物B−C間、人物B−D間、人物C−D間の関係度は、図16(c)に示すように、いずれも1となる(S1003)。
The above processing is also performed on the fourth image.
-Person grouping process The person B, the person C, and the person D are reflected in the fourth image, and the circles including the face images partially overlap each other. Since the person group to which the person B and the person C belong and the person group to which the person C and the person D belong are the person group to which the common person C belongs, they are integrated into the same person group (S1106).
-Relationship degree calculation process between person groups Since there is only one person group in the fourth image, the relationship degree calculation process between person groups is not executed.
The degrees of relationship between the persons BC belonging to the same person group, between the persons BD, and between the persons CD are all 1 as shown in FIG. 16C (S1003).
・未算出人物間の関係度決定処理
最後にCPU101(未算出人物間関係度決定手段223)は、未算出人物間の関係度を決定する(S1008)。
この処理をする前の時点では、同じ画像に写っていない人物Aと人物D、人物Dと人物Eの関係度が未算出である。
本実施形態では、以下の条件によって、関係度を算出する。
図15に、未算出人物間の関係度を算出する処理の流れを示す。
人物Mと人物Nの関係度を算出する場合、各人物が写っている画像内で関係度1の人物を両者が共有している場合、両者間の関係度を1とする。それ以外の場合は関係度を0とする。
-Relationship calculation process between uncalculated persons Finally, the CPU 101 (uncalculated person relationship determination means 223) determines the relationship between uncalculated persons (S1008).
At the time before this processing is performed, the degree of relationship between the person A and the person D and the person D and the person E that are not shown in the same image has not been calculated.
In the present embodiment, the degree of relationship is calculated under the following conditions.
FIG. 15 shows the flow of processing for calculating the degree of relationship between uncalculated persons.
When calculating the degree of relationship between the person M and the person N, if the person with the degree of
この条件にあてはめると、人物Aと人物Dの関係度は以下のようになる。
人物Aは、人物Aが写っている第3の画像内で人物B、人物Cと関係度1である(ステップS1302でYES)。
人物Dは、人物Dが写っている第4の画像内で人物B、人物Cと関係度1である(ステップS1303でYES)。
つまり人物Aと人物Dは、関係度1の人物を共有している(ステップS1304でYES)。そのため、人物Aと人物Dの関係度は1となる(ステップS1305)。
When this condition is applied, the degree of relationship between person A and person D is as follows.
The person A has a relevance of 1 with the person B and the person C in the third image in which the person A is shown (YES in step S1302).
The person D has a
That is, the person A and the person D share a person with a relationship degree of 1 (YES in step S1304). Therefore, the degree of relationship between person A and person D is 1 (step S1305).
次に、人物Eと人物Dの関係度は以下のようになる。
人物Eが写っている第3の画像内に、人物Eとの関係度が1である人物は存在しない(ステップS1302でNO)。
よって、人物Dと人物Eは関係度1の人物を共有していないため、人物Dと人物Eの関係度は0となる。
以上の処理を行うことによって、第3の画像と第4の画像から算出される人物関係データベースは図16(d)のようになる。
Next, the degree of relationship between person E and person D is as follows.
There is no person whose degree of relationship with the person E is 1 in the third image in which the person E is shown (NO in step S1302).
Therefore, since the person D and the person E do not share the person with the degree of
By performing the above processing, the personal relationship database calculated from the third image and the fourth image becomes as shown in FIG.
本実施形態によれば、画像に写っている顔画像の大きさや位置の関係に応じて、人物間の関係度を算出することができるようになる。それにより、意図せずに小さく写ってしまった人物との関係度を小さくすることができ、より現実に近い人物関係データベースを構築することができる。 According to the present embodiment, the degree of relationship between persons can be calculated according to the relationship between the size and position of the face image shown in the image. Thereby, it is possible to reduce the degree of relationship with a person who has been unintentionally captured in a small size, and to construct a person relation database closer to reality.
上述した本発明の実施形態を構成する各手段及び各ステップは、コンピュータのRAMやROM等に記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。 Each means and each step constituting the embodiment of the present invention described above can be realized by operating a program stored in a RAM, a ROM, or the like of a computer. This program and a computer-readable recording medium recording the program are included in the present invention.
210 画像グループ化手段
220 画像グループ内人物関係度決定手段
221 人物グループ化手段
222 人物グループ間関係度算出手段
223 未算出人物間関係度決定手段
230 人物関係データベース合成手段
210 Image grouping means 220 Image group person relation degree determining means 221 Person grouping means 222 Person group relation degree calculating means 223 Uncalculated person relation degree determining means 230 Person relation database composition means
Claims (5)
前記画像グループ化手段によって同じ画像グループに属すると判断された画像群に映る人物間の関係度を第1の値とする画像グループ内人物関係度決定手段と、
前記画像グループ内人物関係度決定手段によって決定された画像グループ内人物関係度を人物関係データベースに合成する人物関係データベース合成手段と、
を有することを特徴とする画像処理装置。 Image grouping means for determining whether or not a plurality of images belong to the same image group based on a difference in photographing date and time of each image and a difference in person composition recognized from each image;
A person relationship degree determining means in an image group having a first value as a degree of relationship between persons appearing in an image group determined to belong to the same image group by the image grouping means;
A person relation database synthesizing means for synthesizing the person relation degree in the image group determined by the person relation degree in the image group into a person relation database;
An image processing apparatus comprising:
前記人物グループ化手段は、同じ画像から認識された顔画像について、各顔画像に対応する人物が同じ人物グループに属するか否かを判断し、
前記画像グループ内人物関係度決定手段は、前記人物グループ化手段によって同じ人物グループに属すると判断され各顔画像間の人物関係度を前記第1の値とし、
前記人物グループ間関係度算出手段は、前記人物グループ化手段によって、同じ人物グループに属すると判断されなかった顔画像について、
一方の人物グループに属すると判断された人物の顔画像と、他方の人物グループに属する判断された人物の顔画像の中で最も距離が近い2つの顔画像を選択し、前記選択された2つの顔画像間の関係度を算出し、算出された関係度を、一方の人物グループに属する各人物と、他方の人物グループに属する各人物との間の関係度とし、
前記未算出人物間関係度決定手段は、
同じ画像グループに属するが異なる画像から認識されたために、関係度が未算出である人物間の関係度を、
各人物が写っている画像内で関係度が前記第1の値である人物を両者が共有している場合は、当該両者間の関係度も前記第1の値とし、
各人物が写っている画像内で関係度が前記第1の値である人物を両者が共有していない場合は、当該両者間の関係度を第2の値とする請求項1に記載の画像処理装置。 The image group person relationship determination means further includes a person grouping means, a person group relationship calculation means, and an uncalculated person relationship determination means.
The person grouping means determines whether or not the person corresponding to each face image belongs to the same person group for the face images recognized from the same image,
The image group person relation determining means is determined to belong to the same person group by the person grouping means, and the person relationship between each face image is the first value,
The person group relationship degree calculating means is for the face images that are not determined to belong to the same person group by the person grouping means.
The face image of the person determined to belong to one person group and the face image of the person determined to belong to the other person group are selected from the two closest face images, and the two selected face images are selected. The degree of relationship between face images is calculated, and the calculated degree of relationship is set as the degree of relationship between each person belonging to one person group and each person belonging to the other person group,
The uncalculated person-to-person relationship degree determining means includes:
The degree of relationship between persons whose relationship degrees have not been calculated because they are recognized from different images belonging to the same image group,
In the case where both share the person whose degree of relationship is the first value in the image in which each person is shown, the degree of relationship between the two is also the first value,
2. The image according to claim 1, wherein, in an image in which each person is photographed, when both of them do not share a person whose degree of relation is the first value, the degree of relation between the two is set as a second value. Processing equipment.
各顔画像間の距離と、
各顔画像の大きさと
に基づいて、各顔画像に対応する人物が同じ人物グループに属するか否かを判断し、
前記人物グループ間関係度算出手段は、
一方の人物グループに属すると判断された人物の顔画像と、他方の人物グループに属する判断された人物の顔画像の中で最も距離が近い2つの顔画像を選択し、
前記選択された2つの顔画像であって、
一方の人物グループに属する顔画像と他方の人物グループに属する顔画像との距離と、
一方の人物グループに属する顔画像の大きさと、
他方の人物グループに属する顔画像の大きさと
に基づいて、前記選択された2つの顔画像間の関係度を算出する請求項2に記載の画像処理装置。 The person grouping means includes:
The distance between each face image,
Based on the size of each face image, determine whether the person corresponding to each face image belongs to the same person group,
The person group relationship degree calculating means includes:
Selecting a face image of a person determined to belong to one person group and two face images that are closest to each other among face images of persons determined to belong to the other person group;
The two selected face images,
The distance between a face image belonging to one person group and a face image belonging to the other person group,
The size of face images belonging to one person group,
The image processing apparatus according to claim 2, wherein the degree of relationship between the two selected face images is calculated based on the size of the face image belonging to the other person group.
前記画像グループ化ステップにおいて同じ画像グループに属すると判断された画像群に映る人物間の関係度を第1の値とする画像グループ内人物関係度決定ステップと、
前記画像グループ内人物関係度決定ステップにおいて決定された画像グループ内人物関係度を人物関係データベースに合成する人物関係データベース合成ステップと、
を有することを特徴とする画像処理方法。 An image grouping step for determining whether or not a plurality of images belong to the same image group based on a difference in photographing date and time of each image and a difference in person composition recognized from each image;
A person relationship degree determination step in an image group in which the degree of relationship between persons appearing in an image group determined to belong to the same image group in the image grouping step is a first value;
A person relation database synthesizing step for synthesizing the person relation degree in the image group determined in the person relation degree in the image group in a person relation database;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013010850A JP2014142810A (en) | 2013-01-24 | 2013-01-24 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013010850A JP2014142810A (en) | 2013-01-24 | 2013-01-24 | Image processing apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014142810A true JP2014142810A (en) | 2014-08-07 |
Family
ID=51424042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013010850A Pending JP2014142810A (en) | 2013-01-24 | 2013-01-24 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014142810A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018180588A1 (en) * | 2017-03-27 | 2020-01-16 | 株式会社日立国際電気 | Face image matching system and face image search system |
WO2022079841A1 (en) * | 2020-10-14 | 2022-04-21 | 日本電気株式会社 | Group specifying device, group specifying method, and computer-readable recording medium |
-
2013
- 2013-01-24 JP JP2013010850A patent/JP2014142810A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018180588A1 (en) * | 2017-03-27 | 2020-01-16 | 株式会社日立国際電気 | Face image matching system and face image search system |
WO2022079841A1 (en) * | 2020-10-14 | 2022-04-21 | 日本電気株式会社 | Group specifying device, group specifying method, and computer-readable recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110415306B (en) | Face synthesis using generation of confrontational networks | |
WO2021057848A1 (en) | Network training method, image processing method, network, terminal device and medium | |
US9864903B2 (en) | System and method for matching faces | |
US20130077835A1 (en) | Searching with face recognition and social networking profiles | |
CN106780662B (en) | Face image generation method, device and equipment | |
US10580182B2 (en) | Facial feature adding method, facial feature adding apparatus, and facial feature adding device | |
US20200380299A1 (en) | Recognizing People by Combining Face and Body Cues | |
US9607394B2 (en) | Information processing method and electronic device | |
US10594930B2 (en) | Image enhancement and repair using sample data from other images | |
JP2012063890A (en) | Annotation device | |
CN112868224B (en) | Method, apparatus and storage medium for capturing and editing dynamic depth image | |
JP7419080B2 (en) | computer systems and programs | |
JP2014115997A (en) | Human relation analysis system and analysis method for the same | |
JPWO2020194378A1 (en) | Image processing system, image processing device, image processing method, and image processing program | |
JP2014142810A (en) | Image processing apparatus, image processing method, and program | |
GB2572435A (en) | Manipulating a face in an image | |
TW201732733A (en) | Image processing method and device | |
JP2014085814A (en) | Information processing device, control method therefor, and program | |
CN114445864A (en) | Gesture recognition method and device and storage medium | |
US20240045992A1 (en) | Method and electronic device for removing sensitive information from image data | |
KR102358355B1 (en) | Method and apparatus for progressive deblurring of face image | |
JP7111309B2 (en) | Information processing device, learning device, recognition device, still image production method, and program | |
US11341595B2 (en) | Electronic device for providing image related to inputted information, and operating method therefor | |
JP2023063807A (en) | Image processing device, image processing method, program, and recording medium | |
JP2023021176A (en) | Program, retrieval device, and retrieval method |