JP2011070276A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2011070276A
JP2011070276A JP2009218872A JP2009218872A JP2011070276A JP 2011070276 A JP2011070276 A JP 2011070276A JP 2009218872 A JP2009218872 A JP 2009218872A JP 2009218872 A JP2009218872 A JP 2009218872A JP 2011070276 A JP2011070276 A JP 2011070276A
Authority
JP
Japan
Prior art keywords
image
person
target image
relationship
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009218872A
Other languages
Japanese (ja)
Inventor
Yasuhisa Hayaishi
育央 早石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009218872A priority Critical patent/JP2011070276A/en
Publication of JP2011070276A publication Critical patent/JP2011070276A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve efficiency of identifying the relationship between people from images. <P>SOLUTION: The image processing apparatus processing a plurality of target images arranged in time series includes: a face-area detection unit for detecting a face area, i.e., an image area containing a face image, from each of the target images, for each face image; a subject distance estimation unit for estimating a subject distance, i.e., the distance between the face of a subject and an imaging device, by using the face area; an inter-subject distance estimation unit for estimating an inter-subject distance, i.e., the actual distance between faces in the face area, by using the subject distance; and an affinity calculation unit for calculating an affinity that indicates affinity between people, using the estimated inter-subject distance for people whose inter-subject distance estimated from a predetermined number of consecutive target images are equal to or less than a predetermined value, so that the smaller the inter-subject distance is, the greater the value of the affinity becomes. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing apparatus.

従来から、複数の人が表されている画像を用いて、人同士の関係性を特定する技術が知られている。例えば、画像に表されている人同士の距離を用いて、2人の親密さの程度を表す親密度を算出する技術が知られている(特許文献1)。また、画像から特定された人同士の関係性を用いた画像の分類方法や、画像の検索方法が知られている。   2. Description of the Related Art Conventionally, a technique for identifying the relationship between people using an image showing a plurality of people is known. For example, a technique is known in which a closeness representing the degree of intimacy between two people is calculated using the distance between the people represented in the image (Patent Document 1). Also, there are known image classification methods and image search methods that use relationships between people specified from images.

特開2006−79457号公報JP 2006-79457 A

しかし、画像から人同士の関係性を特定する処理の効率性についてはなお向上の余地があった。   However, there is still room for improvement in the efficiency of processing for identifying the relationship between people from the image.

本発明は、上記した従来の課題の少なくとも一部を解決するためになされた発明であり、画像から人同士の関係性を特定する処理の効率性を向上させることを目的とする。   The present invention has been made in order to solve at least a part of the above-described conventional problems, and an object thereof is to improve the efficiency of processing for specifying the relationship between people from an image.

上記課題の少なくとも一部を解決するために本願発明は以下の態様を採る。   In order to solve at least a part of the above problems, the present invention employs the following aspects.

第1の態様は、時系列に並んだ複数の対象画像を処理する画像処理装置を提供する。本発明の第1の態様に係る画像処理装置は、各前記対象画像から顔の画像を含む画像領域である顔領域を顔の画像ごとに検出する顔領域検出部と、前記顔領域を用いて、被写体の顔から撮影装置までの距離である被写体距離をそれぞれ推定する被写体距離推定部と、前記被写体距離を用いて、前記顔領域に表されている人の顔同士の実際の距離である被写体間距離を推定する被写体間距離推定部と、連続する所定数の前記対象画像からそれぞれ推定された前記被写体間距離がすべて所定値以下となる人同士について、推定された前記被写体間距離を用いて、人同士の親密さの程度を表す親密度を前記被写体間距離が小さいほど大きい値となるように算出する親密度算出部と、を備える。   The first aspect provides an image processing apparatus that processes a plurality of target images arranged in time series. The image processing apparatus according to the first aspect of the present invention uses a face area detection unit that detects, for each face image, a face area that is an image area including a face image from each of the target images, and the face area. A subject distance estimation unit that estimates a subject distance that is a distance from the subject's face to the photographing apparatus, and a subject that is an actual distance between human faces represented in the face area using the subject distance An inter-subject distance estimation unit that estimates an inter-distance, and people who have all the inter-subject distances estimated from a predetermined number of consecutive target images that are less than or equal to a predetermined value, using the estimated inter-subject distance A closeness calculating unit that calculates a closeness representing a degree of intimacy between people so that the closeness between the subjects becomes smaller as the distance between the subjects becomes smaller.

第1の態様に係る画像処理装置によれば、連続する所定数の対象画像においてそれぞれ推定された被写体間距離がすべて所定値以下となる人同士について親密度を算出するため、対象画像から人同士の関係性を特定する処理の効率性を向上させることができる。   According to the image processing apparatus according to the first aspect, since the intimacy is calculated for people whose subject-to-subject distances are all equal to or less than a predetermined value in a predetermined number of consecutive target images, It is possible to improve the efficiency of processing for specifying the relationship.

第1の態様に係る画像処理装置において、前記親密度算出部は、前記被写体間距離が推定された人同士について、前記被写体間距離が推定された前記対象画像の次に連続する対象画像において前記被写体間距離が推定されなくても、前記被写体間距離が推定されなかった対象画像の次に連続する対象画像において前記被写体間距離が推定された場合には、前記被写体間距離が推定された対象画像の合計が所定数であり、推定された前記被写体間距離がすべて所定値以下であれば前記人同士の親密度を算出してもよい。この場合、連続していない所定数の対象画像においてそれぞれ推定された被写体間距離がすべて所定値以下となる人同士について親密度を算出するため、対象画像から人同士の関係性を特定する処理の効率性を向上させることができる。   In the image processing device according to the first aspect, the closeness calculation unit is configured to perform the following operation on the target image that is next to the target image on which the inter-subject distance is estimated. Even if the distance between subjects is not estimated, if the distance between subjects is estimated in a target image that is next to the target image for which the distance between subjects is not estimated, the target whose distance between subjects is estimated If the total number of images is a predetermined number and all the estimated distances between the subjects are less than or equal to a predetermined value, the closeness between the persons may be calculated. In this case, in order to calculate intimacy for people whose estimated inter-subject distances are all equal to or less than a predetermined value in a predetermined number of target images that are not continuous, the process of specifying the relationship between people from the target image Efficiency can be improved.

第1の態様に係る画像処理装置はさらに、前記親密度算出部により前記親密度を算出されたそれぞれの人の顔の画像から人の特徴を判別する特徴判別部と、前記親密度と前記人の特徴とを用いて、前記親密度を算出された人同士の間柄を判定する間柄判定部と、を備えていてもよい。この場合、親密度と、人の特徴とを用いて、親密度を算出された人同士の間柄を判定するため、対象画像から人同士の関係性を特定する処理の効率性を向上させることができる。   The image processing apparatus according to the first aspect further includes a feature discriminating unit that discriminates human characteristics from each person's face image whose intimacy is calculated by the intimacy calculating unit, and the intimacy and the person And a relationship determination unit that determines a relationship between people whose intimacy has been calculated. In this case, in order to determine the relationship between the persons whose intimacy is calculated using the intimacy and the characteristics of the person, it is possible to improve the efficiency of the process of identifying the relationship between the persons from the target image. it can.

第1の態様に係る画像処理装置はさらに、前記特徴判別部は、前記親密度を算出されたそれぞれの人物について、既に前記人の特徴を判別した人物か否かを判定し、前記人の特徴を判別していない人物についてのみ前記判別をおこなってもよい。この場合、一度、人の特徴を判別した人物について再度、判別をおこなわないため、対象画像から人同士の関係性を特定する処理の効率性を向上させることができる。   In the image processing apparatus according to the first aspect, the feature determination unit further determines, for each person whose intimacy is calculated, whether or not the person has already determined the characteristics of the person, and the characteristics of the person The determination may be performed only for a person who has not been determined. In this case, once the person whose characteristics have been determined is not determined again, it is possible to improve the efficiency of the process of specifying the relationship between persons from the target image.

第1の態様に係る画像処理装置において、前記特徴判別部は、前記顔領域に含まれている顔の画像から人の年齢を判別してもよい。この場合、親密度と、人の年齢とを用いて、親密度を算出された人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。   In the image processing apparatus according to the first aspect, the feature determination unit may determine the age of a person from a face image included in the face region. In this case, since the relationship between the persons whose intimacy has been calculated is determined using the intimacy and the age of the person, it is possible to improve the accuracy of specifying the relationship between the persons from the target image.

第1の態様に係る画像処理装置において、前記特徴判別部は、前記顔領域に含まれている顔の画像から人の性別を判別してもよい。この場合、親密度と、人の性別とを用いて、親密度を算出された人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。   In the image processing apparatus according to the first aspect, the feature determination unit may determine the sex of a person from a face image included in the face area. In this case, since the relationship between the persons whose intimacy has been calculated is determined using the intimacy and the person's gender, it is possible to improve the accuracy of identifying the relationship between the persons from the target image.

第1の態様に係る画像処理装置において、前記間柄判定部は、前記親密度および前記人の特徴と、前記人同士の間柄と、の対応関係が示されている2以上の間柄判定情報を記憶している記憶部と、前記対象画像の撮影された場所に関する情報に基づき、前記記憶部から1つの間柄判定情報を選択する間柄判定情報選択部と、を備え、前記間柄判定情報選択部により選択された間柄判定情報を用いて、前記親密度を算出された人同士の間柄を判定してもよい。この場合、間柄判定情報選択部により選択された間柄判定情報を用いて、親密度を算出された人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。   In the image processing apparatus according to the first aspect, the interstitial determination unit stores two or more interstitial determination information indicating a correspondence relationship between the intimacy and the characteristics of the person and the interpersonal relation. And a interstitial determination information selection unit that selects one interstitial determination information from the storage unit based on information on the location where the target image was taken, and is selected by the interstitial determination information selection unit The relationship between the persons whose intimacy has been calculated may be determined using the determined relationship determination information. In this case, using the relationship determination information selected by the relationship determination information selection unit, the relationship between the people whose intimacy is calculated is determined, so that the accuracy of identifying the relationship between the people from the target image is improved. be able to.

第1の態様に係る画像処理装置において、前記対象画像の撮影された場所に関する情報は、GPS情報を用いて特定されてもよい。この場合、対象画像の撮影された場所に関する情報はGPS情報を用いて特定されるため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。   In the image processing device according to the first aspect, the information related to the location where the target image was taken may be specified using GPS information. In this case, since the information regarding the location where the target image was taken is specified using GPS information, it is possible to improve the accuracy of specifying the relationship between people from the target image.

第1の態様に係る画像処理装置はさらに、前記間柄判定部により判定された人同士の間柄から、前記親密度算出部により前記親密度を算出された人全員の間柄関係を表す間柄関係図を作成する間柄関係図作成部を備えていてもよい。この場合、親密度を算出された人全員の関係性を表示することができる。   The image processing apparatus according to the first aspect further includes a relationship diagram representing a relationship between all the persons whose intimacy is calculated by the intimacy calculating unit based on the relationship between the persons determined by the relationship determining unit. An interstitial relationship diagram creation unit may be provided. In this case, it is possible to display the relationship of all the persons whose intimacy has been calculated.

第1の態様に係る画像処理装置において、前記間柄関係図は、前記親密度を算出された人の顔の画像と、前記顔の画像同士をつなぐ関係線とが表され、前記親密度が高い人同士ほど前記顔の画像同士の距離が小さく、前記対象画像に現れる頻度が高い人同士ほど前記関係線の幅が大きく表されていてもよい。この場合、親密度を算出された人全員の関係性を容易に表示することができる。   In the image processing apparatus according to the first aspect, the interstitial relationship diagram represents a human face image for which the familiarity is calculated and a relation line connecting the facial images, and the familiarity is high. The distance between the face images may be smaller as the number of people increases, and the width of the relationship line may be larger as the numbers of people who appear more frequently in the target image. In this case, it is possible to easily display the relationships of all persons whose intimacy has been calculated.

第1の態様に係る画像処理装置において、前記被写体距離推定部は、前記対象画像の大きさに対する前記顔領域の大きさに基づいて前記被写体距離を推定してもよい。この場合、顔領域に表されている顔から撮影装置までの距離である被写体距離を容易に推定することができる。   In the image processing device according to the first aspect, the subject distance estimation unit may estimate the subject distance based on the size of the face area with respect to the size of the target image. In this case, it is possible to easily estimate the subject distance, which is the distance from the face represented in the face area to the photographing apparatus.

第1の態様に係る画像処理装置において、前記親密度算出部は、時系列に並んだ複数の対象画像の少なくとも一部に表され、被写体間距離がすべて所定値以下となる人同士について、前記対象画像に表れる頻度が所定数以上の人同士については前記親密度を算出し、前記対象画像に表れる頻度が所定数より少ない人同士については前記親密度を算出しなくてもよい。この場合、対象画像から人同士の関係性を特定する処理の効率性を向上させることができる。   In the image processing device according to the first aspect, the closeness calculating unit is represented in at least a part of a plurality of target images arranged in time series, and the distance between subjects is less than or equal to a predetermined value, The intimacy may be calculated for people whose frequency appears in the target image is equal to or greater than a predetermined number, and the intimacy may not be calculated for people whose frequency appears in the target image is less than the predetermined number. In this case, it is possible to improve the efficiency of the process of specifying the relationship between people from the target image.

第1の態様に係る画像処理装置において、前記親密度算出部は、第1の対象画像に含まれている顔の画像同士の距離が、第2の対象画像に含まれている顔の画像同士の距離より小さく、第1の対象画像に表されている顔同士の実際の距離が、第2の対象画像に表されている顔同士の実際の距離より大きい場合、第1の対象画像に表されている人同士より第2の対象画像に表されている人同士の方がより親密度が高くなるように親密度を算出してもよい。この場合、対象画像から人同士の関係性を精度良く特定することができる。   In the image processing device according to the first aspect, the closeness calculating unit is configured such that the distance between the face images included in the first target image is equal to the distance between the face images included in the second target image. If the actual distance between the faces represented in the first target image is smaller than the actual distance between the faces represented in the second target image, it is represented in the first target image. The intimacy may be calculated so that the intimacy of the people represented in the second target image is higher than that of the inferred people. In this case, it is possible to accurately specify the relationship between people from the target image.

第1の態様に係る画像処理装置において、前記間柄関係図作成部は、第1の対象画像に含まれている顔の画像同士の距離が、第2の対象画像に含まれている顔の画像同士の距離より小さく、第1の対象画像に表されている顔同士の実際の距離が、第2の対象画像に表されている顔同士の実際の距離より大きい場合、前記間柄関係図において、第1の対象画像に現れる人の顔の画像同士の距離より第2の対象画像に現れる人の顔の画像同士の距離の方が小さくなるように前記間柄関係図を作成してもよい。この場合、親密度を算出された人全員の関係性を精度良く表示することができる。   In the image processing device according to the first aspect, the interstitial relationship diagram creating unit is configured such that the distance between the face images included in the first target image is the face image included in the second target image. If the actual distance between the faces represented in the first target image is smaller than the distance between each other and greater than the actual distance between the faces represented in the second target image, The interstitial relationship diagram may be created so that the distance between human face images appearing in the second target image is smaller than the distance between human face images appearing in the first target image. In this case, it is possible to accurately display the relationships of all the persons whose intimacy has been calculated.

本発明は、種々の態様で実現することが可能であり、例えば、プリンター、デジタルスチルカメラ、パーソナルコンピューター、デジタルビデオカメラ等で実現することができる。また、画像処理方法および装置、親密度算出方法および装置、間柄関係表示方法および装置、これらの方法または装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号、等の形態で実現することができる。   The present invention can be realized in various modes, for example, a printer, a digital still camera, a personal computer, a digital video camera, or the like. Further, an image processing method and apparatus, an affinity calculation method and apparatus, a relationship relationship display method and apparatus, a computer program for realizing the functions of these methods or apparatuses, a recording medium on which the computer program is recorded, and the computer program It can be realized in the form of a data signal embodied in a carrier wave.

第1実施例における画像処理装置としてのプリンターの構成を概略的に示す説明図である。FIG. 2 is an explanatory diagram schematically illustrating a configuration of a printer as an image processing apparatus according to a first embodiment. 第1実施例における画像検索・印刷処理の流れを示すフローチャートである。6 is a flowchart showing a flow of image search / print processing in the first embodiment. 動画像ファイルにより表される各対象画像の一部を例示した説明図である。It is explanatory drawing which illustrated a part of each target image represented by a moving image file. 内部メモリーに格納された動画像ファイルを説明するための説明図である。It is explanatory drawing for demonstrating the moving image file stored in the internal memory. 顔領域FAの検出結果の一例を示す説明図である。It is explanatory drawing which shows an example of the detection result of face area FA. 内部メモリーに格納された人物情報データベースを説明するための説明図である。It is explanatory drawing for demonstrating the person information database stored in the internal memory. 画像識別子と人物識別子との対応付けを説明するための説明図である。It is explanatory drawing for demonstrating matching with an image identifier and a person identifier. 第1実施例における人物情報設定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the person information setting process in 1st Example. 被写体距離Sdの推定方法を示す説明図である。It is explanatory drawing which shows the estimation method of object distance Sd. 被写体間距離Sbdの推定方法を示す説明図である。It is explanatory drawing which shows the estimation method of the to-be-photographed object distance Sbd. 人物情報データベースHCに被写体間距離Sbdを設定した状態を説明するための説明図である。It is explanatory drawing for demonstrating the state which set to-be-photographed object distance Sbd in the person information database HC. 人物情報データベースHCに頻度情報を設定した状態を説明するための説明図である。It is explanatory drawing for demonstrating the state which set frequency information to the person information database HC. 人物情報データベースに年齢および性別についての人物情報を設定した状態を説明するための説明図である。It is explanatory drawing for demonstrating the state which set the person information about age and sex in a person information database. 人物情報データベースHCに親密度Diを設定した状態を説明するための説明図である。It is explanatory drawing for demonstrating the state which set familiarity Di to the person information database HC. 間柄判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an interim determination process. 第1の間柄判定情報の内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of 1st design determination information. 第2の間柄判定情報の内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of 2nd design determination information. 人物情報データベースHCに間柄情報を設定した状態を説明するための説明図である。It is explanatory drawing for demonstrating the state which set the relationship information in the person information database HC. 間柄関係図を例示した説明図である。It is explanatory drawing which illustrated the relationship relationship figure. 間柄関係図を含むユーザインターフェースを例示した説明図である。It is explanatory drawing which illustrated the user interface containing a relationship relationship figure. 第1の印刷画面を例示した説明図である。It is explanatory drawing which illustrated the 1st printing screen. 第2の印刷画面を例示した説明図である。It is explanatory drawing which illustrated the 2nd printing screen. 対象画像リストに含まれる対象画像の並び順を説明するための説明図である。It is explanatory drawing for demonstrating the arrangement order of the target image contained in a target image list. 第3の印刷画面を例示した説明図である。It is explanatory drawing which illustrated the 3rd printing screen. 第2実施例における人物情報設定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the person information setting process in 2nd Example. 第3の間柄判定情報の内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of 3rd relationship determination information.

以下、本発明に係る画像処理装置の一態様であるプリンターについて、図面を参照しつつ、実施例に基づいて説明する。   Hereinafter, a printer which is an aspect of an image processing apparatus according to the present invention will be described based on examples with reference to the drawings.

A.第1実施例:
A1.画像処理装置の構成:
図1は、第1実施例における画像処理装置としてのプリンターの構成を概略的に示す説明図である。本実施例のプリンター100は、メモリーカードMC等から取得した画像データに基づき画像を印刷する、いわゆるダイレクトプリントに対応したインクジェット式カラープリンターである。プリンター100は、プリンター100の各部を制御するCPU110と、ROMやRAMによって構成された内部メモリー120と、ボタンやタッチパネルにより構成された操作部140と、液晶ディスプレイにより構成された表示部150と、印刷機構160と、カードインターフェース(カードI/F)170と、を備えている。プリンター100は、さらに、他の機器(例えばデジタルスチルカメラやパーソナルコンピューター)とのデータ通信を行うためのインターフェースを備えていてもよい。プリンター100の各構成要素は、バスを介して双方向通信可能に接続されている。
A. First embodiment:
A1. Configuration of image processing device:
FIG. 1 is an explanatory diagram schematically showing the configuration of a printer as an image processing apparatus in the first embodiment. The printer 100 of this embodiment is an ink jet color printer that supports so-called direct printing, in which an image is printed based on image data acquired from a memory card MC or the like. The printer 100 includes a CPU 110 that controls each unit of the printer 100, an internal memory 120 configured by a ROM and a RAM, an operation unit 140 configured by buttons and a touch panel, a display unit 150 configured by a liquid crystal display, and printing. A mechanism 160 and a card interface (card I / F) 170 are provided. The printer 100 may further include an interface for performing data communication with other devices (for example, a digital still camera or a personal computer). Each component of the printer 100 is connected via a bus so that bidirectional communication is possible.

印刷機構160は、印刷データに基づき印刷を行う。カードインターフェース170は、カードスロット172に挿入されたメモリーカードMCとの間でデータのやり取りを行うためのインターフェースである。なお、本実施例では、メモリーカードMCに動画像ファイルが格納されている。この動画像ファイルは、例えば、デジタルスチルカメラ等の撮影装置によりExif(Exchangeable Image File Format)規格に則って時間的に連続して順次生成された複数の画像ファイルを含み、それぞれの画像ファイルには撮影により生成されたRGBデータとしての画像データの他に、撮影日時、撮影時の絞り値(F値)、シャッタースピード、レンズの焦点距離、撮影時の緯度経度情報等の付加データを含んでいる。動画像ファイルは、例えば、Motion JPEG等の圧縮形式を採用することができる。動画像ファイルを構成する画像ファイルは、例えば、JPEG等の圧縮形式を採用することができる。プリンター100は、カードインターフェース170を介してメモリーカードMCに格納された動画像ファイルの取得をおこなう。   The printing mechanism 160 performs printing based on the print data. The card interface 170 is an interface for exchanging data with the memory card MC inserted into the card slot 172. In this embodiment, a moving image file is stored in the memory card MC. This moving image file includes, for example, a plurality of image files that are sequentially and temporally generated in accordance with the Exif (Exchangeable Image File Format) standard by a photographing device such as a digital still camera. In addition to image data as RGB data generated by shooting, it includes additional data such as shooting date and time, aperture value (F value) at the time of shooting, shutter speed, lens focal length, latitude and longitude information at the time of shooting. . For the moving image file, for example, a compression format such as Motion JPEG can be adopted. For example, a compression format such as JPEG can be adopted for the image file constituting the moving image file. The printer 100 acquires a moving image file stored in the memory card MC via the card interface 170.

内部メモリー120には、画像処理部200と、表示制御部310と、印刷制御部320と、が格納されている。画像処理部200は、コンピュータープログラムであり、所定のオペレーティングシステムの下で、CPU110により実行されることで画像検索・印刷処理をおこなう。本実施例の画像検索・印刷処理は、検索対象となる複数の画像(以後、「対象画像」とも呼ぶ)から人同士の親密さの程度を表す親密度を算出し、この親密度を用いて特定の画像を検出する画像検索をおこなうとともに、検出された画像の印刷をおこなう処理である。画像検索・印刷処理については、後に詳述する。表示制御部310、および、印刷制御部320についてもCPU110により実行されることでぞれぞれの機能を実現する。   The internal memory 120 stores an image processing unit 200, a display control unit 310, and a print control unit 320. The image processing unit 200 is a computer program, and performs image search / printing processing by being executed by the CPU 110 under a predetermined operating system. In the image search / print processing of the present embodiment, a closeness representing the degree of intimacy between people is calculated from a plurality of images to be searched (hereinafter also referred to as “target images”), and this closeness is used. This is a process of performing an image search for detecting a specific image and printing the detected image. The image search / print process will be described in detail later. The display control unit 310 and the print control unit 320 are also executed by the CPU 110 to realize the respective functions.

画像処理部200は、プログラムモジュールとして、顔領域検出部210と、被写体距離推定部220と、被写体間距離推定部230と、親密度算出部240と、特徴判別部250と、特定情報取得部260と、画像検索部270と、間柄判定部280と、間柄関係図作成部290と、を含んでいる。間柄判定部280は、間柄判定情報選択部281を含んでいる。これら各部の機能については、後述の画像検索・印刷処理の説明において詳述する。   The image processing unit 200 includes a face area detection unit 210, a subject distance estimation unit 220, an inter-subject distance estimation unit 230, a closeness calculation unit 240, a feature determination unit 250, and a specific information acquisition unit 260 as program modules. And an image search unit 270, a interstitial determination unit 280, and a interstitial relationship diagram creation unit 290. The interstitial determination unit 280 includes a interstitial determination information selection unit 281. The functions of these units will be described in detail in the description of image search / print processing described later.

表示制御部310は、表示部150を制御して、表示部150上に処理メニューやメッセージ、画像等を表示させるディスプレイドライバである。印刷制御部320は、画像データから印刷データを生成し、印刷機構160を制御して、印刷データに基づく画像の印刷を実行するためのコンピュータープログラムである。CPU110は、内部メモリー120から、これらのプログラム(画像処理部200、表示制御部310、印刷制御部320)を読み出して実行することにより、これら各部の機能を実現する。   The display control unit 310 is a display driver that controls the display unit 150 to display processing menus, messages, images, and the like on the display unit 150. The print control unit 320 is a computer program for generating print data from image data, controlling the printing mechanism 160, and printing an image based on the print data. The CPU 110 reads out and executes these programs (the image processing unit 200, the display control unit 310, and the print control unit 320) from the internal memory 120, thereby realizing the functions of these units.

内部メモリー120には、また、間柄判定情報RDIが格納されている。間柄判定情報RDIは、後述の画像検索・印刷処理において参照されるために予め設定される情報である。間柄判定情報RDIの内容については、後述の画像検索・印刷処理の説明において詳述する。   The internal memory 120 also stores relationship determination information RDI. The interstitial determination information RDI is information set in advance to be referred to in an image search / print process described later. The contents of the interstitial determination information RDI will be described in detail in the description of the image search / print processing described later.

A2.画像検索・印刷処理
図2は、第1実施例における画像検索・印刷処理の流れを示すフローチャートである。本実施例の画像検索・印刷処理は、動画像に表されている人同士について算出した親密度から、人同士の間柄関係を表す間柄関係図を作成し、間柄関係図を参照したユーザーにより選択された画像の印刷をおこなう。
A2. Image Search / Print Processing FIG. 2 is a flowchart showing the flow of image search / print processing in the first embodiment. The image search / printing process of the present embodiment creates a interstitial relationship diagram representing the interstitial relationship between people based on the intimacy calculated for the people represented in the moving image, and is selected by a user who refers to the interstitial relationship diagram The printed image is printed.

画像処理部200は、画像検索の対象となる対象画像を取得する(ステップS100)。本実施例では、メモリーカードMCに格納された動画像ファイルにより表されるすべての画像を画像検索・印刷処理の対象となる対象画像として説明する。なお、対象画像は、メモリーカードMC以外の記憶装置に格納された動画像ファイルにより表される画像であってもよいし、メモリーカードMCに格納された動画像ファイルにより表される画像の一部であってもよい。本実施例では、プリンター100は、カードスロット172にメモリーカードMCが挿入されると、メモリーカードMCから対象画像を取得する。すなわち、プリンター100は、メモリーカードMCに格納された動画像ファイルを内部メモリー120に格納する。   The image processing unit 200 acquires a target image that is a target of image search (step S100). In this embodiment, all images represented by moving image files stored in the memory card MC will be described as target images to be subjected to image search / print processing. The target image may be an image represented by a moving image file stored in a storage device other than the memory card MC, or a part of an image represented by a moving image file stored in the memory card MC. It may be. In the present embodiment, when the memory card MC is inserted into the card slot 172, the printer 100 acquires a target image from the memory card MC. That is, the printer 100 stores the moving image file stored in the memory card MC in the internal memory 120.

図3は、動画像ファイルにより表される各対象画像の一部を例示した説明図である。各対象画像TI0〜TI3は、対象画像TI0、対象画像TI1、対象画像TI2、対象画像TI3の順に時間的に連続した画像である。すなわち、各対象画像TI0〜TI3は、対象画像TI0、対象画像TI1、対象画像TI2、対象画像TI3の順に時系列に並んだ画像である。対象画像TIは、動画像ファイルにより表される動画像の各フレームに該当する。なお、動画像ファイルにより表される動画像のフレームレートには特に限定はなく、本実施例では30fpsが採用されている。ただし、フレームレートについては、30fps以外の値が採用されていてもよい。   FIG. 3 is an explanatory diagram illustrating a part of each target image represented by the moving image file. Each of the target images TI0 to TI3 is a temporally continuous image in the order of the target image TI0, the target image TI1, the target image TI2, and the target image TI3. That is, the target images TI0 to TI3 are images arranged in time series in the order of the target image TI0, the target image TI1, the target image TI2, and the target image TI3. The target image TI corresponds to each frame of the moving image represented by the moving image file. There is no particular limitation on the frame rate of the moving image represented by the moving image file, and 30 fps is adopted in this embodiment. However, a value other than 30 fps may be adopted for the frame rate.

図4は、内部メモリーに格納された動画像ファイルを説明するための説明図である。図4は、内部メモリー120に格納された動画像ファイルにより表される各対象画像TIと、対象画像TIをそれぞれ識別するための画像識別子とを示している。画像処理部200は、取得した各対象画像TIに対応する画像ファイルにそれぞれ画像識別子を対応付けて内部メモリー120の所定領域に格納する。ここで、画像識別子とは、内部メモリー120に格納された画像ファイルのそれぞれが一意に特定可能な識別子であり、数字や記号のほか、ファイル名等の文字列であってもよい。   FIG. 4 is an explanatory diagram for explaining a moving image file stored in the internal memory. FIG. 4 shows each target image TI represented by a moving image file stored in the internal memory 120 and an image identifier for identifying each target image TI. The image processing unit 200 associates an image identifier with each image file corresponding to each acquired target image TI and stores the image identifier in a predetermined area of the internal memory 120. Here, the image identifier is an identifier that can uniquely identify each of the image files stored in the internal memory 120, and may be a character string such as a file name in addition to numbers and symbols.

画像処理部200は、注目画像OIを設定する(ステップS110)。具体的には、画像処理部200は、内部メモリー120に格納された画像ファイルの中から1つの画像ファイルを選択する。画像処理部200は、選択した画像ファイルに対応する対象画像TIを注目画像OIとして設定する。本実施例では、図4に示す、対象画像TI1を注目画像OIとして設定した例について説明する。   The image processing unit 200 sets an attention image OI (step S110). Specifically, the image processing unit 200 selects one image file from the image files stored in the internal memory 120. The image processing unit 200 sets the target image TI corresponding to the selected image file as the target image OI. In the present embodiment, an example in which the target image TI1 shown in FIG. 4 is set as the target image OI will be described.

顔領域検出部210は、注目画像OIにおける顔領域FAの検出をおこなう(ステップS120)。ここで、顔領域FAとは、注目画像OI上の画像領域であって、少なくとも顔の一部の画像が含まれる領域を意味している。顔領域検出部210による顔領域FAの検出は、例えばテンプレートを利用したパターンマッチングによる方法(特開2004−318204参照)といった公知の顔検出方法を用いて実行される。   The face area detection unit 210 detects the face area FA in the target image OI (step S120). Here, the face area FA is an image area on the attention image OI and means an area including at least a partial image of the face. The detection of the face area FA by the face area detection unit 210 is performed using a known face detection method such as a pattern matching method using a template (see Japanese Patent Application Laid-Open No. 2004-318204).

図5は、顔領域FAの検出結果の一例を示す説明図である。図5の例では、注目画像OIに2人の顔の画像が含まれている。そのため、ここでは、注目画像OIから2つの顔領域FA1、FA2が検出される。顔領域FAは、図5に示すように、両目と鼻と口の画像を含む矩形の領域となっている。また、顔領域検出部210は、顔領域FAに基づいて頭全体を含む矩形の領域である頭領域TAを検出する。注目画像OIにおける頭領域TAの位置および範囲は、検出した顔領域FAの注目画像OIにおける位置および範囲に対して所定となるように予め設定されている。そのため、顔領域FAの検出により頭領域TAの位置および範囲が一義的に規定される。頭領域TAの規定方法については、特に限定はなく、例えば、頭領域TAは、顔領域FAから所定の画素数外側の範囲としてもよいし、顔領域FAの縦横それぞれの画素数に所定の定数を掛けて算出される範囲としてもよい。本実施例では、2つの頭領域TA1、TA2が検出される。   FIG. 5 is an explanatory diagram showing an example of the detection result of the face area FA. In the example of FIG. 5, the attention image OI includes two face images. Therefore, here, two face areas FA1 and FA2 are detected from the target image OI. As shown in FIG. 5, the face area FA is a rectangular area including images of both eyes, nose and mouth. Further, the face area detection unit 210 detects a head area TA that is a rectangular area including the entire head based on the face area FA. The position and range of the head area TA in the target image OI are set in advance so as to be predetermined with respect to the position and range of the detected face area FA in the target image OI. Therefore, the position and range of the head area TA are uniquely defined by detecting the face area FA. The method for defining the head area TA is not particularly limited. For example, the head area TA may be outside the face area FA by a predetermined number of pixels, or a predetermined constant is set for the number of pixels in the vertical and horizontal directions of the face area FA. It is good also as a range calculated by multiplying. In this embodiment, two head areas TA1 and TA2 are detected.

なお、顔領域検出部210は、顔領域FAおよび頭領域TAの検出結果として、注目画像OIにおける顔領域FAおよび頭領域TAのそれぞれの位置を特定可能な情報(例えば顔領域FAの4つの頂点の座標、および、頭領域TAの4つの頂点の座標)を出力する。また、図5に示すように、本実施例では、注目画像OIの幅をWwi(単位は画素数)と表し、顔領域FAの幅をそれぞれWfi1およびWfi2(単位は画素数)と表すものとする。なお、ステップS120の顔領域FAの検出において、顔領域FAが検出されなかった場合には、新たに別の対象画像TIを注目画像OIとして選択し、顔領域FAの検出をおこなう。   Note that the face area detecting unit 210 detects information indicating the positions of the face area FA and the head area TA in the target image OI (for example, four vertices of the face area FA) as the detection results of the face area FA and the head area TA. And the coordinates of the four vertices of the head area TA). Further, as shown in FIG. 5, in this embodiment, the width of the target image OI is represented as Wwi (unit is the number of pixels), and the width of the face area FA is represented as Wfi1 and Wfi2 (unit is the number of pixels). To do. If the face area FA is not detected in the detection of the face area FA in step S120, another target image TI is newly selected as the attention image OI, and the face area FA is detected.

ステップS120では、テンプレートを利用したパターンマッチングにより注目画像OIから顔領域FAが検出される。このようなテンプレートを利用したパターンマッチングによる方法等の公知の顔検出方法は、一般に、顔全体や顔の部位(目や口等)について位置や傾き(角度)を詳細に検出するものではなく、注目画像OI中から顔の画像が概ね含まれると考えられる領域を顔領域FAとして設定するものである。   In step S120, the face area FA is detected from the target image OI by pattern matching using a template. A known face detection method such as a pattern matching method using such a template generally does not detect in detail the position and inclination (angle) of the entire face or part of the face (eyes, mouth, etc.) An area that is considered to contain a face image from the attention image OI is set as the face area FA.

図6は、内部メモリーに格納された人物情報データベースを説明するための説明図である。画像処理部200は、注目画像OIの頭領域TAに対応する画像の画像データを生成する。頭領域TAには、人の頭全体を表す画像が含まれているため、生成した画像データは、注目画像OIに含まれている人ごとの人物画像PIを表している。画像処理部200は、図6に示すように、人物画像PIを表す画像データと、それぞれの人物画像を識別するための人物識別子と対応付けた人物情報データベースHCを内部メモリー120の所定領域に格納する。ここでは、注目画像OIとして設定した対象画像TI1に2人の人物画像が含まれているため、頭領域TA1により表される人物の人物画像PI1の画像データと人物識別子aaとを対応付けるとともに、頭領域TA2により表される人物の人物画像PI2の画像データと人物識別子bbとを対応付ける。なお、本実施例では、画像処理部200は、注目画像OIの頭領域TAに対応する人物画像PIの画像データを生成しているが、画像データを生成せず、頭領域TAの位置を特定するための情報や、頭領域TAを検出した注目画像OIの画像識別子などと、人物識別子と対応付けた人物情報データベースHCを構築してもよい。   FIG. 6 is an explanatory diagram for explaining the person information database stored in the internal memory. The image processing unit 200 generates image data of an image corresponding to the head area TA of the target image OI. Since the head region TA includes an image representing the entire human head, the generated image data represents a person image PI for each person included in the target image OI. As shown in FIG. 6, the image processing unit 200 stores, in a predetermined area of the internal memory 120, image data representing the person image PI and a person information database HC associated with a person identifier for identifying each person image. To do. Here, since two person images are included in the target image TI1 set as the attention image OI, the image data of the person image PI1 of the person represented by the head area TA1 is associated with the person identifier aa, and the head image The image data of the person image PI2 of the person represented by the area TA2 is associated with the person identifier bb. In the present embodiment, the image processing unit 200 generates the image data of the person image PI corresponding to the head area TA of the target image OI, but does not generate the image data and specifies the position of the head area TA. For example, the person information database HC associated with the person identifier and the image identifier of the target image OI in which the head area TA is detected may be constructed.

図7は、画像識別子と人物識別子との対応付けを説明するための説明図である。画像処理部200は、内部メモリーに格納されている注目画像OIに対応する画像ファイルと、注目画像OIに含まれている人物画像PIの画像データを対応付ける。具体的には、画像処理部200は、図7に示すように、対象画像TI1に対応する画像ファイルの画像識別子IAと、2人の人物画像PI1、PI2とそれぞれ対応する人物識別子aa、bbとを対応付ける。   FIG. 7 is an explanatory diagram for explaining the association between an image identifier and a person identifier. The image processing unit 200 associates the image file corresponding to the target image OI stored in the internal memory with the image data of the person image PI included in the target image OI. Specifically, as shown in FIG. 7, the image processing unit 200 includes an image identifier IA of an image file corresponding to the target image TI1, and person identifiers aa and bb respectively corresponding to the two person images PI1 and PI2. Associate.

画像処理部200は、人物情報設定処理をおこなう(ステップS130)。人物情報設定処理とは、注目画像OIから、注目画像OIに表されている人の年齢や、性別のほか、注目画像OIに表されている人同士の親密さの程度を表す親密度や間柄などの人物情報を取得し、人物情報データベースHCに設定する処理である。人物情報は、上記以外にも、例えば、注目画像OIに表されている人の表情や、顔向きなどを含んでいてもよい。   The image processing unit 200 performs person information setting processing (step S130). The person information setting process refers to the intimacy and relationship between the attention image OI, the age and sex of the person represented in the attention image OI, and the degree of intimacy between the persons represented in the attention image OI. Is acquired and set in the person information database HC. In addition to the above, the person information may include, for example, the facial expression or face orientation of the person represented in the attention image OI.

図8は、第1実施例における人物情報設定処理の流れを示すフローチャートである。被写体距離推定部220は、被写体距離Sdの推定を行う(ステップS200)。ここで、被写体距離Sdは、注目画像OIの撮影時における撮影装置(より詳細には撮影装置のレンズの主点)から被写体である人の顔までの距離である。   FIG. 8 is a flowchart showing the flow of the person information setting process in the first embodiment. The subject distance estimation unit 220 estimates the subject distance Sd (step S200). Here, the subject distance Sd is the distance from the photographing device (more specifically, the principal point of the lens of the photographing device) to the face of the person who is the subject at the time of photographing the target image OI.

図9は、被写体距離Sdの推定方法を示す説明図である。図9には、注目画像OIの撮影時における撮影装置の結像面ISと被写体としての人Pの顔との位置関係を示している。図9に示すように、レンズの主点UPと人Pの顔との間の距離である被写体距離Sdは、人Pの顔の位置を含み結像面ISに平行な面(以下「被写体面SS」とも呼ぶ)における撮影範囲の幅Wwと画角θ1とにより定まる。また、画角θ1は、レンズの焦点距離fと結像面ISの幅Wxとの関係により特定される。すなわち、下記の式(1)が成り立つ。   FIG. 9 is an explanatory diagram showing a method for estimating the subject distance Sd. FIG. 9 shows the positional relationship between the imaging plane IS of the photographing apparatus and the face of the person P as the subject at the time of photographing the attention image OI. As shown in FIG. 9, the subject distance Sd, which is the distance between the principal point UP of the lens and the face of the person P, is a plane including the position of the face of the person P and parallel to the imaging plane IS (hereinafter referred to as “subject plane”). It is determined by the width Ww of the shooting range and the angle of view θ1). The angle of view θ1 is specified by the relationship between the focal length f of the lens and the width Wx of the imaging plane IS. That is, the following formula (1) is established.

Figure 2011070276
Figure 2011070276

また、被写体面SSにおける撮像範囲の幅Wwは、人Pの顔の画像が注目画像OI(図5)において占める大きさに基づき特定される。すなわち、被写体面SSにおける幅Wwと人Pの顔の幅Wfとの比は、注目画像OIにおける画像全体の幅Wwiと顔領域FAの幅Wfiとの比に等しいと考えられる(式(2)参照)。   Further, the width Ww of the imaging range on the subject surface SS is specified based on the size that the face image of the person P occupies in the attention image OI (FIG. 5). That is, the ratio between the width Ww on the subject surface SS and the width Wf of the face of the person P is considered to be equal to the ratio between the width Wwi of the entire image in the target image OI and the width Wfi of the face area FA (formula (2)). reference).

Figure 2011070276
Figure 2011070276

上記式(1)および(2)から、下記の式(3)が導かれる。   From the above formulas (1) and (2), the following formula (3) is derived.

Figure 2011070276
Figure 2011070276

被写体距離推定部220は、式(3)を用いた被写体距離Sdの算出に必要な情報を取得する。具体的には、被写体距離推定部220は、注目画像OIを表す画像ファイルにメタデータとして付加されている注目画像OIの全体の幅Wwiの値(画素数)を取得すると共に、顔領域FA(図5)の幅Wfiの値(画素数)を算出する。顔領域FAの幅Wfiの算出は、例えば前述の顔領域FAの4つの頂点のうちの2つの頂点の座標を用いて2つの頂点間の距離を算出することにより行う。   The subject distance estimation unit 220 acquires information necessary for calculating the subject distance Sd using Expression (3). Specifically, the subject distance estimation unit 220 acquires the value (number of pixels) of the entire width Wwi of the target image OI added as metadata to the image file representing the target image OI, and also detects the face area FA ( The value (number of pixels) of the width Wfi in FIG. 5) is calculated. The width Wfi of the face area FA is calculated, for example, by calculating the distance between the two vertices using the coordinates of the two vertices of the four vertices of the face area FA described above.

また、被写体距離推定部220は、人Pの顔の幅Wfの値として、予め設定され内部メモリー120に格納された典型的な人物の顔の幅(顔の現実の大きさ)の概略値(例えば200mm)を取得する。   In addition, the subject distance estimation unit 220 approximates the typical human face width (actual face size) stored in the internal memory 120 in advance as the value of the face width Wf of the person P. For example, 200 mm).

さらに、被写体距離推定部220は、注目画像OIの画像ファイルの付加データに含まれる撮像時のレンズの焦点距離fの値を取得する。ここで、取得されるレンズの焦点距離fの値は、35mmフィルム換算値であり、撮像装置の実際の焦点距離(実焦点距離)とは異なる場合がある。このような場合には、被写体距離推定部220は、結像面ISの幅Wxとして、予め設定された35mmフィルムの幅の値を取得する。なお、画像ファイルの付加データに実焦点距離のデータと撮像装置の撮像素子の幅のデータとが含まれている場合には、被写体距離推定部220が、レンズの焦点距離fとして実焦点距離の値を取得し、結像面ISの幅Wxとして撮像素子の幅の値を取得するとしてもよい。また、画像ファイルの付加データに画角そのものを示すデータが含まれている場合には、被写体距離推定部220が画角を示すデータを取得するとしてもよい。   Further, the subject distance estimation unit 220 acquires the value of the focal length f of the lens at the time of imaging included in the additional data of the image file of the target image OI. Here, the value of the focal length f of the lens acquired is a 35 mm film equivalent value and may be different from the actual focal length (actual focal length) of the imaging apparatus. In such a case, the subject distance estimation unit 220 acquires a preset value of the width of the 35 mm film as the width Wx of the imaging plane IS. If the additional data of the image file includes data on the actual focal length and data on the width of the image sensor of the imaging device, the subject distance estimation unit 220 sets the actual focal length as the lens focal length f. A value may be acquired, and the value of the width of the image sensor may be acquired as the width Wx of the imaging plane IS. If the additional data of the image file includes data indicating the angle of view, the subject distance estimation unit 220 may acquire data indicating the angle of view.

被写体距離推定部220は、取得した上記各情報(対象画像TIの全体の幅Wwiの値、顔領域FAの幅Wfiの値、人物Pの顔の幅Wfの値、レンズの焦点距離fの値、結像面ISの幅Wxの値)と、上記式(3)とを用いて、被写体距離Sdを算出(推定)する。本実施例では、撮影装置から顔領域FA1に対応する人の顔までの距離である被写体距離Sd1と、撮影装置から顔領域FA2に対応する人の顔までの距離である被写体距離Sd2が推定される。   The subject distance estimation unit 220 obtains each of the acquired information (the value of the entire width Wwi of the target image TI, the value of the width Wfi of the face area FA, the value of the face width Wf of the person P, and the value of the focal length f of the lens). The object distance Sd is calculated (estimated) by using the value of the width Wx of the image plane IS and the above equation (3). In the present embodiment, a subject distance Sd1 that is a distance from the photographing apparatus to a human face corresponding to the face area FA1 and a subject distance Sd2 that is a distance from the photographing apparatus to a human face corresponding to the face area FA2 are estimated. The

なお、撮影装置から顔領域FA1に対応する人の顔までの距離である被写体距離Sd1と、撮影装置から顔領域FA2に対応する人の顔までの距離である被写体距離Sd2との比は、顔領域FA1の幅Wfi1と顔領域FA2の幅Wfi2との比に等しいと考えられるため、上記式(3)を用いて、被写体距離Sd1を算出し、被写体距離Sd2を下記の式(4)により算出してもよい。   Note that the ratio of the subject distance Sd1 that is the distance from the photographing apparatus to the face of the person corresponding to the face area FA1 and the subject distance Sd2 that is the distance from the photographing apparatus to the face of the person corresponding to the face area FA2 is the face Since it is considered to be equal to the ratio of the width Wfi1 of the area FA1 and the width Wfi2 of the face area FA2, the subject distance Sd1 is calculated using the above formula (3), and the subject distance Sd2 is calculated by the following formula (4). May be.

Figure 2011070276
Figure 2011070276

被写体距離推定部220により被写体距離Sdが推定されると、被写体間距離推定部230は、被写体間距離Sbdの推定をおこなう(ステップS210)。ここで、被写体間距離Sbdは、注目画像OIに表されている2人の顔の一方の顔から他方の顔までの実際の距離である。言い換えれば、被写体間距離Sbdは、顔領域FAに表されている顔同士の撮影時における実際の距離である。   When the subject distance estimation unit 220 estimates the subject distance Sd, the subject distance estimation unit 230 estimates the subject distance Sbd (step S210). Here, the inter-subject distance Sbd is an actual distance from one face to the other face of the two faces represented in the attention image OI. In other words, the inter-subject distance Sbd is an actual distance at the time of photographing the faces represented in the face area FA.

図10は、被写体間距離Sbdの推定方法を示す説明図である。図10には、注目画像OIの撮影時における撮影装置PDと被写体としての人P1および人P2の顔との位置関係を示している。人P1は、図5に示す顔領域FA1に対応する人であり、人P2は、顔領域FA2に対応する人を表している。図10に示すように、人P1の顔と人P2の顔との間の距離である被写体間距離Sbdは、撮影装置PDと人P1とを結ぶ直線上の距離成分である奥行き方向距離Shと、この奥行き方向と直交する方向の距離成分である直交方向距離Svにより特定される。すなわち、式(5)が成り立つ。   FIG. 10 is an explanatory diagram showing a method for estimating the inter-subject distance Sbd. FIG. 10 shows the positional relationship between the imaging device PD and the faces of the persons P1 and P2 as subjects when the attention image OI is captured. The person P1 is a person corresponding to the face area FA1 shown in FIG. 5, and the person P2 represents a person corresponding to the face area FA2. As shown in FIG. 10, the inter-subject distance Sbd, which is the distance between the face of the person P1 and the face of the person P2, is a depth direction distance Sh that is a distance component on a straight line connecting the photographing apparatus PD and the person P1. , And is specified by the orthogonal direction distance Sv which is a distance component in a direction orthogonal to the depth direction. That is, Expression (5) is established.

Figure 2011070276
Figure 2011070276

また、直交方向距離Svは、撮影装置PDと人P1とを結ぶ直線と、撮影装置PDと人P2とを結ぶ直線とにより形成される形成角θ2と、撮影装置から人P2の顔までの距離である被写体距離Sd2により特定される。すなわち、式(6)が成り立つ。   Further, the orthogonal distance Sv is a formation angle θ2 formed by a straight line connecting the photographing apparatus PD and the person P1, a straight line connecting the photographing apparatus PD and the person P2, and a distance from the photographing apparatus to the face of the person P2. Is specified by the subject distance Sd2. That is, Expression (6) is established.

Figure 2011070276
Figure 2011070276

また、直交方向距離Svおよび奥行き方向距離Shは、撮影装置から人P1の顔までの距離である被写体距離Sd1と、形成角θ2により特定される。すなわち式(7)が成り立つ。   Further, the orthogonal direction distance Sv and the depth direction distance Sh are specified by the subject distance Sd1 which is the distance from the photographing apparatus to the face of the person P1 and the formation angle θ2. That is, Expression (7) is established.

Figure 2011070276
Figure 2011070276

式(6)および式(7)により、奥行き方向距離Shは、被写体距離Sd1、Sd2および形成角θ2を用いて特定される。すなわち、式(8)が成り立つ。   The depth direction distance Sh is specified by using the subject distances Sd1 and Sd2 and the formation angle θ2 by Expression (6) and Expression (7). That is, Expression (8) is established.

Figure 2011070276
Figure 2011070276

式(5)、式(6)、および、式(8)により、被写体間距離Sbdを被写体距離Sd1、Sd2および形成角θ2を用いて特定できる。すなわち、式(9)が成り立つ。   From the equations (5), (6), and (8), the subject distance Sbd can be specified using the subject distances Sd1, Sd2 and the formation angle θ2. That is, Expression (9) is established.

Figure 2011070276
Figure 2011070276

被写体間距離推定部230は、式(9)を用いた被写体間距離Sbdの算出に必要な情報を取得する。具体的には、被写体間距離推定部230は、被写体距離推定部220により推定された被写体距離Sd1、Sd2を取得するとともに、形成角θ2の値を算出する。形成角θ2の算出は、例えば、注目画像OIにおける顔領域FA1の中心と顔領域FA2との中心とを結ぶ線分の長さと、画像全体の幅Wwiとの比と、形成角θ2と、画角θ1との比を用いることにより算出することができる。   The inter-subject distance estimation unit 230 acquires information necessary for calculating the inter-subject distance Sbd using Expression (9). Specifically, the inter-subject distance estimation unit 230 acquires the subject distances Sd1 and Sd2 estimated by the subject distance estimation unit 220 and calculates the value of the formation angle θ2. The formation angle θ2 is calculated by, for example, the ratio of the length of the line segment connecting the center of the face area FA1 and the center of the face area FA2 in the target image OI to the width Wwi of the entire image, the formation angle θ2, It can be calculated by using the ratio to the angle θ1.

被写体間距離推定部230は、算出した被写体間距離Sbdを人物情報データベースHCに設定する。図11は、人物情報データベースHCに被写体間距離Sbdを設定した状態を説明するための説明図である。被写体間距離推定部230は、人物情報データベースHCにおいて、算出した被写体間距離Sbdを、算出の対象となった2人の人物画像PIの画像データとそれぞれ対応付ける。具体的には、注目画像OIにおいて、頭領域TA1により表される人物と、頭領域TA2により表される人物との被写体間距離Sbdが「50」であった場合、図11に示すように、頭領域TA1と対応する人物画像PI1の画像データに、注目画像OIとして設定している対象画像TIの画像識別子「IB」と、被写体間距離Sbdを算出した相手の人物識別子「bb」と、被写体間距離Sbdである「50」をそれぞれ対応付ける。また、頭領域TA2と対応する人物画像PI2の画像データに、注目画像OIとして設定している対象画像TIの画像識別子「IB」と、被写体間距離Sbdを算出した相手の人物識別子「aa」と、被写体間距離Sbdである「50」をそれぞれ対応付ける。   The inter-subject distance estimation unit 230 sets the calculated inter-subject distance Sbd in the person information database HC. FIG. 11 is an explanatory diagram for explaining a state in which the subject distance Sbd is set in the person information database HC. The inter-subject distance estimation unit 230 associates the calculated inter-subject distance Sbd with the image data of the two person images PI that are the calculation targets in the person information database HC. Specifically, when the subject distance Sbd between the person represented by the head area TA1 and the person represented by the head area TA2 in the attention image OI is “50”, as shown in FIG. In the image data of the person image PI1 corresponding to the head area TA1, the image identifier “IB” of the target image TI set as the target image OI, the partner person identifier “bb” for which the inter-subject distance Sbd is calculated, and the subject The distance Sbd “50” is associated with each other. In addition, in the image data of the person image PI2 corresponding to the head area TA2, the image identifier “IB” of the target image TI set as the attention image OI, and the person identifier “aa” of the partner who calculated the inter-subject distance Sbd , “50”, which is the inter-subject distance Sbd, is associated with each other.

画像処理部200は、被写体間距離Sbdが閾値Th1より小さいか否かを判定する(ステップS220)。具体的には、画像処理部200は、内部メモリー120に予め設定されている閾値Th1と、ステップ210において被写体間距離推定部230により算出された被写体間距離Sbdとを比較して、被写体間距離Sbdが閾値Th1より小さいか否か判定する。被写体間距離Sbdが閾値Th1以上である場合(ステップS220:NO)、画像処理部200は、後述する頻度情報として「頻度n=0」を人物情報データベースHCに設定する(ステップS225)。画像処理部200は、人物情報データベースHCに頻度情報として「頻度n=0」を設定すると、人物情報設定処理を終了する。   The image processing unit 200 determines whether or not the inter-subject distance Sbd is smaller than the threshold Th1 (Step S220). Specifically, the image processing unit 200 compares the threshold Th1 set in advance in the internal memory 120 with the inter-subject distance Sbd calculated by the inter-subject distance estimation unit 230 in step 210, and the inter-subject distance It is determined whether Sbd is smaller than the threshold Th1. When the inter-subject distance Sbd is equal to or greater than the threshold Th1 (step S220: NO), the image processing unit 200 sets “frequency n = 0” as frequency information to be described later in the person information database HC (step S225). When “frequency n = 0” is set as frequency information in the person information database HC, the image processing unit 200 ends the person information setting process.

被写体間距離Sbdが閾値Th1より小さい場合(ステップS220:YES)、画像処理部200は、被写体間距離Sbdを算出したそれぞれの人物が前回以前の対象画像に表された人物であるか否かを判定する(ステップS230)。すなわち、画像処理部200は、今回、注目画像に設定した対象画像より前に注目画像に設定したいずれかの対象画像に、今回、被写体間距離Sbdを算出したそれぞれの人物が表されているか否かについて判定をおこなう。例えば、注目画像OIとして設定している対象画像TI1において被写体間距離Sbdを算出した2人の人物(頭領域TA1により表される人物と、頭領域TA2により表される人物)が対象画像TI1より時間的に前の画像である対象画像TI0に表されているか否かを判定する。画像処理部200は、例えば、対象画像TI1から検出した頭領域TAに含まれる顔の画像と、人物情報データベースHCに表されている人物画像PIとの類似度をそれぞれ算出し、検出した頭領域TAにより表される人物が既に人物情報データベースHCに設定されているか否かを判定することにより、被写体間距離Sbdを算出したそれぞれの人物が前回以前の対象画像に表された人物であるか否かを判定する。   When the inter-subject distance Sbd is smaller than the threshold Th1 (step S220: YES), the image processing unit 200 determines whether each person who calculated the inter-subject distance Sbd is a person represented in the previous target image. Determination is made (step S230). That is, the image processing unit 200 determines whether or not each person who has calculated the inter-subject distance Sbd this time is represented in any target image set as the target image before the target image set as the target image this time. Judgment is made. For example, in the target image TI1 set as the target image OI, two persons (a person represented by the head area TA1 and a person represented by the head area TA2) whose inter-subject distance Sbd has been calculated from the target image TI1. It is determined whether or not it is represented in the target image TI0 that is the previous image in time. For example, the image processing unit 200 calculates the similarity between the face image included in the head region TA detected from the target image TI1 and the person image PI represented in the person information database HC, and detects the detected head region. By determining whether or not the person represented by TA is already set in the person information database HC, whether or not each person whose inter-subject distance Sbd has been calculated is a person represented in the previous target image. Determine whether.

被写体間距離Sbdを算出したそれぞれの人物が前回以前の対象画像TIに表された人物ではない場合(ステップS230:NO)、画像処理部200は、人物情報データベースHCに頻度情報として「頻度n=1」を設定する(ステップS235)。頻度情報は、人物情報データベースHCに設定されている人物ごとに設定され、それぞれの人物と特定の人物との被写体間距離Sbdが閾値Th1より小さい値となる状態で表されている対象画像の数(頻度n)を表している。被写体間距離Sbdを算出したそれぞれの人物が前回以前の対象画像TIに表された人物ではない場合、今回初めて対象画像に現れた人物同士であることから、画像処理部200は、ぞれぞれの人物に対応する頻度情報として頻度n=1を設定する。   When each person who has calculated the inter-subject distance Sbd is not a person represented in the previous target image TI (step S230: NO), the image processing unit 200 stores “frequency n = frequency” as frequency information in the person information database HC. 1 "is set (step S235). The frequency information is set for each person set in the person information database HC, and the number of target images represented in a state where the subject distance Sbd between each person and the specific person is smaller than the threshold value Th1. (Frequency n). If each person who calculated the inter-subject distance Sbd is not a person represented in the previous target image TI, the images appear in the target image for the first time this time. Frequency n = 1 is set as frequency information corresponding to the person.

図12は、人物情報データベースHCに頻度情報を設定した状態を説明するための説明図である。画像処理部200は、人物情報データベースHCにおいて、被写体間距離Sbdの算出対象となった2人の人物画像PIの画像データに、頻度情報として、「1」をそれぞれ対応付ける。具体的には、頭領域TA1と対応する人物画像PI1の画像データに、被写体間距離Sbdを算出した相手の人物識別子「bb」と、頻度情報である「1」を対応付ける。同様に、頭領域TA2と対応する人物画像PI2の画像データに、被写体間距離Sbdを算出した相手の人物識別子「aa」と、頻度情報である「1」を対応付ける。画像処理部200は、人物情報データベースHCに頻度情報として「頻度n=1」を設定すると、人物情報設定処理を終了する。   FIG. 12 is an explanatory diagram for explaining a state in which frequency information is set in the person information database HC. In the person information database HC, the image processing unit 200 associates “1” as frequency information with the image data of the two person images PI for which the inter-subject distance Sbd is calculated. Specifically, the image data of the person image PI1 corresponding to the head area TA1 is associated with the partner person identifier “bb” for which the inter-subject distance Sbd is calculated and the frequency information “1”. Similarly, the image data of the person image PI2 corresponding to the head area TA2 is associated with the partner person identifier “aa” for which the inter-subject distance Sbd has been calculated and the frequency information “1”. When “frequency n = 1” is set as frequency information in the person information database HC, the image processing unit 200 ends the person information setting process.

被写体間距離Sbdを算出したそれぞれの人物が前回以前の対象画像TIに表されている人物である場合(ステップS230:YES)、画像処理部200は、人物情報データベースHCに設定されているそれぞれの人物に対応する頻度情報の頻度nを1つインクリメントする(ステップS240)。   When each person whose inter-subject distance Sbd is calculated is a person represented in the previous target image TI (step S230: YES), the image processing unit 200 sets each person set in the person information database HC. The frequency n of the frequency information corresponding to the person is incremented by one (step S240).

画像処理部200は、ステップS230においてインクリメントした頻度nが閾値Th2より大きいか否かを判定する(ステップS250)。頻度nが閾値Th2以下である場合(ステップS250:NO)、画像処理部200は、人物情報設定処理を終了する。頻度nが閾値Th2より大きい場合(ステップS250:YES)、特徴判別部250は、被写体間距離Sbdを算出したそれぞれの人物について既に年齢および性別の判定をおこなっているか否かを判定する(ステップS260)。具体的には、特徴判別部250は、人物情報データベースHCを参照し、被写体間距離Sbdを算出したそれぞれの人物について後述する年齢情報や性別情報が設定されているか否かを判定する。被写体間距離Sbdを算出したそれぞれの人物について既に年齢および性別の判定をおこなっている場合(ステップS260:YES)年齢判定および性別判定(ステップS270)をスキップする。被写体間距離Sbdを算出したそれぞれの人物について年齢および性別の判定をおこなっていない場合には(ステップS260:NO)、特徴判別部250は、年齢判定および性別判定をおこなう(ステップS270)。   The image processing unit 200 determines whether or not the frequency n incremented in step S230 is greater than the threshold value Th2 (step S250). When the frequency n is equal to or less than the threshold value Th2 (step S250: NO), the image processing unit 200 ends the person information setting process. When the frequency n is greater than the threshold Th2 (step S250: YES), the feature determination unit 250 determines whether the age and sex have already been determined for each person for which the inter-subject distance Sbd has been calculated (step S260). ). Specifically, the feature determination unit 250 refers to the person information database HC and determines whether age information and gender information to be described later is set for each person whose inter-subject distance Sbd has been calculated. When age and sex determination has already been performed for each person whose inter-subject distance Sbd has been calculated (step S260: YES), age determination and gender determination (step S270) are skipped. When the age and sex are not determined for each person for which the inter-subject distance Sbd is calculated (step S260: NO), the feature determination unit 250 performs age determination and sex determination (step S270).

特徴判別部250による年齢判定および性別判定は、例えば顔領域FAに含まれる目、鼻、髪型、色彩などについての位置、大きさ、比率などの顔特徴量に基づいて推定する方法(特開2007−206921参照)といった公知の判別方法を用いて実行される。本実施例では、年齢判定において推定される年齢は、画像検索・印刷処理をおこなった時点での年齢が推定される。すなわち、注目画像OIに表された人の画像から推定される年齢に、注目画像OIを表す画像ファイルにメタデータとして付加されている撮影日時から画像検索・印刷処理をおこなった日時までに経過した年月分加齢することにより、画像検索・印刷処理をおこなった時点での年齢を推定する。なお、本実施例では、画像検索・印刷処理をおこなった時点での年齢の推定をおこなったが、代わりに、注目画像OIに表されている人の誕生年もしくは誕生年月を推定する態様であってもよい。   The age determination and the gender determination by the feature determination unit 250 are estimated based on facial feature amounts such as positions, sizes, ratios, and the like for eyes, noses, hairstyles, colors, and the like included in the face area FA (Japanese Patent Laid-Open No. 2007-2007). This is executed using a known discrimination method such as -206921). In this embodiment, the age estimated in the age determination is estimated at the time when the image search / print process is performed. That is, the age estimated from the image of the person represented in the target image OI has passed from the shooting date / time added as metadata to the image file representing the target image OI to the date / time when the image search / print processing was performed. The age at the time of image search / print processing is estimated by aging. In this embodiment, the age at the time of performing the image search / printing process is estimated. Instead, the birth year or the birth date of the person represented in the target image OI is estimated. There may be.

図13は、人物情報データベースに年齢および性別についての人物情報を設定した状態を説明するための説明図である。特徴判別部250は、人物情報データベースHCにおいて、判定した年齢および性別についての人物情報と、判定の対象となった人物と対応する人物画像PIの画像データとを対応付ける。具体的には、図13に示すように、注目画像OIの顔領域FA1から判定した年齢(35歳)と性別(男)を、頭領域TA1と対応する人物画像PI1の画像データと対応付ける。また、注目画像OIの顔領域FA2から判定した年齢(30歳)と性別(女)を、頭領域TA2と対応する人物画像PI2の画像データと対応付ける。   FIG. 13 is an explanatory diagram for explaining a state in which person information regarding age and gender is set in the person information database. In the person information database HC, the feature determination unit 250 associates the person information regarding the determined age and sex with the image data of the person image PI corresponding to the person to be determined. Specifically, as shown in FIG. 13, the age (35 years old) and gender (male) determined from the face area FA1 of the target image OI are associated with the image data of the person image PI1 corresponding to the head area TA1. Further, the age (30 years old) and the sex (female) determined from the face area FA2 of the attention image OI are associated with the image data of the person image PI2 corresponding to the head area TA2.

親密度算出部240は、親密度Diの算出をおこなう(ステップS280)。ここで、親密度Diは、注目画像OIに表されている人同士の互いの親密さの程度を表す値であり、人同士が互いに親密であるほど高い値となる。親密度算出部240は、ステップS210において推定された被写体間距離Sbdを用いて親密度Diを算出する。具体的には、親密度算出部240は、被写体間距離Sbdが小さいほど親密度Diの値が大きくなるように親密度Diを算出する。これは、写真撮影時において、お互いに親密である人同士ほどお互いの距離が近い状態となり、親密でない人同士の場合には、お互いに近接した状態となることが少ないことによる。なお、親密度Diと被写体間距離Sbdとの関係は、任意に設定可能であり、親密度Diは、被写体間距離Sbdと直線的な相関関係(線形相関)を有している必要はなく、曲線的な相関関係(非線形相関)であってもよい。また、例えば、被写体間距離Sbdが所定以上であれば、親密度Diの値は一定となるような態様であってもよい。   The familiarity calculation unit 240 calculates the familiarity Di (step S280). Here, the familiarity Di is a value representing the degree of intimacy between the people represented in the target image OI, and the higher the closer the people are to each other. The familiarity calculation unit 240 calculates the familiarity Di using the inter-subject distance Sbd estimated in step S210. Specifically, the familiarity calculation unit 240 calculates the familiarity Di so that the value of the familiarity Di increases as the inter-subject distance Sbd decreases. This is because, at the time of taking a picture, people who are intimate with each other are closer to each other, and those who are not intimate are less likely to be close to each other. The relationship between the familiarity Di and the inter-subject distance Sbd can be arbitrarily set, and the closeness Di does not need to have a linear correlation (linear correlation) with the inter-subject distance Sbd. It may be a curved correlation (non-linear correlation). Further, for example, as long as the inter-subject distance Sbd is equal to or larger than a predetermined value, the closeness Di value may be constant.

親密度算出部240は、算出した親密度Diを人物情報データベースHCに設定する。図14は、人物情報データベースHCに親密度Diを設定した状態を説明するための説明図である。親密度算出部240は、人物情報データベースHCにおいて、算出した親密度Diを、算出の対象となった2人の人物画像PIの画像データとそれぞれ対応付ける。具体的には、注目画像OIにおいて、頭領域TA1により表される人物と、頭領域TA2により表される人物との親密度Diが「21」であった場合、図14に示すように、頭領域TA1と対応する人物画像PI1の画像データに、親密度Diを算出した相手の人物識別子「bb」と、親密度Diである「21」をそれぞれ対応付ける。また、頭領域TA2と対応する人物画像PI2の画像データに、親密度Diを算出した相手の人物識別子「aa」と、親密度Diiである「21」をそれぞれ対応付ける。   The familiarity calculating unit 240 sets the calculated familiarity Di in the person information database HC. FIG. 14 is an explanatory diagram for explaining a state in which the familiarity Di is set in the person information database HC. The familiarity calculating unit 240 associates the calculated familiarity Di with the image data of the two person images PI that are the objects of calculation in the person information database HC. Specifically, in the attention image OI, when the closeness Di between the person represented by the head area TA1 and the person represented by the head area TA2 is “21”, as shown in FIG. The image data of the person image PI1 corresponding to the area TA1 is associated with the partner person identifier “bb” for which the familiarity Di is calculated and “21” which is the familiarity Di. Further, the image data of the person image PI2 corresponding to the head area TA2 is associated with the partner person identifier “aa” for which the familiarity Di is calculated and “21” which is the familiarity Dii.

間柄判定部280は、間柄判定処理をおこなう(ステップS290)。間柄判定処理は、注目画像OIに表されている人同士の間柄を判定するための処理である。図15は、間柄判定処理の流れを示すフローチャートである。間柄判定部280は、人物情報データベースHCから、間柄判定の対象となる人のそれぞれの年齢および性別などの人物情報と、対象とする人同士の親密度Diとを用いて注目画像OIに表されている人同士の間柄を判定する。   The interstitial determination unit 280 performs interstitial determination processing (step S290). The relationship determination process is a process for determining the relationship between people represented in the target image OI. FIG. 15 is a flowchart showing the flow of the interstitial determination process. The relationship determination unit 280 is represented in the attention image OI from the person information database HC using personal information such as the age and sex of each person who is the target of relationship determination and the closeness Di of the target people. Judge the relationship between the people who are.

間柄判定部280の間柄判定情報選択部281は、位置情報を取得する(ステップS310)。ここで、位置情報とは、注目画像OIとして選択されている対象画像TIが撮影された場所に関する情報であり、街路、住宅、会社といった撮影された場所の種別に関する情報が含まれている。間柄判定情報選択部281は、画像ファイルの付加データに含まれている撮影時の緯度経度情報と、内部メモリー120に記憶されている地理情報とを用いて、対象画像TIが撮影された場所を特定する。ここで、緯度経度情報は、撮影装置と一体もしくは別体のGPSユニットにより取得されたGPS情報を画像ファイルに付加データとして埋め込んだものである。すなわち、間柄判定情報選択部281は、対象画像TIが撮影された場所に関する情報を、GPS情報を用いることにより特定している。なお、プリンター100は、内部メモリー120に地理情報を記憶している必要はなく、例えば、Googleマップなどの地図情報を利用して、緯度経度情報から撮影された場所に関する情報を取得してもよい。   The interstitial determination information selection unit 281 of the interstitial determination unit 280 acquires position information (step S310). Here, the position information is information related to the location where the target image TI selected as the target image OI is captured, and includes information regarding the type of the captured location such as a street, a house, or a company. The relationship determination information selection unit 281 uses the latitude and longitude information at the time of shooting included in the additional data of the image file and the geographic information stored in the internal memory 120 to determine the location where the target image TI was shot. Identify. Here, the latitude / longitude information is obtained by embedding GPS information acquired by a GPS unit integral with or separate from the photographing apparatus in the image file as additional data. In other words, the interstitial determination information selection unit 281 specifies information related to the place where the target image TI is taken by using GPS information. Note that the printer 100 does not need to store geographic information in the internal memory 120. For example, the printer 100 may acquire information regarding a place taken from latitude and longitude information using map information such as a Google map. .

間柄判定部280の間柄判定情報選択部281は、内部メモリー120に記憶されている複数の間柄判定情報の中から1つの間柄判定情報を選択する(ステップS320)。間柄判定情報には、間柄判定の対象とする人の年齢や性別等の人物情報、および、親密度Diと、間柄との対応関係が示されている。内部メモリー120に記憶されている複数の間柄判定情報には、それぞれ画像が撮影された場所ごとに設定された対応関係が示されている。図16は、第1の間柄判定情報の内容を説明するための説明図である。図17は、第2の間柄判定情報の内容を説明するための説明図である。間柄判定情報選択部281は、ステップS310により取得した対象画像の撮影された場所に関する情報に基づいて、内部メモリー120に記憶されている複数の間柄判定情報から1つの間柄判定情報を選択する。すなわち、間柄判定情報選択部281は、対象画像の撮影された場所に関する情報に示されている対象画像の撮影された場所と対応する間柄判定情報を選択する。   The interstitial determination information selection unit 281 of the interstitial determination unit 280 selects one interstitial determination information from a plurality of interstitial determination information stored in the internal memory 120 (step S320). The relationship determination information indicates the correspondence between the personal information such as the age and sex of the person who is the target of the relationship determination and the closeness Di and the relationship. The plurality of interstitial determination information stored in the internal memory 120 indicates the correspondence set for each place where the image was taken. FIG. 16 is an explanatory diagram for explaining the contents of the first interstitial determination information. FIG. 17 is an explanatory diagram for explaining the contents of the second relationship determination information. The interstitial determination information selection unit 281 selects one interstitial determination information from a plurality of interstitial determination information stored in the internal memory 120 based on the information regarding the location where the target image was captured acquired in step S310. In other words, the interstitial determination information selection unit 281 selects interstitial determination information corresponding to the location where the target image was captured, which is indicated in the information regarding the location where the target image was captured.

図16は、内部メモリー120に記憶されている間柄判定情報の1つであって、街路で撮影された画像に対応する間柄判定情報の内容を例示している。また、図17は、内部メモリー120に記憶されている間柄判定情報の1つであって、会社で撮影された画像に対応する間柄判定情報の内容を例示している。それぞれの間柄判定情報の内容は後述する。なお、図16および図17に示されている間柄判定情報の内容は、内部メモリー120に設定可能な間柄判定情報の一例にすぎず、これ以外の間柄判定情報を任意に設定することができる。例えば、自宅、公園、遊興施設など、ぞれぞれの場所で撮影された画像に対応する間柄判定情報や、ステップS310において位置情報が取得されなかった場合に選択される間柄判定情報などを設定することができる。   FIG. 16 exemplifies the contents of the relationship determination information corresponding to the image photographed on the street, which is one of the relationship determination information stored in the internal memory 120. FIG. 17 illustrates one example of the content determination information stored in the internal memory 120 and corresponding to the image photographed at the company. The contents of the respective pattern determination information will be described later. The contents of the interstitial determination information shown in FIGS. 16 and 17 are merely examples of interstitial determination information that can be set in the internal memory 120, and other interstitial determination information can be arbitrarily set. For example, the relationship determination information corresponding to the images taken at each place such as home, park, entertainment facility, or the relationship determination information selected when the position information is not acquired in step S310 is set. can do.

間柄判定部280は、間柄判定情報に従って、対象となる人同士の間柄を判定する(ステップS330)。はじめに、間柄判定情報選択部281により、図16に内容が示された間柄判定情報が選択された場合について説明する。間柄判定部280は、親密度Diと閾値Th3とを比較し(ステップS500)、親密度Diが閾値Th3以下である場合(ステップS500:NO)、間柄判定の対象となる人同士は「他人」であると判定する(ステップS505)。   The interstitial determination unit 280 determines interstitial relationships between the persons according to the interstitial determination information (step S330). First, the case where the interstitial determination information whose contents are shown in FIG. 16 is selected by the interstitial determination information selection unit 281 will be described. The relationship determination unit 280 compares the familiarity Di with the threshold Th3 (step S500). When the familiarity Di is equal to or less than the threshold Th3 (step S500: NO), the persons who are the targets of the relationship determination are “others”. (Step S505).

親密度Diが閾値Th3より大きい場合(ステップS500:YES)、間柄判定部280は、間柄判定の対象となる人同士の年齢差が閾値Th4より小さいか否かを判定する(ステップS515)。年齢差が閾値Th4より小さい場合(ステップS515:YES)、間柄判定部280は、間柄判定の対象となる人の年齢がそれぞれ12より大きいか否かを判定する(ステップS520)。   When the familiarity Di is greater than the threshold Th3 (step S500: YES), the interstitial determination unit 280 determines whether or not the age difference between the persons who are subject to interstitial determination is smaller than the threshold Th4 (step S515). When the age difference is smaller than the threshold Th4 (step S515: YES), the interstitial determination unit 280 determines whether or not the age of the person who is the target of the interstitial determination is greater than 12 (step S520).

間柄判定の対象となる人の少なくとも一方の年齢が12以下である場合(ステップS520:NO)、間柄判定部280は、間柄判定の対象となる人同士は「友達」であると判定する(ステップS525)。間柄判定の対象となる人の年齢がそれぞれ12より大きい場合(ステップS520:YES)、間柄判定部280は、間柄判定の対象となる人同士が同性か否かを判定する(ステップS535)。   When the age of at least one of the persons who are the targets of the relationship determination is 12 or less (step S520: NO), the relationship determination unit 280 determines that the persons who are the targets of the relationship determination are “friends” (step) S525). When the ages of the persons who are the targets of the relationship determination are each greater than 12 (step S520: YES), the relationship determination unit 280 determines whether the persons who are the targets of the relationship determination are the same (step S535).

間柄判定の対象となる人同士が同性である場合(ステップS535:YES)、間柄判定部280は、間柄判定の対象となる人同士は「友達」であると判定する(ステップS540)。間柄判定の対象となる人同士が異性である場合(ステップS535:NO)、間柄判定部280は、間柄判定の対象となる人同士は「恋人・夫婦」であると判定する(ステップS545)。   When the persons who are the targets of the relationship determination are homosexual (step S535: YES), the relationship determination unit 280 determines that the persons who are the targets of the relationship determination are “friends” (step S540). When the persons who are the targets of the relationship determination are heterosexual (step S535: NO), the relationship determination unit 280 determines that the persons who are the targets of the relationship determination are “lovers / couples” (step S545).

ステップS515において、年齢差が閾値Th4以上である場合(ステップS515:NO)、間柄判定部280は、顔認証を実施する(ステップS550)。ここで、顔認証とは、間柄判定の対象となる人同士の顔の画像の類似度(顔類似度)を算出するために、それぞれの人の顔の画像から特徴量を算出し、両者の特徴量の類似度から顔類似度を算出する処理をいう。ここで用いられる顔の画像の特徴量には、例えば、対象画像がRGBで表されている場合、RGB色空間におけるカラーヒストグラムの各カラービンの画素度数を用いることができる。なお、人の顔の画像同士の類似度を算出できる方法であれば、上記以外の公知技術を用いてもよい。   In step S515, when the age difference is greater than or equal to the threshold Th4 (step S515: NO), the interrogation determination unit 280 performs face authentication (step S550). Here, in face authentication, in order to calculate the degree of similarity (face similarity) between face images of people who are the targets of relationship determination, a feature amount is calculated from each person's face image. This is a process of calculating the face similarity from the feature amount similarity. For example, when the target image is expressed in RGB, the pixel frequency of each color bin of the color histogram in the RGB color space can be used as the feature amount of the face image used here. Any known technique other than those described above may be used as long as it can calculate the similarity between human face images.

ステップS550において算出された顔類似度が閾値Th5より小さい場合(ステップS555:YES)、間柄判定部280は、間柄判定の対象となる人同士は「親子」であると判定する(ステップS560)。ステップS550において算出された顔類似度が閾値Th5以上である場合(ステップS555:NO)、間柄判定部280は、間柄判定の対象となる人同士は「他人」であると判定する(ステップS565)。   When the face similarity calculated in step S550 is smaller than the threshold Th5 (step S555: YES), the interstitial determination unit 280 determines that the persons who are the targets of the interstitial determination are “parent and child” (step S560). When the face similarity calculated in step S550 is greater than or equal to the threshold Th5 (step S555: NO), the interstitial determination unit 280 determines that the persons who are the targets of the interstitial determination are “others” (step S565). .

続いて、間柄判定情報選択部281が、図17に内容が示された間柄判定情報を選択した場合について説明する。間柄判定部280は、親密度Diと閾値Th6とを比較し(ステップS600)、親密度Diが閾値Th6以下である場合(ステップS600:NO)、間柄判定の対象となる人同士は「他人」であると判定する(ステップS605)。   Next, a case where the interstitial determination information selection unit 281 selects the interstitial determination information whose contents are shown in FIG. 17 will be described. The relationship determination unit 280 compares the familiarity Di with the threshold Th6 (step S600). If the familiarity Di is equal to or less than the threshold Th6 (step S600: NO), the persons who are the targets of the relationship determination are “others”. (Step S605).

親密度Diが閾値Th6より大きい場合(ステップS600:YES)、間柄判定部280は、間柄判定の対象となる人同士の年齢差が閾値Th7より小さいか否かを判定する(ステップS615)。年齢差が閾値Th7以上である場合(ステップS615:NO)、間柄判定部280は、間柄判定の対象となる人同士は「上司と部下」であると判定する(ステップS617)。   When the familiarity Di is greater than the threshold Th6 (step S600: YES), the interstitial determination unit 280 determines whether or not the age difference between the persons who are subject to the interstitial determination is smaller than the threshold Th7 (step S615). When the age difference is equal to or greater than the threshold Th7 (step S615: NO), the interpersonal determination unit 280 determines that the persons who are the targets of the interpersonal determination are “boss and subordinate” (step S617).

年齢差が閾値Th7より小さい場合(ステップS615:YES)、間柄判定部280は、親密度Diが閾値Th8(>閾値Th6)より大きいか否かを判定する(ステップS620)。親密度Diが閾値Th8以下である場合(ステップS620:NO)、間柄判定部280は、間柄判定の対象となる人同士は「同僚」であると判定する(ステップS625)。親密度Diが閾値Th8より大きい場合(ステップS620:YES)、間柄判定部280は、間柄判定の対象となる人同士が同性か否かを判定する(ステップS635)。   When the age difference is smaller than the threshold Th7 (step S615: YES), the interstitial determination unit 280 determines whether or not the familiarity Di is larger than the threshold Th8 (> threshold Th6) (step S620). When the intimacy Di is equal to or less than the threshold Th8 (step S620: NO), the relationship determination unit 280 determines that the persons who are the targets of the relationship determination are “colleagues” (step S625). When the familiarity Di is greater than the threshold Th8 (step S620: YES), the interstitial determination unit 280 determines whether or not the persons who are the targets of the interstitial determination are the same (step S635).

間柄判定の対象となる人同士が同性である場合(ステップS635:YES)、間柄判定部280は、間柄判定の対象となる人同士は「友達」であると判定する(ステップS640)。間柄判定の対象となる人同士が異性である場合(ステップS635:NO)、間柄判定部280は、間柄判定の対象となる人同士は「恋人」であると判定する(ステップS645)。   When the persons who are the targets of the relationship determination are the same sex (step S635: YES), the relationship determination unit 280 determines that the persons who are the targets of the relationship determination are “friends” (step S640). When the persons who are the targets of the relationship determination are heterosexual (step S635: NO), the relationship determination unit 280 determines that the persons who are the targets of the relationship determination are “lovers” (step S645).

間柄判定部280は、判定した間柄に関する情報(以後、「間柄情報」とも呼ぶ)を人物情報データベースHCに設定する。図18は、人物情報データベースHCに間柄情報を設定した状態を説明するための説明図である。間柄判定部280は、人物情報データベースHCにおいて、判定の対象となった2人の人物画像PIの画像データと間柄情報とをそれぞれ対応付ける。具体的には、注目画像OIにおいて、頭領域TA1により表される人物と、頭領域TA2により表される人物との間柄が「恋人・夫婦」であった場合、図18に示すように、頭領域TA1と対応する人物画像PI1の画像データに、間柄を判定した相手の人物識別子「bb」と、間柄情報である「恋人・夫婦」とをそれぞれ対応付ける。また、頭領域TA2と対応する人物画像PI2の画像データに、間柄を判定した相手の人物識別子「aa」と、間柄情報である「恋人・夫婦」とをそれぞれ対応付ける。上記により間柄判定処理が終了する。また、間柄判定処理の終了により、人物情報設定処理が終了する。   The relationship determination unit 280 sets information related to the determined relationship (hereinafter also referred to as “relationship information”) in the person information database HC. FIG. 18 is an explanatory diagram for explaining a state in which relationship information is set in the person information database HC. The interstitial determination unit 280 associates the image data of the two person images PI to be determined with the interstitial information in the personal information database HC. Specifically, in the attention image OI, when the relationship between the person represented by the head area TA1 and the person represented by the head area TA2 is “lover / couple”, as shown in FIG. The image data of the person image PI1 corresponding to the area TA1 is associated with the person identifier “bb” of the partner who has determined the relationship and “lover / couple” which is the relationship information. In addition, the image data of the person image PI2 corresponding to the head area TA2 is associated with the person identifier “aa” of the partner who has determined the relationship and “lover / couple” which is the relationship information. The interstitial determination process ends as described above. In addition, the personal information setting process is terminated by the termination of the relationship determination process.

図2に戻って、画像処理部200は、内部メモリー120に格納された画像ファイルに対応する対象画像TIを順次、注目画像OIとして設定し、ステップS110からステップS130の処理を実行する。(ステップS135:NO)。このとき、ステップS120において検出された頭領域TAにより表される人物が既に人物情報データベースHCに設定されている場合には、画像処理部200は、その人物について、人物情報データベースHCに新たなレコードを設定しない。画像処理部200は、例えば、ステップS120において検出した頭領域TAに含まれる顔の画像と、人物情報データベースHCに表されている人物画像PIとの類似度をそれぞれ算出することにより、検出した頭領域TAにより表される人物が既に人物情報データベースHCに設定されているか否かを判定する。   Returning to FIG. 2, the image processing unit 200 sequentially sets the target image TI corresponding to the image file stored in the internal memory 120 as the attention image OI, and executes the processing from step S110 to step S130. (Step S135: NO). At this time, if the person represented by the head area TA detected in step S120 is already set in the person information database HC, the image processing unit 200 creates a new record in the person information database HC for the person. Is not set. For example, the image processing unit 200 calculates the similarity between the face image included in the head area TA detected in step S120 and the person image PI represented in the person information database HC, thereby detecting the detected head. It is determined whether or not the person represented by the area TA has already been set in the person information database HC.

画像処理部200は、すべての対象画像TIについて注目画像OIに設定し、ステップS110からステップS130の処理が完了すると(ステップS135:YES)、間柄関係図作成部290は、間柄関係図の作成をおこなう(ステップS150)。間柄関係図は、親密度Diを算出された人同士のそれぞれの間柄を図示することにより、親密度Diを算出された人全員の間柄を表した図である。間柄関係図作成部290は、間柄関係図を表す画像データを生成する。   The image processing unit 200 sets the target image TI for all target images TI, and when the processing from step S110 to step S130 is completed (step S135: YES), the interstitial relationship diagram creation unit 290 creates the interstitial relationship diagram. Perform (step S150). The relationship diagram is a diagram showing the relationship between all the persons whose intimacy Di is calculated by illustrating the relationships between the persons whose intimacy Di is calculated. The interstitial relationship diagram creating unit 290 generates image data representing the interstitial relationship diagram.

図19は、間柄関係図を例示した説明図である。間柄関係図RMには、人物画像PI(PI1〜PI6)と、人物画像PIの外周部に形成される人物画像フレームFiと、人物画像PIにより表されている人物の年齢情報agおよび性別情報Ssと、人物画像フレームFi同士をつなぐ関係線Rlと、が含まれている。   FIG. 19 is an explanatory diagram illustrating a relationship relationship diagram. The interpersonal relationship diagram RM includes a person image PI (PI1 to PI6), a person image frame Fi formed on the outer periphery of the person image PI, and the age information ag and gender information Ss of the person represented by the person image PI. And a relationship line Rl that connects the person image frames Fi to each other.

間柄関係図作成部290は、人物情報データベースHCに設定されている人物画像PIの画像データを用いて間柄関係図RMの人物画像PIを作成する。また、間柄関係図作成部290は、人物情報データベースHCに設定されている年齢および性別についての人物情報を用いて間柄関係図RMの年齢情報agおよび性別情報Ssを作成する。性別情報Ssは、図19に示すように人物画像フレームFiの一部に記号として表されている。間柄関係図作成部290は、人物情報データベースHCに設定されている親密度Diを用いて関係線Rlの長さLrを決定する。具体的には、間柄関係図作成部290は、親密度Diが大きいほど、その対象となる人同士の人物画像フレームFiをつなぐ関係線Rlの長さLrが短くなるように関係線Rlの長さLrを決定する。すなわち、間柄関係図RMにおいて、親密度Diが大きい人同士ほど、その人同士の人物画像フレームFiが近づくように設定される。これにより、ユーザーは視覚を通して容易に人同士の親密度の程度を把握することができる。   The interstitial relationship diagram creating unit 290 creates the person image PI of the interstitial relationship diagram RM using the image data of the person image PI set in the person information database HC. Further, the interstitial relationship diagram creating unit 290 creates age information ag and gender information Ss of the interstitial relationship diagram RM using the personal information about the age and sex set in the personal information database HC. The gender information Ss is represented as a symbol in a part of the person image frame Fi as shown in FIG. The interstitial relationship diagram creation unit 290 determines the length Lr of the relationship line Rl using the familiarity Di set in the person information database HC. Specifically, the interstitial relationship diagram creation unit 290 increases the length of the relationship line Rl such that the greater the familiarity Di, the shorter the length Lr of the relationship line Rl that connects the person image frames Fi of the persons concerned. The length Lr is determined. That is, in the interpersonal relationship diagram RM, the person image frames Fi are set closer to each other as the closeness Di is greater. Thereby, the user can grasp | ascertain the degree of closeness of persons easily through vision.

間柄関係図作成部290は、人物情報データベースHCに設定されている頻度nを用いて関係線の幅Wrを決定する。具体的には、間柄関係図作成部290は、頻度nが大きいほど、その対象となる人同士の人物画像フレームFiをつなぐ関係線Rlの幅Wrを広くする。これにより、間柄関係図RMにおいて、対象画像TIに現れる頻度が高い人同士ほど、その人同士の人物画像フレームFiをつなぐ関係線Rlが太くなるため、その関係線Rlの信用性が高いことがわかる。間柄関係図作成部290は、生成した間柄関係図を表す画像データを内部メモリー120に格納する。   The interstitial relationship diagram creation unit 290 determines the width Wr of the relationship line using the frequency n set in the person information database HC. Specifically, the interstitial relationship diagram creation unit 290 increases the width Wr of the relationship line Rl that connects the person image frames Fi of the persons who become the target as the frequency n increases. As a result, in the interpersonal relationship diagram RM, the relationship line Rl that connects the person image frames Fi of the persons increases with increasing frequency in the target image TI, and therefore the reliability of the relationship line Rl is high. Recognize. The interstitial relationship diagram creating unit 290 stores image data representing the generated interstitial relationship diagram in the internal memory 120.

表示制御部310は、間柄関係図RMを表示する(ステップS155)。図20は、間柄関係図を含むユーザインターフェースを例示した説明図である。表示制御部310は、ステップS150により生成された間柄関係図RMを表す画像データを用いて、表示部150に間柄関係図RMを含むユーザインターフェースを表示させる。図20に示すユーザインターフェースは、間柄関係図RMのほか、ユーザーに関係線Rlもしくは人物画像PIの選択を要求する旨の表示と、入力ボックスBoを備えている。本実施例に係るプリンター100は、ユーザーによる関係線Rlの選択、もしくは、入力ボックスBoへのキーワード等の入力により特定される人物を含む対象画像の検索をおこなう。   The display control unit 310 displays the interstitial relationship diagram RM (step S155). FIG. 20 is an explanatory diagram illustrating a user interface including a relationship relationship diagram. The display control unit 310 causes the display unit 150 to display a user interface including the interstitial relationship diagram RM using the image data representing the interstitial relationship diagram RM generated in step S150. The user interface shown in FIG. 20 includes a display indicating that the user is requested to select a relationship line Rl or a person image PI, and an input box Bo, in addition to the relationship relationship diagram RM. The printer 100 according to the present embodiment searches for a target image including a person specified by selecting a relation line Rl by the user or inputting a keyword or the like in the input box Bo.

特定情報取得部260は、特定情報を取得する(ステップS160)ここで、特定情報とは、検索対象となる人物を特定するための情報である。ここでは、ユーザーにより選択された関係線Rlが特定情報に該当する。なお、特定情報としては、他に、間柄関係図RMにおいて、ユーザーにより選択された人物画像PIや人物画像フレームであってもよいし、入力ボックスBoに入力された、人物を特定するための情報であってもよい。入力ボックスBoに入力される、人物を特定するための情報とは、例えば、性別や年齢などの入力情報のほか、人物情報データベースHCに人物情報と氏名情報とが関連づけられている場合には、氏名等の入力情報が特定情報に該当する。また、検索対象となる人物を表す画像ファイルのファイル名を入力ボックスBoに入力する場合、このファイル名が特定情報に該当する。すなわち、特定情報とは、ユーザーにより入力された入力情報であるともいえる。   The specific information acquisition unit 260 acquires specific information (step S160). Here, the specific information is information for specifying a person to be searched. Here, the relationship line Rl selected by the user corresponds to the specific information. In addition, the identification information may be a person image PI or a person image frame selected by the user in the interpersonal relationship diagram RM, or information for identifying a person input in the input box Bo. It may be. The information for identifying a person that is input to the input box Bo is, for example, input information such as gender and age, or when personal information and name information are associated with the personal information database HC. Input information such as name corresponds to the specific information. When the file name of an image file representing a person to be searched is input in the input box Bo, this file name corresponds to the specific information. That is, it can be said that the specific information is input information input by the user.

画像検索部270は、画像検索をおこなう(ステップS170)。画像検索部270はユーザーにより選択された関係線Rl(特定情報)から、この関係線Rlにより結ばれる2人の人物画像PIが含まれている対象画像TIの画像識別子を特定する。具体的には、図20の斜線で示すように、人物画像PI1で表される人物と人物画像PI2で表される人物との関係線Rlaがユーザーにより選択された場合、画像検索部270は、図18に示す人物情報データベースHCから、選択された関係線Rlaと対応する親密度Diを特定する。画像検索部270は、特定した親密度Diから、親密度Diの算出根拠となった被写体間距離Sbdを算定した対象画像TIの画像識別子IB〜IDを特定する。画像検索部270は、特定した画像識別子IB〜IDと対応する対象画像TI1〜TI4を内部メモリー120から選択する。このように、特定情報である関係線Rlによって、関係線で繋がれた2人の人物を特定することから、画像検索部270は、特定情報に基づいて、対象画像TIから検索対象となる人物の顔の画像が含まれている対象画像TIを検索しているといえる。   The image search unit 270 performs image search (step S170). The image retrieval unit 270 identifies the image identifier of the target image TI including the two person images PI connected by the relationship line Rl from the relationship line Rl (specific information) selected by the user. Specifically, as shown by the oblique lines in FIG. 20, when the relationship line Rla between the person represented by the person image PI1 and the person represented by the person image PI2 is selected by the user, the image search unit 270 The familiarity Di corresponding to the selected relationship line Rla is specified from the person information database HC shown in FIG. The image search unit 270 identifies the image identifiers IB to ID of the target image TI for which the inter-subject distance Sbd that is the basis for calculating the familiarity Di is calculated from the identified familiarity Di. The image search unit 270 selects the target images TI1 to TI4 corresponding to the identified image identifiers IB to ID from the internal memory 120. As described above, since the two persons connected by the relationship line are specified by the relationship line Rl that is the specific information, the image search unit 270 searches the target image TI based on the specific information. It can be said that the target image TI including the face image is searched.

表示制御部310は、印刷画像を表示する(ステップS180)。図21は、第1の印刷画面を例示した説明図である。表示制御部310は、ステップS170において検索された対象画像TI1〜TI4を表示部150に表示する。このとき、表示制御部310は、人物画像PI1で表される人物と人物画像PI2で表される人物との被写体間距離Sbdの小さい順に表示させる。具体的には、図18に示すように、対象画像TI1における被写体間距離Sbdは「50」であり、対象画像TI2における被写体間距離Sbdは「55」でり、また、対象画像TI3における被写体間距離Sbdは「60」であることから、表示制御部310は、対象画像TI1、対象画像TI2、対象画像TI3の順に(ここでは、先頭の画像が左側となるように)表示する。印刷画面には、印刷画像のほか、4つのボタンBN1〜BN3、5が表示されている。ユーザーにより、1つ(または複数)の対象画像TIが選択されると共に印刷ボタンBN3が選択されると、選択された画像を印刷する印刷処理を実行する。   The display control unit 310 displays a print image (step S180). FIG. 21 is an explanatory diagram illustrating the first print screen. The display control unit 310 displays the target images TI1 to TI4 searched in step S170 on the display unit 150. At this time, the display control unit 310 displays the objects in a descending order of the subject distance Sbd between the person represented by the person image PI1 and the person represented by the person image PI2. Specifically, as shown in FIG. 18, the inter-subject distance Sbd in the target image TI1 is “50”, the inter-subject distance Sbd in the target image TI2 is “55”, and the inter-subject distance in the target image TI3. Since the distance Sbd is “60”, the display control unit 310 displays the target image TI1, the target image TI2, and the target image TI3 in this order (here, the first image is on the left side). In addition to the print image, four buttons BN1 to BN3 and 5 are displayed on the print screen. When one (or a plurality of) target images TI are selected by the user and the print button BN3 is selected, a print process for printing the selected images is executed.

印刷制御部320は、印刷処理をおこなう(ステップS190)。印刷制御部320は、選択された対象画像TIについての印刷データを生成する。具体的には、印刷制御部320は、選択された対象画像TIについて、各画素の画素値をプリンター100が用いるインクに合わせるための色変換処理や、色変換処理後の画素の階調をドットの分布によって表すためのハーフトーン処理や、ハーフトーン処理された画像データのデータ並びをプリンター100に転送すべき順序に並び替えるためのラスタライズ処理等を実施して印刷データを生成する。印刷機構160は、印刷制御部320により生成された印刷データに基づいて、選択された対象画像TIの印刷をおこなう。上記により、画像検索・印刷処理は終了する。   The print controller 320 performs a printing process (step S190). The print control unit 320 generates print data for the selected target image TI. Specifically, for the selected target image TI, the print control unit 320 dot-converts the color conversion process for matching the pixel value of each pixel with the ink used by the printer 100 and the gradation of the pixel after the color conversion process. Print data is generated by performing halftone processing for representing the distribution of the image data, rasterizing processing for rearranging the data arrangement of the image data subjected to the halftone processing to the order to be transferred to the printer 100, and the like. The printing mechanism 160 prints the selected target image TI based on the print data generated by the print control unit 320. Thus, the image search / print process ends.

上記では、ステップS160において、ユーザーにより選択された関係線Rlを特定情報として処理をおこなっていたが、図20に示すユーザインターフェースにおいて、ユーザーにより人物画像PIが選択された場合について説明する。ここでは、人物画像PI1が選択された場合について説明する。   In the above description, in step S160, the relationship line R1 selected by the user is used as the specific information. However, a case where the person image PI is selected by the user in the user interface shown in FIG. 20 will be described. Here, a case where the person image PI1 is selected will be described.

画像検索部270は、画像検索をおこなう(ステップS170)。画像検索部270は、人物情報データベースHCを用いて、ユーザーにより選択された人物画像PI1(特定情報)と対応する人物の人物識別子aaを特定する。画像検索部270は、図7に示すように、内部メモリー120に記憶されている対象画像TIから、特定した人物識別子aaと関連づけられている対象画像TIを選択する。このとき選択された対象画像TIは、後述する対象画像リストRst1に含まれる。   The image search unit 270 performs image search (step S170). The image search unit 270 uses the person information database HC to specify the person identifier aa of the person corresponding to the person image PI1 (specific information) selected by the user. As illustrated in FIG. 7, the image search unit 270 selects a target image TI associated with the identified person identifier aa from the target images TI stored in the internal memory 120. The target image TI selected at this time is included in a target image list Rst1 described later.

画像検索部270は、人物情報データベースHCを用いて、人物画像PI1と対応する人物と最も親密度Diが高い人物の人物識別子bbを特定する。画像検索部270は、内部メモリー120に記憶されている対象画像TIから、特定した人物識別子bbと関連づけられている対象画像TIを選択する。このとき選択された対象画像TIは、後述する対象画像リストRst2に含まれる。このとき、対象画像リストRst1に含まれた対象画像TIが重複して対象画像リストRst2含まれることがある。   The image search unit 270 uses the person information database HC to identify the person identifier bb of the person corresponding to the person image PI1 and the person with the highest familiarity Di. The image search unit 270 selects a target image TI associated with the identified person identifier bb from the target images TI stored in the internal memory 120. The target image TI selected at this time is included in a target image list Rst2 described later. At this time, the target image TI included in the target image list Rst1 may overlap and be included in the target image list Rst2.

画像検索部270は、人物画像PI1と対応する人物との親密度Diが高い人物から順に人物識別子を特定し、特定したそれぞれの人物識別子と関連づけられている対象画像TIを順に内部メモリー120に記憶されている対象画像TIから選択する。人物識別子ごとに選択された対象画像TIは、それぞれ別の対象画像リストRstに含まれる。このとき、異なる対象画像リストRstに同じ対象画像TIが重複して含まれることがある。以後、各対象画像リストRstにおいて、検索に用いられた人物識別子により表される人物を「基準人物」と呼ぶ。ここでは、対象画像リストRst1の基準人物は、人物画像PI1と対応する人物であり、対象画像リストRst2の基準人物は、人物画像PI2と対応する人物である。   The image search unit 270 specifies person identifiers in descending order of the closeness Di between the person image PI1 and the corresponding person, and sequentially stores the target images TI associated with the specified person identifiers in the internal memory 120. The selected target image TI is selected. The target images TI selected for each person identifier are included in different target image lists Rst. At this time, the same target image TI may be included in different target image lists Rst. Hereinafter, in each target image list Rst, the person represented by the person identifier used for the search is referred to as “reference person”. Here, the reference person in the target image list Rst1 is a person corresponding to the person image PI1, and the reference person in the target image list Rst2 is a person corresponding to the person image PI2.

上記のとおり、画像検索部270は、複数の対象画像TIから、特定情報により特定された検索対象となる人物(ここでは、人物画像PI1と対応する人物)の顔の画像が含まれている対象画像TIを検索するのみではなく、検索対象となる人物と所定の親密度Diを有する人物の顔の画像が含まれている対象画像TIの検索もおこなう。ここで、所定の親密度Diを有する人物とは、例えば、検索対象となる人物と最も高い親密度Diを有している人物や、検索対象となる人物との親密度Diが設定値以上の人物などをいう。   As described above, the image search unit 270 includes a target image including a face image of a person (here, the person corresponding to the person image PI1) specified by the specific information from the plurality of target images TI. In addition to searching for an image TI, a search is also made for a target image TI that includes an image of the face of a person to be searched and a person having a predetermined familiarity Di. Here, the person having the predetermined familiarity Di is, for example, that the familiarity Di between the person to be searched and the person having the highest familiarity Di or the person to be searched is a set value or more. A person.

画像検索部270は、人物情報データベースHCに含まれているすべての人物の人物識別子を用いて、各人物識別子と関連づけられている対象画像TIをそれぞれ内部メモリー120に記憶されている対象画像TIから選択してもよいし、予め設定された人数分の人物識別子のみを用いて、人物識別子と関連づけられている対象画像TIを内部メモリー120に記憶されている対象画像TIから選択してもよい。また、検索対象となる人との親密度Diが予め設定された値以上となる人物の人物識別子のみを用いて、人物識別子と関連づけられている対象画像TIを内部メモリー120に記憶されている対象画像TIから選択してもよい。   The image search unit 270 uses the object identifiers of all persons included in the person information database HC, and uses the object images TI associated with each person identifier from the object images TI stored in the internal memory 120, respectively. Alternatively, the target image TI associated with the person identifier may be selected from the target images TI stored in the internal memory 120 using only the human identifiers for a preset number of people. In addition, the target image TI associated with the person identifier is stored in the internal memory 120 using only the person identifier of the person whose closeness Di with the person to be searched is a predetermined value or more. You may select from image TI.

表示制御部310は、印刷画像を表示する(ステップS180)。図22は、第2の印刷画面を例示した説明図である。表示制御部310は、ステップS170において検索された対象画像TIを表示部150に表示させる。このとき、表示制御部310は、図22に示すように、対象画像リストRstごとに対象画像TIを表示する。表示制御部310は、各対象画像リストRstに含まれる対象画像TIをそれぞれ積層して表示し、積層した対象画像TIの一番上に基準人物の人物画像PIを表示している。表示制御部310は、ユーザーにより、積層されている対象画像TIのうちの少なくとも一部が選択されると、選択された対象画像TIの全体を表示する。   The display control unit 310 displays a print image (step S180). FIG. 22 is an explanatory diagram illustrating the second print screen. The display control unit 310 causes the display unit 150 to display the target image TI searched in step S170. At this time, the display control unit 310 displays the target image TI for each target image list Rst, as shown in FIG. The display control unit 310 displays the target images TI included in each target image list Rst in a stacked manner, and displays the person image PI of the reference person on the top of the stacked target images TI. When at least a part of the stacked target images TI is selected by the user, the display control unit 310 displays the entire selected target image TI.

表示制御部310は、検索対象となる人(人物画像PI1により表される人物)の対象画像リストRst1を先頭(ここでは、最も左側)にして、検索対象となる人との親密度Diがより高い人物を基準人物とした対象画像リストRstから順に(右側に)並べて表示する。具体的には、図22に示すように、人物画像PI1により表される人物と最も親密度Diの高い人物(人物画像PI2により表される人物)の対象画像リストRst2、人物画像PI1により表される人物と2番目に親密度Diの高い人物(人物画像PI5により表される人物)の対象画像リストRst3、人物画像PI1により表される人物と3番目に親密度Diの高い人物(人物画像PI4により表される人物)の対象画像リストRst4の順に(ここでは、左側から順となるように)並べて表示する。   The display control unit 310 sets the target image list Rst1 of the person to be searched (the person represented by the person image PI1) at the top (here, the leftmost side), and has a greater closeness Di with the person to be searched. The target image list Rst with a high person as a reference person is displayed in order (on the right side). Specifically, as shown in FIG. 22, the target image list Rst2 of the person represented by the person image PI1 and the person with the highest familiarity Di (person represented by the person image PI2) is represented by the person image PI1. The target image list Rst3 of the person who has the second highest intimacy Di (the person represented by the person image PI5) and the person represented by the person image PI1 and the third highest intimacy Di (the person image PI4) Are displayed in the order of the target image list Rst4 (in this case, in order from the left side).

図23は、対象画像リストに含まれる対象画像の並び順を説明するための説明図である。表示制御部310は、各対象画像リストRstにおいて、基準人物との親密度Diがより高い人の顔の画像が含まれている対象画像TIのグループから順に並べて表示する。具体的には、図23に示す対象画像リストRst1のように、表示制御部310は、人物画像PI1により表される人物と最も親密度Diの高い人物の人物画像PI2が含まれている対象画像TIa、TIb、TIcを含む対象画像グループGrp1、人物画像PI1により表される人物と2番目に親密度Diの高い人物の人物画像PI5が含まれている対象画像TId、TIe、TIfを含む対象画像グループGrp2、人物画像PI1により表される人物と3番目に親密度Diの高い人物の人物画像PI4が含まれている対象画像TIg、TIhを含む対象画像グループGrp3の順に(ここでは、左側から順となるように)並べて対象画像TIを表示する。   FIG. 23 is an explanatory diagram for explaining the arrangement order of the target images included in the target image list. In each target image list Rst, the display control unit 310 displays the target images TI in order from the group of target images TI including images of faces of people with a higher familiarity Di with the reference person. Specifically, as in the target image list Rst1 illustrated in FIG. 23, the display control unit 310 includes a target image including the person image PI2 of the person represented by the person image PI1 and the person having the highest familiarity Di. Target image group including target images TId, TIE, and TIf including target image group Grp1 including TIa, TIb, and TIc, and a person image PI5 of a person represented by person image PI1 and a person having the second highest intimacy Di The group Grp2, the target image group Grp3 including the target image TIg and the target image group Grp3 including the person image PI4 of the person having the third highest familiarity Di and the person represented by the person image PI1 (in this case, from the left side) The target image TI is displayed side by side.

表示制御部310は、対象画像リストRstの各対象画像グループGrpにおいて、グループの対象画像に共通して含まれる人物と、基準人物との被写体間距離Sbdが小さい対象画像TIから順に並べて表示する。具体的には、図23に示すように、対象画像リストRst1の対象画像グループGrp1において、表示制御部310は、グループの対象画像に共通して含まれる人物(人物画像PI2により表される人物)と、基準人物(人物画像PI1により表される人物)との被写体間距離Sbdが小さい対象画像TIから順に並べて表示する。すなわち、表示制御部310は、3つの対象画像TIa、TIb、TIcのうち、最も被写体間距離Sbdが小さい対象画像TIa、2番目に被写体間距離Sbdが小さい対象画像TIb、3番目に被写体間距離Sbdが小さい対象画像TIcの順に(ここでは、左側から順となるように)並べて表示する。対象画像グループGrp2、Grp3についても同様に、表示制御部310は、それぞれ、各グループの対象画像に共通して含まれる人物(人物画像PI5により表される人物、もしくは、人物画像PI4により表される人物)と、基準人物との被写体間距離Sbdが小さい対象画像TIから順に並べて表示する。   In each target image group Grp in the target image list Rst, the display control unit 310 displays the target images TI in order starting from the target image TI having the smallest subject distance Sbd between the person included in the target images of the group and the reference person. Specifically, as illustrated in FIG. 23, in the target image group Grp1 of the target image list Rst1, the display control unit 310 includes a person (a person represented by the person image PI2) that is commonly included in the target images of the group. And the target image TI having the smallest inter-subject distance Sbd with the reference person (the person represented by the person image PI1) are displayed in order. That is, among the three target images TIa, TIb, and TIc, the display control unit 310 has a target image TIa having the smallest subject distance Sbd, a second target image TIb having a smallest subject distance Sbd, and a third subject distance. The target images TIc with small Sbd are displayed in order (in this case, in order from the left side). Similarly, for the target image groups Grp2 and Grp3, the display control unit 310 also includes a person (a person represented by the person image PI5 or a person image PI4) that is commonly included in the target images of each group. The subject images TI and the reference person are displayed side by side in order from the target image TI having the smallest subject distance Sbd.

第2の印刷画面では、各対象画像リストRstが左右方向(水平方向)に一列に並べられ、また、各対象画像リストRstに含まれている対象画像TIは、各対象画像リストRstが並べられている方向と直交する奥行き方向に並べて(積層されて)表示されている。第2の印刷画面には、印刷画像のほか、5つのボタンBN1〜BN3、5、7が表示されている。ユーザーにより、1つ(または複数)の対象画像TIが選択されると共に印刷ボタンBN3が選択されると、選択された画像を印刷する印刷処理を実行する。   In the second print screen, each target image list Rst is arranged in a line in the left-right direction (horizontal direction), and each target image list Rst is arranged in the target image TI included in each target image list Rst. They are displayed side by side (stacked) in the depth direction perpendicular to the direction in which they are positioned. In addition to the print image, five buttons BN1 to BN3, 5, and 7 are displayed on the second print screen. When one (or a plurality of) target images TI are selected by the user and the print button BN3 is selected, a print process for printing the selected images is executed.

図24は、第3の印刷画面を例示した説明図である。表示制御部310は、第2の印刷画面においてユーザーにより表示変更ボタンBN7が選択されると、図24に示す第3の印刷画面を表示部150に表示させる。具体的には、表示制御部310は、第2の印刷画面と同様に、検索対象となる人(人物画像PI1により表される人物)の対象画像リストRst1を先頭(ここでは、最も左側)にして、検索対象となる人との親密度Diが高い人物を基準人物とした対象画像リストRstから順に(右側に)並べて表示する。また、表示制御部310は、各対象画像リストRstにおいて、基準人物との親密度Diが高い人の顔の画像が含まれている対象画像TIのグループから順に並べて表示する。また、表示制御部310は、対象画像リストRstの各対象画像グループGrpにおいて、基準人物との被写体間距離Sbdが小さい対象画像TIから順に並べて表示する。   FIG. 24 is an explanatory diagram illustrating a third print screen. When the display change button BN7 is selected by the user on the second print screen, the display control unit 310 causes the display unit 150 to display the third print screen illustrated in FIG. Specifically, as in the second print screen, the display control unit 310 sets the target image list Rst1 of the person to be searched (the person represented by the person image PI1) to the top (here, the leftmost). The target image list Rst with a person having a high degree of closeness Di with the person to be searched as a reference person is displayed in order (on the right side). In addition, the display control unit 310 displays the target image lists Rst in order from the group of target images TI that include images of faces of people with a high familiarity Di with the reference person. In addition, the display control unit 310 displays the target image groups Grp in the target image list Rst side by side in order from the target image TI having the smallest subject distance Sbd to the reference person.

第3の印刷画面では、各対象画像リストRstが左右方向(水平方向)に一列に並べられ、また、各対象画像リストRstに含まれている対象画像TIは、各対象画像リストRstが並べられている方向と直交する方向である上下方向(垂直方向)に並べて表示されている。第3の印刷画面には、印刷画像のほか、5つのボタンBN1〜BN3、5、8が表示されている。ユーザーにより、1つ(または複数)の対象画像TIが選択されると共に印刷ボタンBN3が選択されると、選択された画像を印刷する印刷処理を実行する。表示制御部310は、ユーザーにより表示変更ボタンBN8が選択されると、図22に示す第2の印刷画面を表示部150に表示させる。   In the third print screen, the target image lists Rst are arranged in a line in the left-right direction (horizontal direction), and the target images TI included in the target image lists Rst are arranged in the respective target image lists Rst. Are displayed side by side in the up-down direction (vertical direction) which is a direction orthogonal to the current direction. In addition to the print image, five buttons BN1 to BN3, 5, and 8 are displayed on the third print screen. When one (or a plurality of) target images TI are selected by the user and the print button BN3 is selected, a print process for printing the selected images is executed. When the display change button BN8 is selected by the user, the display control unit 310 causes the display unit 150 to display the second print screen illustrated in FIG.

本実施例において、人物情報は、特許請求の範囲における「人の特徴」に該当する。本実施例において、親密度Diは、特許請求の範囲における「親密度」に該当する。本実施例において、複数の間柄判定情報が記憶されている内部メモリー120は、特許請求の範囲における「記憶部」に該当する。   In this embodiment, the person information corresponds to “personal characteristics” in the claims. In the present embodiment, the closeness Di corresponds to “closeness” in the claims. In the present embodiment, the internal memory 120 in which a plurality of interstitial determination information is stored corresponds to a “storage unit” in the claims.

以上説明した第1の実施例に係るプリンター100によれば、連続する所定数(閾値Th2)の対象画像TIにおいてそれぞれ推定された被写体間距離Sbdがすべて所定値(閾値Th1)以下となる人同士について親密度Diを算出するため、対象画像TIから人同士の関係性を特定する処理の効率性を向上させることができる。具体的には、被写体間距離Sbdが所定値より大きい人同士について親密度を算出しないことにより親密度を算出する処理負担を抑制できるだけでなく、所定数に満たない対象画像TIにおいて被写体間距離Sbdが所定値以下となる人同士についても親密度を算出しないため親密度を算出する処理負担を抑制でき、親密度を算出する処理の効率性を向上させることができる。   According to the printer 100 according to the first embodiment described above, the persons whose subject distances Sbd respectively estimated in the consecutive predetermined number (threshold Th2) of the target images TI are all equal to or smaller than the predetermined value (threshold Th1). Since the intimacy Di is calculated for, the efficiency of the process of specifying the relationship between people from the target image TI can be improved. Specifically, not only can the processing load for calculating the intimacy be avoided by not calculating the intimacy between persons whose inter-subject distance Sbd is greater than a predetermined value, but also the inter-subject distance Sbd in the target image TI that is less than the predetermined number. Since the intimacy is not calculated even for persons having a value equal to or less than a predetermined value, the processing load for calculating the intimacy can be suppressed, and the efficiency of the processing for calculating the intimacy can be improved.

親密度を算出する技術については従来から知られていた。しかし、例えば、動画像などから親密度を算出しようとする場合、対象画像TIとなる画像の数が膨大となるため、親密度を算出する処理負担の増加が課題となっていた。しかし、本発明によれば対象画像に表されているすべての人物のうち、所定の条件を満足する人物同士についてのみ親密度を算出するため処理の効率化を図ることができる。   Techniques for calculating intimacy have been known for some time. However, for example, when the intimacy is to be calculated from a moving image or the like, the number of images serving as the target image TI is enormous, and thus an increase in the processing load for calculating the intimacy has been a problem. However, according to the present invention, since the closeness is calculated only for persons who satisfy a predetermined condition among all persons represented in the target image, it is possible to improve processing efficiency.

すなわち、プリンター100は、時系列に並んだ複数の対象画像の少なくとも一部に表され、被写体間距離がすべて所定値以下となる人同士について、対象画像に表れる頻度が所定数以上の人同士については親密度を算出し、対象画像に表れる頻度が所定数より少ない人同士については親密度を算出しないことができる。これは、従来の技術においては、被写体間距離がすべて所定値以下となる人同士について親密度を算出すると考えられるため、本発明により親密度を算出する処理の効率性の向上が図られていることがわかる。   In other words, the printer 100 is represented in at least a part of a plurality of target images arranged in time series, and the distance between subjects is less than or equal to a predetermined value. Can calculate intimacy, and can not calculate intimacy between people who appear less than a predetermined number in the target image. This is because, in the prior art, it is considered that intimacy is calculated for people whose subject distances are all equal to or smaller than a predetermined value. Therefore, the efficiency of processing for calculating intimacy is improved by the present invention. I understand that.

第1の実施例に係るプリンター100によれば、対象画像TIの顔領域FAに表されている顔同士の実際の距離である被写体間距離Sbdを用いて人同士の互いの親密さの程度を表す親密度Diを算出するため、対象画像TIから人同士の関係性を特定する精度の向上を図ることができる。具体的には、写真撮影時の人同士の実際の距離を算出することで、写真撮影時において、お互いに親密である人同士ほどお互いの距離が近い状態となり、また、親密でない人同士の場合には、お互いに近接した状態となることが少ないという撮影時の特性を利用して親密度Diを算出することができるため、親密度Diの精度を高めることができる。   According to the printer 100 according to the first embodiment, the degree of intimacy between people is determined using the inter-subject distance Sbd that is the actual distance between the faces represented in the face area FA of the target image TI. Since the closeness Di to be expressed is calculated, it is possible to improve the accuracy of specifying the relationship between people from the target image TI. Specifically, by calculating the actual distance between people at the time of taking a photo, the closer to each other, the closer to each other at the time of taking a photo, and the case of people who are not intimate Since the closeness Di can be calculated using the characteristics at the time of shooting that the state of being close to each other is small, the accuracy of the closeness Di can be increased.

対象画像TIに表されている顔の画像同士の距離から親密度を算出する技術については従来から知られていた。しかし、対象画像TIに表された顔の画像同士の距離を用いて親密度を算出する場合、対象画像TIの奥行き方向における人同士の距離が親密度に反映されないため、実際には、奥行き方向で人同士の距離が離れていても、対象画像TIに表された顔の画像同士の距離が近い場合、親密度が高く算出されることがあった。しかし、本発明によれば、対象画像TIの奥行き方法の距離を親密度Diに反映することができるため、人同士の親密さの程度を精度良く親密度Diに反映させることができる。   A technique for calculating intimacy from the distance between facial images represented in the target image TI has been known. However, when the intimacy is calculated using the distance between the face images represented in the target image TI, the distance between people in the depth direction of the target image TI is not reflected in the intimacy. However, even if the distance between the persons is long, if the distance between the face images represented in the target image TI is short, the closeness may be calculated to be high. However, according to the present invention, since the distance of the depth method of the target image TI can be reflected in the closeness Di, the degree of intimacy between people can be accurately reflected in the closeness Di.

すなわち、第1の対象画像に含まれている顔の画像同士の距離が、第2の対象画像に含まれている顔の画像同士の距離より小さく、第1の対象画像に表されている顔同士の実際の距離が、第2の対象画像に表されている顔同士の実際の距離より大きい場合、プリンター100は、第1の対象画像に表されている人同士より第2の対象画像に表されている人同士の方がより親密度が高くなるようにそれぞれの親密度を算出することができる。これは、対象画像TIに表されている顔の画像同士の距離から親密度を算出する従来技術においては、第1の対象画像に表されている人同士より第2の対象画像に表されている人同士の方がより親密度が小さくなるようにそれぞれの親密度を算出すると考えられるため、本発明により親密度を算出する精度の向上が図られていることがわかる。   That is, the distance between the face images included in the first target image is smaller than the distance between the face images included in the second target image, and the face represented in the first target image. When the actual distance between the faces is larger than the actual distance between the faces represented in the second target image, the printer 100 determines that the second target image is more than the people represented in the first target image. The intimacy of each person can be calculated so that the intimacy between the people represented is higher. This is represented in the second target image by the people represented in the first target image in the conventional technique for calculating the intimacy from the distance between the facial images represented in the target image TI. Since it is considered that the intimacy of each person is calculated so that the intimacy becomes smaller, it is understood that the present invention improves the accuracy of calculating the intimacy.

第1の実施例に係るプリンター100によれば、被写体距離推定部は、対象画像の大きさに対する顔領域の大きさに基づいて被写体距離を推定しているため、顔領域に表されている顔から撮影装置までの距離である被写体距離を容易に推定することができる。具体的には、式(3)に示すように、被写体距離推定部は、注目画像OIにおける画像全体の幅Wwiと顔領域FAの幅Wfiを用いることで被写体距離を容易に推定することができる。   According to the printer 100 according to the first embodiment, the subject distance estimation unit estimates the subject distance based on the size of the face area with respect to the size of the target image, and thus the face represented in the face area. The subject distance, which is the distance from the camera to the photographing apparatus, can be easily estimated. Specifically, as shown in Expression (3), the subject distance estimation unit can easily estimate the subject distance by using the entire image width Wwi and the width Wfi of the face area FA in the target image OI. .

第1の実施例に係るプリンター100によれば、親密度Diと、人の特徴とを用いて、対象画像に表されている人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。具体的には、人同士の関係性を表す間柄を特定するために、対象画像TIの顔領域FAに表されている顔同士の実際の距離である被写体間距離Sbdを用いて算出された親密度Diのほか、対象画像TIから判定された人の特徴を用いるため、親密度が同じであっても異なる間柄を判別することができる。   According to the printer 100 according to the first embodiment, since the relationship between the persons represented in the target image is determined using the closeness Di and the characteristics of the person, the relationship between the persons from the target image is determined. The accuracy of specifying can be improved. Specifically, in order to specify the relationship representing the relationship between people, the parent calculated using the inter-subject distance Sbd, which is the actual distance between the faces represented in the face area FA of the target image TI. Since the human characteristic determined from the target image TI is used in addition to the density Di, different patterns can be determined even if the familiarity is the same.

第1の実施例に係るプリンター100によれば、親密度と、人の年齢とを用いて、対象画像に表されている人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。具体的には、人同士の関係性を表す間柄を特定するために、親密度Diのほか、対象画像TIから判定された人の年齢を用いるため、親密度が同じであっても親子か友達かなどの具体的な間柄の違いを判別することができる。また、親密度と、人の性別とを用いて、対象画像に表されている人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。具体的には、人同士の関係性を表す間柄を特定するために、親密度Diのほか、対象画像TIから判定された人の性別を用いるため、親密度が同じであっても恋人・夫婦か友達かなどの具体的な間柄の違いを判別することができる。   According to the printer 100 according to the first embodiment, since the relationship between persons represented in the target image is determined using the closeness and the age of the person, the relationship between the persons is determined from the target image. The accuracy of identification can be improved. Specifically, in order to specify the relationship representing the relationship between people, in addition to the familiarity Di, the age of the person determined from the target image TI is used, so even if the familiarity is the same, the parent or child or friend It is possible to discriminate specific differences such as. Further, since the relationship between the people represented in the target image is determined using the closeness and the sex of the person, it is possible to improve the accuracy of specifying the relationship between the people from the target image. Specifically, in order to specify the relationship representing the relationship between people, in addition to the familiarity Di, the sex of the person determined from the target image TI is used. It is possible to discriminate specific differences such as whether or not a friend.

第1の実施例に係るプリンター100によれば、間柄判定情報選択部により選択された間柄判定情報を用いて、対象画像に表されている人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。具体的には、人同士の位置関係や、性別、年齢などの特徴が同様であっても、撮影された場所により人同士の間柄が異なる可能性がある。しかし、本実施例によれば、撮影された場所に対応する間柄判定情報を用いて人同士の間柄を判定するため、対象画像TIから人同士の間柄を特定する精度の向上を図ることができる。   According to the printer 100 according to the first embodiment, since the relationship determination information selected by the relationship determination information selection unit is used to determine the relationship between the people represented in the target image, The accuracy of specifying the relationship can be improved. Specifically, even if the positional relationship, gender, age, and other characteristics of people are the same, there is a possibility that the personality of people differs depending on the location where the image was taken. However, according to the present embodiment, since the relationship between people is determined using the relationship determination information corresponding to the place where the image was taken, it is possible to improve the accuracy of specifying the relationship between people from the target image TI. .

第1の実施例に係るプリンター100によれば、親密度を算出された人全員の間柄関係を表す間柄関係図を作成するため、ユーザーは対象画像に表されている人同士の間柄を容易に把握することができる。また、ユーザーは、間柄関係図に表されている間柄や、人物画像を任意に選択することにより、複数の対象画像の中から、所望の対象画像を識別することができる。   According to the printer 100 according to the first embodiment, since the interstitial relationship diagram representing the interstitial relationship of all the persons whose intimacy has been calculated is created, the user can easily display the interpersonal relationships represented in the target image. I can grasp it. In addition, the user can identify a desired target image from among a plurality of target images by arbitrarily selecting a relationship or a person image shown in the relationship relationship diagram.

また、間柄関係図は、対象画像に現れる人の顔の画像と、人の画像同士をつなぐ関係線とが表され、親密度が高い人同士ほど顔の画像同士の距離が小さく、対象画像に現れる頻度が高い人同士ほど関係線の幅が大きく表されているため、親密度を算出された人全員の関係性を容易に表示することができる。具体的には、間柄関係図RMにおいて、親密度Diが大きい人同士ほど、その人同士の人物画像フレームFiが近づくように設定される。これにより、ユーザーは視覚を通して容易に人同士の親密度の程度を把握することができる。また、対象画像TIに現れる頻度が高い人同士ほど、その人同士の人物画像フレームFiをつなぐ関係線Rlが太くなるため、ユーザーは、その関係線Rlの信用性を容易に把握することができる。すなわち、対象画像に現れる頻度が低い人同士であれば、親密ではない人同士であるにもかかわらず、偶然にお互いの距離が近い対象画像が存在した場合、その対象画像が親密度に与える影響が大きくなる。一方、対象画像に現れる頻度が高い人同士であれば、親密ではない人同士であるにもかかわらず、一部にお互いの距離が近い対象画像が存在しても、他に多数のお互いの距離が遠い対象画像が存在するため、お互いの距離が近い対象画像が親密度に与える影響を抑制することができる。よって、関係線Rlが太いほど、その関係線Rlの信用性が高いといえる。   In addition, the interstitial relationship diagram shows a human face image appearing in the target image and a relationship line connecting the human images, and the higher the intimacy between people, the smaller the distance between the face images. Since the frequency of the relationship line increases as people appear more frequently, the relationship of all the people whose intimacy is calculated can be easily displayed. Specifically, in the interpersonal relationship diagram RM, the person image frames Fi of the persons are set closer to each other as the closeness Di is greater. Thereby, the user can grasp | ascertain the degree of closeness of persons easily through vision. Moreover, since the relationship line Rl which connects the person image frames Fi of the persons becomes thicker as the frequency of appearing in the target image TI increases, the user can easily grasp the reliability of the relationship line Rl. . In other words, if the frequency of appearance in the target image is low, if there are target images that are close to each other by chance even though they are non-intimate people, the effect that the target image has on the intimacy Becomes larger. On the other hand, if people who appear frequently in the target image are people who are not intimate, even if some of the target images are close to each other, many other mutual distances Since there are target images that are far from each other, the influence of the target images that are close to each other on the closeness can be suppressed. Therefore, it can be said that the thicker the relationship line Rl, the higher the reliability of the relationship line Rl.

第1の実施例に係るプリンター100によれば、第1の対象画像に含まれている顔の画像同士の距離が、第2の対象画像に含まれている顔の画像同士の距離より小さく、第1の対象画像に表されている顔同士の実際の距離が、第2の対象画像に表されている顔同士の実際の距離より大きい場合、間柄関係図において、第1の対象画像に現れる人の顔の画像同士の距離より第2の対象画像に現れる人の顔の画像同士の距離の方が小さくなるように間柄関係図を作成することができる。これは、対象画像TIに表されている顔の画像同士の距離から親密度を算出する従来技術を利用して間柄関係図を作成した場合においては、第1の対象画像に現れる人の顔の画像同士の距離より第2の対象画像に現れる人の顔の画像同士の距離の方が大きくなるように間柄関係図を作成すると考えられるため、本発明により間柄関係図の精度の向上が図られていることがわかる。   According to the printer 100 according to the first embodiment, the distance between the face images included in the first target image is smaller than the distance between the face images included in the second target image, When the actual distance between the faces represented in the first target image is larger than the actual distance between the faces represented in the second target image, it appears in the first target image in the relationship diagram. The interstitial relationship diagram can be created so that the distance between the human face images appearing in the second target image is smaller than the distance between the human face images. This is because, when a related relationship diagram is created using a conventional technique for calculating intimacy from the distance between face images represented in the target image TI, the face of a person appearing in the first target image is displayed. Since it is considered that the interstitial relationship diagram is created so that the distance between the human face images appearing in the second target image is larger than the distance between the images, the present invention improves the accuracy of the interstitial relationship diagram. You can see that

第1の実施例に係るプリンター100によれば、検索された対象画像を、検索対象となる人物との親密度がより高い人物の顔の画像を含む対象画像グループから順に対象画像を並べて表示するため、ユーザーによる画像検索を容易にすることができる。具体的には、図23に示すように、プリンター100は、対象画像リストRstにおいて、検索対象となる人物との親密度Diがより高い人の顔の画像が含まれている対象画像TIの対象画像グループGrpから順に並べて表示する。より具体的には、プリンター100は、検索対象となる人物と最も親密度Diの高い人物の人物画像PIが含まれている対象画像TIを含む対象画像グループGrp1、検索対象となる人物と2番目に親密度Diの高い人物の人物画像PIが含まれている対象画像TIを含む対象画像グループGrp2、検索対象となる人物と3番目に親密度Diの高い人物の人物画像PIが含まれている対象画像TIを含む対象画像グループGrp3の順に並べて対象画像TIを表示する。これにより、ユーザーは、検索対象となる人物との親密度Diの高い人物の人物画像PIが含まれている対象画像TIから順に対象画像TIを確認することができるため、画像検索を容易にすることができる。   According to the printer 100 according to the first embodiment, the searched target images are displayed side by side in order from the target image group including the face image of the person having a higher familiarity with the person to be searched. Therefore, the image search by the user can be facilitated. Specifically, as illustrated in FIG. 23, the printer 100 includes a target image TI that includes an image of a person's face having a higher closeness Di with the person to be searched in the target image list Rst. The image groups are displayed in order from the image group Grp. More specifically, the printer 100 includes the target image group Grp1 including the target image TI including the person image PI of the person to be searched and the person having the highest familiarity Di, the person to be searched and the second person. Includes a target image group Grp2 including a target image TI including a person image PI of a person having a high degree of closeness Di, and a person image PI of a person to be searched and a person having the third closest degree of closeness Di. The target image TI is displayed in the order of the target image group Grp3 including the target image TI. Accordingly, the user can check the target image TI in order from the target image TI including the person image PI of the person having a high familiarity Di with the person to be searched, thereby facilitating the image search. be able to.

第1の実施例に係るプリンター100によれば、対象画像リストを構成する各対象画像グループにおいて、対象画像グループごとの対象画像に共通して含まれる人物と検索対象となる人物との被写体間距離Sbdが小さい順に対象画像を並べて表示するため、ユーザーによる画像検索を容易にすることができる。具体的には、図23に示すように、プリンター100は、対象画像リストRstの各対象画像グループGrpにおいて、グループの対象画像に共通して含まれる人物と、検索対象となる人物(基準人物)との被写体間距離Sbdが小さい対象画像TIから順に並べて表示する。より具体的には、プリンター100は、対象画像リストRst1の対象画像グループGrp1において、グループの対象画像に共通して含まれる人物(人物画像PI2により表される人物)と、基準人物(人物画像PI1により表される人物)との被写体間距離Sbdが小さい対象画像TIから順に並べて表示する。すなわち、プリンター100は、3つの対象画像TIa、TIb、TIcのうち、最も被写体間距離Sbdが小さい対象画像TIa、2番目に被写体間距離Sbdが小さい対象画像TIb、3番目に被写体間距離Sbdが小さい対象画像TIcの順に(ここでは、左側から順となるように)並べて表示する。これにより、ユーザーは、同一の人物が含まれている対象画像TIについて、被写体間距離Sbdが小さい対象画像TIから順に確認することができるため、画像検索を容易にすることができる。   According to the printer 100 according to the first embodiment, in each target image group constituting the target image list, the distance between subjects between the person included in the target image for each target image group and the person to be searched for. Since the target images are displayed side by side in order of increasing Sbd, the user can easily search for images. Specifically, as illustrated in FIG. 23, the printer 100 includes, in each target image group Grp in the target image list Rst, a person who is commonly included in the target images of the group and a person (reference person) to be searched. Are displayed side by side in order from the target image TI with the smallest subject distance Sbd. More specifically, in the target image group Grp1 of the target image list Rst1, the printer 100 includes a person (a person represented by the person image PI2) that is commonly included in the target images of the group and a reference person (a person image PI1). Are displayed side by side in order from the target image TI having the smallest subject-to-subject distance Sbd. In other words, among the three target images TIa, TIb, and TIc, the printer 100 has the target image TIa having the smallest subject distance Sbd, the second target image TIb having the smallest subject distance Sbd, and the third subject distance Sbd. The small target images TIc are displayed in order (in this case, in order from the left side). As a result, the user can check the target images TI including the same person in order from the target image TI having the smallest inter-subject distance Sbd, thereby facilitating the image search.

第1の実施例に係るプリンター100によれば、対象画像から、検索対象となる人物と所定の親密度を有する人物の顔の画像が含まれている対象画像を検索し、検索した対象画像を、所定の親密度を有する人物との親密度がより高い人物の顔の画像を含む対象画像グループから順に対象画像を並べた対象画像リストを表示するため、ユーザーによる画像検索を容易にすることができる。具体的には、プリンター100は、検索対象となる人物の顔の画像が含まれている対象画像を検索するのみではなく、検索対象となる人物と所定の親密度を有する人物の顔の画像が含まれている対象画像についても検索をおこない、検索した対象画像を、所定の親密度を有する人物との親密度がより高い人物の顔の画像を含む対象画像グループから順に対象画像を並べて表示する。これにより、ユーザーは、所定の親密度を有する人物との親密度Diの高い人物の人物画像PIが含まれている対象画像TIから順に対象画像TIを確認することができるため、画像検索を容易にすることができる。なお、所定の親密度Diを有する人物とは、例えば、検索対象となる人物と最も高い親密度Diを有している人物や、検索対象となる人物との親密度Diが設定値以上の人物などをいう。   According to the printer 100 according to the first embodiment, a target image including a face image of a person to be searched and a person having a predetermined familiarity is searched from the target image, and the searched target image is searched. Since a target image list in which target images are arranged in order from a target image group including a face image of a person with a higher familiarity with a person having a predetermined familiarity is displayed, image search by a user can be facilitated. it can. Specifically, the printer 100 not only searches for a target image that includes an image of a person's face to be searched, but also includes an image of a person's face having a predetermined familiarity with the person to be searched. A search is also performed for the included target images, and the target images are displayed side by side in order from a target image group including a face image of a person with a higher familiarity with a person having a predetermined familiarity. . Accordingly, the user can confirm the target image TI in order from the target image TI including the person image PI of the person having a high degree of closeness Di with the person having the predetermined closeness. Can be. The person having the predetermined familiarity Di is, for example, a person who has the highest familiarity Di with the person to be searched, or a person whose familiarity Di with the person to be searched is a set value or more. And so on.

第1の実施例に係るプリンター100によれば、対象画像リストRstに含まれる対象画像を第1の方向に一列に並べるとともに、複数の対象画像リストRstを第1の方向と直交する第2の方向に並べて表示するため、ユーザーによる画像検索を容易にすることができる。具体的には、図22および図24に示すように、対象画像の並ぶ方向と対象画像リストが並ぶ方向を直交させることにより、表示されたそれぞれの対象画像が属する対象画像リストRsが視覚的に容易に判別できるため、ユーザーによる画像検索を容易にすることができる。   According to the printer 100 according to the first embodiment, the target images included in the target image list Rst are arranged in a line in the first direction, and the plurality of target image lists Rst are orthogonal to the first direction. Since the images are displayed side by side, the user can easily search for images. Specifically, as shown in FIGS. 22 and 24, the target image list Rs to which each displayed target image belongs is visually determined by orthogonalizing the direction in which the target images are arranged and the direction in which the target image list is arranged. Since it can be easily determined, image search by the user can be facilitated.

第1の実施例に係るプリンター100によれば、複数の対象画像リストRstを、検索対象となる人物との親密度がより高い人物の対象画像リストRstから順に並べて表示するため、ユーザーによる画像検索を容易にすることができる。具体的には、図22および図24に示すように、検索対象となる人物との親密度がより高い人物を基準人物とする対象画像リストRstから順に並べて表示することにより、ユーザーによる画像検索を容易にすることができる。例えば、検索対象となる人物が、自身と親密度の高い友人や子供についての画像を検索したい場合、友人や子供を検索対象に設定しなくても、自身を検索対象となる人物に設定することで、親密度の高い友人や子供についての対象画像リストを自身との親密度の高い順に表示することができるため、所望の画像を容易に取得することができる。   According to the printer 100 according to the first embodiment, a plurality of target image lists Rst are displayed side by side in order from the target image list Rst of a person with a higher familiarity with the person to be searched, so that the image search by the user Can be made easier. Specifically, as shown in FIG. 22 and FIG. 24, image search by the user can be performed by displaying the target image list Rst arranged in order from the target image list Rst with a person having a higher closeness to the person to be searched as a reference person. Can be easily. For example, if a person who is a search target wants to search for an image of a friend or child who is close to him / her, he / she can set himself / herself as a search target without setting the friend or child as a search target. Thus, the target image list for friends and children with high intimacy can be displayed in the order of intimacy with themselves, so that a desired image can be easily acquired.

B.第2実施例:
図25は、第2実施例における人物情報設定処理の流れを示すフローチャートである。第1実施例では、画像検索・印刷処理のステップS130(図2)における人物情報設定処理(図8)において、頻度nが閾値Th2より大きい人同士であって、年齢判定・性別判定がおこなわれていない人については、特徴判別部250により、年齢および性別の判定がおこなわれていたが(ステップS270)、本実施例では、図25に示すように、頻度nが閾値Th2より大きい人同士であって、年齢判定・性別判定がおこなわれていない人であっても直ちに年齢および性別の判定をおこなわず、ステップS290における間柄判定処理において実施する態様について説明する。ステップS200〜ステップS280については、第1実施例と同様であるため説明を省略する。
B. Second embodiment:
FIG. 25 is a flowchart showing the flow of person information setting processing in the second embodiment. In the first example, in the person information setting process (FIG. 8) in step S130 (FIG. 2) of the image search / print process, the age determination / sex determination is performed for persons whose frequency n is greater than the threshold Th2. For those who have not, age and sex have been determined by the feature discriminating unit 250 (step S270). In this example, as shown in FIG. 25, the frequency n is greater than the threshold Th2. There will be described an embodiment that is performed in the relationship determination process in step S290 without immediately determining the age and sex even if the person has not been subjected to age determination / gender determination. Steps S200 to S280 are the same as those in the first embodiment, and a description thereof will be omitted.

図26は、第3の間柄判定情報の内容を説明するための説明図である。図26は、第1実施例と同様に、内部メモリー120に記憶されている間柄判定情報の1つであって、街路で撮影された画像に対応する間柄判定情報の内容を例示している。すなわち、図26に示した間柄判定情報の内容は、図16で示した間柄判定情報の内容と対応している。第2実施例で説明する間柄判定処理は、間柄判定情報の内容以外については第1実施例と同様であるため説明を省略する。   FIG. 26 is an explanatory diagram for explaining the contents of the third interstitial determination information. FIG. 26 exemplifies the content of the relationship determination information corresponding to the image taken on the street, which is one of the relationship determination information stored in the internal memory 120 as in the first embodiment. That is, the contents of the relationship determination information shown in FIG. 26 correspond to the contents of the relationship determination information shown in FIG. Since the interstitial determination process described in the second embodiment is the same as that of the first embodiment except for the contents of the interstitial determination information, the description thereof is omitted.

間柄判定情報選択部281が、図26に内容が示された間柄判定情報を選択した場合について説明する。ステップS500およびステップS505は第1実施例と同様である。親密度Diが閾値Th3より大きい場合(ステップS500:YES)、特徴判別部250は、親密度Diを算出したそれぞれの人物について既に年齢判定をおこなっているか否かを判定する(ステップS507)。特徴判別部250は、親密度Diを算出したそれぞれの人物について年齢判定をおこなっていない場合には(ステップS507:NO)、それぞれの人物の年齢判定をおこなう(ステップS510)。年齢判定の方法は第1実施例と同様である。特徴判別部250は、親密度Diを算出したそれぞれの人物について既に年齢判定をおこなっている場合には(ステップS507:YES)、年齢判定をスキップする。その後、間柄判定部280は、ステップS515〜S525を実施する。ステップS515〜S525については第1実施例と同様である。   A case where the interstitial determination information selection unit 281 selects interstitial determination information whose contents are shown in FIG. 26 will be described. Steps S500 and S505 are the same as in the first embodiment. When the familiarity Di is larger than the threshold Th3 (step S500: YES), the feature determination unit 250 determines whether or not age determination has already been performed for each person for whom the familiarity Di has been calculated (step S507). If the age determination is not performed for each person whose intimacy Di is calculated (step S507: NO), the feature determination unit 250 determines the age of each person (step S510). The age determination method is the same as in the first embodiment. The feature determination unit 250 skips age determination when age determination has already been performed for each person whose intimacy Di has been calculated (step S507: YES). Thereafter, the interstitial determination unit 280 performs Steps S515 to S525. Steps S515 to S525 are the same as in the first embodiment.

ステップS520において、間柄判定の対象となる人の年齢がそれぞれ12より大きい場合(ステップS520:YES)、特徴判別部250は、親密度Diを算出したそれぞれの人物について既に性別判定をおこなっているか否かを判定する(ステップS527)。特徴判別部250は、親密度Diを算出したそれぞれの人物について性別判定をおこなっていない場合には(ステップS527:NO)、それぞれの人物の性別判定をおこなう(ステップS530)。性別判定の方法は第1実施例と同様である。特徴判別部250は、親密度Diを算出したそれぞれの人物について既に性別判定をおこなっている場合には(ステップS527:YES)、性別判定をスキップする。その後、間柄判定部280は、ステップS535〜S545を実施する。上記により間柄判定処理が終了する。また、間柄判定処理の終了により、人物情報設定処理が終了する。   In step S520, if the age of the person who is the subject of the relationship determination is greater than 12 (step S520: YES), the feature determination unit 250 has already determined gender for each person whose intimacy Di has been calculated. Is determined (step S527). If the gender determination is not performed for each person whose intimacy Di is calculated (step S527: NO), the feature determination unit 250 performs the gender determination for each person (step S530). The gender determination method is the same as in the first embodiment. The feature determination unit 250 skips gender determination when sex determination has already been performed for each person whose intimacy Di has been calculated (step S527: YES). Thereafter, the interstitial determination unit 280 performs Steps S535 to S545. The interstitial determination process ends as described above. In addition, the personal information setting process is terminated by the termination of the relationship determination process.

以上説明した第2の実施例に係るプリンター100によれば、年齢判定もしくは性別判定の少なくとも一方を実施せずに間柄の判定をおこなうことができるため、画像検索・印刷処理の処理効率の向上を図ることができる。具体的には、上記のステップS500において、親密度Diが閾値Th3以下である場合(ステップS500:NO)、年齢判定や性別判定をおこなわなくても、間柄判定の対象となる人同士は「他人」であると判定することができる。また、ステップS515において、年齢差が閾値Th4以上である場合(ステップS515:NO)、または、ステップS520において、間柄判定の対象となる人の少なくとも一方の年齢が12以下である場合(ステップS520:NO)、性別判定をおこなわなくても、間柄判定の対象となる人同士の間柄を判定することができる。なお、年齢判定をおこなった後に性別判定をおこなうことにより、間柄判定の対象となる人同士の間柄を効率よく判定することができる。これは、性別の差異よりも年齢の差異の方が、人同士の間柄の決定に与える影響が大きいためと考えられる。   According to the printer 100 according to the second embodiment described above, since it is possible to determine a relationship without performing at least one of age determination and gender determination, it is possible to improve processing efficiency of image search / print processing. Can be planned. Specifically, in the above step S500, when the familiarity Di is equal to or less than the threshold Th3 (step S500: NO), the persons who are the targets of the relationship determination are “others” without performing age determination or gender determination. Can be determined. In step S515, when the age difference is greater than or equal to the threshold Th4 (step S515: NO), or in step S520, the age of at least one of the persons who are subject to the relationship determination is 12 or less (step S520: NO), it is possible to determine the relationship between persons who are the targets of the relationship determination without performing the gender determination. In addition, by performing sex determination after performing age determination, it is possible to efficiently determine the relationship between persons who are targets of relationship determination. This is thought to be because the difference in age has a greater influence on the determination of personal relationships than the difference in gender.

C.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
C. Variation:
The present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.

C1.変形例1:
本実施例に係るプリンター100は、対象画像から年齢や性別などの人の特徴を判別する特徴判別部250と、人同士の間柄を判定する間柄判定部280と、間柄関係図RMを作成する間柄関係図作成部290と、を備えているが、プリンター100は、これらの少なくとも一部を備えていない態様であっても実現することができる。すなわち、上記構成を備えていなくても、連続する所定数の対象画像においてそれぞれ推定された被写体間距離がすべて所定値以下となる人同士について親密度を算出することができるため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。
C1. Modification 1:
The printer 100 according to the present embodiment includes a feature determination unit 250 that determines human characteristics such as age and gender from a target image, a relationship determination unit 280 that determines a relationship between people, and a relationship that creates a relationship relationship diagram RM. Although the relationship diagram creation unit 290 is provided, the printer 100 can be realized even in an aspect in which at least some of these are not provided. That is, even if it does not have the above-described configuration, it is possible to calculate intimacy for persons whose distances between subjects estimated in a predetermined number of consecutive target images are all equal to or less than a predetermined value. It is possible to improve the accuracy of specifying the relationship between each other.

C2.変形例2:
本実施例に係るプリンター100は、Motion JPEGの圧縮形式を採用した動画像ファイルについて画像検索・印刷処理をおこなっているが、プリンター100が画像検索・印刷処理する動画像ファイルの圧縮形式はこれに限られず、例えば、MPEG等の圧縮形式を採用した動画像ファイルであってもよい。この場合、差分データを用いて算出されるフレームごとの画像が対象画像となる。
C2. Modification 2:
The printer 100 according to the present embodiment performs image search / print processing for a moving image file that employs the Motion JPEG compression format. The compression format of the moving image file that the printer 100 performs image search / print processing is based on this. For example, a moving image file adopting a compression format such as MPEG may be used. In this case, the image for each frame calculated using the difference data is the target image.

C3.変形例3:
本実施例に係るプリンター100は、予め定められた枚数の対象画像を含む動画像ファイルについて処理をおこなっているが、プリンター100は、逐次入力される画像ファイルについて順次処理をおこなう態様であってもよい。具体的には、ビデオカメラ等から逐次画像データが入力されると、入力された画像データを順次、注目画像OIに設定し、顔領域FAの検出や、人物情報設定処理をおこなってもよい。この時、入力される対象画像が最後の画像か否かの判断は、ユーザーからの入力によりおこなわれてもよい。
C3. Modification 3:
Although the printer 100 according to the present embodiment performs processing on a moving image file including a predetermined number of target images, the printer 100 may perform processing sequentially on sequentially input image files. Good. Specifically, when image data is sequentially input from a video camera or the like, the input image data may be sequentially set as the attention image OI, and the face area FA may be detected or the person information setting process may be performed. At this time, whether or not the input target image is the last image may be determined by an input from the user.

C4.変形例4:
本実施例に係るプリンター100は、人物情報設定処理(図8)のステップS230において、被写体間距離Sbdを算出したそれぞれの人物が前回以前の対象画像に表されている人物か否かについて判定しているが、前回の対象画像に表されている人物か否かのみを判定する態様であってもよい。この場合、前々回以前の対象画像に表されている人物であっても、頻度nはインクリメントされず、改めてn=1が設定されることになるため、時間的に連続した所定数の対象画像からそれぞれ推定された被写体間距離Sbdがすべて所定値以下となる人同士についてのみ親密度を判定することができる。
C4. Modification 4:
In step S230 of the person information setting process (FIG. 8), the printer 100 according to the present embodiment determines whether each person whose inter-subject distance Sbd is calculated is a person represented in the previous target image. However, it may be an aspect in which it is determined only whether or not the person is represented in the previous target image. In this case, since the frequency n is not incremented and n = 1 is set again even for a person represented in the previous target image two times before, a predetermined number of target images that are continuous in time are used. The intimacy can be determined only for persons whose estimated subject distances Sbd are all equal to or less than a predetermined value.

C5.変形例5:
本実施例に係るプリンター100は、図22や図24に示すような印刷画面を表示部150に表示し、ユーザーから選択された対象画像を印刷しているが、プリンター100は、電気的に接続されたコンピューターやモニターを含めた概念で捉えてもよく、この場合、モニターに図22や図24に示すような印刷画面を表示し、表示制御部はコンピューターのCPUにより実現されてもよい。また、プリンター100は、図22や図24に示すような対象画像を印刷してもよい。
C5. Modification 5:
The printer 100 according to the present embodiment displays a print screen as illustrated in FIGS. 22 and 24 on the display unit 150 and prints a target image selected by the user, but the printer 100 is electrically connected. In this case, a print screen as shown in FIGS. 22 and 24 may be displayed on the monitor, and the display control unit may be realized by a CPU of the computer. Further, the printer 100 may print a target image as shown in FIG. 22 or FIG.

C6.変形例6:
本実施例に係るプリンター100は、図22および図24に示す印刷画面において、検索対象となる人の対象画像リストRst1を先頭(ここでは、最も左側)にして、検索対象となる人との親密度Diがより高い人物を基準人物とした対象画像リストRstから順に(右側に)並べて表示しているが、検索対象となる人の対象画像リストRst1を最も右側にして、検索対象となる人との親密度Diがより高い人物を基準人物とした対象画像リストRstから順に左側に並べて表示してもよい。また、検索対象となる人の対象画像リストRst1を最も上側にして、検索対象となる人との親密度Diがより高い人物を基準人物とした対象画像リストRstから順に下側に並べて表示してもよい。
C6. Modification 6:
22 and 24, the printer 100 according to this embodiment sets the target image list Rst1 of the person to be searched at the top (here, the leftmost side), and is the parent of the person to be searched. The target image list Rst with the higher density Di as the reference person is displayed in order (on the right side). The target image list Rst1 of the person to be searched is placed on the rightmost side, and the person to be searched May be displayed side by side on the left side in order from the target image list Rst using a person with a higher familiarity Di as a reference person. Further, the target image list Rst1 of the person to be searched is placed on the uppermost side, and the target image list Rst with a person having a higher closeness Di with the person to be searched as a reference person is displayed in order from the lower side. Also good.

C7.変形例7:
本実施例に係るプリンター100は、間柄関係図RMに、人物画像PIと、人物画像PIの外周部に形成される人物画像フレームFiと、人物画像PIにより表されている人物の年齢情報agおよび性別情報Ssと、人物画像フレームFi同士をつなぐ関係線Rlと、を含めて作成しているが、間柄関係図RMは、これらの一部がない態様であってもよい。また、本実施例では、人物情報データベースHCに設定されている頻度nを用いて関係線の幅Wrを決定し、また、親密度Diを用いて関係線Rlの長さLrを決定しているが、これらは、例示であり、間柄関係図RMを構成するこれら以外の要素を人物情報データベースHCなどの情報に基づいて変化させもよい。例えば、対象画像TIに現れる頻度によって人物画像PIの大きさを変える態様としてもよい。
C7. Modification 7:
The printer 100 according to the present embodiment includes a person relationship PI RM, a person image PI, a person image frame Fi formed on the outer periphery of the person image PI, the age information ag of the person represented by the person image PI, and Although the gender information Ss and the relationship line Rl that connects the person image frames Fi are created, the interstitial relationship diagram RM may be in a form in which some of these are not present. In the present embodiment, the relationship line width Wr is determined using the frequency n set in the person information database HC, and the length Lr of the relationship line Rl is determined using the familiarity Di. However, these are examples, and other elements constituting the interpersonal relationship diagram RM may be changed based on information such as the person information database HC. For example, the size of the person image PI may be changed depending on the frequency of appearance in the target image TI.

C8.変形例8:
本実施例に係るプリンター100は、間柄判定情報を用いて間柄を判定しているが、本実施例で示した間柄判定情報の内容は例示であり、これら以外の情報に基づいて間柄を判定してもよい。また、本実施例では、対象画像が撮影された場所ごとに設定された間柄判定情報を用いて間柄を判定しているが、対象画像が撮影された場所に関係なく1つの間柄判定情報を用いて間柄を判定する態様であってもよい。
C8. Modification 8:
Although the printer 100 according to the present embodiment determines the relationship using the relationship determination information, the content of the relationship determination information shown in the present embodiment is an example, and the relationship is determined based on information other than these. May be. Further, in this embodiment, the interstitial determination information is determined using the interstitial determination information set for each place where the target image is photographed, but one interstitial determination information is used regardless of the place where the target image is photographed. It is also possible to determine the relationship.

C9.変形例9:
本実施例に係るプリンター100は、ユーザーによる関係線Rlの選択、もしくは、入力ボックスBoへのキーワード等の入力により、検索対象となる人物の特定をおこなっているが、検索対象となる人物の特定はこれ以外の方法におこなってもよい。例えば、プリンター100は、ユーザーにより設定された任意の顔の画像をクエリ画像とし、このクエリ画像を用いて顔認証をおこなうことにより、クエリ画像と最も類似する人物画像PIにより表される人物を検索対象となる人として設定してもよい。
C10.変形例10:
本実施例に係るプリンター100は、注目画像OIとして設定されている対象画像TIの位置情報を用いて間柄判定情報を選択しているが、これ以外の位置情報を用いて間柄判定情報を選択してもよい。例えば、プリンター100は、親密度Diの算出に用いられた被写体間距離Sbdのうち、最も値の小さい被写体間距離Sbdが算出された対象画像TIの位置情報を用いて間柄判定情報を選択してもよい。
C9. Modification 9:
The printer 100 according to the present embodiment specifies a person to be searched by selecting a relation line Rl by the user or inputting a keyword or the like in the input box Bo. Other methods may be used. For example, the printer 100 searches for a person represented by a person image PI that is most similar to the query image by using an image of an arbitrary face set by the user as a query image and performing face authentication using the query image. It may be set as a target person.
C10. Modification 10:
The printer 100 according to the present embodiment selects the interstitial determination information using the position information of the target image TI set as the target image OI, but selects the interstitial determination information using other positional information. May be. For example, the printer 100 selects the relationship determination information using the position information of the target image TI for which the inter-subject distance Sbd having the smallest value is calculated among the inter-subject distances Sbd used for calculating the familiarity Di. Also good.

C11.変形例11:
本実施例に係るプリンター100は、上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。
C11. Modification 11:
In the printer 100 according to the present embodiment, a part of the configuration realized by hardware in the above embodiment may be replaced with software, and conversely, a part of the configuration realized by software is replaced with hardware. It may be replaced with wear.

C12.変形例12:
本発明は、プリンターのほか、デジタルスチルカメラ、パーソナルコンピューター、デジタルビデオカメラ等で実現することができる。また、画像処理方法および装置、親密度算出方法および装置、間柄関係表示方法および装置、これらの方法または装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号、等の形態で実現することができる。
C12. Modification 12:
The present invention can be realized by a digital still camera, a personal computer, a digital video camera, or the like in addition to a printer. Further, an image processing method and apparatus, an affinity calculation method and apparatus, a relationship relationship display method and apparatus, a computer program for realizing the functions of these methods or apparatuses, a recording medium on which the computer program is recorded, and the computer program It can be realized in the form of a data signal embodied in a carrier wave.

100…プリンター
110…CPU
120…内部メモリー
140…操作部
150…表示部
160…印刷機構
170…カードインターフェース
172…カードスロット
200…画像処理部
210…顔領域検出部
220…被写体距離推定部
230…被写体間距離推定部
240…親密度算出部
250…特徴判別部
260…特定情報取得部
270…画像検索部
280…間柄判定部
281…間柄判定情報選択部
290…間柄関係図作成部
310…表示制御部
320…印刷制御部
MC…メモリーカード
HC…人物情報データベース
RM…間柄関係図
Rst…対象画像リスト
Grp…対象画像グループ
FA…顔領域
TA…頭領域
OI…注目画像
TI…対象画像
Di…親密度
100 ... Printer 110 ... CPU
DESCRIPTION OF SYMBOLS 120 ... Internal memory 140 ... Operation part 150 ... Display part 160 ... Printing mechanism 170 ... Card interface 172 ... Card slot 200 ... Image processing part 210 ... Face area detection part 220 ... Subject distance estimation part 230 ... Inter-subject distance estimation part 240 ... Intimacy calculation unit 250 ... feature determination unit 260 ... specific information acquisition unit 270 ... image search unit 280 ... interstitial determination unit 281 ... interstitial determination information selection unit 290 ... interstitial relationship diagram creation unit 310 ... display control unit 320 ... print control unit MC ... Memory card HC ... Personal information database RM ... Interest relationship diagram Rst ... Target image list Grp ... Target image group FA ... Face area TA ... Head area OI ... Attention image TI ... Target image Di ... Intimacy

Claims (14)

時系列に並んだ複数の対象画像を処理する画像処理装置であって、
各前記対象画像から顔の画像を含む画像領域である顔領域を顔の画像ごとに検出する顔領域検出部と、
前記顔領域を用いて、被写体の顔から撮影装置までの距離である被写体距離をそれぞれ推定する被写体距離推定部と、
前記被写体距離を用いて、前記顔領域に表されている人の顔同士の実際の距離である被写体間距離を推定する被写体間距離推定部と、
連続する所定数の前記対象画像からそれぞれ推定された前記被写体間距離がすべて所定値以下となる人同士について、推定された前記被写体間距離を用いて、人同士の親密さの程度を表す親密度を前記被写体間距離が小さいほど大きい値となるように算出する親密度算出部と、を備える画像処理装置。
An image processing apparatus that processes a plurality of target images arranged in time series,
A face area detection unit that detects a face area that is an image area including a face image from each target image for each face image;
A subject distance estimation unit that estimates a subject distance, which is a distance from the subject's face to the imaging device, using the face region;
An inter-subject distance estimation unit that estimates an inter-subject distance, which is an actual distance between human faces represented in the face area, using the subject distance;
A degree of intimacy representing a degree of intimacy between people using the estimated distance between subjects for each of the subjects whose distance between the subjects estimated from a predetermined number of consecutive target images is not more than a predetermined value. An intimacy calculating unit that calculates a larger value as the distance between the subjects is smaller.
請求項1に記載の画像処理装置において、
前記親密度算出部は、前記被写体間距離が推定された人同士について、前記被写体間距離が推定された前記対象画像の次に連続する対象画像において前記被写体間距離が推定されなくても、前記被写体間距離が推定されなかった対象画像の次に連続する対象画像において前記被写体間距離が推定された場合には、前記被写体間距離が推定された対象画像の合計が所定数であり、推定された前記被写体間距離がすべて所定値以下であれば前記人同士の親密度を算出する画像処理装置。
The image processing apparatus according to claim 1.
The intimacy calculation unit may be configured such that, even if the subject-to-subject distance is not estimated in the target images that are next to the target image in which the subject-to-subject distance has been estimated, When the inter-subject distance is estimated in the target image that is next to the target image for which the inter-subject distance has not been estimated, the total of the target images in which the inter-subject distance is estimated is a predetermined number, and is estimated. An image processing apparatus that calculates the intimacy between the persons if the distances between the subjects are all equal to or less than a predetermined value.
請求項1または請求項2に記載の画像処理装置はさらに、
前記親密度算出部により前記親密度を算出されたそれぞれの人の顔の画像から人の特徴を判別する特徴判別部と、
前記親密度と前記人の特徴とを用いて、前記親密度を算出された人同士の間柄を判定する間柄判定部と、を備える画像処理装置。
The image processing apparatus according to claim 1 or 2, further comprising:
A feature discriminating unit that discriminates human characteristics from each person's face image for which the intimacy calculation unit calculates
An image processing apparatus comprising: a relationship determination unit that determines a relationship between people whose intimacy is calculated using the affinity and the characteristics of the person.
請求項3に記載の画像処理装置はさらに、
前記特徴判別部は、前記親密度を算出されたそれぞれの人物について、既に前記人の特徴を判別した人物か否かを判定し、前記人の特徴を判別していない人物についてのみ前記判別をおこなう画像処理装置。
The image processing apparatus according to claim 3 further includes:
The feature determination unit determines, for each person whose intimacy is calculated, whether or not the person has already determined the characteristics of the person, and performs the determination only for a person who has not determined the characteristics of the person. Image processing device.
請求項3または請求項4に記載の画像処理装置において、
前記特徴判別部は、前記顔領域に含まれている顔の画像から人の年齢を判別する画像処理装置。
The image processing apparatus according to claim 3 or 4,
The feature determination unit is an image processing apparatus that determines a person's age from a face image included in the face region.
請求項3ないし請求項5のいずれかに記載の画像処理装置において、
前記特徴判別部は、前記顔領域に含まれている顔の画像から人の性別を判別する画像処理装置。
The image processing apparatus according to any one of claims 3 to 5,
The feature determination unit is an image processing apparatus that determines a gender of a person from an image of a face included in the face area.
請求項3ないし請求項6のいずれかに記載の画像処理装置において、
前記間柄判定部は、
前記親密度および前記人の特徴と、前記人同士の間柄と、の対応関係が示されている2以上の間柄判定情報を記憶している記憶部と、
前記対象画像の撮影された場所に関する情報に基づき、前記記憶部から1つの間柄判定情報を選択する間柄判定情報選択部と、を備え、
前記間柄判定情報選択部により選択された間柄判定情報を用いて、前記親密度を算出された人同士の間柄を判定する画像処理装置。
The image processing apparatus according to any one of claims 3 to 6,
The interstitial determination unit
A storage unit storing two or more relationship determination information indicating a correspondence relationship between the intimacy and the characteristics of the person and the relationship between the persons;
Based on information on the location where the target image was taken, a interstitial determination information selection unit that selects one interstitial determination information from the storage unit,
An image processing apparatus that determines a relationship between persons whose intimacy has been calculated using the relationship determination information selected by the relationship determination information selection unit.
請求項7に記載の画像処理装置において、
前記対象画像の撮影された場所に関する情報は、GPS情報を用いて特定される画像処理装置。
The image processing apparatus according to claim 7.
The information regarding the place where the target image was taken is an image processing device that is specified using GPS information.
請求項3ないし請求項8のいずれかに記載の画像処理装置はさらに、
前記間柄判定部により判定された人同士の間柄から、前記親密度算出部により前記親密度を算出された人全員の間柄関係を表す間柄関係図を作成する間柄関係図作成部を備える画像処理装置。
The image processing apparatus according to any one of claims 3 to 8, further comprising:
An image processing apparatus comprising a interstitial relationship diagram creating unit that creates a interstitial relationship diagram representing the interstitial relationship of all of the persons whose intimacy has been calculated by the intimacy calculating unit from the interpersonal relationships determined by the interstitial determining unit .
請求項9に記載の画像処理装置において、
前記間柄関係図は、前記親密度を算出された人の顔の画像と、前記顔の画像同士をつなぐ関係線とが表され、
前記親密度が高い人同士ほど前記顔の画像同士の距離が小さく、前記対象画像に現れる頻度が高い人同士ほど前記関係線の幅が大きく表されている画像処理装置。
The image processing apparatus according to claim 9.
The interstitial relationship diagram represents an image of a person's face for which the familiarity is calculated, and a relationship line connecting the face images.
The image processing apparatus in which the distance between the face images is smaller as the degree of intimacy is higher, and the width of the relationship line is larger as the frequency of appearing in the target image is higher.
請求項1ないし請求項10のいずれかに記載の画像処理装置において、
前記被写体距離推定部は、前記対象画像の大きさに対する前記顔領域の大きさに基づいて前記被写体距離を推定する画像処理装置。
The image processing apparatus according to any one of claims 1 to 10,
The subject distance estimation unit is an image processing apparatus that estimates the subject distance based on a size of the face area with respect to a size of the target image.
請求項1ないし請求項11のいずれかに記載の画像処理装置において、
前記親密度算出部は、時系列に並んだ複数の対象画像の少なくとも一部に表され、被写体間距離がすべて所定値以下となる人同士について、前記対象画像に表れる頻度が所定数以上の人同士については前記親密度を算出し、前記対象画像に表れる頻度が所定数より少ない人同士については前記親密度を算出しない画像処理装置。
The image processing apparatus according to any one of claims 1 to 11,
The intimacy calculation unit is represented in at least a part of a plurality of target images arranged in time series, and the frequency of appearing in the target image is greater than or equal to a predetermined number of persons whose subject distances are all equal to or less than a predetermined value. An image processing apparatus that calculates the intimacy for each other and does not calculate the intimacy for people who appear less than a predetermined number in the target image.
請求項1ないし請求項11のいずれかに記載の画像処理装置において、
前記親密度算出部は、第1の対象画像に含まれている顔の画像同士の距離が、第2の対象画像に含まれている顔の画像同士の距離より小さく、第1の対象画像に表されている顔同士の実際の距離が、第2の対象画像に表されている顔同士の実際の距離より大きい場合、第1の対象画像に表されている人同士より第2の対象画像に表されている人同士の方がより親密度が高くなるように親密度を算出する画像処理装置。
The image processing apparatus according to any one of claims 1 to 11,
The closeness calculating unit is configured such that the distance between the face images included in the first target image is smaller than the distance between the face images included in the second target image, and When the actual distance between the faces represented is larger than the actual distance between the faces represented in the second target image, the second target image is more than the people represented in the first target image. An image processing apparatus that calculates intimacy so that the intimacy between the people represented in the above is higher.
請求項10に記載の画像処理装置において、
前記間柄関係図作成部は、第1の対象画像に含まれている顔の画像同士の距離が、第2の対象画像に含まれている顔の画像同士の距離より小さく、第1の対象画像に表されている顔同士の実際の距離が、第2の対象画像に表されている顔同士の実際の距離より大きい場合、前記間柄関係図において、第1の対象画像に現れる人の顔の画像同士の距離より第2の対象画像に現れる人の顔の画像同士の距離の方が小さくなるように前記間柄関係図を作成する画像処理装置。
The image processing apparatus according to claim 10.
The interstitial relationship diagram creating unit is configured such that the distance between the face images included in the first target image is smaller than the distance between the face images included in the second target image, and the first target image Is larger than the actual distance between the faces represented in the second target image, in the relationship diagram, the human face appearing in the first target image is displayed. An image processing apparatus that creates the interstitial relationship diagram so that a distance between human face images appearing in a second target image is smaller than a distance between images.
JP2009218872A 2009-09-24 2009-09-24 Image processing apparatus Pending JP2011070276A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009218872A JP2011070276A (en) 2009-09-24 2009-09-24 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009218872A JP2011070276A (en) 2009-09-24 2009-09-24 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2011070276A true JP2011070276A (en) 2011-04-07

Family

ID=44015529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009218872A Pending JP2011070276A (en) 2009-09-24 2009-09-24 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2011070276A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015082223A (en) * 2013-10-23 2015-04-27 富士ゼロックス株式会社 Information registration system and program
WO2015141523A1 (en) * 2014-03-20 2015-09-24 ソニー株式会社 Information processing device, information processing method and computer program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015082223A (en) * 2013-10-23 2015-04-27 富士ゼロックス株式会社 Information registration system and program
WO2015141523A1 (en) * 2014-03-20 2015-09-24 ソニー株式会社 Information processing device, information processing method and computer program

Similar Documents

Publication Publication Date Title
CN104615926A (en) Information processing apparatus and information processing method
JP4908505B2 (en) Image classification using photographers
US8345118B2 (en) Image capturing apparatus, image capturing method, album creating apparatus, album creating method, album creating system and computer readable medium
US8176426B2 (en) Image reproduction apparatus and image reproduction program product
US10558851B2 (en) Image processing apparatus and method of generating face image
JP2011070277A (en) Image processor
JP5279654B2 (en) Image tracking device, image tracking method, and computer program
JP2007041964A (en) Image processor
JP2011070275A (en) Image processor
JP2008165701A (en) Image processing device, electronics equipment, image processing method, and program
JP2005115672A (en) Image processor
US10572111B2 (en) Image display control device, image display control method, image display control program, and recording medium having the program stored thereon
JP4367010B2 (en) System, program and method
US20090092312A1 (en) Identifying Method and Storage Medium Having Program Stored Thereon
JP4556739B2 (en) Image management apparatus, image management method, and image management program
JP2011070276A (en) Image processing apparatus
JP5448952B2 (en) Same person determination device, same person determination method, and same person determination program
JP2011076237A (en) Image classifying device, image classifying system, image classifying method, program, and recording medium
JP2021111228A (en) Learning device, learning method, and program
CN107004111A (en) Moving direction determines method and moving direction determining device
JP2012027617A (en) Pattern identification device, pattern identification method and program
JP2010026630A (en) Image retrieval device and image retrieval method
JP4891119B2 (en) Image sorting apparatus, method, and program
JP2009205468A (en) Image output method, image output device and image output program
JP2006058959A (en) Similar image determination method, program and apparatus