JP2011070276A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2011070276A JP2011070276A JP2009218872A JP2009218872A JP2011070276A JP 2011070276 A JP2011070276 A JP 2011070276A JP 2009218872 A JP2009218872 A JP 2009218872A JP 2009218872 A JP2009218872 A JP 2009218872A JP 2011070276 A JP2011070276 A JP 2011070276A
- Authority
- JP
- Japan
- Prior art keywords
- image
- person
- target image
- relationship
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、画像処理装置に関する。 The present invention relates to an image processing apparatus.
従来から、複数の人が表されている画像を用いて、人同士の関係性を特定する技術が知られている。例えば、画像に表されている人同士の距離を用いて、2人の親密さの程度を表す親密度を算出する技術が知られている(特許文献1)。また、画像から特定された人同士の関係性を用いた画像の分類方法や、画像の検索方法が知られている。 2. Description of the Related Art Conventionally, a technique for identifying the relationship between people using an image showing a plurality of people is known. For example, a technique is known in which a closeness representing the degree of intimacy between two people is calculated using the distance between the people represented in the image (Patent Document 1). Also, there are known image classification methods and image search methods that use relationships between people specified from images.
しかし、画像から人同士の関係性を特定する処理の効率性についてはなお向上の余地があった。 However, there is still room for improvement in the efficiency of processing for identifying the relationship between people from the image.
本発明は、上記した従来の課題の少なくとも一部を解決するためになされた発明であり、画像から人同士の関係性を特定する処理の効率性を向上させることを目的とする。 The present invention has been made in order to solve at least a part of the above-described conventional problems, and an object thereof is to improve the efficiency of processing for specifying the relationship between people from an image.
上記課題の少なくとも一部を解決するために本願発明は以下の態様を採る。 In order to solve at least a part of the above problems, the present invention employs the following aspects.
第1の態様は、時系列に並んだ複数の対象画像を処理する画像処理装置を提供する。本発明の第1の態様に係る画像処理装置は、各前記対象画像から顔の画像を含む画像領域である顔領域を顔の画像ごとに検出する顔領域検出部と、前記顔領域を用いて、被写体の顔から撮影装置までの距離である被写体距離をそれぞれ推定する被写体距離推定部と、前記被写体距離を用いて、前記顔領域に表されている人の顔同士の実際の距離である被写体間距離を推定する被写体間距離推定部と、連続する所定数の前記対象画像からそれぞれ推定された前記被写体間距離がすべて所定値以下となる人同士について、推定された前記被写体間距離を用いて、人同士の親密さの程度を表す親密度を前記被写体間距離が小さいほど大きい値となるように算出する親密度算出部と、を備える。 The first aspect provides an image processing apparatus that processes a plurality of target images arranged in time series. The image processing apparatus according to the first aspect of the present invention uses a face area detection unit that detects, for each face image, a face area that is an image area including a face image from each of the target images, and the face area. A subject distance estimation unit that estimates a subject distance that is a distance from the subject's face to the photographing apparatus, and a subject that is an actual distance between human faces represented in the face area using the subject distance An inter-subject distance estimation unit that estimates an inter-distance, and people who have all the inter-subject distances estimated from a predetermined number of consecutive target images that are less than or equal to a predetermined value, using the estimated inter-subject distance A closeness calculating unit that calculates a closeness representing a degree of intimacy between people so that the closeness between the subjects becomes smaller as the distance between the subjects becomes smaller.
第1の態様に係る画像処理装置によれば、連続する所定数の対象画像においてそれぞれ推定された被写体間距離がすべて所定値以下となる人同士について親密度を算出するため、対象画像から人同士の関係性を特定する処理の効率性を向上させることができる。 According to the image processing apparatus according to the first aspect, since the intimacy is calculated for people whose subject-to-subject distances are all equal to or less than a predetermined value in a predetermined number of consecutive target images, It is possible to improve the efficiency of processing for specifying the relationship.
第1の態様に係る画像処理装置において、前記親密度算出部は、前記被写体間距離が推定された人同士について、前記被写体間距離が推定された前記対象画像の次に連続する対象画像において前記被写体間距離が推定されなくても、前記被写体間距離が推定されなかった対象画像の次に連続する対象画像において前記被写体間距離が推定された場合には、前記被写体間距離が推定された対象画像の合計が所定数であり、推定された前記被写体間距離がすべて所定値以下であれば前記人同士の親密度を算出してもよい。この場合、連続していない所定数の対象画像においてそれぞれ推定された被写体間距離がすべて所定値以下となる人同士について親密度を算出するため、対象画像から人同士の関係性を特定する処理の効率性を向上させることができる。 In the image processing device according to the first aspect, the closeness calculation unit is configured to perform the following operation on the target image that is next to the target image on which the inter-subject distance is estimated. Even if the distance between subjects is not estimated, if the distance between subjects is estimated in a target image that is next to the target image for which the distance between subjects is not estimated, the target whose distance between subjects is estimated If the total number of images is a predetermined number and all the estimated distances between the subjects are less than or equal to a predetermined value, the closeness between the persons may be calculated. In this case, in order to calculate intimacy for people whose estimated inter-subject distances are all equal to or less than a predetermined value in a predetermined number of target images that are not continuous, the process of specifying the relationship between people from the target image Efficiency can be improved.
第1の態様に係る画像処理装置はさらに、前記親密度算出部により前記親密度を算出されたそれぞれの人の顔の画像から人の特徴を判別する特徴判別部と、前記親密度と前記人の特徴とを用いて、前記親密度を算出された人同士の間柄を判定する間柄判定部と、を備えていてもよい。この場合、親密度と、人の特徴とを用いて、親密度を算出された人同士の間柄を判定するため、対象画像から人同士の関係性を特定する処理の効率性を向上させることができる。 The image processing apparatus according to the first aspect further includes a feature discriminating unit that discriminates human characteristics from each person's face image whose intimacy is calculated by the intimacy calculating unit, and the intimacy and the person And a relationship determination unit that determines a relationship between people whose intimacy has been calculated. In this case, in order to determine the relationship between the persons whose intimacy is calculated using the intimacy and the characteristics of the person, it is possible to improve the efficiency of the process of identifying the relationship between the persons from the target image. it can.
第1の態様に係る画像処理装置はさらに、前記特徴判別部は、前記親密度を算出されたそれぞれの人物について、既に前記人の特徴を判別した人物か否かを判定し、前記人の特徴を判別していない人物についてのみ前記判別をおこなってもよい。この場合、一度、人の特徴を判別した人物について再度、判別をおこなわないため、対象画像から人同士の関係性を特定する処理の効率性を向上させることができる。 In the image processing apparatus according to the first aspect, the feature determination unit further determines, for each person whose intimacy is calculated, whether or not the person has already determined the characteristics of the person, and the characteristics of the person The determination may be performed only for a person who has not been determined. In this case, once the person whose characteristics have been determined is not determined again, it is possible to improve the efficiency of the process of specifying the relationship between persons from the target image.
第1の態様に係る画像処理装置において、前記特徴判別部は、前記顔領域に含まれている顔の画像から人の年齢を判別してもよい。この場合、親密度と、人の年齢とを用いて、親密度を算出された人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。 In the image processing apparatus according to the first aspect, the feature determination unit may determine the age of a person from a face image included in the face region. In this case, since the relationship between the persons whose intimacy has been calculated is determined using the intimacy and the age of the person, it is possible to improve the accuracy of specifying the relationship between the persons from the target image.
第1の態様に係る画像処理装置において、前記特徴判別部は、前記顔領域に含まれている顔の画像から人の性別を判別してもよい。この場合、親密度と、人の性別とを用いて、親密度を算出された人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。 In the image processing apparatus according to the first aspect, the feature determination unit may determine the sex of a person from a face image included in the face area. In this case, since the relationship between the persons whose intimacy has been calculated is determined using the intimacy and the person's gender, it is possible to improve the accuracy of identifying the relationship between the persons from the target image.
第1の態様に係る画像処理装置において、前記間柄判定部は、前記親密度および前記人の特徴と、前記人同士の間柄と、の対応関係が示されている2以上の間柄判定情報を記憶している記憶部と、前記対象画像の撮影された場所に関する情報に基づき、前記記憶部から1つの間柄判定情報を選択する間柄判定情報選択部と、を備え、前記間柄判定情報選択部により選択された間柄判定情報を用いて、前記親密度を算出された人同士の間柄を判定してもよい。この場合、間柄判定情報選択部により選択された間柄判定情報を用いて、親密度を算出された人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。 In the image processing apparatus according to the first aspect, the interstitial determination unit stores two or more interstitial determination information indicating a correspondence relationship between the intimacy and the characteristics of the person and the interpersonal relation. And a interstitial determination information selection unit that selects one interstitial determination information from the storage unit based on information on the location where the target image was taken, and is selected by the interstitial determination information selection unit The relationship between the persons whose intimacy has been calculated may be determined using the determined relationship determination information. In this case, using the relationship determination information selected by the relationship determination information selection unit, the relationship between the people whose intimacy is calculated is determined, so that the accuracy of identifying the relationship between the people from the target image is improved. be able to.
第1の態様に係る画像処理装置において、前記対象画像の撮影された場所に関する情報は、GPS情報を用いて特定されてもよい。この場合、対象画像の撮影された場所に関する情報はGPS情報を用いて特定されるため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。 In the image processing device according to the first aspect, the information related to the location where the target image was taken may be specified using GPS information. In this case, since the information regarding the location where the target image was taken is specified using GPS information, it is possible to improve the accuracy of specifying the relationship between people from the target image.
第1の態様に係る画像処理装置はさらに、前記間柄判定部により判定された人同士の間柄から、前記親密度算出部により前記親密度を算出された人全員の間柄関係を表す間柄関係図を作成する間柄関係図作成部を備えていてもよい。この場合、親密度を算出された人全員の関係性を表示することができる。 The image processing apparatus according to the first aspect further includes a relationship diagram representing a relationship between all the persons whose intimacy is calculated by the intimacy calculating unit based on the relationship between the persons determined by the relationship determining unit. An interstitial relationship diagram creation unit may be provided. In this case, it is possible to display the relationship of all the persons whose intimacy has been calculated.
第1の態様に係る画像処理装置において、前記間柄関係図は、前記親密度を算出された人の顔の画像と、前記顔の画像同士をつなぐ関係線とが表され、前記親密度が高い人同士ほど前記顔の画像同士の距離が小さく、前記対象画像に現れる頻度が高い人同士ほど前記関係線の幅が大きく表されていてもよい。この場合、親密度を算出された人全員の関係性を容易に表示することができる。 In the image processing apparatus according to the first aspect, the interstitial relationship diagram represents a human face image for which the familiarity is calculated and a relation line connecting the facial images, and the familiarity is high. The distance between the face images may be smaller as the number of people increases, and the width of the relationship line may be larger as the numbers of people who appear more frequently in the target image. In this case, it is possible to easily display the relationships of all persons whose intimacy has been calculated.
第1の態様に係る画像処理装置において、前記被写体距離推定部は、前記対象画像の大きさに対する前記顔領域の大きさに基づいて前記被写体距離を推定してもよい。この場合、顔領域に表されている顔から撮影装置までの距離である被写体距離を容易に推定することができる。 In the image processing device according to the first aspect, the subject distance estimation unit may estimate the subject distance based on the size of the face area with respect to the size of the target image. In this case, it is possible to easily estimate the subject distance, which is the distance from the face represented in the face area to the photographing apparatus.
第1の態様に係る画像処理装置において、前記親密度算出部は、時系列に並んだ複数の対象画像の少なくとも一部に表され、被写体間距離がすべて所定値以下となる人同士について、前記対象画像に表れる頻度が所定数以上の人同士については前記親密度を算出し、前記対象画像に表れる頻度が所定数より少ない人同士については前記親密度を算出しなくてもよい。この場合、対象画像から人同士の関係性を特定する処理の効率性を向上させることができる。 In the image processing device according to the first aspect, the closeness calculating unit is represented in at least a part of a plurality of target images arranged in time series, and the distance between subjects is less than or equal to a predetermined value, The intimacy may be calculated for people whose frequency appears in the target image is equal to or greater than a predetermined number, and the intimacy may not be calculated for people whose frequency appears in the target image is less than the predetermined number. In this case, it is possible to improve the efficiency of the process of specifying the relationship between people from the target image.
第1の態様に係る画像処理装置において、前記親密度算出部は、第1の対象画像に含まれている顔の画像同士の距離が、第2の対象画像に含まれている顔の画像同士の距離より小さく、第1の対象画像に表されている顔同士の実際の距離が、第2の対象画像に表されている顔同士の実際の距離より大きい場合、第1の対象画像に表されている人同士より第2の対象画像に表されている人同士の方がより親密度が高くなるように親密度を算出してもよい。この場合、対象画像から人同士の関係性を精度良く特定することができる。 In the image processing device according to the first aspect, the closeness calculating unit is configured such that the distance between the face images included in the first target image is equal to the distance between the face images included in the second target image. If the actual distance between the faces represented in the first target image is smaller than the actual distance between the faces represented in the second target image, it is represented in the first target image. The intimacy may be calculated so that the intimacy of the people represented in the second target image is higher than that of the inferred people. In this case, it is possible to accurately specify the relationship between people from the target image.
第1の態様に係る画像処理装置において、前記間柄関係図作成部は、第1の対象画像に含まれている顔の画像同士の距離が、第2の対象画像に含まれている顔の画像同士の距離より小さく、第1の対象画像に表されている顔同士の実際の距離が、第2の対象画像に表されている顔同士の実際の距離より大きい場合、前記間柄関係図において、第1の対象画像に現れる人の顔の画像同士の距離より第2の対象画像に現れる人の顔の画像同士の距離の方が小さくなるように前記間柄関係図を作成してもよい。この場合、親密度を算出された人全員の関係性を精度良く表示することができる。 In the image processing device according to the first aspect, the interstitial relationship diagram creating unit is configured such that the distance between the face images included in the first target image is the face image included in the second target image. If the actual distance between the faces represented in the first target image is smaller than the distance between each other and greater than the actual distance between the faces represented in the second target image, The interstitial relationship diagram may be created so that the distance between human face images appearing in the second target image is smaller than the distance between human face images appearing in the first target image. In this case, it is possible to accurately display the relationships of all the persons whose intimacy has been calculated.
本発明は、種々の態様で実現することが可能であり、例えば、プリンター、デジタルスチルカメラ、パーソナルコンピューター、デジタルビデオカメラ等で実現することができる。また、画像処理方法および装置、親密度算出方法および装置、間柄関係表示方法および装置、これらの方法または装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号、等の形態で実現することができる。 The present invention can be realized in various modes, for example, a printer, a digital still camera, a personal computer, a digital video camera, or the like. Further, an image processing method and apparatus, an affinity calculation method and apparatus, a relationship relationship display method and apparatus, a computer program for realizing the functions of these methods or apparatuses, a recording medium on which the computer program is recorded, and the computer program It can be realized in the form of a data signal embodied in a carrier wave.
以下、本発明に係る画像処理装置の一態様であるプリンターについて、図面を参照しつつ、実施例に基づいて説明する。 Hereinafter, a printer which is an aspect of an image processing apparatus according to the present invention will be described based on examples with reference to the drawings.
A.第1実施例:
A1.画像処理装置の構成:
図1は、第1実施例における画像処理装置としてのプリンターの構成を概略的に示す説明図である。本実施例のプリンター100は、メモリーカードMC等から取得した画像データに基づき画像を印刷する、いわゆるダイレクトプリントに対応したインクジェット式カラープリンターである。プリンター100は、プリンター100の各部を制御するCPU110と、ROMやRAMによって構成された内部メモリー120と、ボタンやタッチパネルにより構成された操作部140と、液晶ディスプレイにより構成された表示部150と、印刷機構160と、カードインターフェース(カードI/F)170と、を備えている。プリンター100は、さらに、他の機器(例えばデジタルスチルカメラやパーソナルコンピューター)とのデータ通信を行うためのインターフェースを備えていてもよい。プリンター100の各構成要素は、バスを介して双方向通信可能に接続されている。
A. First embodiment:
A1. Configuration of image processing device:
FIG. 1 is an explanatory diagram schematically showing the configuration of a printer as an image processing apparatus in the first embodiment. The
印刷機構160は、印刷データに基づき印刷を行う。カードインターフェース170は、カードスロット172に挿入されたメモリーカードMCとの間でデータのやり取りを行うためのインターフェースである。なお、本実施例では、メモリーカードMCに動画像ファイルが格納されている。この動画像ファイルは、例えば、デジタルスチルカメラ等の撮影装置によりExif(Exchangeable Image File Format)規格に則って時間的に連続して順次生成された複数の画像ファイルを含み、それぞれの画像ファイルには撮影により生成されたRGBデータとしての画像データの他に、撮影日時、撮影時の絞り値(F値)、シャッタースピード、レンズの焦点距離、撮影時の緯度経度情報等の付加データを含んでいる。動画像ファイルは、例えば、Motion JPEG等の圧縮形式を採用することができる。動画像ファイルを構成する画像ファイルは、例えば、JPEG等の圧縮形式を採用することができる。プリンター100は、カードインターフェース170を介してメモリーカードMCに格納された動画像ファイルの取得をおこなう。
The
内部メモリー120には、画像処理部200と、表示制御部310と、印刷制御部320と、が格納されている。画像処理部200は、コンピュータープログラムであり、所定のオペレーティングシステムの下で、CPU110により実行されることで画像検索・印刷処理をおこなう。本実施例の画像検索・印刷処理は、検索対象となる複数の画像(以後、「対象画像」とも呼ぶ)から人同士の親密さの程度を表す親密度を算出し、この親密度を用いて特定の画像を検出する画像検索をおこなうとともに、検出された画像の印刷をおこなう処理である。画像検索・印刷処理については、後に詳述する。表示制御部310、および、印刷制御部320についてもCPU110により実行されることでぞれぞれの機能を実現する。
The
画像処理部200は、プログラムモジュールとして、顔領域検出部210と、被写体距離推定部220と、被写体間距離推定部230と、親密度算出部240と、特徴判別部250と、特定情報取得部260と、画像検索部270と、間柄判定部280と、間柄関係図作成部290と、を含んでいる。間柄判定部280は、間柄判定情報選択部281を含んでいる。これら各部の機能については、後述の画像検索・印刷処理の説明において詳述する。
The
表示制御部310は、表示部150を制御して、表示部150上に処理メニューやメッセージ、画像等を表示させるディスプレイドライバである。印刷制御部320は、画像データから印刷データを生成し、印刷機構160を制御して、印刷データに基づく画像の印刷を実行するためのコンピュータープログラムである。CPU110は、内部メモリー120から、これらのプログラム(画像処理部200、表示制御部310、印刷制御部320)を読み出して実行することにより、これら各部の機能を実現する。
The
内部メモリー120には、また、間柄判定情報RDIが格納されている。間柄判定情報RDIは、後述の画像検索・印刷処理において参照されるために予め設定される情報である。間柄判定情報RDIの内容については、後述の画像検索・印刷処理の説明において詳述する。
The
A2.画像検索・印刷処理
図2は、第1実施例における画像検索・印刷処理の流れを示すフローチャートである。本実施例の画像検索・印刷処理は、動画像に表されている人同士について算出した親密度から、人同士の間柄関係を表す間柄関係図を作成し、間柄関係図を参照したユーザーにより選択された画像の印刷をおこなう。
A2. Image Search / Print Processing FIG. 2 is a flowchart showing the flow of image search / print processing in the first embodiment. The image search / printing process of the present embodiment creates a interstitial relationship diagram representing the interstitial relationship between people based on the intimacy calculated for the people represented in the moving image, and is selected by a user who refers to the interstitial relationship diagram The printed image is printed.
画像処理部200は、画像検索の対象となる対象画像を取得する(ステップS100)。本実施例では、メモリーカードMCに格納された動画像ファイルにより表されるすべての画像を画像検索・印刷処理の対象となる対象画像として説明する。なお、対象画像は、メモリーカードMC以外の記憶装置に格納された動画像ファイルにより表される画像であってもよいし、メモリーカードMCに格納された動画像ファイルにより表される画像の一部であってもよい。本実施例では、プリンター100は、カードスロット172にメモリーカードMCが挿入されると、メモリーカードMCから対象画像を取得する。すなわち、プリンター100は、メモリーカードMCに格納された動画像ファイルを内部メモリー120に格納する。
The
図3は、動画像ファイルにより表される各対象画像の一部を例示した説明図である。各対象画像TI0〜TI3は、対象画像TI0、対象画像TI1、対象画像TI2、対象画像TI3の順に時間的に連続した画像である。すなわち、各対象画像TI0〜TI3は、対象画像TI0、対象画像TI1、対象画像TI2、対象画像TI3の順に時系列に並んだ画像である。対象画像TIは、動画像ファイルにより表される動画像の各フレームに該当する。なお、動画像ファイルにより表される動画像のフレームレートには特に限定はなく、本実施例では30fpsが採用されている。ただし、フレームレートについては、30fps以外の値が採用されていてもよい。 FIG. 3 is an explanatory diagram illustrating a part of each target image represented by the moving image file. Each of the target images TI0 to TI3 is a temporally continuous image in the order of the target image TI0, the target image TI1, the target image TI2, and the target image TI3. That is, the target images TI0 to TI3 are images arranged in time series in the order of the target image TI0, the target image TI1, the target image TI2, and the target image TI3. The target image TI corresponds to each frame of the moving image represented by the moving image file. There is no particular limitation on the frame rate of the moving image represented by the moving image file, and 30 fps is adopted in this embodiment. However, a value other than 30 fps may be adopted for the frame rate.
図4は、内部メモリーに格納された動画像ファイルを説明するための説明図である。図4は、内部メモリー120に格納された動画像ファイルにより表される各対象画像TIと、対象画像TIをそれぞれ識別するための画像識別子とを示している。画像処理部200は、取得した各対象画像TIに対応する画像ファイルにそれぞれ画像識別子を対応付けて内部メモリー120の所定領域に格納する。ここで、画像識別子とは、内部メモリー120に格納された画像ファイルのそれぞれが一意に特定可能な識別子であり、数字や記号のほか、ファイル名等の文字列であってもよい。
FIG. 4 is an explanatory diagram for explaining a moving image file stored in the internal memory. FIG. 4 shows each target image TI represented by a moving image file stored in the
画像処理部200は、注目画像OIを設定する(ステップS110)。具体的には、画像処理部200は、内部メモリー120に格納された画像ファイルの中から1つの画像ファイルを選択する。画像処理部200は、選択した画像ファイルに対応する対象画像TIを注目画像OIとして設定する。本実施例では、図4に示す、対象画像TI1を注目画像OIとして設定した例について説明する。
The
顔領域検出部210は、注目画像OIにおける顔領域FAの検出をおこなう(ステップS120)。ここで、顔領域FAとは、注目画像OI上の画像領域であって、少なくとも顔の一部の画像が含まれる領域を意味している。顔領域検出部210による顔領域FAの検出は、例えばテンプレートを利用したパターンマッチングによる方法(特開2004−318204参照)といった公知の顔検出方法を用いて実行される。
The face
図5は、顔領域FAの検出結果の一例を示す説明図である。図5の例では、注目画像OIに2人の顔の画像が含まれている。そのため、ここでは、注目画像OIから2つの顔領域FA1、FA2が検出される。顔領域FAは、図5に示すように、両目と鼻と口の画像を含む矩形の領域となっている。また、顔領域検出部210は、顔領域FAに基づいて頭全体を含む矩形の領域である頭領域TAを検出する。注目画像OIにおける頭領域TAの位置および範囲は、検出した顔領域FAの注目画像OIにおける位置および範囲に対して所定となるように予め設定されている。そのため、顔領域FAの検出により頭領域TAの位置および範囲が一義的に規定される。頭領域TAの規定方法については、特に限定はなく、例えば、頭領域TAは、顔領域FAから所定の画素数外側の範囲としてもよいし、顔領域FAの縦横それぞれの画素数に所定の定数を掛けて算出される範囲としてもよい。本実施例では、2つの頭領域TA1、TA2が検出される。
FIG. 5 is an explanatory diagram showing an example of the detection result of the face area FA. In the example of FIG. 5, the attention image OI includes two face images. Therefore, here, two face areas FA1 and FA2 are detected from the target image OI. As shown in FIG. 5, the face area FA is a rectangular area including images of both eyes, nose and mouth. Further, the face
なお、顔領域検出部210は、顔領域FAおよび頭領域TAの検出結果として、注目画像OIにおける顔領域FAおよび頭領域TAのそれぞれの位置を特定可能な情報(例えば顔領域FAの4つの頂点の座標、および、頭領域TAの4つの頂点の座標)を出力する。また、図5に示すように、本実施例では、注目画像OIの幅をWwi(単位は画素数)と表し、顔領域FAの幅をそれぞれWfi1およびWfi2(単位は画素数)と表すものとする。なお、ステップS120の顔領域FAの検出において、顔領域FAが検出されなかった場合には、新たに別の対象画像TIを注目画像OIとして選択し、顔領域FAの検出をおこなう。
Note that the face
ステップS120では、テンプレートを利用したパターンマッチングにより注目画像OIから顔領域FAが検出される。このようなテンプレートを利用したパターンマッチングによる方法等の公知の顔検出方法は、一般に、顔全体や顔の部位(目や口等)について位置や傾き(角度)を詳細に検出するものではなく、注目画像OI中から顔の画像が概ね含まれると考えられる領域を顔領域FAとして設定するものである。 In step S120, the face area FA is detected from the target image OI by pattern matching using a template. A known face detection method such as a pattern matching method using such a template generally does not detect in detail the position and inclination (angle) of the entire face or part of the face (eyes, mouth, etc.) An area that is considered to contain a face image from the attention image OI is set as the face area FA.
図6は、内部メモリーに格納された人物情報データベースを説明するための説明図である。画像処理部200は、注目画像OIの頭領域TAに対応する画像の画像データを生成する。頭領域TAには、人の頭全体を表す画像が含まれているため、生成した画像データは、注目画像OIに含まれている人ごとの人物画像PIを表している。画像処理部200は、図6に示すように、人物画像PIを表す画像データと、それぞれの人物画像を識別するための人物識別子と対応付けた人物情報データベースHCを内部メモリー120の所定領域に格納する。ここでは、注目画像OIとして設定した対象画像TI1に2人の人物画像が含まれているため、頭領域TA1により表される人物の人物画像PI1の画像データと人物識別子aaとを対応付けるとともに、頭領域TA2により表される人物の人物画像PI2の画像データと人物識別子bbとを対応付ける。なお、本実施例では、画像処理部200は、注目画像OIの頭領域TAに対応する人物画像PIの画像データを生成しているが、画像データを生成せず、頭領域TAの位置を特定するための情報や、頭領域TAを検出した注目画像OIの画像識別子などと、人物識別子と対応付けた人物情報データベースHCを構築してもよい。
FIG. 6 is an explanatory diagram for explaining the person information database stored in the internal memory. The
図7は、画像識別子と人物識別子との対応付けを説明するための説明図である。画像処理部200は、内部メモリーに格納されている注目画像OIに対応する画像ファイルと、注目画像OIに含まれている人物画像PIの画像データを対応付ける。具体的には、画像処理部200は、図7に示すように、対象画像TI1に対応する画像ファイルの画像識別子IAと、2人の人物画像PI1、PI2とそれぞれ対応する人物識別子aa、bbとを対応付ける。
FIG. 7 is an explanatory diagram for explaining the association between an image identifier and a person identifier. The
画像処理部200は、人物情報設定処理をおこなう(ステップS130)。人物情報設定処理とは、注目画像OIから、注目画像OIに表されている人の年齢や、性別のほか、注目画像OIに表されている人同士の親密さの程度を表す親密度や間柄などの人物情報を取得し、人物情報データベースHCに設定する処理である。人物情報は、上記以外にも、例えば、注目画像OIに表されている人の表情や、顔向きなどを含んでいてもよい。
The
図8は、第1実施例における人物情報設定処理の流れを示すフローチャートである。被写体距離推定部220は、被写体距離Sdの推定を行う(ステップS200)。ここで、被写体距離Sdは、注目画像OIの撮影時における撮影装置(より詳細には撮影装置のレンズの主点)から被写体である人の顔までの距離である。 FIG. 8 is a flowchart showing the flow of the person information setting process in the first embodiment. The subject distance estimation unit 220 estimates the subject distance Sd (step S200). Here, the subject distance Sd is the distance from the photographing device (more specifically, the principal point of the lens of the photographing device) to the face of the person who is the subject at the time of photographing the target image OI.
図9は、被写体距離Sdの推定方法を示す説明図である。図9には、注目画像OIの撮影時における撮影装置の結像面ISと被写体としての人Pの顔との位置関係を示している。図9に示すように、レンズの主点UPと人Pの顔との間の距離である被写体距離Sdは、人Pの顔の位置を含み結像面ISに平行な面(以下「被写体面SS」とも呼ぶ)における撮影範囲の幅Wwと画角θ1とにより定まる。また、画角θ1は、レンズの焦点距離fと結像面ISの幅Wxとの関係により特定される。すなわち、下記の式(1)が成り立つ。 FIG. 9 is an explanatory diagram showing a method for estimating the subject distance Sd. FIG. 9 shows the positional relationship between the imaging plane IS of the photographing apparatus and the face of the person P as the subject at the time of photographing the attention image OI. As shown in FIG. 9, the subject distance Sd, which is the distance between the principal point UP of the lens and the face of the person P, is a plane including the position of the face of the person P and parallel to the imaging plane IS (hereinafter referred to as “subject plane”). It is determined by the width Ww of the shooting range and the angle of view θ1). The angle of view θ1 is specified by the relationship between the focal length f of the lens and the width Wx of the imaging plane IS. That is, the following formula (1) is established.
また、被写体面SSにおける撮像範囲の幅Wwは、人Pの顔の画像が注目画像OI(図5)において占める大きさに基づき特定される。すなわち、被写体面SSにおける幅Wwと人Pの顔の幅Wfとの比は、注目画像OIにおける画像全体の幅Wwiと顔領域FAの幅Wfiとの比に等しいと考えられる(式(2)参照)。 Further, the width Ww of the imaging range on the subject surface SS is specified based on the size that the face image of the person P occupies in the attention image OI (FIG. 5). That is, the ratio between the width Ww on the subject surface SS and the width Wf of the face of the person P is considered to be equal to the ratio between the width Wwi of the entire image in the target image OI and the width Wfi of the face area FA (formula (2)). reference).
上記式(1)および(2)から、下記の式(3)が導かれる。 From the above formulas (1) and (2), the following formula (3) is derived.
被写体距離推定部220は、式(3)を用いた被写体距離Sdの算出に必要な情報を取得する。具体的には、被写体距離推定部220は、注目画像OIを表す画像ファイルにメタデータとして付加されている注目画像OIの全体の幅Wwiの値(画素数)を取得すると共に、顔領域FA(図5)の幅Wfiの値(画素数)を算出する。顔領域FAの幅Wfiの算出は、例えば前述の顔領域FAの4つの頂点のうちの2つの頂点の座標を用いて2つの頂点間の距離を算出することにより行う。 The subject distance estimation unit 220 acquires information necessary for calculating the subject distance Sd using Expression (3). Specifically, the subject distance estimation unit 220 acquires the value (number of pixels) of the entire width Wwi of the target image OI added as metadata to the image file representing the target image OI, and also detects the face area FA ( The value (number of pixels) of the width Wfi in FIG. 5) is calculated. The width Wfi of the face area FA is calculated, for example, by calculating the distance between the two vertices using the coordinates of the two vertices of the four vertices of the face area FA described above.
また、被写体距離推定部220は、人Pの顔の幅Wfの値として、予め設定され内部メモリー120に格納された典型的な人物の顔の幅(顔の現実の大きさ)の概略値(例えば200mm)を取得する。
In addition, the subject distance estimation unit 220 approximates the typical human face width (actual face size) stored in the
さらに、被写体距離推定部220は、注目画像OIの画像ファイルの付加データに含まれる撮像時のレンズの焦点距離fの値を取得する。ここで、取得されるレンズの焦点距離fの値は、35mmフィルム換算値であり、撮像装置の実際の焦点距離(実焦点距離)とは異なる場合がある。このような場合には、被写体距離推定部220は、結像面ISの幅Wxとして、予め設定された35mmフィルムの幅の値を取得する。なお、画像ファイルの付加データに実焦点距離のデータと撮像装置の撮像素子の幅のデータとが含まれている場合には、被写体距離推定部220が、レンズの焦点距離fとして実焦点距離の値を取得し、結像面ISの幅Wxとして撮像素子の幅の値を取得するとしてもよい。また、画像ファイルの付加データに画角そのものを示すデータが含まれている場合には、被写体距離推定部220が画角を示すデータを取得するとしてもよい。 Further, the subject distance estimation unit 220 acquires the value of the focal length f of the lens at the time of imaging included in the additional data of the image file of the target image OI. Here, the value of the focal length f of the lens acquired is a 35 mm film equivalent value and may be different from the actual focal length (actual focal length) of the imaging apparatus. In such a case, the subject distance estimation unit 220 acquires a preset value of the width of the 35 mm film as the width Wx of the imaging plane IS. If the additional data of the image file includes data on the actual focal length and data on the width of the image sensor of the imaging device, the subject distance estimation unit 220 sets the actual focal length as the lens focal length f. A value may be acquired, and the value of the width of the image sensor may be acquired as the width Wx of the imaging plane IS. If the additional data of the image file includes data indicating the angle of view, the subject distance estimation unit 220 may acquire data indicating the angle of view.
被写体距離推定部220は、取得した上記各情報(対象画像TIの全体の幅Wwiの値、顔領域FAの幅Wfiの値、人物Pの顔の幅Wfの値、レンズの焦点距離fの値、結像面ISの幅Wxの値)と、上記式(3)とを用いて、被写体距離Sdを算出(推定)する。本実施例では、撮影装置から顔領域FA1に対応する人の顔までの距離である被写体距離Sd1と、撮影装置から顔領域FA2に対応する人の顔までの距離である被写体距離Sd2が推定される。 The subject distance estimation unit 220 obtains each of the acquired information (the value of the entire width Wwi of the target image TI, the value of the width Wfi of the face area FA, the value of the face width Wf of the person P, and the value of the focal length f of the lens). The object distance Sd is calculated (estimated) by using the value of the width Wx of the image plane IS and the above equation (3). In the present embodiment, a subject distance Sd1 that is a distance from the photographing apparatus to a human face corresponding to the face area FA1 and a subject distance Sd2 that is a distance from the photographing apparatus to a human face corresponding to the face area FA2 are estimated. The
なお、撮影装置から顔領域FA1に対応する人の顔までの距離である被写体距離Sd1と、撮影装置から顔領域FA2に対応する人の顔までの距離である被写体距離Sd2との比は、顔領域FA1の幅Wfi1と顔領域FA2の幅Wfi2との比に等しいと考えられるため、上記式(3)を用いて、被写体距離Sd1を算出し、被写体距離Sd2を下記の式(4)により算出してもよい。 Note that the ratio of the subject distance Sd1 that is the distance from the photographing apparatus to the face of the person corresponding to the face area FA1 and the subject distance Sd2 that is the distance from the photographing apparatus to the face of the person corresponding to the face area FA2 is the face Since it is considered to be equal to the ratio of the width Wfi1 of the area FA1 and the width Wfi2 of the face area FA2, the subject distance Sd1 is calculated using the above formula (3), and the subject distance Sd2 is calculated by the following formula (4). May be.
被写体距離推定部220により被写体距離Sdが推定されると、被写体間距離推定部230は、被写体間距離Sbdの推定をおこなう(ステップS210)。ここで、被写体間距離Sbdは、注目画像OIに表されている2人の顔の一方の顔から他方の顔までの実際の距離である。言い換えれば、被写体間距離Sbdは、顔領域FAに表されている顔同士の撮影時における実際の距離である。 When the subject distance estimation unit 220 estimates the subject distance Sd, the subject distance estimation unit 230 estimates the subject distance Sbd (step S210). Here, the inter-subject distance Sbd is an actual distance from one face to the other face of the two faces represented in the attention image OI. In other words, the inter-subject distance Sbd is an actual distance at the time of photographing the faces represented in the face area FA.
図10は、被写体間距離Sbdの推定方法を示す説明図である。図10には、注目画像OIの撮影時における撮影装置PDと被写体としての人P1および人P2の顔との位置関係を示している。人P1は、図5に示す顔領域FA1に対応する人であり、人P2は、顔領域FA2に対応する人を表している。図10に示すように、人P1の顔と人P2の顔との間の距離である被写体間距離Sbdは、撮影装置PDと人P1とを結ぶ直線上の距離成分である奥行き方向距離Shと、この奥行き方向と直交する方向の距離成分である直交方向距離Svにより特定される。すなわち、式(5)が成り立つ。 FIG. 10 is an explanatory diagram showing a method for estimating the inter-subject distance Sbd. FIG. 10 shows the positional relationship between the imaging device PD and the faces of the persons P1 and P2 as subjects when the attention image OI is captured. The person P1 is a person corresponding to the face area FA1 shown in FIG. 5, and the person P2 represents a person corresponding to the face area FA2. As shown in FIG. 10, the inter-subject distance Sbd, which is the distance between the face of the person P1 and the face of the person P2, is a depth direction distance Sh that is a distance component on a straight line connecting the photographing apparatus PD and the person P1. , And is specified by the orthogonal direction distance Sv which is a distance component in a direction orthogonal to the depth direction. That is, Expression (5) is established.
また、直交方向距離Svは、撮影装置PDと人P1とを結ぶ直線と、撮影装置PDと人P2とを結ぶ直線とにより形成される形成角θ2と、撮影装置から人P2の顔までの距離である被写体距離Sd2により特定される。すなわち、式(6)が成り立つ。 Further, the orthogonal distance Sv is a formation angle θ2 formed by a straight line connecting the photographing apparatus PD and the person P1, a straight line connecting the photographing apparatus PD and the person P2, and a distance from the photographing apparatus to the face of the person P2. Is specified by the subject distance Sd2. That is, Expression (6) is established.
また、直交方向距離Svおよび奥行き方向距離Shは、撮影装置から人P1の顔までの距離である被写体距離Sd1と、形成角θ2により特定される。すなわち式(7)が成り立つ。 Further, the orthogonal direction distance Sv and the depth direction distance Sh are specified by the subject distance Sd1 which is the distance from the photographing apparatus to the face of the person P1 and the formation angle θ2. That is, Expression (7) is established.
式(6)および式(7)により、奥行き方向距離Shは、被写体距離Sd1、Sd2および形成角θ2を用いて特定される。すなわち、式(8)が成り立つ。 The depth direction distance Sh is specified by using the subject distances Sd1 and Sd2 and the formation angle θ2 by Expression (6) and Expression (7). That is, Expression (8) is established.
式(5)、式(6)、および、式(8)により、被写体間距離Sbdを被写体距離Sd1、Sd2および形成角θ2を用いて特定できる。すなわち、式(9)が成り立つ。 From the equations (5), (6), and (8), the subject distance Sbd can be specified using the subject distances Sd1, Sd2 and the formation angle θ2. That is, Expression (9) is established.
被写体間距離推定部230は、式(9)を用いた被写体間距離Sbdの算出に必要な情報を取得する。具体的には、被写体間距離推定部230は、被写体距離推定部220により推定された被写体距離Sd1、Sd2を取得するとともに、形成角θ2の値を算出する。形成角θ2の算出は、例えば、注目画像OIにおける顔領域FA1の中心と顔領域FA2との中心とを結ぶ線分の長さと、画像全体の幅Wwiとの比と、形成角θ2と、画角θ1との比を用いることにより算出することができる。 The inter-subject distance estimation unit 230 acquires information necessary for calculating the inter-subject distance Sbd using Expression (9). Specifically, the inter-subject distance estimation unit 230 acquires the subject distances Sd1 and Sd2 estimated by the subject distance estimation unit 220 and calculates the value of the formation angle θ2. The formation angle θ2 is calculated by, for example, the ratio of the length of the line segment connecting the center of the face area FA1 and the center of the face area FA2 in the target image OI to the width Wwi of the entire image, the formation angle θ2, It can be calculated by using the ratio to the angle θ1.
被写体間距離推定部230は、算出した被写体間距離Sbdを人物情報データベースHCに設定する。図11は、人物情報データベースHCに被写体間距離Sbdを設定した状態を説明するための説明図である。被写体間距離推定部230は、人物情報データベースHCにおいて、算出した被写体間距離Sbdを、算出の対象となった2人の人物画像PIの画像データとそれぞれ対応付ける。具体的には、注目画像OIにおいて、頭領域TA1により表される人物と、頭領域TA2により表される人物との被写体間距離Sbdが「50」であった場合、図11に示すように、頭領域TA1と対応する人物画像PI1の画像データに、注目画像OIとして設定している対象画像TIの画像識別子「IB」と、被写体間距離Sbdを算出した相手の人物識別子「bb」と、被写体間距離Sbdである「50」をそれぞれ対応付ける。また、頭領域TA2と対応する人物画像PI2の画像データに、注目画像OIとして設定している対象画像TIの画像識別子「IB」と、被写体間距離Sbdを算出した相手の人物識別子「aa」と、被写体間距離Sbdである「50」をそれぞれ対応付ける。 The inter-subject distance estimation unit 230 sets the calculated inter-subject distance Sbd in the person information database HC. FIG. 11 is an explanatory diagram for explaining a state in which the subject distance Sbd is set in the person information database HC. The inter-subject distance estimation unit 230 associates the calculated inter-subject distance Sbd with the image data of the two person images PI that are the calculation targets in the person information database HC. Specifically, when the subject distance Sbd between the person represented by the head area TA1 and the person represented by the head area TA2 in the attention image OI is “50”, as shown in FIG. In the image data of the person image PI1 corresponding to the head area TA1, the image identifier “IB” of the target image TI set as the target image OI, the partner person identifier “bb” for which the inter-subject distance Sbd is calculated, and the subject The distance Sbd “50” is associated with each other. In addition, in the image data of the person image PI2 corresponding to the head area TA2, the image identifier “IB” of the target image TI set as the attention image OI, and the person identifier “aa” of the partner who calculated the inter-subject distance Sbd , “50”, which is the inter-subject distance Sbd, is associated with each other.
画像処理部200は、被写体間距離Sbdが閾値Th1より小さいか否かを判定する(ステップS220)。具体的には、画像処理部200は、内部メモリー120に予め設定されている閾値Th1と、ステップ210において被写体間距離推定部230により算出された被写体間距離Sbdとを比較して、被写体間距離Sbdが閾値Th1より小さいか否か判定する。被写体間距離Sbdが閾値Th1以上である場合(ステップS220:NO)、画像処理部200は、後述する頻度情報として「頻度n=0」を人物情報データベースHCに設定する(ステップS225)。画像処理部200は、人物情報データベースHCに頻度情報として「頻度n=0」を設定すると、人物情報設定処理を終了する。
The
被写体間距離Sbdが閾値Th1より小さい場合(ステップS220:YES)、画像処理部200は、被写体間距離Sbdを算出したそれぞれの人物が前回以前の対象画像に表された人物であるか否かを判定する(ステップS230)。すなわち、画像処理部200は、今回、注目画像に設定した対象画像より前に注目画像に設定したいずれかの対象画像に、今回、被写体間距離Sbdを算出したそれぞれの人物が表されているか否かについて判定をおこなう。例えば、注目画像OIとして設定している対象画像TI1において被写体間距離Sbdを算出した2人の人物(頭領域TA1により表される人物と、頭領域TA2により表される人物)が対象画像TI1より時間的に前の画像である対象画像TI0に表されているか否かを判定する。画像処理部200は、例えば、対象画像TI1から検出した頭領域TAに含まれる顔の画像と、人物情報データベースHCに表されている人物画像PIとの類似度をそれぞれ算出し、検出した頭領域TAにより表される人物が既に人物情報データベースHCに設定されているか否かを判定することにより、被写体間距離Sbdを算出したそれぞれの人物が前回以前の対象画像に表された人物であるか否かを判定する。
When the inter-subject distance Sbd is smaller than the threshold Th1 (step S220: YES), the
被写体間距離Sbdを算出したそれぞれの人物が前回以前の対象画像TIに表された人物ではない場合(ステップS230:NO)、画像処理部200は、人物情報データベースHCに頻度情報として「頻度n=1」を設定する(ステップS235)。頻度情報は、人物情報データベースHCに設定されている人物ごとに設定され、それぞれの人物と特定の人物との被写体間距離Sbdが閾値Th1より小さい値となる状態で表されている対象画像の数(頻度n)を表している。被写体間距離Sbdを算出したそれぞれの人物が前回以前の対象画像TIに表された人物ではない場合、今回初めて対象画像に現れた人物同士であることから、画像処理部200は、ぞれぞれの人物に対応する頻度情報として頻度n=1を設定する。
When each person who has calculated the inter-subject distance Sbd is not a person represented in the previous target image TI (step S230: NO), the
図12は、人物情報データベースHCに頻度情報を設定した状態を説明するための説明図である。画像処理部200は、人物情報データベースHCにおいて、被写体間距離Sbdの算出対象となった2人の人物画像PIの画像データに、頻度情報として、「1」をそれぞれ対応付ける。具体的には、頭領域TA1と対応する人物画像PI1の画像データに、被写体間距離Sbdを算出した相手の人物識別子「bb」と、頻度情報である「1」を対応付ける。同様に、頭領域TA2と対応する人物画像PI2の画像データに、被写体間距離Sbdを算出した相手の人物識別子「aa」と、頻度情報である「1」を対応付ける。画像処理部200は、人物情報データベースHCに頻度情報として「頻度n=1」を設定すると、人物情報設定処理を終了する。
FIG. 12 is an explanatory diagram for explaining a state in which frequency information is set in the person information database HC. In the person information database HC, the
被写体間距離Sbdを算出したそれぞれの人物が前回以前の対象画像TIに表されている人物である場合(ステップS230:YES)、画像処理部200は、人物情報データベースHCに設定されているそれぞれの人物に対応する頻度情報の頻度nを1つインクリメントする(ステップS240)。
When each person whose inter-subject distance Sbd is calculated is a person represented in the previous target image TI (step S230: YES), the
画像処理部200は、ステップS230においてインクリメントした頻度nが閾値Th2より大きいか否かを判定する(ステップS250)。頻度nが閾値Th2以下である場合(ステップS250:NO)、画像処理部200は、人物情報設定処理を終了する。頻度nが閾値Th2より大きい場合(ステップS250:YES)、特徴判別部250は、被写体間距離Sbdを算出したそれぞれの人物について既に年齢および性別の判定をおこなっているか否かを判定する(ステップS260)。具体的には、特徴判別部250は、人物情報データベースHCを参照し、被写体間距離Sbdを算出したそれぞれの人物について後述する年齢情報や性別情報が設定されているか否かを判定する。被写体間距離Sbdを算出したそれぞれの人物について既に年齢および性別の判定をおこなっている場合(ステップS260:YES)年齢判定および性別判定(ステップS270)をスキップする。被写体間距離Sbdを算出したそれぞれの人物について年齢および性別の判定をおこなっていない場合には(ステップS260:NO)、特徴判別部250は、年齢判定および性別判定をおこなう(ステップS270)。
The
特徴判別部250による年齢判定および性別判定は、例えば顔領域FAに含まれる目、鼻、髪型、色彩などについての位置、大きさ、比率などの顔特徴量に基づいて推定する方法(特開2007−206921参照)といった公知の判別方法を用いて実行される。本実施例では、年齢判定において推定される年齢は、画像検索・印刷処理をおこなった時点での年齢が推定される。すなわち、注目画像OIに表された人の画像から推定される年齢に、注目画像OIを表す画像ファイルにメタデータとして付加されている撮影日時から画像検索・印刷処理をおこなった日時までに経過した年月分加齢することにより、画像検索・印刷処理をおこなった時点での年齢を推定する。なお、本実施例では、画像検索・印刷処理をおこなった時点での年齢の推定をおこなったが、代わりに、注目画像OIに表されている人の誕生年もしくは誕生年月を推定する態様であってもよい。
The age determination and the gender determination by the
図13は、人物情報データベースに年齢および性別についての人物情報を設定した状態を説明するための説明図である。特徴判別部250は、人物情報データベースHCにおいて、判定した年齢および性別についての人物情報と、判定の対象となった人物と対応する人物画像PIの画像データとを対応付ける。具体的には、図13に示すように、注目画像OIの顔領域FA1から判定した年齢(35歳)と性別(男)を、頭領域TA1と対応する人物画像PI1の画像データと対応付ける。また、注目画像OIの顔領域FA2から判定した年齢(30歳)と性別(女)を、頭領域TA2と対応する人物画像PI2の画像データと対応付ける。
FIG. 13 is an explanatory diagram for explaining a state in which person information regarding age and gender is set in the person information database. In the person information database HC, the
親密度算出部240は、親密度Diの算出をおこなう(ステップS280)。ここで、親密度Diは、注目画像OIに表されている人同士の互いの親密さの程度を表す値であり、人同士が互いに親密であるほど高い値となる。親密度算出部240は、ステップS210において推定された被写体間距離Sbdを用いて親密度Diを算出する。具体的には、親密度算出部240は、被写体間距離Sbdが小さいほど親密度Diの値が大きくなるように親密度Diを算出する。これは、写真撮影時において、お互いに親密である人同士ほどお互いの距離が近い状態となり、親密でない人同士の場合には、お互いに近接した状態となることが少ないことによる。なお、親密度Diと被写体間距離Sbdとの関係は、任意に設定可能であり、親密度Diは、被写体間距離Sbdと直線的な相関関係(線形相関)を有している必要はなく、曲線的な相関関係(非線形相関)であってもよい。また、例えば、被写体間距離Sbdが所定以上であれば、親密度Diの値は一定となるような態様であってもよい。
The
親密度算出部240は、算出した親密度Diを人物情報データベースHCに設定する。図14は、人物情報データベースHCに親密度Diを設定した状態を説明するための説明図である。親密度算出部240は、人物情報データベースHCにおいて、算出した親密度Diを、算出の対象となった2人の人物画像PIの画像データとそれぞれ対応付ける。具体的には、注目画像OIにおいて、頭領域TA1により表される人物と、頭領域TA2により表される人物との親密度Diが「21」であった場合、図14に示すように、頭領域TA1と対応する人物画像PI1の画像データに、親密度Diを算出した相手の人物識別子「bb」と、親密度Diである「21」をそれぞれ対応付ける。また、頭領域TA2と対応する人物画像PI2の画像データに、親密度Diを算出した相手の人物識別子「aa」と、親密度Diiである「21」をそれぞれ対応付ける。
The
間柄判定部280は、間柄判定処理をおこなう(ステップS290)。間柄判定処理は、注目画像OIに表されている人同士の間柄を判定するための処理である。図15は、間柄判定処理の流れを示すフローチャートである。間柄判定部280は、人物情報データベースHCから、間柄判定の対象となる人のそれぞれの年齢および性別などの人物情報と、対象とする人同士の親密度Diとを用いて注目画像OIに表されている人同士の間柄を判定する。
The
間柄判定部280の間柄判定情報選択部281は、位置情報を取得する(ステップS310)。ここで、位置情報とは、注目画像OIとして選択されている対象画像TIが撮影された場所に関する情報であり、街路、住宅、会社といった撮影された場所の種別に関する情報が含まれている。間柄判定情報選択部281は、画像ファイルの付加データに含まれている撮影時の緯度経度情報と、内部メモリー120に記憶されている地理情報とを用いて、対象画像TIが撮影された場所を特定する。ここで、緯度経度情報は、撮影装置と一体もしくは別体のGPSユニットにより取得されたGPS情報を画像ファイルに付加データとして埋め込んだものである。すなわち、間柄判定情報選択部281は、対象画像TIが撮影された場所に関する情報を、GPS情報を用いることにより特定している。なお、プリンター100は、内部メモリー120に地理情報を記憶している必要はなく、例えば、Googleマップなどの地図情報を利用して、緯度経度情報から撮影された場所に関する情報を取得してもよい。
The interstitial determination
間柄判定部280の間柄判定情報選択部281は、内部メモリー120に記憶されている複数の間柄判定情報の中から1つの間柄判定情報を選択する(ステップS320)。間柄判定情報には、間柄判定の対象とする人の年齢や性別等の人物情報、および、親密度Diと、間柄との対応関係が示されている。内部メモリー120に記憶されている複数の間柄判定情報には、それぞれ画像が撮影された場所ごとに設定された対応関係が示されている。図16は、第1の間柄判定情報の内容を説明するための説明図である。図17は、第2の間柄判定情報の内容を説明するための説明図である。間柄判定情報選択部281は、ステップS310により取得した対象画像の撮影された場所に関する情報に基づいて、内部メモリー120に記憶されている複数の間柄判定情報から1つの間柄判定情報を選択する。すなわち、間柄判定情報選択部281は、対象画像の撮影された場所に関する情報に示されている対象画像の撮影された場所と対応する間柄判定情報を選択する。
The interstitial determination
図16は、内部メモリー120に記憶されている間柄判定情報の1つであって、街路で撮影された画像に対応する間柄判定情報の内容を例示している。また、図17は、内部メモリー120に記憶されている間柄判定情報の1つであって、会社で撮影された画像に対応する間柄判定情報の内容を例示している。それぞれの間柄判定情報の内容は後述する。なお、図16および図17に示されている間柄判定情報の内容は、内部メモリー120に設定可能な間柄判定情報の一例にすぎず、これ以外の間柄判定情報を任意に設定することができる。例えば、自宅、公園、遊興施設など、ぞれぞれの場所で撮影された画像に対応する間柄判定情報や、ステップS310において位置情報が取得されなかった場合に選択される間柄判定情報などを設定することができる。
FIG. 16 exemplifies the contents of the relationship determination information corresponding to the image photographed on the street, which is one of the relationship determination information stored in the
間柄判定部280は、間柄判定情報に従って、対象となる人同士の間柄を判定する(ステップS330)。はじめに、間柄判定情報選択部281により、図16に内容が示された間柄判定情報が選択された場合について説明する。間柄判定部280は、親密度Diと閾値Th3とを比較し(ステップS500)、親密度Diが閾値Th3以下である場合(ステップS500:NO)、間柄判定の対象となる人同士は「他人」であると判定する(ステップS505)。
The
親密度Diが閾値Th3より大きい場合(ステップS500:YES)、間柄判定部280は、間柄判定の対象となる人同士の年齢差が閾値Th4より小さいか否かを判定する(ステップS515)。年齢差が閾値Th4より小さい場合(ステップS515:YES)、間柄判定部280は、間柄判定の対象となる人の年齢がそれぞれ12より大きいか否かを判定する(ステップS520)。
When the familiarity Di is greater than the threshold Th3 (step S500: YES), the
間柄判定の対象となる人の少なくとも一方の年齢が12以下である場合(ステップS520:NO)、間柄判定部280は、間柄判定の対象となる人同士は「友達」であると判定する(ステップS525)。間柄判定の対象となる人の年齢がそれぞれ12より大きい場合(ステップS520:YES)、間柄判定部280は、間柄判定の対象となる人同士が同性か否かを判定する(ステップS535)。
When the age of at least one of the persons who are the targets of the relationship determination is 12 or less (step S520: NO), the
間柄判定の対象となる人同士が同性である場合(ステップS535:YES)、間柄判定部280は、間柄判定の対象となる人同士は「友達」であると判定する(ステップS540)。間柄判定の対象となる人同士が異性である場合(ステップS535:NO)、間柄判定部280は、間柄判定の対象となる人同士は「恋人・夫婦」であると判定する(ステップS545)。
When the persons who are the targets of the relationship determination are homosexual (step S535: YES), the
ステップS515において、年齢差が閾値Th4以上である場合(ステップS515:NO)、間柄判定部280は、顔認証を実施する(ステップS550)。ここで、顔認証とは、間柄判定の対象となる人同士の顔の画像の類似度(顔類似度)を算出するために、それぞれの人の顔の画像から特徴量を算出し、両者の特徴量の類似度から顔類似度を算出する処理をいう。ここで用いられる顔の画像の特徴量には、例えば、対象画像がRGBで表されている場合、RGB色空間におけるカラーヒストグラムの各カラービンの画素度数を用いることができる。なお、人の顔の画像同士の類似度を算出できる方法であれば、上記以外の公知技術を用いてもよい。
In step S515, when the age difference is greater than or equal to the threshold Th4 (step S515: NO), the
ステップS550において算出された顔類似度が閾値Th5より小さい場合(ステップS555:YES)、間柄判定部280は、間柄判定の対象となる人同士は「親子」であると判定する(ステップS560)。ステップS550において算出された顔類似度が閾値Th5以上である場合(ステップS555:NO)、間柄判定部280は、間柄判定の対象となる人同士は「他人」であると判定する(ステップS565)。
When the face similarity calculated in step S550 is smaller than the threshold Th5 (step S555: YES), the
続いて、間柄判定情報選択部281が、図17に内容が示された間柄判定情報を選択した場合について説明する。間柄判定部280は、親密度Diと閾値Th6とを比較し(ステップS600)、親密度Diが閾値Th6以下である場合(ステップS600:NO)、間柄判定の対象となる人同士は「他人」であると判定する(ステップS605)。
Next, a case where the interstitial determination
親密度Diが閾値Th6より大きい場合(ステップS600:YES)、間柄判定部280は、間柄判定の対象となる人同士の年齢差が閾値Th7より小さいか否かを判定する(ステップS615)。年齢差が閾値Th7以上である場合(ステップS615:NO)、間柄判定部280は、間柄判定の対象となる人同士は「上司と部下」であると判定する(ステップS617)。
When the familiarity Di is greater than the threshold Th6 (step S600: YES), the
年齢差が閾値Th7より小さい場合(ステップS615:YES)、間柄判定部280は、親密度Diが閾値Th8(>閾値Th6)より大きいか否かを判定する(ステップS620)。親密度Diが閾値Th8以下である場合(ステップS620:NO)、間柄判定部280は、間柄判定の対象となる人同士は「同僚」であると判定する(ステップS625)。親密度Diが閾値Th8より大きい場合(ステップS620:YES)、間柄判定部280は、間柄判定の対象となる人同士が同性か否かを判定する(ステップS635)。
When the age difference is smaller than the threshold Th7 (step S615: YES), the
間柄判定の対象となる人同士が同性である場合(ステップS635:YES)、間柄判定部280は、間柄判定の対象となる人同士は「友達」であると判定する(ステップS640)。間柄判定の対象となる人同士が異性である場合(ステップS635:NO)、間柄判定部280は、間柄判定の対象となる人同士は「恋人」であると判定する(ステップS645)。
When the persons who are the targets of the relationship determination are the same sex (step S635: YES), the
間柄判定部280は、判定した間柄に関する情報(以後、「間柄情報」とも呼ぶ)を人物情報データベースHCに設定する。図18は、人物情報データベースHCに間柄情報を設定した状態を説明するための説明図である。間柄判定部280は、人物情報データベースHCにおいて、判定の対象となった2人の人物画像PIの画像データと間柄情報とをそれぞれ対応付ける。具体的には、注目画像OIにおいて、頭領域TA1により表される人物と、頭領域TA2により表される人物との間柄が「恋人・夫婦」であった場合、図18に示すように、頭領域TA1と対応する人物画像PI1の画像データに、間柄を判定した相手の人物識別子「bb」と、間柄情報である「恋人・夫婦」とをそれぞれ対応付ける。また、頭領域TA2と対応する人物画像PI2の画像データに、間柄を判定した相手の人物識別子「aa」と、間柄情報である「恋人・夫婦」とをそれぞれ対応付ける。上記により間柄判定処理が終了する。また、間柄判定処理の終了により、人物情報設定処理が終了する。
The
図2に戻って、画像処理部200は、内部メモリー120に格納された画像ファイルに対応する対象画像TIを順次、注目画像OIとして設定し、ステップS110からステップS130の処理を実行する。(ステップS135:NO)。このとき、ステップS120において検出された頭領域TAにより表される人物が既に人物情報データベースHCに設定されている場合には、画像処理部200は、その人物について、人物情報データベースHCに新たなレコードを設定しない。画像処理部200は、例えば、ステップS120において検出した頭領域TAに含まれる顔の画像と、人物情報データベースHCに表されている人物画像PIとの類似度をそれぞれ算出することにより、検出した頭領域TAにより表される人物が既に人物情報データベースHCに設定されているか否かを判定する。
Returning to FIG. 2, the
画像処理部200は、すべての対象画像TIについて注目画像OIに設定し、ステップS110からステップS130の処理が完了すると(ステップS135:YES)、間柄関係図作成部290は、間柄関係図の作成をおこなう(ステップS150)。間柄関係図は、親密度Diを算出された人同士のそれぞれの間柄を図示することにより、親密度Diを算出された人全員の間柄を表した図である。間柄関係図作成部290は、間柄関係図を表す画像データを生成する。
The
図19は、間柄関係図を例示した説明図である。間柄関係図RMには、人物画像PI(PI1〜PI6)と、人物画像PIの外周部に形成される人物画像フレームFiと、人物画像PIにより表されている人物の年齢情報agおよび性別情報Ssと、人物画像フレームFi同士をつなぐ関係線Rlと、が含まれている。 FIG. 19 is an explanatory diagram illustrating a relationship relationship diagram. The interpersonal relationship diagram RM includes a person image PI (PI1 to PI6), a person image frame Fi formed on the outer periphery of the person image PI, and the age information ag and gender information Ss of the person represented by the person image PI. And a relationship line Rl that connects the person image frames Fi to each other.
間柄関係図作成部290は、人物情報データベースHCに設定されている人物画像PIの画像データを用いて間柄関係図RMの人物画像PIを作成する。また、間柄関係図作成部290は、人物情報データベースHCに設定されている年齢および性別についての人物情報を用いて間柄関係図RMの年齢情報agおよび性別情報Ssを作成する。性別情報Ssは、図19に示すように人物画像フレームFiの一部に記号として表されている。間柄関係図作成部290は、人物情報データベースHCに設定されている親密度Diを用いて関係線Rlの長さLrを決定する。具体的には、間柄関係図作成部290は、親密度Diが大きいほど、その対象となる人同士の人物画像フレームFiをつなぐ関係線Rlの長さLrが短くなるように関係線Rlの長さLrを決定する。すなわち、間柄関係図RMにおいて、親密度Diが大きい人同士ほど、その人同士の人物画像フレームFiが近づくように設定される。これにより、ユーザーは視覚を通して容易に人同士の親密度の程度を把握することができる。
The interstitial relationship
間柄関係図作成部290は、人物情報データベースHCに設定されている頻度nを用いて関係線の幅Wrを決定する。具体的には、間柄関係図作成部290は、頻度nが大きいほど、その対象となる人同士の人物画像フレームFiをつなぐ関係線Rlの幅Wrを広くする。これにより、間柄関係図RMにおいて、対象画像TIに現れる頻度が高い人同士ほど、その人同士の人物画像フレームFiをつなぐ関係線Rlが太くなるため、その関係線Rlの信用性が高いことがわかる。間柄関係図作成部290は、生成した間柄関係図を表す画像データを内部メモリー120に格納する。
The interstitial relationship
表示制御部310は、間柄関係図RMを表示する(ステップS155)。図20は、間柄関係図を含むユーザインターフェースを例示した説明図である。表示制御部310は、ステップS150により生成された間柄関係図RMを表す画像データを用いて、表示部150に間柄関係図RMを含むユーザインターフェースを表示させる。図20に示すユーザインターフェースは、間柄関係図RMのほか、ユーザーに関係線Rlもしくは人物画像PIの選択を要求する旨の表示と、入力ボックスBoを備えている。本実施例に係るプリンター100は、ユーザーによる関係線Rlの選択、もしくは、入力ボックスBoへのキーワード等の入力により特定される人物を含む対象画像の検索をおこなう。
The
特定情報取得部260は、特定情報を取得する(ステップS160)ここで、特定情報とは、検索対象となる人物を特定するための情報である。ここでは、ユーザーにより選択された関係線Rlが特定情報に該当する。なお、特定情報としては、他に、間柄関係図RMにおいて、ユーザーにより選択された人物画像PIや人物画像フレームであってもよいし、入力ボックスBoに入力された、人物を特定するための情報であってもよい。入力ボックスBoに入力される、人物を特定するための情報とは、例えば、性別や年齢などの入力情報のほか、人物情報データベースHCに人物情報と氏名情報とが関連づけられている場合には、氏名等の入力情報が特定情報に該当する。また、検索対象となる人物を表す画像ファイルのファイル名を入力ボックスBoに入力する場合、このファイル名が特定情報に該当する。すなわち、特定情報とは、ユーザーにより入力された入力情報であるともいえる。 The specific information acquisition unit 260 acquires specific information (step S160). Here, the specific information is information for specifying a person to be searched. Here, the relationship line Rl selected by the user corresponds to the specific information. In addition, the identification information may be a person image PI or a person image frame selected by the user in the interpersonal relationship diagram RM, or information for identifying a person input in the input box Bo. It may be. The information for identifying a person that is input to the input box Bo is, for example, input information such as gender and age, or when personal information and name information are associated with the personal information database HC. Input information such as name corresponds to the specific information. When the file name of an image file representing a person to be searched is input in the input box Bo, this file name corresponds to the specific information. That is, it can be said that the specific information is input information input by the user.
画像検索部270は、画像検索をおこなう(ステップS170)。画像検索部270はユーザーにより選択された関係線Rl(特定情報)から、この関係線Rlにより結ばれる2人の人物画像PIが含まれている対象画像TIの画像識別子を特定する。具体的には、図20の斜線で示すように、人物画像PI1で表される人物と人物画像PI2で表される人物との関係線Rlaがユーザーにより選択された場合、画像検索部270は、図18に示す人物情報データベースHCから、選択された関係線Rlaと対応する親密度Diを特定する。画像検索部270は、特定した親密度Diから、親密度Diの算出根拠となった被写体間距離Sbdを算定した対象画像TIの画像識別子IB〜IDを特定する。画像検索部270は、特定した画像識別子IB〜IDと対応する対象画像TI1〜TI4を内部メモリー120から選択する。このように、特定情報である関係線Rlによって、関係線で繋がれた2人の人物を特定することから、画像検索部270は、特定情報に基づいて、対象画像TIから検索対象となる人物の顔の画像が含まれている対象画像TIを検索しているといえる。
The
表示制御部310は、印刷画像を表示する(ステップS180)。図21は、第1の印刷画面を例示した説明図である。表示制御部310は、ステップS170において検索された対象画像TI1〜TI4を表示部150に表示する。このとき、表示制御部310は、人物画像PI1で表される人物と人物画像PI2で表される人物との被写体間距離Sbdの小さい順に表示させる。具体的には、図18に示すように、対象画像TI1における被写体間距離Sbdは「50」であり、対象画像TI2における被写体間距離Sbdは「55」でり、また、対象画像TI3における被写体間距離Sbdは「60」であることから、表示制御部310は、対象画像TI1、対象画像TI2、対象画像TI3の順に(ここでは、先頭の画像が左側となるように)表示する。印刷画面には、印刷画像のほか、4つのボタンBN1〜BN3、5が表示されている。ユーザーにより、1つ(または複数)の対象画像TIが選択されると共に印刷ボタンBN3が選択されると、選択された画像を印刷する印刷処理を実行する。
The
印刷制御部320は、印刷処理をおこなう(ステップS190)。印刷制御部320は、選択された対象画像TIについての印刷データを生成する。具体的には、印刷制御部320は、選択された対象画像TIについて、各画素の画素値をプリンター100が用いるインクに合わせるための色変換処理や、色変換処理後の画素の階調をドットの分布によって表すためのハーフトーン処理や、ハーフトーン処理された画像データのデータ並びをプリンター100に転送すべき順序に並び替えるためのラスタライズ処理等を実施して印刷データを生成する。印刷機構160は、印刷制御部320により生成された印刷データに基づいて、選択された対象画像TIの印刷をおこなう。上記により、画像検索・印刷処理は終了する。
The
上記では、ステップS160において、ユーザーにより選択された関係線Rlを特定情報として処理をおこなっていたが、図20に示すユーザインターフェースにおいて、ユーザーにより人物画像PIが選択された場合について説明する。ここでは、人物画像PI1が選択された場合について説明する。 In the above description, in step S160, the relationship line R1 selected by the user is used as the specific information. However, a case where the person image PI is selected by the user in the user interface shown in FIG. 20 will be described. Here, a case where the person image PI1 is selected will be described.
画像検索部270は、画像検索をおこなう(ステップS170)。画像検索部270は、人物情報データベースHCを用いて、ユーザーにより選択された人物画像PI1(特定情報)と対応する人物の人物識別子aaを特定する。画像検索部270は、図7に示すように、内部メモリー120に記憶されている対象画像TIから、特定した人物識別子aaと関連づけられている対象画像TIを選択する。このとき選択された対象画像TIは、後述する対象画像リストRst1に含まれる。
The
画像検索部270は、人物情報データベースHCを用いて、人物画像PI1と対応する人物と最も親密度Diが高い人物の人物識別子bbを特定する。画像検索部270は、内部メモリー120に記憶されている対象画像TIから、特定した人物識別子bbと関連づけられている対象画像TIを選択する。このとき選択された対象画像TIは、後述する対象画像リストRst2に含まれる。このとき、対象画像リストRst1に含まれた対象画像TIが重複して対象画像リストRst2含まれることがある。
The
画像検索部270は、人物画像PI1と対応する人物との親密度Diが高い人物から順に人物識別子を特定し、特定したそれぞれの人物識別子と関連づけられている対象画像TIを順に内部メモリー120に記憶されている対象画像TIから選択する。人物識別子ごとに選択された対象画像TIは、それぞれ別の対象画像リストRstに含まれる。このとき、異なる対象画像リストRstに同じ対象画像TIが重複して含まれることがある。以後、各対象画像リストRstにおいて、検索に用いられた人物識別子により表される人物を「基準人物」と呼ぶ。ここでは、対象画像リストRst1の基準人物は、人物画像PI1と対応する人物であり、対象画像リストRst2の基準人物は、人物画像PI2と対応する人物である。
The
上記のとおり、画像検索部270は、複数の対象画像TIから、特定情報により特定された検索対象となる人物(ここでは、人物画像PI1と対応する人物)の顔の画像が含まれている対象画像TIを検索するのみではなく、検索対象となる人物と所定の親密度Diを有する人物の顔の画像が含まれている対象画像TIの検索もおこなう。ここで、所定の親密度Diを有する人物とは、例えば、検索対象となる人物と最も高い親密度Diを有している人物や、検索対象となる人物との親密度Diが設定値以上の人物などをいう。
As described above, the
画像検索部270は、人物情報データベースHCに含まれているすべての人物の人物識別子を用いて、各人物識別子と関連づけられている対象画像TIをそれぞれ内部メモリー120に記憶されている対象画像TIから選択してもよいし、予め設定された人数分の人物識別子のみを用いて、人物識別子と関連づけられている対象画像TIを内部メモリー120に記憶されている対象画像TIから選択してもよい。また、検索対象となる人との親密度Diが予め設定された値以上となる人物の人物識別子のみを用いて、人物識別子と関連づけられている対象画像TIを内部メモリー120に記憶されている対象画像TIから選択してもよい。
The
表示制御部310は、印刷画像を表示する(ステップS180)。図22は、第2の印刷画面を例示した説明図である。表示制御部310は、ステップS170において検索された対象画像TIを表示部150に表示させる。このとき、表示制御部310は、図22に示すように、対象画像リストRstごとに対象画像TIを表示する。表示制御部310は、各対象画像リストRstに含まれる対象画像TIをそれぞれ積層して表示し、積層した対象画像TIの一番上に基準人物の人物画像PIを表示している。表示制御部310は、ユーザーにより、積層されている対象画像TIのうちの少なくとも一部が選択されると、選択された対象画像TIの全体を表示する。
The
表示制御部310は、検索対象となる人(人物画像PI1により表される人物)の対象画像リストRst1を先頭(ここでは、最も左側)にして、検索対象となる人との親密度Diがより高い人物を基準人物とした対象画像リストRstから順に(右側に)並べて表示する。具体的には、図22に示すように、人物画像PI1により表される人物と最も親密度Diの高い人物(人物画像PI2により表される人物)の対象画像リストRst2、人物画像PI1により表される人物と2番目に親密度Diの高い人物(人物画像PI5により表される人物)の対象画像リストRst3、人物画像PI1により表される人物と3番目に親密度Diの高い人物(人物画像PI4により表される人物)の対象画像リストRst4の順に(ここでは、左側から順となるように)並べて表示する。
The
図23は、対象画像リストに含まれる対象画像の並び順を説明するための説明図である。表示制御部310は、各対象画像リストRstにおいて、基準人物との親密度Diがより高い人の顔の画像が含まれている対象画像TIのグループから順に並べて表示する。具体的には、図23に示す対象画像リストRst1のように、表示制御部310は、人物画像PI1により表される人物と最も親密度Diの高い人物の人物画像PI2が含まれている対象画像TIa、TIb、TIcを含む対象画像グループGrp1、人物画像PI1により表される人物と2番目に親密度Diの高い人物の人物画像PI5が含まれている対象画像TId、TIe、TIfを含む対象画像グループGrp2、人物画像PI1により表される人物と3番目に親密度Diの高い人物の人物画像PI4が含まれている対象画像TIg、TIhを含む対象画像グループGrp3の順に(ここでは、左側から順となるように)並べて対象画像TIを表示する。
FIG. 23 is an explanatory diagram for explaining the arrangement order of the target images included in the target image list. In each target image list Rst, the
表示制御部310は、対象画像リストRstの各対象画像グループGrpにおいて、グループの対象画像に共通して含まれる人物と、基準人物との被写体間距離Sbdが小さい対象画像TIから順に並べて表示する。具体的には、図23に示すように、対象画像リストRst1の対象画像グループGrp1において、表示制御部310は、グループの対象画像に共通して含まれる人物(人物画像PI2により表される人物)と、基準人物(人物画像PI1により表される人物)との被写体間距離Sbdが小さい対象画像TIから順に並べて表示する。すなわち、表示制御部310は、3つの対象画像TIa、TIb、TIcのうち、最も被写体間距離Sbdが小さい対象画像TIa、2番目に被写体間距離Sbdが小さい対象画像TIb、3番目に被写体間距離Sbdが小さい対象画像TIcの順に(ここでは、左側から順となるように)並べて表示する。対象画像グループGrp2、Grp3についても同様に、表示制御部310は、それぞれ、各グループの対象画像に共通して含まれる人物(人物画像PI5により表される人物、もしくは、人物画像PI4により表される人物)と、基準人物との被写体間距離Sbdが小さい対象画像TIから順に並べて表示する。
In each target image group Grp in the target image list Rst, the
第2の印刷画面では、各対象画像リストRstが左右方向(水平方向)に一列に並べられ、また、各対象画像リストRstに含まれている対象画像TIは、各対象画像リストRstが並べられている方向と直交する奥行き方向に並べて(積層されて)表示されている。第2の印刷画面には、印刷画像のほか、5つのボタンBN1〜BN3、5、7が表示されている。ユーザーにより、1つ(または複数)の対象画像TIが選択されると共に印刷ボタンBN3が選択されると、選択された画像を印刷する印刷処理を実行する。 In the second print screen, each target image list Rst is arranged in a line in the left-right direction (horizontal direction), and each target image list Rst is arranged in the target image TI included in each target image list Rst. They are displayed side by side (stacked) in the depth direction perpendicular to the direction in which they are positioned. In addition to the print image, five buttons BN1 to BN3, 5, and 7 are displayed on the second print screen. When one (or a plurality of) target images TI are selected by the user and the print button BN3 is selected, a print process for printing the selected images is executed.
図24は、第3の印刷画面を例示した説明図である。表示制御部310は、第2の印刷画面においてユーザーにより表示変更ボタンBN7が選択されると、図24に示す第3の印刷画面を表示部150に表示させる。具体的には、表示制御部310は、第2の印刷画面と同様に、検索対象となる人(人物画像PI1により表される人物)の対象画像リストRst1を先頭(ここでは、最も左側)にして、検索対象となる人との親密度Diが高い人物を基準人物とした対象画像リストRstから順に(右側に)並べて表示する。また、表示制御部310は、各対象画像リストRstにおいて、基準人物との親密度Diが高い人の顔の画像が含まれている対象画像TIのグループから順に並べて表示する。また、表示制御部310は、対象画像リストRstの各対象画像グループGrpにおいて、基準人物との被写体間距離Sbdが小さい対象画像TIから順に並べて表示する。
FIG. 24 is an explanatory diagram illustrating a third print screen. When the display change button BN7 is selected by the user on the second print screen, the
第3の印刷画面では、各対象画像リストRstが左右方向(水平方向)に一列に並べられ、また、各対象画像リストRstに含まれている対象画像TIは、各対象画像リストRstが並べられている方向と直交する方向である上下方向(垂直方向)に並べて表示されている。第3の印刷画面には、印刷画像のほか、5つのボタンBN1〜BN3、5、8が表示されている。ユーザーにより、1つ(または複数)の対象画像TIが選択されると共に印刷ボタンBN3が選択されると、選択された画像を印刷する印刷処理を実行する。表示制御部310は、ユーザーにより表示変更ボタンBN8が選択されると、図22に示す第2の印刷画面を表示部150に表示させる。
In the third print screen, the target image lists Rst are arranged in a line in the left-right direction (horizontal direction), and the target images TI included in the target image lists Rst are arranged in the respective target image lists Rst. Are displayed side by side in the up-down direction (vertical direction) which is a direction orthogonal to the current direction. In addition to the print image, five buttons BN1 to BN3, 5, and 8 are displayed on the third print screen. When one (or a plurality of) target images TI are selected by the user and the print button BN3 is selected, a print process for printing the selected images is executed. When the display change button BN8 is selected by the user, the
本実施例において、人物情報は、特許請求の範囲における「人の特徴」に該当する。本実施例において、親密度Diは、特許請求の範囲における「親密度」に該当する。本実施例において、複数の間柄判定情報が記憶されている内部メモリー120は、特許請求の範囲における「記憶部」に該当する。
In this embodiment, the person information corresponds to “personal characteristics” in the claims. In the present embodiment, the closeness Di corresponds to “closeness” in the claims. In the present embodiment, the
以上説明した第1の実施例に係るプリンター100によれば、連続する所定数(閾値Th2)の対象画像TIにおいてそれぞれ推定された被写体間距離Sbdがすべて所定値(閾値Th1)以下となる人同士について親密度Diを算出するため、対象画像TIから人同士の関係性を特定する処理の効率性を向上させることができる。具体的には、被写体間距離Sbdが所定値より大きい人同士について親密度を算出しないことにより親密度を算出する処理負担を抑制できるだけでなく、所定数に満たない対象画像TIにおいて被写体間距離Sbdが所定値以下となる人同士についても親密度を算出しないため親密度を算出する処理負担を抑制でき、親密度を算出する処理の効率性を向上させることができる。
According to the
親密度を算出する技術については従来から知られていた。しかし、例えば、動画像などから親密度を算出しようとする場合、対象画像TIとなる画像の数が膨大となるため、親密度を算出する処理負担の増加が課題となっていた。しかし、本発明によれば対象画像に表されているすべての人物のうち、所定の条件を満足する人物同士についてのみ親密度を算出するため処理の効率化を図ることができる。 Techniques for calculating intimacy have been known for some time. However, for example, when the intimacy is to be calculated from a moving image or the like, the number of images serving as the target image TI is enormous, and thus an increase in the processing load for calculating the intimacy has been a problem. However, according to the present invention, since the closeness is calculated only for persons who satisfy a predetermined condition among all persons represented in the target image, it is possible to improve processing efficiency.
すなわち、プリンター100は、時系列に並んだ複数の対象画像の少なくとも一部に表され、被写体間距離がすべて所定値以下となる人同士について、対象画像に表れる頻度が所定数以上の人同士については親密度を算出し、対象画像に表れる頻度が所定数より少ない人同士については親密度を算出しないことができる。これは、従来の技術においては、被写体間距離がすべて所定値以下となる人同士について親密度を算出すると考えられるため、本発明により親密度を算出する処理の効率性の向上が図られていることがわかる。
In other words, the
第1の実施例に係るプリンター100によれば、対象画像TIの顔領域FAに表されている顔同士の実際の距離である被写体間距離Sbdを用いて人同士の互いの親密さの程度を表す親密度Diを算出するため、対象画像TIから人同士の関係性を特定する精度の向上を図ることができる。具体的には、写真撮影時の人同士の実際の距離を算出することで、写真撮影時において、お互いに親密である人同士ほどお互いの距離が近い状態となり、また、親密でない人同士の場合には、お互いに近接した状態となることが少ないという撮影時の特性を利用して親密度Diを算出することができるため、親密度Diの精度を高めることができる。
According to the
対象画像TIに表されている顔の画像同士の距離から親密度を算出する技術については従来から知られていた。しかし、対象画像TIに表された顔の画像同士の距離を用いて親密度を算出する場合、対象画像TIの奥行き方向における人同士の距離が親密度に反映されないため、実際には、奥行き方向で人同士の距離が離れていても、対象画像TIに表された顔の画像同士の距離が近い場合、親密度が高く算出されることがあった。しかし、本発明によれば、対象画像TIの奥行き方法の距離を親密度Diに反映することができるため、人同士の親密さの程度を精度良く親密度Diに反映させることができる。 A technique for calculating intimacy from the distance between facial images represented in the target image TI has been known. However, when the intimacy is calculated using the distance between the face images represented in the target image TI, the distance between people in the depth direction of the target image TI is not reflected in the intimacy. However, even if the distance between the persons is long, if the distance between the face images represented in the target image TI is short, the closeness may be calculated to be high. However, according to the present invention, since the distance of the depth method of the target image TI can be reflected in the closeness Di, the degree of intimacy between people can be accurately reflected in the closeness Di.
すなわち、第1の対象画像に含まれている顔の画像同士の距離が、第2の対象画像に含まれている顔の画像同士の距離より小さく、第1の対象画像に表されている顔同士の実際の距離が、第2の対象画像に表されている顔同士の実際の距離より大きい場合、プリンター100は、第1の対象画像に表されている人同士より第2の対象画像に表されている人同士の方がより親密度が高くなるようにそれぞれの親密度を算出することができる。これは、対象画像TIに表されている顔の画像同士の距離から親密度を算出する従来技術においては、第1の対象画像に表されている人同士より第2の対象画像に表されている人同士の方がより親密度が小さくなるようにそれぞれの親密度を算出すると考えられるため、本発明により親密度を算出する精度の向上が図られていることがわかる。
That is, the distance between the face images included in the first target image is smaller than the distance between the face images included in the second target image, and the face represented in the first target image. When the actual distance between the faces is larger than the actual distance between the faces represented in the second target image, the
第1の実施例に係るプリンター100によれば、被写体距離推定部は、対象画像の大きさに対する顔領域の大きさに基づいて被写体距離を推定しているため、顔領域に表されている顔から撮影装置までの距離である被写体距離を容易に推定することができる。具体的には、式(3)に示すように、被写体距離推定部は、注目画像OIにおける画像全体の幅Wwiと顔領域FAの幅Wfiを用いることで被写体距離を容易に推定することができる。
According to the
第1の実施例に係るプリンター100によれば、親密度Diと、人の特徴とを用いて、対象画像に表されている人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。具体的には、人同士の関係性を表す間柄を特定するために、対象画像TIの顔領域FAに表されている顔同士の実際の距離である被写体間距離Sbdを用いて算出された親密度Diのほか、対象画像TIから判定された人の特徴を用いるため、親密度が同じであっても異なる間柄を判別することができる。
According to the
第1の実施例に係るプリンター100によれば、親密度と、人の年齢とを用いて、対象画像に表されている人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。具体的には、人同士の関係性を表す間柄を特定するために、親密度Diのほか、対象画像TIから判定された人の年齢を用いるため、親密度が同じであっても親子か友達かなどの具体的な間柄の違いを判別することができる。また、親密度と、人の性別とを用いて、対象画像に表されている人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。具体的には、人同士の関係性を表す間柄を特定するために、親密度Diのほか、対象画像TIから判定された人の性別を用いるため、親密度が同じであっても恋人・夫婦か友達かなどの具体的な間柄の違いを判別することができる。
According to the
第1の実施例に係るプリンター100によれば、間柄判定情報選択部により選択された間柄判定情報を用いて、対象画像に表されている人同士の間柄を判定するため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。具体的には、人同士の位置関係や、性別、年齢などの特徴が同様であっても、撮影された場所により人同士の間柄が異なる可能性がある。しかし、本実施例によれば、撮影された場所に対応する間柄判定情報を用いて人同士の間柄を判定するため、対象画像TIから人同士の間柄を特定する精度の向上を図ることができる。
According to the
第1の実施例に係るプリンター100によれば、親密度を算出された人全員の間柄関係を表す間柄関係図を作成するため、ユーザーは対象画像に表されている人同士の間柄を容易に把握することができる。また、ユーザーは、間柄関係図に表されている間柄や、人物画像を任意に選択することにより、複数の対象画像の中から、所望の対象画像を識別することができる。
According to the
また、間柄関係図は、対象画像に現れる人の顔の画像と、人の画像同士をつなぐ関係線とが表され、親密度が高い人同士ほど顔の画像同士の距離が小さく、対象画像に現れる頻度が高い人同士ほど関係線の幅が大きく表されているため、親密度を算出された人全員の関係性を容易に表示することができる。具体的には、間柄関係図RMにおいて、親密度Diが大きい人同士ほど、その人同士の人物画像フレームFiが近づくように設定される。これにより、ユーザーは視覚を通して容易に人同士の親密度の程度を把握することができる。また、対象画像TIに現れる頻度が高い人同士ほど、その人同士の人物画像フレームFiをつなぐ関係線Rlが太くなるため、ユーザーは、その関係線Rlの信用性を容易に把握することができる。すなわち、対象画像に現れる頻度が低い人同士であれば、親密ではない人同士であるにもかかわらず、偶然にお互いの距離が近い対象画像が存在した場合、その対象画像が親密度に与える影響が大きくなる。一方、対象画像に現れる頻度が高い人同士であれば、親密ではない人同士であるにもかかわらず、一部にお互いの距離が近い対象画像が存在しても、他に多数のお互いの距離が遠い対象画像が存在するため、お互いの距離が近い対象画像が親密度に与える影響を抑制することができる。よって、関係線Rlが太いほど、その関係線Rlの信用性が高いといえる。 In addition, the interstitial relationship diagram shows a human face image appearing in the target image and a relationship line connecting the human images, and the higher the intimacy between people, the smaller the distance between the face images. Since the frequency of the relationship line increases as people appear more frequently, the relationship of all the people whose intimacy is calculated can be easily displayed. Specifically, in the interpersonal relationship diagram RM, the person image frames Fi of the persons are set closer to each other as the closeness Di is greater. Thereby, the user can grasp | ascertain the degree of closeness of persons easily through vision. Moreover, since the relationship line Rl which connects the person image frames Fi of the persons becomes thicker as the frequency of appearing in the target image TI increases, the user can easily grasp the reliability of the relationship line Rl. . In other words, if the frequency of appearance in the target image is low, if there are target images that are close to each other by chance even though they are non-intimate people, the effect that the target image has on the intimacy Becomes larger. On the other hand, if people who appear frequently in the target image are people who are not intimate, even if some of the target images are close to each other, many other mutual distances Since there are target images that are far from each other, the influence of the target images that are close to each other on the closeness can be suppressed. Therefore, it can be said that the thicker the relationship line Rl, the higher the reliability of the relationship line Rl.
第1の実施例に係るプリンター100によれば、第1の対象画像に含まれている顔の画像同士の距離が、第2の対象画像に含まれている顔の画像同士の距離より小さく、第1の対象画像に表されている顔同士の実際の距離が、第2の対象画像に表されている顔同士の実際の距離より大きい場合、間柄関係図において、第1の対象画像に現れる人の顔の画像同士の距離より第2の対象画像に現れる人の顔の画像同士の距離の方が小さくなるように間柄関係図を作成することができる。これは、対象画像TIに表されている顔の画像同士の距離から親密度を算出する従来技術を利用して間柄関係図を作成した場合においては、第1の対象画像に現れる人の顔の画像同士の距離より第2の対象画像に現れる人の顔の画像同士の距離の方が大きくなるように間柄関係図を作成すると考えられるため、本発明により間柄関係図の精度の向上が図られていることがわかる。
According to the
第1の実施例に係るプリンター100によれば、検索された対象画像を、検索対象となる人物との親密度がより高い人物の顔の画像を含む対象画像グループから順に対象画像を並べて表示するため、ユーザーによる画像検索を容易にすることができる。具体的には、図23に示すように、プリンター100は、対象画像リストRstにおいて、検索対象となる人物との親密度Diがより高い人の顔の画像が含まれている対象画像TIの対象画像グループGrpから順に並べて表示する。より具体的には、プリンター100は、検索対象となる人物と最も親密度Diの高い人物の人物画像PIが含まれている対象画像TIを含む対象画像グループGrp1、検索対象となる人物と2番目に親密度Diの高い人物の人物画像PIが含まれている対象画像TIを含む対象画像グループGrp2、検索対象となる人物と3番目に親密度Diの高い人物の人物画像PIが含まれている対象画像TIを含む対象画像グループGrp3の順に並べて対象画像TIを表示する。これにより、ユーザーは、検索対象となる人物との親密度Diの高い人物の人物画像PIが含まれている対象画像TIから順に対象画像TIを確認することができるため、画像検索を容易にすることができる。
According to the
第1の実施例に係るプリンター100によれば、対象画像リストを構成する各対象画像グループにおいて、対象画像グループごとの対象画像に共通して含まれる人物と検索対象となる人物との被写体間距離Sbdが小さい順に対象画像を並べて表示するため、ユーザーによる画像検索を容易にすることができる。具体的には、図23に示すように、プリンター100は、対象画像リストRstの各対象画像グループGrpにおいて、グループの対象画像に共通して含まれる人物と、検索対象となる人物(基準人物)との被写体間距離Sbdが小さい対象画像TIから順に並べて表示する。より具体的には、プリンター100は、対象画像リストRst1の対象画像グループGrp1において、グループの対象画像に共通して含まれる人物(人物画像PI2により表される人物)と、基準人物(人物画像PI1により表される人物)との被写体間距離Sbdが小さい対象画像TIから順に並べて表示する。すなわち、プリンター100は、3つの対象画像TIa、TIb、TIcのうち、最も被写体間距離Sbdが小さい対象画像TIa、2番目に被写体間距離Sbdが小さい対象画像TIb、3番目に被写体間距離Sbdが小さい対象画像TIcの順に(ここでは、左側から順となるように)並べて表示する。これにより、ユーザーは、同一の人物が含まれている対象画像TIについて、被写体間距離Sbdが小さい対象画像TIから順に確認することができるため、画像検索を容易にすることができる。
According to the
第1の実施例に係るプリンター100によれば、対象画像から、検索対象となる人物と所定の親密度を有する人物の顔の画像が含まれている対象画像を検索し、検索した対象画像を、所定の親密度を有する人物との親密度がより高い人物の顔の画像を含む対象画像グループから順に対象画像を並べた対象画像リストを表示するため、ユーザーによる画像検索を容易にすることができる。具体的には、プリンター100は、検索対象となる人物の顔の画像が含まれている対象画像を検索するのみではなく、検索対象となる人物と所定の親密度を有する人物の顔の画像が含まれている対象画像についても検索をおこない、検索した対象画像を、所定の親密度を有する人物との親密度がより高い人物の顔の画像を含む対象画像グループから順に対象画像を並べて表示する。これにより、ユーザーは、所定の親密度を有する人物との親密度Diの高い人物の人物画像PIが含まれている対象画像TIから順に対象画像TIを確認することができるため、画像検索を容易にすることができる。なお、所定の親密度Diを有する人物とは、例えば、検索対象となる人物と最も高い親密度Diを有している人物や、検索対象となる人物との親密度Diが設定値以上の人物などをいう。
According to the
第1の実施例に係るプリンター100によれば、対象画像リストRstに含まれる対象画像を第1の方向に一列に並べるとともに、複数の対象画像リストRstを第1の方向と直交する第2の方向に並べて表示するため、ユーザーによる画像検索を容易にすることができる。具体的には、図22および図24に示すように、対象画像の並ぶ方向と対象画像リストが並ぶ方向を直交させることにより、表示されたそれぞれの対象画像が属する対象画像リストRsが視覚的に容易に判別できるため、ユーザーによる画像検索を容易にすることができる。
According to the
第1の実施例に係るプリンター100によれば、複数の対象画像リストRstを、検索対象となる人物との親密度がより高い人物の対象画像リストRstから順に並べて表示するため、ユーザーによる画像検索を容易にすることができる。具体的には、図22および図24に示すように、検索対象となる人物との親密度がより高い人物を基準人物とする対象画像リストRstから順に並べて表示することにより、ユーザーによる画像検索を容易にすることができる。例えば、検索対象となる人物が、自身と親密度の高い友人や子供についての画像を検索したい場合、友人や子供を検索対象に設定しなくても、自身を検索対象となる人物に設定することで、親密度の高い友人や子供についての対象画像リストを自身との親密度の高い順に表示することができるため、所望の画像を容易に取得することができる。
According to the
B.第2実施例:
図25は、第2実施例における人物情報設定処理の流れを示すフローチャートである。第1実施例では、画像検索・印刷処理のステップS130(図2)における人物情報設定処理(図8)において、頻度nが閾値Th2より大きい人同士であって、年齢判定・性別判定がおこなわれていない人については、特徴判別部250により、年齢および性別の判定がおこなわれていたが(ステップS270)、本実施例では、図25に示すように、頻度nが閾値Th2より大きい人同士であって、年齢判定・性別判定がおこなわれていない人であっても直ちに年齢および性別の判定をおこなわず、ステップS290における間柄判定処理において実施する態様について説明する。ステップS200〜ステップS280については、第1実施例と同様であるため説明を省略する。
B. Second embodiment:
FIG. 25 is a flowchart showing the flow of person information setting processing in the second embodiment. In the first example, in the person information setting process (FIG. 8) in step S130 (FIG. 2) of the image search / print process, the age determination / sex determination is performed for persons whose frequency n is greater than the threshold Th2. For those who have not, age and sex have been determined by the feature discriminating unit 250 (step S270). In this example, as shown in FIG. 25, the frequency n is greater than the threshold Th2. There will be described an embodiment that is performed in the relationship determination process in step S290 without immediately determining the age and sex even if the person has not been subjected to age determination / gender determination. Steps S200 to S280 are the same as those in the first embodiment, and a description thereof will be omitted.
図26は、第3の間柄判定情報の内容を説明するための説明図である。図26は、第1実施例と同様に、内部メモリー120に記憶されている間柄判定情報の1つであって、街路で撮影された画像に対応する間柄判定情報の内容を例示している。すなわち、図26に示した間柄判定情報の内容は、図16で示した間柄判定情報の内容と対応している。第2実施例で説明する間柄判定処理は、間柄判定情報の内容以外については第1実施例と同様であるため説明を省略する。
FIG. 26 is an explanatory diagram for explaining the contents of the third interstitial determination information. FIG. 26 exemplifies the content of the relationship determination information corresponding to the image taken on the street, which is one of the relationship determination information stored in the
間柄判定情報選択部281が、図26に内容が示された間柄判定情報を選択した場合について説明する。ステップS500およびステップS505は第1実施例と同様である。親密度Diが閾値Th3より大きい場合(ステップS500:YES)、特徴判別部250は、親密度Diを算出したそれぞれの人物について既に年齢判定をおこなっているか否かを判定する(ステップS507)。特徴判別部250は、親密度Diを算出したそれぞれの人物について年齢判定をおこなっていない場合には(ステップS507:NO)、それぞれの人物の年齢判定をおこなう(ステップS510)。年齢判定の方法は第1実施例と同様である。特徴判別部250は、親密度Diを算出したそれぞれの人物について既に年齢判定をおこなっている場合には(ステップS507:YES)、年齢判定をスキップする。その後、間柄判定部280は、ステップS515〜S525を実施する。ステップS515〜S525については第1実施例と同様である。
A case where the interstitial determination
ステップS520において、間柄判定の対象となる人の年齢がそれぞれ12より大きい場合(ステップS520:YES)、特徴判別部250は、親密度Diを算出したそれぞれの人物について既に性別判定をおこなっているか否かを判定する(ステップS527)。特徴判別部250は、親密度Diを算出したそれぞれの人物について性別判定をおこなっていない場合には(ステップS527:NO)、それぞれの人物の性別判定をおこなう(ステップS530)。性別判定の方法は第1実施例と同様である。特徴判別部250は、親密度Diを算出したそれぞれの人物について既に性別判定をおこなっている場合には(ステップS527:YES)、性別判定をスキップする。その後、間柄判定部280は、ステップS535〜S545を実施する。上記により間柄判定処理が終了する。また、間柄判定処理の終了により、人物情報設定処理が終了する。
In step S520, if the age of the person who is the subject of the relationship determination is greater than 12 (step S520: YES), the
以上説明した第2の実施例に係るプリンター100によれば、年齢判定もしくは性別判定の少なくとも一方を実施せずに間柄の判定をおこなうことができるため、画像検索・印刷処理の処理効率の向上を図ることができる。具体的には、上記のステップS500において、親密度Diが閾値Th3以下である場合(ステップS500:NO)、年齢判定や性別判定をおこなわなくても、間柄判定の対象となる人同士は「他人」であると判定することができる。また、ステップS515において、年齢差が閾値Th4以上である場合(ステップS515:NO)、または、ステップS520において、間柄判定の対象となる人の少なくとも一方の年齢が12以下である場合(ステップS520:NO)、性別判定をおこなわなくても、間柄判定の対象となる人同士の間柄を判定することができる。なお、年齢判定をおこなった後に性別判定をおこなうことにより、間柄判定の対象となる人同士の間柄を効率よく判定することができる。これは、性別の差異よりも年齢の差異の方が、人同士の間柄の決定に与える影響が大きいためと考えられる。
According to the
C.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
C. Variation:
The present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.
C1.変形例1:
本実施例に係るプリンター100は、対象画像から年齢や性別などの人の特徴を判別する特徴判別部250と、人同士の間柄を判定する間柄判定部280と、間柄関係図RMを作成する間柄関係図作成部290と、を備えているが、プリンター100は、これらの少なくとも一部を備えていない態様であっても実現することができる。すなわち、上記構成を備えていなくても、連続する所定数の対象画像においてそれぞれ推定された被写体間距離がすべて所定値以下となる人同士について親密度を算出することができるため、対象画像から人同士の関係性を特定する精度の向上を図ることができる。
C1. Modification 1:
The
C2.変形例2:
本実施例に係るプリンター100は、Motion JPEGの圧縮形式を採用した動画像ファイルについて画像検索・印刷処理をおこなっているが、プリンター100が画像検索・印刷処理する動画像ファイルの圧縮形式はこれに限られず、例えば、MPEG等の圧縮形式を採用した動画像ファイルであってもよい。この場合、差分データを用いて算出されるフレームごとの画像が対象画像となる。
C2. Modification 2:
The
C3.変形例3:
本実施例に係るプリンター100は、予め定められた枚数の対象画像を含む動画像ファイルについて処理をおこなっているが、プリンター100は、逐次入力される画像ファイルについて順次処理をおこなう態様であってもよい。具体的には、ビデオカメラ等から逐次画像データが入力されると、入力された画像データを順次、注目画像OIに設定し、顔領域FAの検出や、人物情報設定処理をおこなってもよい。この時、入力される対象画像が最後の画像か否かの判断は、ユーザーからの入力によりおこなわれてもよい。
C3. Modification 3:
Although the
C4.変形例4:
本実施例に係るプリンター100は、人物情報設定処理(図8)のステップS230において、被写体間距離Sbdを算出したそれぞれの人物が前回以前の対象画像に表されている人物か否かについて判定しているが、前回の対象画像に表されている人物か否かのみを判定する態様であってもよい。この場合、前々回以前の対象画像に表されている人物であっても、頻度nはインクリメントされず、改めてn=1が設定されることになるため、時間的に連続した所定数の対象画像からそれぞれ推定された被写体間距離Sbdがすべて所定値以下となる人同士についてのみ親密度を判定することができる。
C4. Modification 4:
In step S230 of the person information setting process (FIG. 8), the
C5.変形例5:
本実施例に係るプリンター100は、図22や図24に示すような印刷画面を表示部150に表示し、ユーザーから選択された対象画像を印刷しているが、プリンター100は、電気的に接続されたコンピューターやモニターを含めた概念で捉えてもよく、この場合、モニターに図22や図24に示すような印刷画面を表示し、表示制御部はコンピューターのCPUにより実現されてもよい。また、プリンター100は、図22や図24に示すような対象画像を印刷してもよい。
C5. Modification 5:
The
C6.変形例6:
本実施例に係るプリンター100は、図22および図24に示す印刷画面において、検索対象となる人の対象画像リストRst1を先頭(ここでは、最も左側)にして、検索対象となる人との親密度Diがより高い人物を基準人物とした対象画像リストRstから順に(右側に)並べて表示しているが、検索対象となる人の対象画像リストRst1を最も右側にして、検索対象となる人との親密度Diがより高い人物を基準人物とした対象画像リストRstから順に左側に並べて表示してもよい。また、検索対象となる人の対象画像リストRst1を最も上側にして、検索対象となる人との親密度Diがより高い人物を基準人物とした対象画像リストRstから順に下側に並べて表示してもよい。
C6. Modification 6:
22 and 24, the
C7.変形例7:
本実施例に係るプリンター100は、間柄関係図RMに、人物画像PIと、人物画像PIの外周部に形成される人物画像フレームFiと、人物画像PIにより表されている人物の年齢情報agおよび性別情報Ssと、人物画像フレームFi同士をつなぐ関係線Rlと、を含めて作成しているが、間柄関係図RMは、これらの一部がない態様であってもよい。また、本実施例では、人物情報データベースHCに設定されている頻度nを用いて関係線の幅Wrを決定し、また、親密度Diを用いて関係線Rlの長さLrを決定しているが、これらは、例示であり、間柄関係図RMを構成するこれら以外の要素を人物情報データベースHCなどの情報に基づいて変化させもよい。例えば、対象画像TIに現れる頻度によって人物画像PIの大きさを変える態様としてもよい。
C7. Modification 7:
The
C8.変形例8:
本実施例に係るプリンター100は、間柄判定情報を用いて間柄を判定しているが、本実施例で示した間柄判定情報の内容は例示であり、これら以外の情報に基づいて間柄を判定してもよい。また、本実施例では、対象画像が撮影された場所ごとに設定された間柄判定情報を用いて間柄を判定しているが、対象画像が撮影された場所に関係なく1つの間柄判定情報を用いて間柄を判定する態様であってもよい。
C8. Modification 8:
Although the
C9.変形例9:
本実施例に係るプリンター100は、ユーザーによる関係線Rlの選択、もしくは、入力ボックスBoへのキーワード等の入力により、検索対象となる人物の特定をおこなっているが、検索対象となる人物の特定はこれ以外の方法におこなってもよい。例えば、プリンター100は、ユーザーにより設定された任意の顔の画像をクエリ画像とし、このクエリ画像を用いて顔認証をおこなうことにより、クエリ画像と最も類似する人物画像PIにより表される人物を検索対象となる人として設定してもよい。
C10.変形例10:
本実施例に係るプリンター100は、注目画像OIとして設定されている対象画像TIの位置情報を用いて間柄判定情報を選択しているが、これ以外の位置情報を用いて間柄判定情報を選択してもよい。例えば、プリンター100は、親密度Diの算出に用いられた被写体間距離Sbdのうち、最も値の小さい被写体間距離Sbdが算出された対象画像TIの位置情報を用いて間柄判定情報を選択してもよい。
C9. Modification 9:
The
C10. Modification 10:
The
C11.変形例11:
本実施例に係るプリンター100は、上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。
C11. Modification 11:
In the
C12.変形例12:
本発明は、プリンターのほか、デジタルスチルカメラ、パーソナルコンピューター、デジタルビデオカメラ等で実現することができる。また、画像処理方法および装置、親密度算出方法および装置、間柄関係表示方法および装置、これらの方法または装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号、等の形態で実現することができる。
C12. Modification 12:
The present invention can be realized by a digital still camera, a personal computer, a digital video camera, or the like in addition to a printer. Further, an image processing method and apparatus, an affinity calculation method and apparatus, a relationship relationship display method and apparatus, a computer program for realizing the functions of these methods or apparatuses, a recording medium on which the computer program is recorded, and the computer program It can be realized in the form of a data signal embodied in a carrier wave.
100…プリンター
110…CPU
120…内部メモリー
140…操作部
150…表示部
160…印刷機構
170…カードインターフェース
172…カードスロット
200…画像処理部
210…顔領域検出部
220…被写体距離推定部
230…被写体間距離推定部
240…親密度算出部
250…特徴判別部
260…特定情報取得部
270…画像検索部
280…間柄判定部
281…間柄判定情報選択部
290…間柄関係図作成部
310…表示制御部
320…印刷制御部
MC…メモリーカード
HC…人物情報データベース
RM…間柄関係図
Rst…対象画像リスト
Grp…対象画像グループ
FA…顔領域
TA…頭領域
OI…注目画像
TI…対象画像
Di…親密度
100 ...
DESCRIPTION OF
Claims (14)
各前記対象画像から顔の画像を含む画像領域である顔領域を顔の画像ごとに検出する顔領域検出部と、
前記顔領域を用いて、被写体の顔から撮影装置までの距離である被写体距離をそれぞれ推定する被写体距離推定部と、
前記被写体距離を用いて、前記顔領域に表されている人の顔同士の実際の距離である被写体間距離を推定する被写体間距離推定部と、
連続する所定数の前記対象画像からそれぞれ推定された前記被写体間距離がすべて所定値以下となる人同士について、推定された前記被写体間距離を用いて、人同士の親密さの程度を表す親密度を前記被写体間距離が小さいほど大きい値となるように算出する親密度算出部と、を備える画像処理装置。 An image processing apparatus that processes a plurality of target images arranged in time series,
A face area detection unit that detects a face area that is an image area including a face image from each target image for each face image;
A subject distance estimation unit that estimates a subject distance, which is a distance from the subject's face to the imaging device, using the face region;
An inter-subject distance estimation unit that estimates an inter-subject distance, which is an actual distance between human faces represented in the face area, using the subject distance;
A degree of intimacy representing a degree of intimacy between people using the estimated distance between subjects for each of the subjects whose distance between the subjects estimated from a predetermined number of consecutive target images is not more than a predetermined value. An intimacy calculating unit that calculates a larger value as the distance between the subjects is smaller.
前記親密度算出部は、前記被写体間距離が推定された人同士について、前記被写体間距離が推定された前記対象画像の次に連続する対象画像において前記被写体間距離が推定されなくても、前記被写体間距離が推定されなかった対象画像の次に連続する対象画像において前記被写体間距離が推定された場合には、前記被写体間距離が推定された対象画像の合計が所定数であり、推定された前記被写体間距離がすべて所定値以下であれば前記人同士の親密度を算出する画像処理装置。 The image processing apparatus according to claim 1.
The intimacy calculation unit may be configured such that, even if the subject-to-subject distance is not estimated in the target images that are next to the target image in which the subject-to-subject distance has been estimated, When the inter-subject distance is estimated in the target image that is next to the target image for which the inter-subject distance has not been estimated, the total of the target images in which the inter-subject distance is estimated is a predetermined number, and is estimated. An image processing apparatus that calculates the intimacy between the persons if the distances between the subjects are all equal to or less than a predetermined value.
前記親密度算出部により前記親密度を算出されたそれぞれの人の顔の画像から人の特徴を判別する特徴判別部と、
前記親密度と前記人の特徴とを用いて、前記親密度を算出された人同士の間柄を判定する間柄判定部と、を備える画像処理装置。 The image processing apparatus according to claim 1 or 2, further comprising:
A feature discriminating unit that discriminates human characteristics from each person's face image for which the intimacy calculation unit calculates
An image processing apparatus comprising: a relationship determination unit that determines a relationship between people whose intimacy is calculated using the affinity and the characteristics of the person.
前記特徴判別部は、前記親密度を算出されたそれぞれの人物について、既に前記人の特徴を判別した人物か否かを判定し、前記人の特徴を判別していない人物についてのみ前記判別をおこなう画像処理装置。 The image processing apparatus according to claim 3 further includes:
The feature determination unit determines, for each person whose intimacy is calculated, whether or not the person has already determined the characteristics of the person, and performs the determination only for a person who has not determined the characteristics of the person. Image processing device.
前記特徴判別部は、前記顔領域に含まれている顔の画像から人の年齢を判別する画像処理装置。 The image processing apparatus according to claim 3 or 4,
The feature determination unit is an image processing apparatus that determines a person's age from a face image included in the face region.
前記特徴判別部は、前記顔領域に含まれている顔の画像から人の性別を判別する画像処理装置。 The image processing apparatus according to any one of claims 3 to 5,
The feature determination unit is an image processing apparatus that determines a gender of a person from an image of a face included in the face area.
前記間柄判定部は、
前記親密度および前記人の特徴と、前記人同士の間柄と、の対応関係が示されている2以上の間柄判定情報を記憶している記憶部と、
前記対象画像の撮影された場所に関する情報に基づき、前記記憶部から1つの間柄判定情報を選択する間柄判定情報選択部と、を備え、
前記間柄判定情報選択部により選択された間柄判定情報を用いて、前記親密度を算出された人同士の間柄を判定する画像処理装置。 The image processing apparatus according to any one of claims 3 to 6,
The interstitial determination unit
A storage unit storing two or more relationship determination information indicating a correspondence relationship between the intimacy and the characteristics of the person and the relationship between the persons;
Based on information on the location where the target image was taken, a interstitial determination information selection unit that selects one interstitial determination information from the storage unit,
An image processing apparatus that determines a relationship between persons whose intimacy has been calculated using the relationship determination information selected by the relationship determination information selection unit.
前記対象画像の撮影された場所に関する情報は、GPS情報を用いて特定される画像処理装置。 The image processing apparatus according to claim 7.
The information regarding the place where the target image was taken is an image processing device that is specified using GPS information.
前記間柄判定部により判定された人同士の間柄から、前記親密度算出部により前記親密度を算出された人全員の間柄関係を表す間柄関係図を作成する間柄関係図作成部を備える画像処理装置。 The image processing apparatus according to any one of claims 3 to 8, further comprising:
An image processing apparatus comprising a interstitial relationship diagram creating unit that creates a interstitial relationship diagram representing the interstitial relationship of all of the persons whose intimacy has been calculated by the intimacy calculating unit from the interpersonal relationships determined by the interstitial determining unit .
前記間柄関係図は、前記親密度を算出された人の顔の画像と、前記顔の画像同士をつなぐ関係線とが表され、
前記親密度が高い人同士ほど前記顔の画像同士の距離が小さく、前記対象画像に現れる頻度が高い人同士ほど前記関係線の幅が大きく表されている画像処理装置。 The image processing apparatus according to claim 9.
The interstitial relationship diagram represents an image of a person's face for which the familiarity is calculated, and a relationship line connecting the face images.
The image processing apparatus in which the distance between the face images is smaller as the degree of intimacy is higher, and the width of the relationship line is larger as the frequency of appearing in the target image is higher.
前記被写体距離推定部は、前記対象画像の大きさに対する前記顔領域の大きさに基づいて前記被写体距離を推定する画像処理装置。 The image processing apparatus according to any one of claims 1 to 10,
The subject distance estimation unit is an image processing apparatus that estimates the subject distance based on a size of the face area with respect to a size of the target image.
前記親密度算出部は、時系列に並んだ複数の対象画像の少なくとも一部に表され、被写体間距離がすべて所定値以下となる人同士について、前記対象画像に表れる頻度が所定数以上の人同士については前記親密度を算出し、前記対象画像に表れる頻度が所定数より少ない人同士については前記親密度を算出しない画像処理装置。 The image processing apparatus according to any one of claims 1 to 11,
The intimacy calculation unit is represented in at least a part of a plurality of target images arranged in time series, and the frequency of appearing in the target image is greater than or equal to a predetermined number of persons whose subject distances are all equal to or less than a predetermined value. An image processing apparatus that calculates the intimacy for each other and does not calculate the intimacy for people who appear less than a predetermined number in the target image.
前記親密度算出部は、第1の対象画像に含まれている顔の画像同士の距離が、第2の対象画像に含まれている顔の画像同士の距離より小さく、第1の対象画像に表されている顔同士の実際の距離が、第2の対象画像に表されている顔同士の実際の距離より大きい場合、第1の対象画像に表されている人同士より第2の対象画像に表されている人同士の方がより親密度が高くなるように親密度を算出する画像処理装置。 The image processing apparatus according to any one of claims 1 to 11,
The closeness calculating unit is configured such that the distance between the face images included in the first target image is smaller than the distance between the face images included in the second target image, and When the actual distance between the faces represented is larger than the actual distance between the faces represented in the second target image, the second target image is more than the people represented in the first target image. An image processing apparatus that calculates intimacy so that the intimacy between the people represented in the above is higher.
前記間柄関係図作成部は、第1の対象画像に含まれている顔の画像同士の距離が、第2の対象画像に含まれている顔の画像同士の距離より小さく、第1の対象画像に表されている顔同士の実際の距離が、第2の対象画像に表されている顔同士の実際の距離より大きい場合、前記間柄関係図において、第1の対象画像に現れる人の顔の画像同士の距離より第2の対象画像に現れる人の顔の画像同士の距離の方が小さくなるように前記間柄関係図を作成する画像処理装置。 The image processing apparatus according to claim 10.
The interstitial relationship diagram creating unit is configured such that the distance between the face images included in the first target image is smaller than the distance between the face images included in the second target image, and the first target image Is larger than the actual distance between the faces represented in the second target image, in the relationship diagram, the human face appearing in the first target image is displayed. An image processing apparatus that creates the interstitial relationship diagram so that a distance between human face images appearing in a second target image is smaller than a distance between images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009218872A JP2011070276A (en) | 2009-09-24 | 2009-09-24 | Image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009218872A JP2011070276A (en) | 2009-09-24 | 2009-09-24 | Image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011070276A true JP2011070276A (en) | 2011-04-07 |
Family
ID=44015529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009218872A Pending JP2011070276A (en) | 2009-09-24 | 2009-09-24 | Image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011070276A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015082223A (en) * | 2013-10-23 | 2015-04-27 | 富士ゼロックス株式会社 | Information registration system and program |
WO2015141523A1 (en) * | 2014-03-20 | 2015-09-24 | ソニー株式会社 | Information processing device, information processing method and computer program |
-
2009
- 2009-09-24 JP JP2009218872A patent/JP2011070276A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015082223A (en) * | 2013-10-23 | 2015-04-27 | 富士ゼロックス株式会社 | Information registration system and program |
WO2015141523A1 (en) * | 2014-03-20 | 2015-09-24 | ソニー株式会社 | Information processing device, information processing method and computer program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104615926A (en) | Information processing apparatus and information processing method | |
JP4908505B2 (en) | Image classification using photographers | |
US8345118B2 (en) | Image capturing apparatus, image capturing method, album creating apparatus, album creating method, album creating system and computer readable medium | |
US8176426B2 (en) | Image reproduction apparatus and image reproduction program product | |
US10558851B2 (en) | Image processing apparatus and method of generating face image | |
JP2011070277A (en) | Image processor | |
JP5279654B2 (en) | Image tracking device, image tracking method, and computer program | |
JP2007041964A (en) | Image processor | |
JP2011070275A (en) | Image processor | |
JP2008165701A (en) | Image processing device, electronics equipment, image processing method, and program | |
JP2005115672A (en) | Image processor | |
US10572111B2 (en) | Image display control device, image display control method, image display control program, and recording medium having the program stored thereon | |
JP4367010B2 (en) | System, program and method | |
US20090092312A1 (en) | Identifying Method and Storage Medium Having Program Stored Thereon | |
JP4556739B2 (en) | Image management apparatus, image management method, and image management program | |
JP2011070276A (en) | Image processing apparatus | |
JP5448952B2 (en) | Same person determination device, same person determination method, and same person determination program | |
JP2011076237A (en) | Image classifying device, image classifying system, image classifying method, program, and recording medium | |
JP2021111228A (en) | Learning device, learning method, and program | |
CN107004111A (en) | Moving direction determines method and moving direction determining device | |
JP2012027617A (en) | Pattern identification device, pattern identification method and program | |
JP2010026630A (en) | Image retrieval device and image retrieval method | |
JP4891119B2 (en) | Image sorting apparatus, method, and program | |
JP2009205468A (en) | Image output method, image output device and image output program | |
JP2006058959A (en) | Similar image determination method, program and apparatus |