JP2013196417A - Image display device, image display method and program - Google Patents

Image display device, image display method and program Download PDF

Info

Publication number
JP2013196417A
JP2013196417A JP2012063170A JP2012063170A JP2013196417A JP 2013196417 A JP2013196417 A JP 2013196417A JP 2012063170 A JP2012063170 A JP 2012063170A JP 2012063170 A JP2012063170 A JP 2012063170A JP 2013196417 A JP2013196417 A JP 2013196417A
Authority
JP
Japan
Prior art keywords
face
image data
image
desired person
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012063170A
Other languages
Japanese (ja)
Inventor
Hitomi Hyuga
ひとみ 日向
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2012063170A priority Critical patent/JP2013196417A/en
Publication of JP2013196417A publication Critical patent/JP2013196417A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display device for supporting image selection for recommending an image which is suitable for the sensitivity of a person who selects an image.SOLUTION: A control part 7 of an image display device 1 displays a taste information setting screen 701 at a display part 17, and a user is made to designate his or her desired human face, its priority order, and its expression from among the images of read image data 60, and they are stored in taste information 70. The control part 7 calculates the featured values of face images included in the whole images of the image data 60, and the desired human face stored in the taste information 70 is identified, and a degree of recommendation D of each image is calculated from the presence/absence of the desired human face, similarity E with the desired expression, and the value of the priority order about each image, and the image having the value of the degree of recommendation D which is larger than a threshold TH is displayed at the display part 17 as a recommended image 90.

Description

本発明は、画像選択を支援する画像表示装置等に関するものである。   The present invention relates to an image display device that supports image selection.

デジタルカメラの性能向上、および、写真等を保存するためのメモリーカード等記録媒体の大容量低価格化が進み、多くの画像を撮影し、収集する傾向が増している。その結果、記録媒体に格納された多くの画像から、印刷等の目的に合わせた好みの画像をピックアップする作業が負担になる。   As digital camera performance improves and recording media such as memory cards for storing photographs and the like increase in price and capacity, the tendency to capture and collect many images is increasing. As a result, it is a burden to pick up a favorite image according to the purpose such as printing from many images stored in the recording medium.

このため、良い画像を選択するための方法、良い画像を選択する方法が提案されている(例えば特許文献1、特許文献2)。   For this reason, a method for selecting a good image and a method for selecting a good image have been proposed (for example, Patent Document 1 and Patent Document 2).

特許文献1は、撮像装置についての発明であり、予め好みの顔の特徴量を登録しておき、複数の画像を撮像し、撮像された複数の画像の中から、登録されている顔の特徴量に近い被写体を含む画像を判断し記録する撮像装置について提案している。   Patent Document 1 is an invention relating to an imaging apparatus, in which a feature amount of a favorite face is registered in advance, a plurality of images are captured, and a registered facial feature is selected from the plurality of captured images. An imaging apparatus that determines and records an image including a subject close to the amount has been proposed.

特許文献2は、複数の画像の検索、表示を迅速に行う技術について開示しており、画面中央に位置する被写体の顔の笑顔度に基づいて、画像を選択する方法を提案している。   Patent Document 2 discloses a technique for quickly searching and displaying a plurality of images, and proposes a method of selecting an image based on the smile level of the face of the subject located at the center of the screen.

特開2006−115406号公報JP 2006-115406 A 特開2009−205322号公報JP 2009-205322 A

しかしながら、特許文献1の方法は、撮像装置に設けられた技術であり、登録された好みの顔の画像以外の顔の画像は記録されないという問題がある。
また、特許文献2の方法は、笑顔の画像が良いという仮定に基づき、笑顔度の高い画像を選択するものであるが、良いと判断する表情は選択者によって異なり、必ずしも笑顔がよいわけではない。
However, the method of Patent Document 1 is a technique provided in an imaging apparatus, and there is a problem that face images other than registered favorite face images are not recorded.
The method of Patent Document 2 selects an image with a high degree of smile based on the assumption that a smile image is good. However, the expression that is judged to be good differs depending on the person who chooses, and the smile is not necessarily good. .

図14は、複数の画像から画像を選択する場合の例を示す図である。
図14(a)のように、複数の被写体が撮影されている画像1〜10(731〜740)から良いと思われる画像を選択する作業は思いのほか負担がかかる。
図14(b)は、笑顔を判断基準として選択した場合の例であり、被写体全員が笑顔の画像(画像8、画像9、画像10)が選択される。
FIG. 14 is a diagram illustrating an example of selecting an image from a plurality of images.
As shown in FIG. 14A, the operation of selecting an image that seems to be good from the images 1 to 10 (731 to 740) in which a plurality of subjects are photographed is burdened unexpectedly.
FIG. 14B shows an example in the case where smile is selected as a determination criterion, and images (image 8, image 9, and image 10) in which all subjects are smiling are selected.

しかしながら、選択の基準は笑顔とは限らず、選択者によって異なり、特定の人が写っている画像を選択したいという場合もある。
図14(c)、(d)は、特定の人の特定の表情を判断基準とする場合の例である。すなわち、特定の人(A、B、C)が写っていることが望ましく、また、Aの人は笑顔、Bの人は驚き、Cの人は真顔であるという条件に近い画像は、例えば、画像6、7、10となり、図14(b)で選択された画像とは異なるものとなる。
However, the criteria for selection are not limited to smiles, and may vary depending on the user and may select an image in which a specific person is shown.
FIGS. 14C and 14D are examples in which a specific facial expression of a specific person is used as a criterion. That is, it is desirable that a specific person (A, B, C) is captured, and an image close to the condition that the person A is smiling, the person B is surprised, and the person C is a true face is, for example, Images 6, 7, and 10 are different from the images selected in FIG.

本発明は、前述した問題点に鑑みてなされたもので、画像を選択する人の感性に合わせた画像を推薦することが可能な画像選択を支援する画像表示装置等を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to provide an image display device that supports image selection that can recommend an image that matches the sensitivity of a person who selects an image. To do.

前述した目的を達成するために、第1の発明は、複数の画像データを記憶する第1の記憶部と、所望の人の顔、および、前記所望の人の優先順位および前記所望の人の所望の表情を指定させ、前記所望の人の顔の特徴値とともに第2の記憶部に記憶する顔指定手段と、前記第1の記憶部に記憶されている前記画像データに含まれるすべての顔の特徴値および表情を算出する特徴値算出手段と、前記特徴値算出手段により算出された前記画像データに含まれる顔の特徴値と、前記第2の記憶部に記憶されている前記所望の人の顔の特徴値とを照合し、前記所望の人の顔であるか否かを識別する識別手段と、前記識別手段により、前記画像データに含まれる顔が、前記所望の人の顔であると識別された場合に、前記画像データに含まれる顔の表情と、前記所望の表情の差を算出する表情距離算出手段と、前記画像データごとに、前記所望の人の顔の有無、および、前記表情距離算出手段により算出された表情の差、および、前記優先順位を元に、前記画像データの推薦度を算出し、前記推薦度が所定の値以上の場合に前記画像データを推薦画像データとして推薦する推薦手段と、を具備することを特徴とする画像表示装置である。   In order to achieve the above-described object, the first invention includes a first storage unit that stores a plurality of image data, a desired person's face, the priority order of the desired person, and the desired person's priority. Face designating means for designating a desired facial expression and storing it in the second storage unit together with the facial feature value of the desired person, and all the faces included in the image data stored in the first storage unit A feature value calculating means for calculating a feature value and a facial expression, a facial feature value included in the image data calculated by the feature value calculating means, and the desired person stored in the second storage unit The feature value of the face is collated to identify whether or not the face is the desired person, and the face included in the image data by the identifying means is the face of the desired person The facial expression included in the image data Facial expression distance calculating means for calculating a difference in desired facial expression; presence or absence of the face of the desired person for each of the image data; difference in facial expression calculated by the facial expression distance calculating means; and the priority An image display comprising: a recommendation unit that calculates a recommendation level of the image data based on the ranking and recommends the image data as recommended image data when the recommendation level is equal to or higher than a predetermined value. Device.

第1の発明によれば、顔指定手段により、ユーザが所望する人、および、その人の顔について所望する表情を指定することが可能になり、また、推薦手段により、第1の記憶部に記憶されている複数の画像データの中から、所望する人の所望する表情に近い顔が含まれる画像データを抽出することが可能になり、ユーザの嗜好に合う画像を推薦することが可能になる。   According to the first invention, it is possible to specify a person desired by the user and a desired facial expression of the person's face by the face designating means, and to the first storage unit by the recommendation means. Image data including a face close to a desired expression of a desired person can be extracted from a plurality of stored image data, and an image suitable for the user's preference can be recommended. .

また、顔指定手段により、複数の人を優先順位をつけて指定することが可能になり、また、推薦手段により、当該優先順位に基づいて推薦度を算出することにより、優先順位の高い人の所望する表情に近い顔が多く含まれる画像データを抽出することが可能になり、更にユーザの嗜好に合った画像を推薦することが可能になる。   In addition, it is possible to designate a plurality of people with priority by the face designating means, and by calculating the recommendation degree based on the priority order by the recommending means, It is possible to extract image data including many faces close to a desired facial expression, and it is possible to recommend an image that matches the user's preference.

第2の発明は、第1の記憶部に記憶されている複数の画像データから、推薦画像データを抽出し表示する画像表示方法であって、コンピュータが、所望の人の顔、および、前記所望の人の優先順位および前記所望の人の欲しい表情を指定させ、前記所望の人の顔の特徴値とともに第2の記憶部に記憶する顔指定工程と、前記第1の記憶部に記憶されている前記画像データに含まれるすべての顔の特徴値および表情を算出する特徴値算出工程と、前記特徴値算出工程により算出された前記画像データに含まれる顔の特徴値と、前記第2の記憶部に記憶されている前記所望の人の顔の特徴値とを照合し、前記所望の人の顔であるか否かを識別する識別工程と、前記識別工程により、前記画像データに含まれる顔が、前記所望の人の顔であると識別された場合に、前記画像データに含まれる顔の表情と、前記所望の表情の差を算出する表情距離算出工程と、前記画像データごとに、前記所望の人の顔の有無、および、前記表情距離算出工程により算出された表情の差、および、前記優先順位を元に、前記画像データの推薦度を算出し、前記推薦度が所定の値以上の場合に前記画像データを推薦画像データとして推薦する推薦工程と、を実行することを特徴とする画像表示方法である。   A second invention is an image display method for extracting and displaying recommended image data from a plurality of image data stored in a first storage unit, wherein the computer has a desired human face and the desired image A face designation step of designating the priority order of the person and the facial expression desired by the desired person, and storing it in the second storage unit together with the feature value of the face of the desired person, and storing in the first storage unit A feature value calculating step for calculating feature values and facial expressions of all the faces included in the image data, a face feature value included in the image data calculated by the feature value calculating step, and the second storage A face value included in the image data by the identification step of collating the feature value of the face of the desired person stored in the section and identifying whether the face is the face of the desired person Is identified as the face of the desired person A facial expression distance calculation step for calculating a difference between the facial expression included in the image data and the desired facial expression, the presence or absence of the desired human face, and the facial expression for each of the image data. The degree of recommendation of the image data is calculated based on the difference in facial expression calculated by the distance calculation step and the priority order, and the image data is recommended as recommended image data when the recommendation degree is equal to or greater than a predetermined value. An image display method characterized by executing a recommendation step.

第2の発明によれば、顔指定工程により、ユーザが所望する人、および、その人の顔について所望する表情を優先順位を付けて指定することが可能であり、また、推薦工程により、優先順位の高い人の、所望する表情に近い顔が多く含まれる画像データを抽出し、ユーザの嗜好に合った画像を推薦することが可能になる。   According to the second invention, it is possible to designate the person desired by the user and the desired facial expression of the person's face with priority by the face designation step, and priority by the recommendation step. It is possible to extract image data containing many faces close to a desired facial expression of a person with high ranking and recommend an image that meets the user's preference.

第3の発明は、コンピュータを、複数の画像データを記憶する第1の記憶部と、所望の人の顔、および、前記所望の人の優先順位および前記所望の人の所望の表情を指定させ、前記所望の人の顔の特徴値とともに第2の記憶部に記憶する顔指定手段と、前記第1の記憶部に記憶されている前記画像データに含まれるすべての顔の特徴値および表情を算出する特徴値算出手段と、前記特徴値算出手段により算出された前記画像データに含まれる顔の特徴値と、前記第2の記憶部に記憶されている前記所望の人の顔の特徴値とを照合し、前記所望の人の顔であるか否かを識別する識別手段と、前記識別手段により、前記画像データに含まれる顔が、前記所望の人の顔であると識別された場合に、前記画像データに含まれる顔の表情と、前記所望の表情の差を算出する表情距離算出手段と、前記画像データごとに、前記所望の人の顔の有無、および、前記表情距離算出手段により算出された表情の差、および、前記優先順位を元に、前記画像データの推薦度を算出し、前記推薦度が所定の値以上の場合に前記画像データを推薦画像データとして推薦する推薦手段と、を具備する画像表示装置として機能させるためのプログラムである。   According to a third aspect of the invention, the computer is configured to designate the first storage unit that stores a plurality of image data, the face of the desired person, the priority order of the desired person, and the desired facial expression of the desired person. , Face designation means for storing the desired person's facial feature value in a second storage unit, and all facial feature values and facial expressions included in the image data stored in the first storage unit. A feature value calculating means to calculate; a face feature value included in the image data calculated by the feature value calculating means; and a desired person face feature value stored in the second storage unit; And the identification means for identifying whether or not the face is the desired person, and when the face included in the image data is identified by the identification means as the face of the desired person , Facial expressions included in the image data, and the desired expression Expression distance calculation means for calculating a difference in emotion, for each image data, the presence or absence of the face of the desired person, the difference in expression calculated by the expression distance calculation means, and the priority order A program for calculating a recommendation level of the image data and causing the image display device to function as a recommendation unit that recommends the image data as recommended image data when the recommendation level is equal to or higher than a predetermined value. .

第3の発明によれば、優先順位の高い人の、所望する表情に近い顔が多く含まれる画像データを抽出し、ユーザの嗜好に合った画像を推薦することが可能になる。   According to the third invention, it is possible to extract image data including a lot of faces close to a desired facial expression of a person with high priority, and to recommend an image that matches the user's preference.

本発明により、画像を選択する人の感性に合わせた画像を推薦することが可能な画像選択を支援する画像表示装置等を提供することが可能になる。   According to the present invention, it is possible to provide an image display device that supports image selection that can recommend an image that matches the sensitivity of the person who selects the image.

画像表示装置1のハードウエア構成例を示すブロック図。FIG. 2 is a block diagram illustrating a hardware configuration example of the image display device 1. 画像表示装置1の処理の流れを示すフローチャート。4 is a flowchart showing a flow of processing of the image display device 1. ステップ102の処理を詳細に示すフローチャート。The flowchart which shows the process of step 102 in detail. 嗜好情報設定画面例701を示す図。The figure which shows the example 701 of preference information setting screens. ステップ103、ステップ104の処理を詳細に示すフローチャート。The flowchart which shows the process of step 103 and step 104 in detail. 対象被写体の特徴値73を示す図。The figure which shows the characteristic value 73 of a to-be-photographed object. 全画像の顔についての特徴値65を示す図。The figure which shows the feature value 65 about the face of all the images. 被写体の画像一覧71を示す図。The figure which shows the image list 71 of a to-be-photographed object. ステップ105の処理を詳細に示すフローチャート。The flowchart which shows the process of step 105 in detail. ステップ507の処理を詳細に示すフローチャート。The flowchart which shows the process of step 507 in detail. 表情の距離テーブル80を示す図。The figure which shows the distance table 80 of a facial expression. 推薦画像の選択処理を説明する図。The figure explaining the selection process of a recommendation image. 推薦画像決定後の画像一覧表示例801を示す図。The figure which shows the image list display example 801 after recommendation image determination. 従来の画像選択を説明する図。The figure explaining the conventional image selection.

以下、添付図面に基づいて、本発明に係る画像表示装置等の好適な実施形態について詳細に説明する。尚、以下の説明及び添付図面において、略同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略することにする。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of an image display device and the like according to the invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, the same reference numerals are given to components having substantially the same functional configuration, and redundant description will be omitted.

図1は、画像表示装置1のハードウエア構成例を示すブロック図である。
画像表示装置1は、例えば、パーソナルコンピュータ等のコンピュータであってもよいし、また、利用者が持ち込んだ記録媒体に記録されているデジタルカメラの画像データをプリントすることができる画像プリントシステムであってもよい。
FIG. 1 is a block diagram illustrating a hardware configuration example of the image display device 1.
The image display device 1 may be, for example, a computer such as a personal computer, or may be an image print system capable of printing digital camera image data recorded on a recording medium brought in by a user. May be.

画像表示装置1は、制御部7、記憶部9、メディア入出力部11、通信制御部13、入力部15、表示部17、周辺機器I/F部19等がバス21を介して接続される。   In the image display device 1, a control unit 7, a storage unit 9, a media input / output unit 11, a communication control unit 13, an input unit 15, a display unit 17, a peripheral device I / F unit 19, and the like are connected via a bus 21. .

制御部7は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成される。
CPUは、ROM、記憶部9等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス21を介して接続された各装置を駆動制御し、コンピュータが行う処理を実現する。
ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。
RAMは、揮発性メモリであり、記憶部9、ROM、記憶媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部7が各種処理を行うために使用するワークエリアを備える。
The control unit 7 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
The CPU calls and executes a program stored in the ROM, the storage unit 9 and the like in a work memory area on the RAM, drives and controls each device connected via the bus 21, and realizes processing performed by the computer.
The ROM is a non-volatile memory and permanently holds a computer boot program, a program such as BIOS, data, and the like.
The RAM is a volatile memory, and temporarily stores a program, data, and the like loaded from the storage unit 9, ROM, storage medium, and the like, and includes a work area used by the control unit 7 to perform various processes.

記憶部9は、HDD(ハードディスクドライブ)であり、制御部7が実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、アプリケーションプログラム、ファイル等が格納されている。
これらの各プログラムコードは、制御部7により必要に応じて読み出されてRAMに移され、CPUにより各種の手段として実行される。
本発明の本実施形態に係る画像表示装置1を実行するためのプログラムやデータは、記憶部9に格納されており、必要に応じて制御部1に読み出されて実行される。
The storage unit 9 is an HDD (hard disk drive), and stores a program executed by the control unit 7, data necessary for program execution, an OS (Operating System), and the like. Regarding programs, a control program corresponding to the OS, application programs, files, and the like are stored.
These program codes are read by the control unit 7 as necessary, transferred to the RAM, and executed as various means by the CPU.
The program and data for executing the image display apparatus 1 according to the present embodiment of the present invention are stored in the storage unit 9 and read and executed by the control unit 1 as necessary.

メディア入出力部11は、記録媒体のデータの入出力を行うドライブ装置であり、例えば、フロッピー(登録商標)ディスクドライブ、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)、MOドライブ等のメディア入出力装置を有する。
通信制御部13は、通信制御装置、通信ポート等を有し、ネットワーク4を介した通信を媒介する通信インタフェースであり、他のコンピュータ間との通信制御を行う。
The media input / output unit 11 is a drive device that inputs / outputs data of a recording medium. For example, a floppy (registered trademark) disk drive, a CD drive (-ROM, -R, -RW, etc.), a DVD drive (-ROM). , -R, -RW, etc.) and a media input / output device such as an MO drive.
The communication control unit 13 includes a communication control device, a communication port, and the like, and is a communication interface that mediates communication via the network 4 and controls communication with other computers.

入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部15を介して、コンピュータに対して、操作指示、動作指示、データ入力等を行うことができる。
表示部17は、CRT(Cathode Ray Tube)モニタ、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携してビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。
周辺機器I/F部19は、周辺機器を接続するためのUSB(Universal Serial Bus)ポート等である。
バス21は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The input unit 15 inputs data and includes, for example, a keyboard, a pointing device such as a mouse, and an input device such as a numeric keypad. An operation instruction, an operation instruction, data input, and the like can be performed on the computer via the input unit 15.
The display unit 17 includes a CRT (Cathode Ray Tube) monitor, a display device such as a liquid crystal panel, and a logic circuit (such as a video adapter) for realizing a video function in cooperation with the display device.
The peripheral device I / F unit 19 is a USB (Universal Serial Bus) port or the like for connecting peripheral devices.
The bus 21 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.

図2は、本発明に係る本実施形態の処理の流れを示すフローチャートである。
まず、画像表示装置1の制御部7は、画像データ60を読み込み、記憶部9に格納する(ステップ101)。画像データ60は、例えば、図14(a)に示したように、複数の画像からなり、例えば、画像表示装置1のメディア入出力部11を介してメモリーカード等から読み込む。あるいは、インターネット等のネットワークを介して他のコンピュータ装置から画像表示装置1の通信制御部13を介して読み込むようにしてもよい。
FIG. 2 is a flowchart showing the flow of processing of the present embodiment according to the present invention.
First, the control unit 7 of the image display device 1 reads the image data 60 and stores it in the storage unit 9 (step 101). The image data 60 is composed of a plurality of images as shown in FIG. 14A, for example, and is read from a memory card or the like via the media input / output unit 11 of the image display device 1, for example. Or you may make it read from the other computer apparatus via the communication control part 13 of the image display apparatus 1 via networks, such as the internet.

次に、制御部7は、ユーザに嗜好情報を設定させる(ステップ102)。嗜好情報は、ユーザが画像を選択する際に所望する人と、その優先順位、当該人の顔の所望の表情である。ステップ102については後で詳述する。
次に、制御部7は、ステップ101で記憶部9に格納された画像データ60について、各画像に含まれる顔の画像(顔画像)を解析する(ステップ103)。
ステップ103については後で詳述する。
Next, the control part 7 makes a user set preference information (step 102). The preference information is a person desired when the user selects an image, its priority, and a desired facial expression of the person's face. Step 102 will be described in detail later.
Next, the control unit 7 analyzes the face image (face image) included in each image with respect to the image data 60 stored in the storage unit 9 in step 101 (step 103).
Step 103 will be described in detail later.

次に、制御部7は、ステップ103の顔画像の解析結果を元に、各顔画像の識別を行い、ステップ102で嗜好情報として設定された顔を画像データ60の各画像から識別する(ステップ104)。
ステップ104については後で詳述する。
Next, the control unit 7 identifies each face image based on the analysis result of the face image in step 103, and identifies the face set as the preference information in step 102 from each image of the image data 60 (step 104).
Step 104 will be described in detail later.

次に、制御部7は、画像データ60の複数の画像から、ステップ102でユーザに設定させたユーザの嗜好情報の顔画像に近い顔画像を含む画像を推薦画像として抽出する(ステップ105)。ステップ105の推薦画像の決定方法については後で詳述する。
制御部7は、ステップ105で決定された推薦画像を表示部17に表示し(ステップ106)、処理を終了する。
Next, the control unit 7 extracts, as a recommended image, an image including a face image close to the face image of the user preference information set by the user in Step 102 from the plurality of images of the image data 60 (Step 105). The method for determining the recommended image in step 105 will be described in detail later.
The control unit 7 displays the recommended image determined in step 105 on the display unit 17 (step 106), and ends the process.

次に、図1のステップ102(嗜好情報の設定)の処理について説明する。図3は、ステップ102の処理の流れを示すフローチャート、図4は、嗜好情報の設定画面例701である。   Next, the processing of step 102 (setting preference information) in FIG. 1 will be described. FIG. 3 is a flowchart showing the processing flow of step 102, and FIG. 4 is an example of a preference information setting screen 701.

制御部7は、まず、図1のステップ101により記憶部9に格納された画像データ60を表示部17に顔部分を選択可能に表示する(ステップ201)。
図4(b)に示すように、嗜好情報設定画面701の画像データ表示部703に、例えば、画像データ60のサムネイルを表示する。
First, the control unit 7 displays the image data 60 stored in the storage unit 9 in step 101 of FIG. 1 on the display unit 17 so that the face portion can be selected (step 201).
As shown in FIG. 4B, for example, a thumbnail of the image data 60 is displayed on the image data display unit 703 of the preference information setting screen 701.

図4(b)に示す例では、画像データ表示部703にサムネイル画像として画像1〜画像6(731〜736)が各画像1〜6に含まれる顔を選択可能に表示される。
顔の部分を選択可能に表示するためには、顔の位置および領域を抽出する必要があるが、顔の位置・領域の抽出は、公知の技術、例えば、特開2005−165447に記載されている方法等を使用することが可能である。
In the example shown in FIG. 4B, the image data display unit 703 displays images 1 to 6 (731 to 736) as thumbnail images so that faces included in the images 1 to 6 can be selected.
In order to display the face part in a selectable manner, it is necessary to extract the face position and area. The extraction of the face position and area is described in a known technique, for example, Japanese Patent Laid-Open No. 2005-165447. Can be used.

図4(b)の画像データ表示部703に示すように、制御部7は、公知の方法で抽出された各画像1〜6(731〜736)顔領域を例えば、矩形で囲んで表示し、この矩形にカーソル711を合わせてクリックすることにより、当該顔領域の顔を選択可能にする。   As shown in the image data display unit 703 in FIG. 4B, the control unit 7 displays each image 1 to 6 (731 to 736) face area extracted by a known method, for example, by enclosing it with a rectangle, By placing the cursor 711 on the rectangle and clicking, the face in the face area can be selected.

次に、制御部7は、ユーザに、欲しい被写体を、優先順位をつけて選択させる(ステップ202)。
例えば、図4(a)に示すように、ユーザが人A、B、Cが写っている画像を所望しているとする。さらに、ユーザは、写っている人の優先順位を、人A、B、Cの順に所望しているとする。
Next, the control unit 7 causes the user to select a desired subject with a priority order (step 202).
For example, as shown in FIG. 4A, it is assumed that the user desires an image in which people A, B, and C are shown. Furthermore, it is assumed that the user desires the priority order of the people in the order of people A, B, and C.

制御部7は、ユーザに、所望の人の顔に優先順位の順にカーソル711を合わせて選択させてもよいし、また、カーソル711を合わせた顔の領域を、嗜好情報設定画面701の左側の部分にある嗜好情報データ71の被写体の部分の所望の優先順位の位置にドラッグさせるようにしてもよい。
以上の所望の顔の選択処理により、嗜好情報設定画面701の嗜好情報データ71として所望の被写体が優先順位の順に選択され、表示される。
The control unit 7 may cause the user to select the face of the desired person by placing the cursor 711 in the order of priority, or to select the face area where the cursor 711 is placed on the left side of the preference information setting screen 701. You may make it drag to the position of the desired priority of the object part of the preference information data 71 in the part.
Through the above-described processing for selecting a desired face, desired subjects are selected and displayed as preference information data 71 on the preference information setting screen 701 in order of priority.

次に、制御部7は、選択された被写体について、ユーザに、所望の欲しい表情を選択させる(ステップ203)。
図4に示すように、ユーザが、所望の人A、B、Cについて、所望の表情を選択させる。図4(a)に示すように、例えば、ユーザが、人Aについては笑っている表情、人Bについては驚いている表情、人Cについては画像データ表示部703から選択された顔の表情を所望しているものとする。
Next, the control unit 7 causes the user to select a desired facial expression for the selected subject (step 203).
As shown in FIG. 4, the user selects a desired facial expression for desired persons A, B, and C. As shown in FIG. 4A, for example, the user displays a smiling expression for the person A, a surprised expression for the person B, and a facial expression selected from the image data display unit 703 for the person C. Assume that it is desired.

制御部7は、図4(b)に示すように、嗜好情報設定画面701の嗜好情報データ71の部分に、欲しい表情を選択可能に表示する。例えば、「楽しい」、「悲しい」、「驚き」、「怒り」、「真顔」、および、「選択された表情」のなかから選択できるようにする。
ユーザは、選択したい表情にカーソルを合わせてクリックすればよい。
As shown in FIG. 4B, the control unit 7 displays a desired facial expression in the preference information data 71 portion of the preference information setting screen 701 so as to be selectable. For example, it is possible to select from among “fun”, “sad”, “surprise”, “anger”, “true face”, and “selected facial expression”.
The user only has to place the cursor on the facial expression to be selected and click.

以上の所望の表情の選択処理により、例えば、図4(b)に示すように、優先順位「1」の人Aについては「楽しい」表情が、優先順位「2」の人Bについては「驚き」の表情が、優先順位「3」の人Cについては「選択された表情」が嗜好情報データ71として選択される。   By selecting the desired facial expression, for example, as shown in FIG. 4B, the “fun” facial expression is given to the person A having the priority “1” and the “surprise” is given to the person B having the priority “2”. “Selected facial expression” is selected as the preference information data 71 for the person C whose priority is “3”.

制御部は、嗜好情報設定画面701に、このほか、「登録」ボタン709、および、「その他の写真」ボタン705等が選択可能に表示する。
「登録」ボタン709を選択することにより、優先順位と被写体、欲しい表情からなる嗜好情報データ71が記憶部9に嗜好情報70として格納される。
また、「その他の写真」ボタン705は、画像データ表示部703に所望の人や所望の表情がない場合にユーザにより選択されることで、制御部7は、記憶部9に格納されているその他の画像データ60のサムネイル画像を、画像1〜画像6(731〜736)と同様に、顔領域を選択可能に表示する。
The control unit displays a “registration” button 709, an “other photo” button 705, and the like in addition to the preference information setting screen 701.
By selecting the “Register” button 709, preference information data 71 including priority order, subject, and desired facial expression is stored as preference information 70 in the storage unit 9.
Further, the “other photo” button 705 is selected by the user when there is no desired person or desired expression in the image data display unit 703, so that the control unit 7 stores the other items stored in the storage unit 9. Similarly to the image 1 to image 6 (731 to 736), the thumbnail image of the image data 60 is displayed so that the face area can be selected.

以上に説明したステップ201〜203(図1のステップ102)の処理により、制御部7は、複数の所望の人の顔を、優先順位をつけて選択させ、さらに、各所望の人について、所望の表情を選択させることが可能になる。これにより、ユーザの嗜好によりあった画像の抽出を可能する。   Through the processing in steps 201 to 203 (step 102 in FIG. 1) described above, the control unit 7 selects a plurality of desired human faces with priorities, and further selects the desired person for each desired person. Can be selected. Thereby, it is possible to extract an image according to the user's preference.

次に、図1のステップ103(画像データの顔画像解析)の処理について説明する。図5(a)は、ステップ103の処理の流れを示すフローチャート、図6、図7は、顔画像解析結果である特徴値の例を示す図である。   Next, the processing of step 103 (face image analysis of image data) in FIG. 1 will be described. FIG. 5A is a flowchart showing the flow of processing in step 103, and FIGS. 6 and 7 are diagrams showing examples of feature values as face image analysis results.

まず、制御部7は、ステップ102で選択された被写体の顔画像を解析し、特徴値を算出し、対象被写体の特徴値73として記憶部9の嗜好情報70に格納する(ステップ301)。
すなわち、記憶部9の嗜好情報70として格納された嗜好情報データ71の、ユーザが選択した被写体(A、B、C)の顔画像について特徴値を抽出する。
First, the control unit 7 analyzes the face image of the subject selected in Step 102, calculates a feature value, and stores it as the feature value 73 of the target subject in the preference information 70 of the storage unit 9 (Step 301).
That is, the feature value is extracted for the face image of the subject (A, B, C) selected by the user in the preference information data 71 stored as the preference information 70 in the storage unit 9.

顔画像の特徴値は、例えば、顔領域座標、目の位置座標、鼻の位置座標、口の位置座標、性別、年代、笑顔の確度等の情報であり、例えば、特開2009−294925号公報、特開2005−165447号公報、特開2007−336124号公報のほか、Face.com社が一般公開している顔認識技術のAPI(Application Program Interface)などの公知の手法を用いればよく、例えば以下のようにすればよい。   The feature value of the face image is, for example, information such as face area coordinates, eye position coordinates, nose position coordinates, mouth position coordinates, gender, age, smile accuracy, and the like, for example, JP 2009-294925 A In addition to JP 2005-165447 A and JP 2007-336124 A, Face. A publicly known method such as API (Application Program Interface) of face recognition technology publicly disclosed by Com may be used. For example, the following method may be used.

まず、顔画像から顔領域検出部にて顔領域を検出し、さらに顔特徴抽出部にて顔の特徴情報を抽出する。また、あらかじめ男女別の幅広い年齢層の個人顔特徴情報を作成しておき、年齢と性別の情報と合わせて顔特徴保持部に保持し、顔特徴抽出部で抽出された顔特徴情報と顔特徴保持部内の個人顔特徴情報とを照合して類似度を求める。得られた類似度とそれに付属した年齢および性別の情報から当該人物の年齢と性別を判別すればよい。   First, a face area is detected from a face image by a face area detection unit, and face feature information is extracted by a face feature extraction unit. In addition, personal facial feature information for a wide range of age groups by gender is created in advance and stored in the facial feature holding unit together with age and gender information, and the facial feature information and facial features extracted by the facial feature extraction unit The similarity is obtained by collating with the personal face feature information in the holding unit. What is necessary is just to discriminate | determine the age and sex of the said person from the information of the obtained similarity and the age and sex attached to it.

また、笑顔の確度や表情は、口の曲がり具合、口角の上がり具合、目の大きさ、しわのより具合などにもとづいて定量化することができる。定量化された値にもとづいてあらかじめ設定されたしきい値との比較により、被写体像がどの程度笑っているかを判定することができる。   The accuracy and expression of smiles can be quantified based on how the mouth bends, how the mouth corners rise, the size of the eyes, the degree of wrinkles, and the like. By comparing with a preset threshold value based on the quantified value, it can be determined how much the subject image is laughing.

図6は、ステップ102で選択された被写体の顔画像の特徴値73を示す図である。
ステップ301の被写体(A、B、C)の顔画像の解析により、それぞれの被写体(A、B、C)について、例えば、顔領域座標、目の位置座標、鼻の位置座標、口の位置座標、推定された年代、笑顔の確度(Smiling)、性別(gender)等の特徴値が抽出され、記憶部9の嗜好情報70に特徴値として格納される。
FIG. 6 is a diagram showing the feature value 73 of the face image of the subject selected in step 102.
By analyzing the face image of the subject (A, B, C) in step 301, for example, for each subject (A, B, C), for example, face area coordinates, eye position coordinates, nose position coordinates, mouth position coordinates Feature values such as the estimated age, smile accuracy (Smiling), and gender are extracted and stored in the preference information 70 of the storage unit 9 as feature values.

また、例えば、対象被写体1〜3(A、B、C)の笑顔の確度(Smiling)はそれぞれ、43%、85%、50%等であり、笑顔の確度が高いほど、笑顔であることを示している。   Further, for example, the smile accuracy (Smiling) of the subject subjects 1 to 3 (A, B, C) is 43%, 85%, 50%, etc., respectively, and the higher the smile accuracy, the more smiling the subject. Show.

ここで、対象被写体の特徴値73の表情(mood)の値としては、嗜好情報の選択処理(図2のステップ102)でユーザが選択した「欲しい表情」を格納する。
図6(c)は、欲しい表情の選択肢と、対象被写体の特徴値73の表情(mood)の値の対応を示す表である。例えば、「楽しい」は「happy」に、「驚き」は「surprised」に、「選択された表情」は「選択画像の特徴値」に対応する。
Here, the “desired facial expression” selected by the user in the preference information selection process (step 102 in FIG. 2) is stored as the facial expression (mod) value of the feature value 73 of the target subject.
FIG. 6C is a table showing the correspondence between the desired facial expression options and the value of the expression of the feature value 73 of the target subject. For example, “fun” corresponds to “happy”, “surprise” corresponds to “surprised”, and “selected facial expression” corresponds to “feature value of selected image”.

図6(a)に示すように、対象被写体1(A)の表情(mood)の値は、嗜好情報データ71で「楽しい」が選択されているので「happy」、対象被写体2(B)の表情(mood)の値は、嗜好情報データ71で「驚き」が選択されているので「surprised」、対象被写体2(C)の表情(mood)の値は、嗜好情報データ71で「選択された表情」が選択されているので「選択画像の特徴値」となっている。   As shown in FIG. 6A, the expression (mod) value of the subject 1 (A) is “happy” because the preference information data 71 is selected as “happy”, and the value of the subject 2 (B). The value of the expression (mod) is “surprise” because “surprise” is selected in the preference information data 71, and the value of the expression (mod) of the subject 2 (C) is “selected” in the preference information data 71. Since “expression” is selected, it is “feature value of selected image”.

次に、制御部7は、記憶部9の画像データ60に格納されている各画像に含まれる全顔画像について分析し、各顔画像の特徴値を抽出し、全画像の顔についての特徴値65として記憶部9に格納する(ステップ302)。
顔画像の分析方法は、ステップ301と同様である。
Next, the control unit 7 analyzes all face images included in each image stored in the image data 60 of the storage unit 9, extracts feature values of each face image, and features values about the faces of all the images. 65 is stored in the storage unit 9 (step 302).
The analysis method of the face image is the same as in step 301.

図7は、全画像の顔についての特徴値65の例を示す図である。
図7に示すように、全画像の顔についての特徴値65は、画像ID、顔ID、性別(gender)、表情(mood)、笑顔の確度(smiling)、顔領域座標、目の位置座標、鼻の位置座標、口の位置座標、推定される年代等である。
FIG. 7 is a diagram illustrating an example of the feature value 65 for the faces of all images.
As shown in FIG. 7, the feature values 65 for the faces of all images include an image ID, a face ID, a gender, a facial expression (mod), a smile accuracy (smiling), a face area coordinate, an eye position coordinate, Nose position coordinates, mouth position coordinates, estimated age, etc.

例えば、画像IDが1の画像1には、5個の顔画像があるため、それぞれの顔に顔ID、Img1−1、Img1−2、・・・、Img1−5が付され、それぞれの顔IDについて、上記の抽出された特徴値が格納される。
以上のステップ301、302(図2のステップ103)により、ユーザにより選択された対象被写体の特徴値73および全画像の顔についての特徴値65が抽出され、記憶部9に格納される。
For example, since there are five face images in image 1 with image ID 1, face IDs, Img1-1, Img1-2,..., Img1-5 are assigned to each face. For the ID, the extracted feature value is stored.
Through the above steps 301 and 302 (step 103 in FIG. 2), the feature value 73 of the target subject selected by the user and the feature value 65 of the face of all images are extracted and stored in the storage unit 9.

次に、図1のステップ104(個人の識別)の処理について説明する。図5(b)は、ステップ104の処理の流れを示すフローチャート、図8は、個人の識別結果である被写体の画像一覧75を示す図である。   Next, the processing of step 104 (personal identification) in FIG. 1 will be described. FIG. 5B is a flowchart showing the flow of processing in step 104, and FIG. 8 is a diagram showing a subject image list 75 which is a result of individual identification.

制御部7は、ステップ103で抽出した全画像(画像ID1、2、・・・)の全顔画像(顔ID:Img1−1、Img1−2、・・・)の特徴値と、ユーザにより選択された対象被写体の特徴値73を照合し、全顔画像の中から対象被写体に対応する顔を抽出し、被写体の画像一覧75として記憶部9に格納する(ステップ401)。   The control unit 7 selects the feature values of all face images (face IDs: Img1-1, Img1-2,...) Of all the images (image IDs 1, 2,...) Extracted in step 103 and the user. The target feature value 73 of the target subject is collated, a face corresponding to the target subject is extracted from all the face images, and is stored in the storage unit 9 as a subject image list 75 (step 401).

画像データから顔情報を抽出して、予め登録された顔情報と照合する方法としては、例えば、非特許文献1(「顔画像を用いた顔認識システム」、信学技法PRMU97−50、)1997年6月、山口、福井、前田)や、特開2003−141542号公報などの公知の手法を用いればよい。   As a method for extracting face information from image data and collating with face information registered in advance, Non-Patent Document 1 (“Face Recognition System Using Face Image”, Communication Technique PRMU97-50,) 1997, for example. June, Yamaguchi, Fukui, Maeda) and Japanese Patent Application Laid-Open No. 2003-141542 may be used.

図8は、被写体の画像一覧75の例を示す図である。
図8に示すように、ユーザにより選択された対象被写体1(人A)は、ステップ401の識別の結果、画像2のImg2-2、画像5のImg5−1、画像6のImg6−1、対象被写体2(人B)は、画像1のImg1-2、画像6のImg6−4、対象被写体3(人C)は、画像1のImg1-1、画像2のImg2−3、画像6のImg6−2として含まれることを示している。
FIG. 8 is a diagram illustrating an example of the subject image list 75.
As shown in FIG. 8, the target subject 1 (person A) selected by the user is identified as Img2-2 of image 2, Img5-1 of image 5, Img6-1 of image 6, Subject 2 (person B) is Img1-2 in image 1, Img6-4 in image 6, and target subject 3 (person C) is Img1-1 in image 1, Img2-3 in image 2, and Img6 in image 6. 2 is included.

図8に示されているその他のデータ、すなわち、例えば、顔領域座標、目・鼻・口の位置座標、年代、gender(性別)、mood(表情)、smiling(笑顔の確度)の値は、図5のステップ302で算出された全画像の顔についての特徴値65の対応する顔情報の値である。   The other data shown in FIG. 8, that is, for example, face area coordinates, eye / nose / mouth position coordinates, age, gender, mood, smiley accuracy, This is the face information value corresponding to the feature value 65 for the faces of all the images calculated in step 302 in FIG.

次に、図1のステップ105(推薦画像の決定)の処理について説明する。図9、図10は、ステップ105の処理の流れを示すフローチャート、図11、図12は、推薦画像の決定方法を説明する図である。   Next, the processing of step 105 (determination of recommended images) in FIG. 1 will be described. FIGS. 9 and 10 are flowcharts showing the flow of processing in step 105, and FIGS. 11 and 12 are diagrams for explaining a recommended image determination method.

推薦画像の決定処理(ステップ105)では、画像データ60の全画像1、2、・・・について、優先順位のついた複数の対象被写体の所望の表情の顔画像がより多く含まれる画像を推薦画像として決定する処理である。   In the recommended image determination process (step 105), for all the images 1, 2,... Of the image data 60, an image including more face images of desired facial expressions of a plurality of target subjects with priority is recommended. This is a process for determining an image.

制御部7は、まず、画像IDの変数nを1に初期化する(ステップ501)。また、制御部7は、画像IDnの画像について推薦画像を選択するために用いる推薦度D(n)の値を0に初期化する(ステップ502)。
また、制御部7は、ユーザにより選択された対象被写体のIDを示す変数mに初期化する(ステップ503)。
First, the control unit 7 initializes a variable n of the image ID to 1 (step 501). Further, the control unit 7 initializes the value of the recommendation degree D (n) used for selecting the recommended image for the image of the image IDn to 0 (step 502).
Further, the control unit 7 initializes the variable m indicating the ID of the target subject selected by the user (step 503).

次に、制御部7は、画像nに対象被写体mが存在するか否かを判定する(ステップ504)。そして、画像nに対象被写体mが存在する場合(ステップ504のYes)には一時変数Gを1とし(ステップ505)、画像nに対象被写体mが存在しない場合(ステップ504のNo)には一時変数Gを0とする(ステップ506)。
例えば、画像1について対象被写体1は存在しないのでG=0となり、対象被写体2および対象被写体3は存在するのでG=1となる。
Next, the control unit 7 determines whether or not the target subject m exists in the image n (step 504). If the target subject m exists in the image n (Yes in step 504), the temporary variable G is set to 1 (step 505), and if the target subject m does not exist in the image n (No in step 504), the temporary variable G is temporarily set. The variable G is set to 0 (step 506).
For example, since the target subject 1 does not exist in the image 1, G = 0, and since the target subject 2 and the target subject 3 exist, G = 1.

画像nに対象被写体mが存在し、ステップ505でG=1とした後、制御部7は、画像nに含まれる対象被写体mの表情と、嗜好情報70の対象被写体の特徴値73に含まれる表情(mood)の類似度Eを算出する(ステップ507)。
表情の類似度算出処理(ステップ507)の例として、図10に、詳細な処理の流れを示すフローチャートを示す。
After the target subject m exists in the image n and G = 1 is set in step 505, the control unit 7 is included in the facial expression of the target subject m included in the image n and the target subject characteristic value 73 of the preference information 70. The similarity E of the expression (mod) is calculated (step 507).
As an example of facial expression similarity calculation processing (step 507), FIG. 10 shows a flowchart showing a detailed processing flow.

ステップ507の表情の類似度Eの算出方法は、嗜好情報70として所望の表情を「選択画像の特徴値」としたか、その他の表情(「楽しい」、「悲しい」、「驚き」、「怒り」、「真顔」)としたかによって異なる。
まず、制御部7は、対象被写体の特徴値73の「mood(表情)」の値が「選択画像の特徴値」か否かを判定する(ステップ601)。
図6に示した対象被写体の特徴値73の例の場合、対象被写体3の「mood」の値が「選択画像の特徴値」であり、その他の対象被写体1および対象被写体2はそれ以外の表情である。
The method of calculating the similarity E of facial expressions in step 507 uses the desired facial expression as the “feature value of the selected image” as the preference information 70, or other facial expressions (“fun”, “sad”, “surprise”, “anger” ”Or“ true face ”).
First, the control unit 7 determines whether or not the “mod (expression)” value of the feature value 73 of the target subject is the “feature value of the selected image” (step 601).
In the example of the target subject characteristic value 73 shown in FIG. 6, the “mod” value of the target subject 3 is the “feature value of the selected image”, and other target subjects 1 and 2 have other facial expressions. It is.

ステップ601がNoの場合、図11の表情の類似度テーブル80に従って表情の類似度Eを求める(ステップ602)。
図11に示すように、表情の類似度テーブル80によって、嗜好情報70の表情設定と、画像nに含まれる顔画像のmood(表情)の値に従って0〜5の値が表情の類似度Eとして与えられる。
If step 601 is No, the facial expression similarity E is determined according to the facial expression similarity table 80 of FIG. 11 (step 602).
As shown in FIG. 11, the expression similarity degree table 80 sets the expression similarity in the preference information 70 and the value of 0 to 5 as the expression similarity E according to the value of the mood (expression) of the face image included in the image n. Given.

例えば、嗜好情報70の表情設定が「楽しい」で、画像nに含まれる顔画像のmoodの値が「happy」ならば表情の類似度E=5となり、嗜好情報70の表情設定が「楽しい」で、画像nに含まれる顔画像のmoodの値が「nuetral」ならば表情の類似度E=3となる。   For example, if the expression setting of the preference information 70 is “fun” and the mod value of the face image included in the image n is “happy”, the expression similarity E = 5, and the expression setting of the preference information 70 is “fun”. Thus, if the value of the mood of the face image included in the image n is “nuetal”, the expression similarity E = 3.

一方、ステップ601がYesの場合、例えば、笑顔の確度(Smiling)の値を元に表情の類似度Eを算出する(ステップ603)。
図12(a)は、ステップ603における表情の類似度Eの算出式の例である。
図12(a)の式により、対象被写体mのSmilingの値と、画像nに含まれる顔画像のSmilingの値の差によって5〜0の値が算出される。差が大きいほど表情の類似度Eは0に近い値となる。
On the other hand, when step 601 is Yes, for example, the similarity E of facial expressions is calculated based on the value of smile accuracy (Smiling) (step 603).
FIG. 12A shows an example of an expression for calculating the expression similarity E in step 603.
A value of 5 to 0 is calculated based on the difference between the value of Smile of the target subject m and the value of Smile of the face image included in the image n by the equation of FIG. The greater the difference, the closer the facial expression similarity E is to zero.

次に、制御部7は、嗜好情報70の対象被写体mの優先順位の値から重みWを決定する(ステップ508)。これは、優先順位の高い対象被写体mが画像nに含まれるほど推薦度D(n)の値を大きくなるように設定されるものであり、例えば、図12(b)に示す式により重みWの値を算出する。
図12(b)に示す重みWの算出式によれば、優先順位が1番の対象被写体1の重みWが3、優先順位が2番の対象被写体2の重みが2、優先順位が3番の対象被写体3の重みが1になる。
Next, the control unit 7 determines the weight W from the priority order value of the target subject m in the preference information 70 (step 508). This is set so that the recommendation degree D (n) increases as the target subject m having a higher priority is included in the image n. For example, the weight W is calculated according to the equation shown in FIG. Is calculated.
According to the calculation formula of the weight W shown in FIG. 12B, the weight W of the target subject 1 with the first priority is 3, the weight of the target subject 2 with the second priority is 2, and the priority is 3 The target subject 3 has a weight of 1.

次に、制御部7は、ステップ505、506により求まった一時変数G、ステップ507で求まった表情の類似度E、および、ステップ508で求まった重みWの値から、G×E×Wの値を一時変数Gの値とする(ステップ509)。
さらに、制御部7は、ステップ509で求めた一時変数Gの値を画像nの推薦度D(n)の値に加算し、推薦度D(n)とする(ステップ510)。
Next, the control unit 7 calculates a value of G × E × W from the temporary variable G obtained in steps 505 and 506, the similarity E of the facial expression obtained in step 507, and the weight W obtained in step 508. Is the value of the temporary variable G (step 509).
Further, the control unit 7 adds the value of the temporary variable G obtained in step 509 to the recommendation degree D (n) of the image n to obtain the recommendation degree D (n) (step 510).

次に、制御部7は、対象被写体の変数mを1インクリメントし(ステップ511)、変数mの値が対象被写体数Mの値以下の場合(ステップ512のYes)、ステップ504〜ステップ512の処理を繰り返す。これにより、画像nにM個の対象被写体のうちのどの対象被写体が含まれていて、その表情が、嗜好情報70の表情の情報とどれだけ近いかを示す値が推薦度D(n)として算出される。   Next, the control unit 7 increments the variable m of the target subject by 1 (step 511), and when the value of the variable m is equal to or less than the value of the target subject number M (Yes in step 512), the processing from step 504 to step 512 is performed. repeat. As a result, a value indicating which target subject of the M target subjects is included in the image n and how close the facial expression is to the facial expression information of the preference information 70 is the recommendation degree D (n). Calculated.

ステップ512がNoの場合(M個の対象被写体についての推薦度D(n)の計算が完了した場合)、推薦度D(n)の値を所定のしきい値THの値と比較する(ステップ513)。
推薦度D(n)≧しきい値THの場合(ステップ513のYes)、画像nを推薦画像として保持する(ステップ514)。
When step 512 is No (when the calculation of the recommendation level D (n) for the M target subjects is completed), the value of the recommendation level D (n) is compared with the value of a predetermined threshold TH (step 513).
When the recommendation degree D (n) ≧ the threshold value TH (Yes in Step 513), the image n is held as a recommended image (Step 514).

ステップ514の処理後、および、推薦度D(n)<しきい値THの場合(ステップ513のNo)、次の画像n+1の処理を行うため、nの値を1インクリメントし(ステップ515)、nの値が画像データ60に含まれる全画像数N以下の場合(ステップ516のYes)、ステップ502に戻り、ステップ502〜516の処理を繰り返す。全画像数Nについて処理が完了した場合(ステップ516のNo)、ステップ105の処理を終了する。   After the processing of step 514 and when the recommendation level D (n) <threshold value TH (No in step 513), the value of n is incremented by 1 to perform the next image n + 1 (step 515), When the value of n is less than or equal to the total number N of images included in the image data 60 (Yes in step 516), the process returns to step 502 and the processes in steps 502 to 516 are repeated. When the processing is completed for the total number N of images (No in step 516), the processing in step 105 is terminated.

図12(c)は、推薦画像の決定例89を示す図である。
画像ID(n=1〜6、・・・)について、対象被写体m(m=1〜3)の被写体の有無(1または0)、表情の類似度E、重みWから一時変数Gを求め、m=1〜3の一時変数Gの値の合計がD(n)の値として示されている。
FIG. 12C illustrates a recommended image determination example 89.
For the image ID (n = 1 to 6,...), A temporary variable G is obtained from the presence / absence (1 or 0) of the subject m (m = 1 to 3), the similarity E of the facial expression, and the weight W. The sum of the values of temporary variables G with m = 1 to 3 is shown as the value of D (n).

例えば、画像3、4、5の場合、対象被写体1〜3は含まれておらず、その結果、推薦度D(n)の値は0となる。
また、例えば、画像2の場合、対象被写体1および3が含まれており、対象被写体1の場合、表情の類似度Eは、図11の表情の類似度テーブル80の「楽しい」-「happy」を参照しE=5、対象被写体3の場合、図12(a)の式により、図6に示した対象被写体の特徴値73のSmilingの値(50%)と、図8に示した対象被写体3の画像2のSmilingの値(44%)を元に、E=4.7となり、重みWにより、D(2)=19.7となる。
また、画像6も同様にD(6)の値を算出すると、D(6)=29.65となる。
For example, in the case of the images 3, 4, and 5, the target subjects 1 to 3 are not included, and as a result, the recommendation degree D (n) is 0.
Further, for example, in the case of the image 2, the target subjects 1 and 3 are included, and in the case of the target subject 1, the expression similarity E is “fun” − “happy” in the expression similarity table 80 of FIG. 11. When E = 5 and the target subject 3, the Smile value (50%) of the feature value 73 of the target subject shown in FIG. 6 and the target subject shown in FIG. E = 4.7 based on the Milling value (44%) of the image 2 of 3, and D (2) = 19.7 by the weight W.
Similarly, when the value of D (6) is calculated for the image 6 as well, D (6) = 29.65.

ここで、しきい値TH=15とすると、画像2および画像6が推薦画像90となる。   Here, if the threshold value TH = 15, the image 2 and the image 6 become the recommended images 90.

最後に、制御部7は、図2のステップ106により、推薦画像90を表示部17に表示して処理を終了する。
図13は、推薦画像90の表示部17への表示画面の例を示す図である。
図13の例では、画像1から順に全画像を表示するとともに、推薦画像に「★」マークを付して推薦画像であることを示している。
Finally, the control unit 7 displays the recommended image 90 on the display unit 17 in step 106 in FIG.
FIG. 13 is a diagram illustrating an example of a display screen of the recommended image 90 on the display unit 17.
In the example of FIG. 13, all images are displayed in order from the image 1, and the recommended image is marked with a “★” mark to indicate that it is a recommended image.

図13の例では推薦画像90に特定のマークを付して推薦画像であることを示したが、推薦画像90の提示方法はそれに限ることはない。例えば、推薦画像90のみを別に表示部17に表示するようにしてもよい。   In the example of FIG. 13, a specific mark is added to the recommended image 90 to indicate that it is a recommended image. However, the method of presenting the recommended image 90 is not limited thereto. For example, only the recommended image 90 may be separately displayed on the display unit 17.

以上、本発明によれば、単なる笑顔の顔を良い画像として推薦するのではなく、ユーザの嗜好に基づいて嗜好情報70として指定された人の、指定された表情に近い顔情報を多く含む画像を推薦画像として抽出することが可能となり、よりきめ細やかな推薦画像抽出が可能になる。
また、嗜好情報70における人の指定において優先順位を付すことにより、優先順位の高い指定された人の、指定された表情に近い顔情報を含む画像を推薦画像として抽出することが可能になる。
As described above, according to the present invention, instead of simply recommending a smiling face as a good image, an image including a lot of face information close to the specified facial expression of the person specified as the preference information 70 based on the user's preference. Can be extracted as a recommended image, and a more detailed recommended image can be extracted.
In addition, by assigning priorities to the designation of people in the preference information 70, it is possible to extract, as a recommended image, an image including face information close to a designated facial expression of a designated person with a high priority.

以上、添付図を参照しながら、本発明の実施の形態を説明したが、本発明の技術的範囲は、前述した実施の形態に左右されない。当業者であれば、特許請求の範囲に記載された技術的思想の範疇内において各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although embodiment of this invention was described referring an accompanying drawing, the technical scope of this invention is not influenced by embodiment mentioned above. It is obvious for those skilled in the art that various modifications or modifications can be conceived within the scope of the technical idea described in the claims, and these are naturally within the technical scope of the present invention. It is understood that it belongs.

例えば、本実施形態では、表情の類似度Eの算出方法に笑顔の確度(Smiling)の値、または、moodの値(「楽しい」、「悲しい」等の表情の種類)を用い、図12(a)の式あるいは図11の表に従って類似度Eの値を算出するようにしたが、図12(a)の式、あるいは、図11の表の値はこれに限ることはなく、他の式、他の値であってもよい。   For example, in the present embodiment, the value of smile similarity (Smiling) or the value of mod (the types of facial expressions such as “fun” and “sad”) are used as a method of calculating the similarity E of facial expressions. Although the value of the similarity E is calculated according to the equation of a) or the table of FIG. 11, the value of the equation of FIG. 12A or the table of FIG. 11 is not limited to this, and other equations Other values may be used.

1………画像表示装置
7………制御部
9………記憶部
17………表示部
60………画像データ
70………嗜好情報
DESCRIPTION OF SYMBOLS 1 ......... Image display apparatus 7 ......... Control part 9 ......... Storage part 17 ......... Display part 60 ......... Image data 70 ......... Preference information

Claims (3)

複数の画像データを記憶する第1の記憶部と、
所望の人の顔、および、前記所望の人の優先順位および前記所望の人の所望の表情を指定させ、前記所望の人の顔の特徴値とともに第2の記憶部に記憶する顔指定手段と、
前記第1の記憶部に記憶されている前記画像データに含まれるすべての顔の特徴値および表情を算出する特徴値算出手段と、
前記特徴値算出手段により算出された前記画像データに含まれる顔の特徴値と、前記第2の記憶部に記憶されている前記所望の人の顔の特徴値とを照合し、前記所望の人の顔であるか否かを識別する識別手段と、
前記識別手段により、前記画像データに含まれる顔が、前記所望の人の顔であると識別された場合に、前記画像データに含まれる顔の表情と、前記所望の表情の差を算出する表情距離算出手段と、
前記画像データごとに、前記所望の人の顔の有無、および、前記表情距離算出手段により算出された表情の差、および、前記優先順位を元に、前記画像データの推薦度を算出し、前記推薦度が所定の値以上の場合に前記画像データを推薦画像データとして推薦する推薦手段と、
を具備することを特徴とする画像表示装置。
A first storage unit for storing a plurality of image data;
A face designating unit for designating a desired person's face, a priority order of the desired person and a desired facial expression of the desired person, and storing them in a second storage unit together with a feature value of the desired person's face; ,
Feature value calculating means for calculating feature values and facial expressions of all faces included in the image data stored in the first storage unit;
The feature value of the face included in the image data calculated by the feature value calculation means is collated with the feature value of the face of the desired person stored in the second storage unit, and the desired person Identification means for identifying whether or not the face is,
When the identification means identifies that the face included in the image data is the face of the desired person, the facial expression included in the image data and an expression for calculating the difference between the desired expression A distance calculating means;
For each of the image data, the degree of recommendation of the image data is calculated based on the presence or absence of the face of the desired person, the difference in facial expression calculated by the facial expression distance calculation means, and the priority order, Recommending means for recommending the image data as recommended image data when the degree of recommendation is a predetermined value or more;
An image display device comprising:
第1の記憶部に記憶されている複数の画像データから、推薦画像データを抽出し表示する画像表示方法であって、
コンピュータが、
所望の人の顔、および、前記所望の人の優先順位および前記所望の人の欲しい表情を指定させ、前記所望の人の顔の特徴値とともに第2の記憶部に記憶する顔指定工程と、
前記第1の記憶部に記憶されている前記画像データに含まれるすべての顔の特徴値および表情を算出する特徴値算出工程と、
前記特徴値算出工程により算出された前記画像データに含まれる顔の特徴値と、前記第2の記憶部に記憶されている前記所望の人の顔の特徴値とを照合し、前記所望の人の顔であるか否かを識別する識別工程と、
前記識別工程により、前記画像データに含まれる顔が、前記所望の人の顔であると識別された場合に、前記画像データに含まれる顔の表情と、前記所望の表情の差を算出する表情距離算出工程と、
前記画像データごとに、前記所望の人の顔の有無、および、前記表情距離算出工程により算出された表情の差、および、前記優先順位を元に、前記画像データの推薦度を算出し、前記推薦度が所定の値以上の場合に前記画像データを推薦画像データとして推薦する推薦工程と、
を実行することを特徴とする画像表示方法。
An image display method for extracting and displaying recommended image data from a plurality of image data stored in a first storage unit,
Computer
A face designating step of causing a desired person's face, a priority order of the desired person and an expression desired by the desired person to be designated, and storing them in a second storage unit together with a feature value of the desired person's face;
A feature value calculating step of calculating feature values and facial expressions of all the faces included in the image data stored in the first storage unit;
The feature value of the face included in the image data calculated by the feature value calculation step is collated with the feature value of the desired person's face stored in the second storage unit, and the desired person An identification step for identifying whether the face is
When the identification step identifies that the face included in the image data is the face of the desired person, an expression for calculating the difference between the facial expression included in the image data and the desired expression A distance calculation step;
For each of the image data, based on the presence / absence of the face of the desired person, the difference in facial expression calculated by the facial expression distance calculation step, and the priority, the recommendation degree of the image data is calculated, A recommendation step of recommending the image data as recommended image data when the recommendation level is a predetermined value or more;
The image display method characterized by performing.
コンピュータを、
複数の画像データを記憶する第1の記憶部と、
所望の人の顔、および、前記所望の人の優先順位および前記所望の人の所望の表情を指定させ、前記所望の人の顔の特徴値とともに第2の記憶部に記憶する顔指定手段と、
前記第1の記憶部に記憶されている前記画像データに含まれるすべての顔の特徴値および表情を算出する特徴値算出手段と、
前記特徴値算出手段により算出された前記画像データに含まれる顔の特徴値と、前記第2の記憶部に記憶されている前記所望の人の顔の特徴値とを照合し、前記所望の人の顔であるか否かを識別する識別手段と、
前記識別手段により、前記画像データに含まれる顔が、前記所望の人の顔であると識別された場合に、前記画像データに含まれる顔の表情と、前記所望の表情の差を算出する表情距離算出手段と、
前記画像データごとに、前記所望の人の顔の有無、および、前記表情距離算出手段により算出された表情の差、および、前記優先順位を元に、前記画像データの推薦度を算出し、前記推薦度が所定の値以上の場合に前記画像データを推薦画像データとして推薦する推薦手段と、
を具備する画像表示装置として機能させるためのプログラム。
Computer
A first storage unit for storing a plurality of image data;
A face designating unit for designating a desired person's face, a priority order of the desired person and a desired facial expression of the desired person, and storing them in a second storage unit together with a feature value of the desired person's face; ,
Feature value calculating means for calculating feature values and facial expressions of all faces included in the image data stored in the first storage unit;
The feature value of the face included in the image data calculated by the feature value calculation means is collated with the feature value of the face of the desired person stored in the second storage unit, and the desired person Identification means for identifying whether or not the face is,
When the identification means identifies that the face included in the image data is the face of the desired person, the facial expression included in the image data and an expression for calculating the difference between the desired expression A distance calculating means;
For each of the image data, the degree of recommendation of the image data is calculated based on the presence or absence of the face of the desired person, the difference in facial expression calculated by the facial expression distance calculation means, and the priority order, Recommending means for recommending the image data as recommended image data when the degree of recommendation is a predetermined value or more;
A program for causing an image display apparatus to function as an image display apparatus.
JP2012063170A 2012-03-21 2012-03-21 Image display device, image display method and program Pending JP2013196417A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012063170A JP2013196417A (en) 2012-03-21 2012-03-21 Image display device, image display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012063170A JP2013196417A (en) 2012-03-21 2012-03-21 Image display device, image display method and program

Publications (1)

Publication Number Publication Date
JP2013196417A true JP2013196417A (en) 2013-09-30

Family

ID=49395264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012063170A Pending JP2013196417A (en) 2012-03-21 2012-03-21 Image display device, image display method and program

Country Status (1)

Country Link
JP (1) JP2013196417A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015159406A (en) * 2014-02-24 2015-09-03 キヤノン株式会社 Image pickup device and control method of the same
CN105163139A (en) * 2014-05-28 2015-12-16 青岛海尔电子有限公司 Information push method, information push server and intelligent television
JP2017045376A (en) * 2015-08-28 2017-03-02 富士フイルム株式会社 Commodity image display control device and commodity image display control method, and program
JP2021150865A (en) * 2020-03-19 2021-09-27 富士フイルム株式会社 Image processing device, image processing method, and image processing program
US11715328B2 (en) 2018-09-19 2023-08-01 Fujifilm Corporation Image processing apparatus for selecting images based on a standard

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213378A (en) * 2006-02-10 2007-08-23 Fujifilm Corp Method for detecting face of specific expression, imaging control method, device and program
JP2009118009A (en) * 2007-11-02 2009-05-28 Sony Corp Imaging apparatus, method for controlling same, and program
JP2011129033A (en) * 2009-12-21 2011-06-30 Tamura Seisakusho Co Ltd Digital photograph frame and image display method
JP2011155605A (en) * 2010-01-28 2011-08-11 Nikon Corp Image processing device, imaging device, and image processing program
JP2011170579A (en) * 2010-02-18 2011-09-01 Seiko Epson Corp Intimacy degree determination method and intimacy degree determination device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213378A (en) * 2006-02-10 2007-08-23 Fujifilm Corp Method for detecting face of specific expression, imaging control method, device and program
JP2009118009A (en) * 2007-11-02 2009-05-28 Sony Corp Imaging apparatus, method for controlling same, and program
JP2011129033A (en) * 2009-12-21 2011-06-30 Tamura Seisakusho Co Ltd Digital photograph frame and image display method
JP2011155605A (en) * 2010-01-28 2011-08-11 Nikon Corp Image processing device, imaging device, and image processing program
JP2011170579A (en) * 2010-02-18 2011-09-01 Seiko Epson Corp Intimacy degree determination method and intimacy degree determination device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015159406A (en) * 2014-02-24 2015-09-03 キヤノン株式会社 Image pickup device and control method of the same
CN105163139A (en) * 2014-05-28 2015-12-16 青岛海尔电子有限公司 Information push method, information push server and intelligent television
JP2017045376A (en) * 2015-08-28 2017-03-02 富士フイルム株式会社 Commodity image display control device and commodity image display control method, and program
US11715328B2 (en) 2018-09-19 2023-08-01 Fujifilm Corporation Image processing apparatus for selecting images based on a standard
JP2021150865A (en) * 2020-03-19 2021-09-27 富士フイルム株式会社 Image processing device, image processing method, and image processing program
JP7247136B2 (en) 2020-03-19 2023-03-28 富士フイルム株式会社 Image processing device, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
JP6902860B2 (en) Image processing equipment, image processing methods, and programs
US10275652B2 (en) Information processing method, information processing apparatus, and non-transitory computer-readable storage medium that determine whether a target person is an important person based on importance degrees
US10055640B2 (en) Classification of feature information into groups based upon similarity, and apparatus, image processing method, and computer-readable storage medium thereof
US10943376B2 (en) Image processing apparatus for laying out image on template and image processing method
JP7128665B2 (en) Image processing device, image processing method, image processing program, and recording medium storing the program
US20170228453A1 (en) Photograph organization based on facial recognition
US20170039748A1 (en) Image processing apparatus and image processing method
JP2013196417A (en) Image display device, image display method and program
JP6529314B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP7167283B2 (en) Image candidate determination device, image candidate determination method, program for controlling image candidate determination device, and recording medium storing the program
CN108596079B (en) Gesture recognition method and device and electronic equipment
JP2017037618A (en) Image processing device, image processing method and program
WO2016006090A1 (en) Electronic apparatus, method, and program
JP2020140557A (en) Image processing device, control method, and program
JP2020140555A (en) Image processing device, control method, and program
JP4881185B2 (en) Image sorting apparatus, method, and program
JP2007140897A (en) Image search device and method, and program
JP2017037417A (en) Image processor, method and program
JP6635208B1 (en) Search device, search method, and program
JP2006236217A (en) Person recognition system, person recognition method, and person recognition program
JP7465487B2 (en) Emoticon Generator
JP5845988B2 (en) Image processing system, image processing method, server, and program
JP4891119B2 (en) Image sorting apparatus, method, and program
JP7188478B2 (en) SEARCH DEVICE, SEARCH METHOD, AND PROGRAM
JP6188292B2 (en) Medical information processing apparatus, medical information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160308