JP2013196417A - Image display device, image display method and program - Google Patents
Image display device, image display method and program Download PDFInfo
- Publication number
- JP2013196417A JP2013196417A JP2012063170A JP2012063170A JP2013196417A JP 2013196417 A JP2013196417 A JP 2013196417A JP 2012063170 A JP2012063170 A JP 2012063170A JP 2012063170 A JP2012063170 A JP 2012063170A JP 2013196417 A JP2013196417 A JP 2013196417A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image data
- image
- desired person
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、画像選択を支援する画像表示装置等に関するものである。 The present invention relates to an image display device that supports image selection.
デジタルカメラの性能向上、および、写真等を保存するためのメモリーカード等記録媒体の大容量低価格化が進み、多くの画像を撮影し、収集する傾向が増している。その結果、記録媒体に格納された多くの画像から、印刷等の目的に合わせた好みの画像をピックアップする作業が負担になる。 As digital camera performance improves and recording media such as memory cards for storing photographs and the like increase in price and capacity, the tendency to capture and collect many images is increasing. As a result, it is a burden to pick up a favorite image according to the purpose such as printing from many images stored in the recording medium.
このため、良い画像を選択するための方法、良い画像を選択する方法が提案されている(例えば特許文献1、特許文献2)。
For this reason, a method for selecting a good image and a method for selecting a good image have been proposed (for example,
特許文献1は、撮像装置についての発明であり、予め好みの顔の特徴量を登録しておき、複数の画像を撮像し、撮像された複数の画像の中から、登録されている顔の特徴量に近い被写体を含む画像を判断し記録する撮像装置について提案している。
特許文献2は、複数の画像の検索、表示を迅速に行う技術について開示しており、画面中央に位置する被写体の顔の笑顔度に基づいて、画像を選択する方法を提案している。
しかしながら、特許文献1の方法は、撮像装置に設けられた技術であり、登録された好みの顔の画像以外の顔の画像は記録されないという問題がある。
また、特許文献2の方法は、笑顔の画像が良いという仮定に基づき、笑顔度の高い画像を選択するものであるが、良いと判断する表情は選択者によって異なり、必ずしも笑顔がよいわけではない。
However, the method of
The method of
図14は、複数の画像から画像を選択する場合の例を示す図である。
図14(a)のように、複数の被写体が撮影されている画像1〜10(731〜740)から良いと思われる画像を選択する作業は思いのほか負担がかかる。
図14(b)は、笑顔を判断基準として選択した場合の例であり、被写体全員が笑顔の画像(画像8、画像9、画像10)が選択される。
FIG. 14 is a diagram illustrating an example of selecting an image from a plurality of images.
As shown in FIG. 14A, the operation of selecting an image that seems to be good from the
FIG. 14B shows an example in the case where smile is selected as a determination criterion, and images (image 8,
しかしながら、選択の基準は笑顔とは限らず、選択者によって異なり、特定の人が写っている画像を選択したいという場合もある。
図14(c)、(d)は、特定の人の特定の表情を判断基準とする場合の例である。すなわち、特定の人(A、B、C)が写っていることが望ましく、また、Aの人は笑顔、Bの人は驚き、Cの人は真顔であるという条件に近い画像は、例えば、画像6、7、10となり、図14(b)で選択された画像とは異なるものとなる。
However, the criteria for selection are not limited to smiles, and may vary depending on the user and may select an image in which a specific person is shown.
FIGS. 14C and 14D are examples in which a specific facial expression of a specific person is used as a criterion. That is, it is desirable that a specific person (A, B, C) is captured, and an image close to the condition that the person A is smiling, the person B is surprised, and the person C is a true face is, for example,
本発明は、前述した問題点に鑑みてなされたもので、画像を選択する人の感性に合わせた画像を推薦することが可能な画像選択を支援する画像表示装置等を提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object thereof is to provide an image display device that supports image selection that can recommend an image that matches the sensitivity of a person who selects an image. To do.
前述した目的を達成するために、第1の発明は、複数の画像データを記憶する第1の記憶部と、所望の人の顔、および、前記所望の人の優先順位および前記所望の人の所望の表情を指定させ、前記所望の人の顔の特徴値とともに第2の記憶部に記憶する顔指定手段と、前記第1の記憶部に記憶されている前記画像データに含まれるすべての顔の特徴値および表情を算出する特徴値算出手段と、前記特徴値算出手段により算出された前記画像データに含まれる顔の特徴値と、前記第2の記憶部に記憶されている前記所望の人の顔の特徴値とを照合し、前記所望の人の顔であるか否かを識別する識別手段と、前記識別手段により、前記画像データに含まれる顔が、前記所望の人の顔であると識別された場合に、前記画像データに含まれる顔の表情と、前記所望の表情の差を算出する表情距離算出手段と、前記画像データごとに、前記所望の人の顔の有無、および、前記表情距離算出手段により算出された表情の差、および、前記優先順位を元に、前記画像データの推薦度を算出し、前記推薦度が所定の値以上の場合に前記画像データを推薦画像データとして推薦する推薦手段と、を具備することを特徴とする画像表示装置である。 In order to achieve the above-described object, the first invention includes a first storage unit that stores a plurality of image data, a desired person's face, the priority order of the desired person, and the desired person's priority. Face designating means for designating a desired facial expression and storing it in the second storage unit together with the facial feature value of the desired person, and all the faces included in the image data stored in the first storage unit A feature value calculating means for calculating a feature value and a facial expression, a facial feature value included in the image data calculated by the feature value calculating means, and the desired person stored in the second storage unit The feature value of the face is collated to identify whether or not the face is the desired person, and the face included in the image data by the identifying means is the face of the desired person The facial expression included in the image data Facial expression distance calculating means for calculating a difference in desired facial expression; presence or absence of the face of the desired person for each of the image data; difference in facial expression calculated by the facial expression distance calculating means; and the priority An image display comprising: a recommendation unit that calculates a recommendation level of the image data based on the ranking and recommends the image data as recommended image data when the recommendation level is equal to or higher than a predetermined value. Device.
第1の発明によれば、顔指定手段により、ユーザが所望する人、および、その人の顔について所望する表情を指定することが可能になり、また、推薦手段により、第1の記憶部に記憶されている複数の画像データの中から、所望する人の所望する表情に近い顔が含まれる画像データを抽出することが可能になり、ユーザの嗜好に合う画像を推薦することが可能になる。 According to the first invention, it is possible to specify a person desired by the user and a desired facial expression of the person's face by the face designating means, and to the first storage unit by the recommendation means. Image data including a face close to a desired expression of a desired person can be extracted from a plurality of stored image data, and an image suitable for the user's preference can be recommended. .
また、顔指定手段により、複数の人を優先順位をつけて指定することが可能になり、また、推薦手段により、当該優先順位に基づいて推薦度を算出することにより、優先順位の高い人の所望する表情に近い顔が多く含まれる画像データを抽出することが可能になり、更にユーザの嗜好に合った画像を推薦することが可能になる。 In addition, it is possible to designate a plurality of people with priority by the face designating means, and by calculating the recommendation degree based on the priority order by the recommending means, It is possible to extract image data including many faces close to a desired facial expression, and it is possible to recommend an image that matches the user's preference.
第2の発明は、第1の記憶部に記憶されている複数の画像データから、推薦画像データを抽出し表示する画像表示方法であって、コンピュータが、所望の人の顔、および、前記所望の人の優先順位および前記所望の人の欲しい表情を指定させ、前記所望の人の顔の特徴値とともに第2の記憶部に記憶する顔指定工程と、前記第1の記憶部に記憶されている前記画像データに含まれるすべての顔の特徴値および表情を算出する特徴値算出工程と、前記特徴値算出工程により算出された前記画像データに含まれる顔の特徴値と、前記第2の記憶部に記憶されている前記所望の人の顔の特徴値とを照合し、前記所望の人の顔であるか否かを識別する識別工程と、前記識別工程により、前記画像データに含まれる顔が、前記所望の人の顔であると識別された場合に、前記画像データに含まれる顔の表情と、前記所望の表情の差を算出する表情距離算出工程と、前記画像データごとに、前記所望の人の顔の有無、および、前記表情距離算出工程により算出された表情の差、および、前記優先順位を元に、前記画像データの推薦度を算出し、前記推薦度が所定の値以上の場合に前記画像データを推薦画像データとして推薦する推薦工程と、を実行することを特徴とする画像表示方法である。 A second invention is an image display method for extracting and displaying recommended image data from a plurality of image data stored in a first storage unit, wherein the computer has a desired human face and the desired image A face designation step of designating the priority order of the person and the facial expression desired by the desired person, and storing it in the second storage unit together with the feature value of the face of the desired person, and storing in the first storage unit A feature value calculating step for calculating feature values and facial expressions of all the faces included in the image data, a face feature value included in the image data calculated by the feature value calculating step, and the second storage A face value included in the image data by the identification step of collating the feature value of the face of the desired person stored in the section and identifying whether the face is the face of the desired person Is identified as the face of the desired person A facial expression distance calculation step for calculating a difference between the facial expression included in the image data and the desired facial expression, the presence or absence of the desired human face, and the facial expression for each of the image data. The degree of recommendation of the image data is calculated based on the difference in facial expression calculated by the distance calculation step and the priority order, and the image data is recommended as recommended image data when the recommendation degree is equal to or greater than a predetermined value. An image display method characterized by executing a recommendation step.
第2の発明によれば、顔指定工程により、ユーザが所望する人、および、その人の顔について所望する表情を優先順位を付けて指定することが可能であり、また、推薦工程により、優先順位の高い人の、所望する表情に近い顔が多く含まれる画像データを抽出し、ユーザの嗜好に合った画像を推薦することが可能になる。 According to the second invention, it is possible to designate the person desired by the user and the desired facial expression of the person's face with priority by the face designation step, and priority by the recommendation step. It is possible to extract image data containing many faces close to a desired facial expression of a person with high ranking and recommend an image that meets the user's preference.
第3の発明は、コンピュータを、複数の画像データを記憶する第1の記憶部と、所望の人の顔、および、前記所望の人の優先順位および前記所望の人の所望の表情を指定させ、前記所望の人の顔の特徴値とともに第2の記憶部に記憶する顔指定手段と、前記第1の記憶部に記憶されている前記画像データに含まれるすべての顔の特徴値および表情を算出する特徴値算出手段と、前記特徴値算出手段により算出された前記画像データに含まれる顔の特徴値と、前記第2の記憶部に記憶されている前記所望の人の顔の特徴値とを照合し、前記所望の人の顔であるか否かを識別する識別手段と、前記識別手段により、前記画像データに含まれる顔が、前記所望の人の顔であると識別された場合に、前記画像データに含まれる顔の表情と、前記所望の表情の差を算出する表情距離算出手段と、前記画像データごとに、前記所望の人の顔の有無、および、前記表情距離算出手段により算出された表情の差、および、前記優先順位を元に、前記画像データの推薦度を算出し、前記推薦度が所定の値以上の場合に前記画像データを推薦画像データとして推薦する推薦手段と、を具備する画像表示装置として機能させるためのプログラムである。 According to a third aspect of the invention, the computer is configured to designate the first storage unit that stores a plurality of image data, the face of the desired person, the priority order of the desired person, and the desired facial expression of the desired person. , Face designation means for storing the desired person's facial feature value in a second storage unit, and all facial feature values and facial expressions included in the image data stored in the first storage unit. A feature value calculating means to calculate; a face feature value included in the image data calculated by the feature value calculating means; and a desired person face feature value stored in the second storage unit; And the identification means for identifying whether or not the face is the desired person, and when the face included in the image data is identified by the identification means as the face of the desired person , Facial expressions included in the image data, and the desired expression Expression distance calculation means for calculating a difference in emotion, for each image data, the presence or absence of the face of the desired person, the difference in expression calculated by the expression distance calculation means, and the priority order A program for calculating a recommendation level of the image data and causing the image display device to function as a recommendation unit that recommends the image data as recommended image data when the recommendation level is equal to or higher than a predetermined value. .
第3の発明によれば、優先順位の高い人の、所望する表情に近い顔が多く含まれる画像データを抽出し、ユーザの嗜好に合った画像を推薦することが可能になる。 According to the third invention, it is possible to extract image data including a lot of faces close to a desired facial expression of a person with high priority, and to recommend an image that matches the user's preference.
本発明により、画像を選択する人の感性に合わせた画像を推薦することが可能な画像選択を支援する画像表示装置等を提供することが可能になる。 According to the present invention, it is possible to provide an image display device that supports image selection that can recommend an image that matches the sensitivity of the person who selects the image.
以下、添付図面に基づいて、本発明に係る画像表示装置等の好適な実施形態について詳細に説明する。尚、以下の説明及び添付図面において、略同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略することにする。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of an image display device and the like according to the invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, the same reference numerals are given to components having substantially the same functional configuration, and redundant description will be omitted.
図1は、画像表示装置1のハードウエア構成例を示すブロック図である。
画像表示装置1は、例えば、パーソナルコンピュータ等のコンピュータであってもよいし、また、利用者が持ち込んだ記録媒体に記録されているデジタルカメラの画像データをプリントすることができる画像プリントシステムであってもよい。
FIG. 1 is a block diagram illustrating a hardware configuration example of the
The
画像表示装置1は、制御部7、記憶部9、メディア入出力部11、通信制御部13、入力部15、表示部17、周辺機器I/F部19等がバス21を介して接続される。
In the
制御部7は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成される。
CPUは、ROM、記憶部9等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス21を介して接続された各装置を駆動制御し、コンピュータが行う処理を実現する。
ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。
RAMは、揮発性メモリであり、記憶部9、ROM、記憶媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部7が各種処理を行うために使用するワークエリアを備える。
The
The CPU calls and executes a program stored in the ROM, the
The ROM is a non-volatile memory and permanently holds a computer boot program, a program such as BIOS, data, and the like.
The RAM is a volatile memory, and temporarily stores a program, data, and the like loaded from the
記憶部9は、HDD(ハードディスクドライブ)であり、制御部7が実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、アプリケーションプログラム、ファイル等が格納されている。
これらの各プログラムコードは、制御部7により必要に応じて読み出されてRAMに移され、CPUにより各種の手段として実行される。
本発明の本実施形態に係る画像表示装置1を実行するためのプログラムやデータは、記憶部9に格納されており、必要に応じて制御部1に読み出されて実行される。
The
These program codes are read by the
The program and data for executing the
メディア入出力部11は、記録媒体のデータの入出力を行うドライブ装置であり、例えば、フロッピー(登録商標)ディスクドライブ、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)、MOドライブ等のメディア入出力装置を有する。
通信制御部13は、通信制御装置、通信ポート等を有し、ネットワーク4を介した通信を媒介する通信インタフェースであり、他のコンピュータ間との通信制御を行う。
The media input /
The
入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部15を介して、コンピュータに対して、操作指示、動作指示、データ入力等を行うことができる。
表示部17は、CRT(Cathode Ray Tube)モニタ、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携してビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。
周辺機器I/F部19は、周辺機器を接続するためのUSB(Universal Serial Bus)ポート等である。
バス21は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The
The
The peripheral device I /
The bus 21 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.
図2は、本発明に係る本実施形態の処理の流れを示すフローチャートである。
まず、画像表示装置1の制御部7は、画像データ60を読み込み、記憶部9に格納する(ステップ101)。画像データ60は、例えば、図14(a)に示したように、複数の画像からなり、例えば、画像表示装置1のメディア入出力部11を介してメモリーカード等から読み込む。あるいは、インターネット等のネットワークを介して他のコンピュータ装置から画像表示装置1の通信制御部13を介して読み込むようにしてもよい。
FIG. 2 is a flowchart showing the flow of processing of the present embodiment according to the present invention.
First, the
次に、制御部7は、ユーザに嗜好情報を設定させる(ステップ102)。嗜好情報は、ユーザが画像を選択する際に所望する人と、その優先順位、当該人の顔の所望の表情である。ステップ102については後で詳述する。
次に、制御部7は、ステップ101で記憶部9に格納された画像データ60について、各画像に含まれる顔の画像(顔画像)を解析する(ステップ103)。
ステップ103については後で詳述する。
Next, the
Next, the
Step 103 will be described in detail later.
次に、制御部7は、ステップ103の顔画像の解析結果を元に、各顔画像の識別を行い、ステップ102で嗜好情報として設定された顔を画像データ60の各画像から識別する(ステップ104)。
ステップ104については後で詳述する。
Next, the
Step 104 will be described in detail later.
次に、制御部7は、画像データ60の複数の画像から、ステップ102でユーザに設定させたユーザの嗜好情報の顔画像に近い顔画像を含む画像を推薦画像として抽出する(ステップ105)。ステップ105の推薦画像の決定方法については後で詳述する。
制御部7は、ステップ105で決定された推薦画像を表示部17に表示し(ステップ106)、処理を終了する。
Next, the
The
次に、図1のステップ102(嗜好情報の設定)の処理について説明する。図3は、ステップ102の処理の流れを示すフローチャート、図4は、嗜好情報の設定画面例701である。 Next, the processing of step 102 (setting preference information) in FIG. 1 will be described. FIG. 3 is a flowchart showing the processing flow of step 102, and FIG. 4 is an example of a preference information setting screen 701.
制御部7は、まず、図1のステップ101により記憶部9に格納された画像データ60を表示部17に顔部分を選択可能に表示する(ステップ201)。
図4(b)に示すように、嗜好情報設定画面701の画像データ表示部703に、例えば、画像データ60のサムネイルを表示する。
First, the
As shown in FIG. 4B, for example, a thumbnail of the
図4(b)に示す例では、画像データ表示部703にサムネイル画像として画像1〜画像6(731〜736)が各画像1〜6に含まれる顔を選択可能に表示される。
顔の部分を選択可能に表示するためには、顔の位置および領域を抽出する必要があるが、顔の位置・領域の抽出は、公知の技術、例えば、特開2005−165447に記載されている方法等を使用することが可能である。
In the example shown in FIG. 4B, the image data display unit 703
In order to display the face part in a selectable manner, it is necessary to extract the face position and area. The extraction of the face position and area is described in a known technique, for example, Japanese Patent Laid-Open No. 2005-165447. Can be used.
図4(b)の画像データ表示部703に示すように、制御部7は、公知の方法で抽出された各画像1〜6(731〜736)顔領域を例えば、矩形で囲んで表示し、この矩形にカーソル711を合わせてクリックすることにより、当該顔領域の顔を選択可能にする。
As shown in the image data display unit 703 in FIG. 4B, the
次に、制御部7は、ユーザに、欲しい被写体を、優先順位をつけて選択させる(ステップ202)。
例えば、図4(a)に示すように、ユーザが人A、B、Cが写っている画像を所望しているとする。さらに、ユーザは、写っている人の優先順位を、人A、B、Cの順に所望しているとする。
Next, the
For example, as shown in FIG. 4A, it is assumed that the user desires an image in which people A, B, and C are shown. Furthermore, it is assumed that the user desires the priority order of the people in the order of people A, B, and C.
制御部7は、ユーザに、所望の人の顔に優先順位の順にカーソル711を合わせて選択させてもよいし、また、カーソル711を合わせた顔の領域を、嗜好情報設定画面701の左側の部分にある嗜好情報データ71の被写体の部分の所望の優先順位の位置にドラッグさせるようにしてもよい。
以上の所望の顔の選択処理により、嗜好情報設定画面701の嗜好情報データ71として所望の被写体が優先順位の順に選択され、表示される。
The
Through the above-described processing for selecting a desired face, desired subjects are selected and displayed as
次に、制御部7は、選択された被写体について、ユーザに、所望の欲しい表情を選択させる(ステップ203)。
図4に示すように、ユーザが、所望の人A、B、Cについて、所望の表情を選択させる。図4(a)に示すように、例えば、ユーザが、人Aについては笑っている表情、人Bについては驚いている表情、人Cについては画像データ表示部703から選択された顔の表情を所望しているものとする。
Next, the
As shown in FIG. 4, the user selects a desired facial expression for desired persons A, B, and C. As shown in FIG. 4A, for example, the user displays a smiling expression for the person A, a surprised expression for the person B, and a facial expression selected from the image data display unit 703 for the person C. Assume that it is desired.
制御部7は、図4(b)に示すように、嗜好情報設定画面701の嗜好情報データ71の部分に、欲しい表情を選択可能に表示する。例えば、「楽しい」、「悲しい」、「驚き」、「怒り」、「真顔」、および、「選択された表情」のなかから選択できるようにする。
ユーザは、選択したい表情にカーソルを合わせてクリックすればよい。
As shown in FIG. 4B, the
The user only has to place the cursor on the facial expression to be selected and click.
以上の所望の表情の選択処理により、例えば、図4(b)に示すように、優先順位「1」の人Aについては「楽しい」表情が、優先順位「2」の人Bについては「驚き」の表情が、優先順位「3」の人Cについては「選択された表情」が嗜好情報データ71として選択される。
By selecting the desired facial expression, for example, as shown in FIG. 4B, the “fun” facial expression is given to the person A having the priority “1” and the “surprise” is given to the person B having the priority “2”. “Selected facial expression” is selected as the
制御部は、嗜好情報設定画面701に、このほか、「登録」ボタン709、および、「その他の写真」ボタン705等が選択可能に表示する。
「登録」ボタン709を選択することにより、優先順位と被写体、欲しい表情からなる嗜好情報データ71が記憶部9に嗜好情報70として格納される。
また、「その他の写真」ボタン705は、画像データ表示部703に所望の人や所望の表情がない場合にユーザにより選択されることで、制御部7は、記憶部9に格納されているその他の画像データ60のサムネイル画像を、画像1〜画像6(731〜736)と同様に、顔領域を選択可能に表示する。
The control unit displays a “registration”
By selecting the “Register”
Further, the “other photo” button 705 is selected by the user when there is no desired person or desired expression in the image data display unit 703, so that the
以上に説明したステップ201〜203(図1のステップ102)の処理により、制御部7は、複数の所望の人の顔を、優先順位をつけて選択させ、さらに、各所望の人について、所望の表情を選択させることが可能になる。これにより、ユーザの嗜好によりあった画像の抽出を可能する。
Through the processing in steps 201 to 203 (step 102 in FIG. 1) described above, the
次に、図1のステップ103(画像データの顔画像解析)の処理について説明する。図5(a)は、ステップ103の処理の流れを示すフローチャート、図6、図7は、顔画像解析結果である特徴値の例を示す図である。 Next, the processing of step 103 (face image analysis of image data) in FIG. 1 will be described. FIG. 5A is a flowchart showing the flow of processing in step 103, and FIGS. 6 and 7 are diagrams showing examples of feature values as face image analysis results.
まず、制御部7は、ステップ102で選択された被写体の顔画像を解析し、特徴値を算出し、対象被写体の特徴値73として記憶部9の嗜好情報70に格納する(ステップ301)。
すなわち、記憶部9の嗜好情報70として格納された嗜好情報データ71の、ユーザが選択した被写体(A、B、C)の顔画像について特徴値を抽出する。
First, the
That is, the feature value is extracted for the face image of the subject (A, B, C) selected by the user in the
顔画像の特徴値は、例えば、顔領域座標、目の位置座標、鼻の位置座標、口の位置座標、性別、年代、笑顔の確度等の情報であり、例えば、特開2009−294925号公報、特開2005−165447号公報、特開2007−336124号公報のほか、Face.com社が一般公開している顔認識技術のAPI(Application Program Interface)などの公知の手法を用いればよく、例えば以下のようにすればよい。 The feature value of the face image is, for example, information such as face area coordinates, eye position coordinates, nose position coordinates, mouth position coordinates, gender, age, smile accuracy, and the like, for example, JP 2009-294925 A In addition to JP 2005-165447 A and JP 2007-336124 A, Face. A publicly known method such as API (Application Program Interface) of face recognition technology publicly disclosed by Com may be used. For example, the following method may be used.
まず、顔画像から顔領域検出部にて顔領域を検出し、さらに顔特徴抽出部にて顔の特徴情報を抽出する。また、あらかじめ男女別の幅広い年齢層の個人顔特徴情報を作成しておき、年齢と性別の情報と合わせて顔特徴保持部に保持し、顔特徴抽出部で抽出された顔特徴情報と顔特徴保持部内の個人顔特徴情報とを照合して類似度を求める。得られた類似度とそれに付属した年齢および性別の情報から当該人物の年齢と性別を判別すればよい。 First, a face area is detected from a face image by a face area detection unit, and face feature information is extracted by a face feature extraction unit. In addition, personal facial feature information for a wide range of age groups by gender is created in advance and stored in the facial feature holding unit together with age and gender information, and the facial feature information and facial features extracted by the facial feature extraction unit The similarity is obtained by collating with the personal face feature information in the holding unit. What is necessary is just to discriminate | determine the age and sex of the said person from the information of the obtained similarity and the age and sex attached to it.
また、笑顔の確度や表情は、口の曲がり具合、口角の上がり具合、目の大きさ、しわのより具合などにもとづいて定量化することができる。定量化された値にもとづいてあらかじめ設定されたしきい値との比較により、被写体像がどの程度笑っているかを判定することができる。 The accuracy and expression of smiles can be quantified based on how the mouth bends, how the mouth corners rise, the size of the eyes, the degree of wrinkles, and the like. By comparing with a preset threshold value based on the quantified value, it can be determined how much the subject image is laughing.
図6は、ステップ102で選択された被写体の顔画像の特徴値73を示す図である。
ステップ301の被写体(A、B、C)の顔画像の解析により、それぞれの被写体(A、B、C)について、例えば、顔領域座標、目の位置座標、鼻の位置座標、口の位置座標、推定された年代、笑顔の確度(Smiling)、性別(gender)等の特徴値が抽出され、記憶部9の嗜好情報70に特徴値として格納される。
FIG. 6 is a diagram showing the
By analyzing the face image of the subject (A, B, C) in step 301, for example, for each subject (A, B, C), for example, face area coordinates, eye position coordinates, nose position coordinates, mouth position coordinates Feature values such as the estimated age, smile accuracy (Smiling), and gender are extracted and stored in the preference information 70 of the
また、例えば、対象被写体1〜3(A、B、C)の笑顔の確度(Smiling)はそれぞれ、43%、85%、50%等であり、笑顔の確度が高いほど、笑顔であることを示している。
Further, for example, the smile accuracy (Smiling) of the
ここで、対象被写体の特徴値73の表情(mood)の値としては、嗜好情報の選択処理(図2のステップ102)でユーザが選択した「欲しい表情」を格納する。
図6(c)は、欲しい表情の選択肢と、対象被写体の特徴値73の表情(mood)の値の対応を示す表である。例えば、「楽しい」は「happy」に、「驚き」は「surprised」に、「選択された表情」は「選択画像の特徴値」に対応する。
Here, the “desired facial expression” selected by the user in the preference information selection process (step 102 in FIG. 2) is stored as the facial expression (mod) value of the
FIG. 6C is a table showing the correspondence between the desired facial expression options and the value of the expression of the
図6(a)に示すように、対象被写体1(A)の表情(mood)の値は、嗜好情報データ71で「楽しい」が選択されているので「happy」、対象被写体2(B)の表情(mood)の値は、嗜好情報データ71で「驚き」が選択されているので「surprised」、対象被写体2(C)の表情(mood)の値は、嗜好情報データ71で「選択された表情」が選択されているので「選択画像の特徴値」となっている。
As shown in FIG. 6A, the expression (mod) value of the subject 1 (A) is “happy” because the
次に、制御部7は、記憶部9の画像データ60に格納されている各画像に含まれる全顔画像について分析し、各顔画像の特徴値を抽出し、全画像の顔についての特徴値65として記憶部9に格納する(ステップ302)。
顔画像の分析方法は、ステップ301と同様である。
Next, the
The analysis method of the face image is the same as in step 301.
図7は、全画像の顔についての特徴値65の例を示す図である。
図7に示すように、全画像の顔についての特徴値65は、画像ID、顔ID、性別(gender)、表情(mood)、笑顔の確度(smiling)、顔領域座標、目の位置座標、鼻の位置座標、口の位置座標、推定される年代等である。
FIG. 7 is a diagram illustrating an example of the
As shown in FIG. 7, the feature values 65 for the faces of all images include an image ID, a face ID, a gender, a facial expression (mod), a smile accuracy (smiling), a face area coordinate, an eye position coordinate, Nose position coordinates, mouth position coordinates, estimated age, etc.
例えば、画像IDが1の画像1には、5個の顔画像があるため、それぞれの顔に顔ID、Img1−1、Img1−2、・・・、Img1−5が付され、それぞれの顔IDについて、上記の抽出された特徴値が格納される。
以上のステップ301、302(図2のステップ103)により、ユーザにより選択された対象被写体の特徴値73および全画像の顔についての特徴値65が抽出され、記憶部9に格納される。
For example, since there are five face images in
Through the above steps 301 and 302 (step 103 in FIG. 2), the
次に、図1のステップ104(個人の識別)の処理について説明する。図5(b)は、ステップ104の処理の流れを示すフローチャート、図8は、個人の識別結果である被写体の画像一覧75を示す図である。
Next, the processing of step 104 (personal identification) in FIG. 1 will be described. FIG. 5B is a flowchart showing the flow of processing in step 104, and FIG. 8 is a diagram showing a
制御部7は、ステップ103で抽出した全画像(画像ID1、2、・・・)の全顔画像(顔ID:Img1−1、Img1−2、・・・)の特徴値と、ユーザにより選択された対象被写体の特徴値73を照合し、全顔画像の中から対象被写体に対応する顔を抽出し、被写体の画像一覧75として記憶部9に格納する(ステップ401)。
The
画像データから顔情報を抽出して、予め登録された顔情報と照合する方法としては、例えば、非特許文献1(「顔画像を用いた顔認識システム」、信学技法PRMU97−50、)1997年6月、山口、福井、前田)や、特開2003−141542号公報などの公知の手法を用いればよい。 As a method for extracting face information from image data and collating with face information registered in advance, Non-Patent Document 1 (“Face Recognition System Using Face Image”, Communication Technique PRMU97-50,) 1997, for example. June, Yamaguchi, Fukui, Maeda) and Japanese Patent Application Laid-Open No. 2003-141542 may be used.
図8は、被写体の画像一覧75の例を示す図である。
図8に示すように、ユーザにより選択された対象被写体1(人A)は、ステップ401の識別の結果、画像2のImg2-2、画像5のImg5−1、画像6のImg6−1、対象被写体2(人B)は、画像1のImg1-2、画像6のImg6−4、対象被写体3(人C)は、画像1のImg1-1、画像2のImg2−3、画像6のImg6−2として含まれることを示している。
FIG. 8 is a diagram illustrating an example of the
As shown in FIG. 8, the target subject 1 (person A) selected by the user is identified as Img2-2 of
図8に示されているその他のデータ、すなわち、例えば、顔領域座標、目・鼻・口の位置座標、年代、gender(性別)、mood(表情)、smiling(笑顔の確度)の値は、図5のステップ302で算出された全画像の顔についての特徴値65の対応する顔情報の値である。
The other data shown in FIG. 8, that is, for example, face area coordinates, eye / nose / mouth position coordinates, age, gender, mood, smiley accuracy, This is the face information value corresponding to the
次に、図1のステップ105(推薦画像の決定)の処理について説明する。図9、図10は、ステップ105の処理の流れを示すフローチャート、図11、図12は、推薦画像の決定方法を説明する図である。 Next, the processing of step 105 (determination of recommended images) in FIG. 1 will be described. FIGS. 9 and 10 are flowcharts showing the flow of processing in step 105, and FIGS. 11 and 12 are diagrams for explaining a recommended image determination method.
推薦画像の決定処理(ステップ105)では、画像データ60の全画像1、2、・・・について、優先順位のついた複数の対象被写体の所望の表情の顔画像がより多く含まれる画像を推薦画像として決定する処理である。
In the recommended image determination process (step 105), for all the
制御部7は、まず、画像IDの変数nを1に初期化する(ステップ501)。また、制御部7は、画像IDnの画像について推薦画像を選択するために用いる推薦度D(n)の値を0に初期化する(ステップ502)。
また、制御部7は、ユーザにより選択された対象被写体のIDを示す変数mに初期化する(ステップ503)。
First, the
Further, the
次に、制御部7は、画像nに対象被写体mが存在するか否かを判定する(ステップ504)。そして、画像nに対象被写体mが存在する場合(ステップ504のYes)には一時変数Gを1とし(ステップ505)、画像nに対象被写体mが存在しない場合(ステップ504のNo)には一時変数Gを0とする(ステップ506)。
例えば、画像1について対象被写体1は存在しないのでG=0となり、対象被写体2および対象被写体3は存在するのでG=1となる。
Next, the
For example, since the
画像nに対象被写体mが存在し、ステップ505でG=1とした後、制御部7は、画像nに含まれる対象被写体mの表情と、嗜好情報70の対象被写体の特徴値73に含まれる表情(mood)の類似度Eを算出する(ステップ507)。
表情の類似度算出処理(ステップ507)の例として、図10に、詳細な処理の流れを示すフローチャートを示す。
After the target subject m exists in the image n and G = 1 is set in
As an example of facial expression similarity calculation processing (step 507), FIG. 10 shows a flowchart showing a detailed processing flow.
ステップ507の表情の類似度Eの算出方法は、嗜好情報70として所望の表情を「選択画像の特徴値」としたか、その他の表情(「楽しい」、「悲しい」、「驚き」、「怒り」、「真顔」)としたかによって異なる。
まず、制御部7は、対象被写体の特徴値73の「mood(表情)」の値が「選択画像の特徴値」か否かを判定する(ステップ601)。
図6に示した対象被写体の特徴値73の例の場合、対象被写体3の「mood」の値が「選択画像の特徴値」であり、その他の対象被写体1および対象被写体2はそれ以外の表情である。
The method of calculating the similarity E of facial expressions in step 507 uses the desired facial expression as the “feature value of the selected image” as the preference information 70, or other facial expressions (“fun”, “sad”, “surprise”, “anger” ”Or“ true face ”).
First, the
In the example of the target subject
ステップ601がNoの場合、図11の表情の類似度テーブル80に従って表情の類似度Eを求める(ステップ602)。
図11に示すように、表情の類似度テーブル80によって、嗜好情報70の表情設定と、画像nに含まれる顔画像のmood(表情)の値に従って0〜5の値が表情の類似度Eとして与えられる。
If step 601 is No, the facial expression similarity E is determined according to the facial expression similarity table 80 of FIG. 11 (step 602).
As shown in FIG. 11, the expression similarity degree table 80 sets the expression similarity in the preference information 70 and the value of 0 to 5 as the expression similarity E according to the value of the mood (expression) of the face image included in the image n. Given.
例えば、嗜好情報70の表情設定が「楽しい」で、画像nに含まれる顔画像のmoodの値が「happy」ならば表情の類似度E=5となり、嗜好情報70の表情設定が「楽しい」で、画像nに含まれる顔画像のmoodの値が「nuetral」ならば表情の類似度E=3となる。 For example, if the expression setting of the preference information 70 is “fun” and the mod value of the face image included in the image n is “happy”, the expression similarity E = 5, and the expression setting of the preference information 70 is “fun”. Thus, if the value of the mood of the face image included in the image n is “nuetal”, the expression similarity E = 3.
一方、ステップ601がYesの場合、例えば、笑顔の確度(Smiling)の値を元に表情の類似度Eを算出する(ステップ603)。
図12(a)は、ステップ603における表情の類似度Eの算出式の例である。
図12(a)の式により、対象被写体mのSmilingの値と、画像nに含まれる顔画像のSmilingの値の差によって5〜0の値が算出される。差が大きいほど表情の類似度Eは0に近い値となる。
On the other hand, when step 601 is Yes, for example, the similarity E of facial expressions is calculated based on the value of smile accuracy (Smiling) (step 603).
FIG. 12A shows an example of an expression for calculating the expression similarity E in step 603.
A value of 5 to 0 is calculated based on the difference between the value of Smile of the target subject m and the value of Smile of the face image included in the image n by the equation of FIG. The greater the difference, the closer the facial expression similarity E is to zero.
次に、制御部7は、嗜好情報70の対象被写体mの優先順位の値から重みWを決定する(ステップ508)。これは、優先順位の高い対象被写体mが画像nに含まれるほど推薦度D(n)の値を大きくなるように設定されるものであり、例えば、図12(b)に示す式により重みWの値を算出する。
図12(b)に示す重みWの算出式によれば、優先順位が1番の対象被写体1の重みWが3、優先順位が2番の対象被写体2の重みが2、優先順位が3番の対象被写体3の重みが1になる。
Next, the
According to the calculation formula of the weight W shown in FIG. 12B, the weight W of the target subject 1 with the first priority is 3, the weight of the target subject 2 with the second priority is 2, and the priority is 3 The
次に、制御部7は、ステップ505、506により求まった一時変数G、ステップ507で求まった表情の類似度E、および、ステップ508で求まった重みWの値から、G×E×Wの値を一時変数Gの値とする(ステップ509)。
さらに、制御部7は、ステップ509で求めた一時変数Gの値を画像nの推薦度D(n)の値に加算し、推薦度D(n)とする(ステップ510)。
Next, the
Further, the
次に、制御部7は、対象被写体の変数mを1インクリメントし(ステップ511)、変数mの値が対象被写体数Mの値以下の場合(ステップ512のYes)、ステップ504〜ステップ512の処理を繰り返す。これにより、画像nにM個の対象被写体のうちのどの対象被写体が含まれていて、その表情が、嗜好情報70の表情の情報とどれだけ近いかを示す値が推薦度D(n)として算出される。
Next, the
ステップ512がNoの場合(M個の対象被写体についての推薦度D(n)の計算が完了した場合)、推薦度D(n)の値を所定のしきい値THの値と比較する(ステップ513)。
推薦度D(n)≧しきい値THの場合(ステップ513のYes)、画像nを推薦画像として保持する(ステップ514)。
When step 512 is No (when the calculation of the recommendation level D (n) for the M target subjects is completed), the value of the recommendation level D (n) is compared with the value of a predetermined threshold TH (step 513).
When the recommendation degree D (n) ≧ the threshold value TH (Yes in Step 513), the image n is held as a recommended image (Step 514).
ステップ514の処理後、および、推薦度D(n)<しきい値THの場合(ステップ513のNo)、次の画像n+1の処理を行うため、nの値を1インクリメントし(ステップ515)、nの値が画像データ60に含まれる全画像数N以下の場合(ステップ516のYes)、ステップ502に戻り、ステップ502〜516の処理を繰り返す。全画像数Nについて処理が完了した場合(ステップ516のNo)、ステップ105の処理を終了する。 After the processing of step 514 and when the recommendation level D (n) <threshold value TH (No in step 513), the value of n is incremented by 1 to perform the next image n + 1 (step 515), When the value of n is less than or equal to the total number N of images included in the image data 60 (Yes in step 516), the process returns to step 502 and the processes in steps 502 to 516 are repeated. When the processing is completed for the total number N of images (No in step 516), the processing in step 105 is terminated.
図12(c)は、推薦画像の決定例89を示す図である。
画像ID(n=1〜6、・・・)について、対象被写体m(m=1〜3)の被写体の有無(1または0)、表情の類似度E、重みWから一時変数Gを求め、m=1〜3の一時変数Gの値の合計がD(n)の値として示されている。
FIG. 12C illustrates a recommended image determination example 89.
For the image ID (n = 1 to 6,...), A temporary variable G is obtained from the presence / absence (1 or 0) of the subject m (m = 1 to 3), the similarity E of the facial expression, and the weight W. The sum of the values of temporary variables G with m = 1 to 3 is shown as the value of D (n).
例えば、画像3、4、5の場合、対象被写体1〜3は含まれておらず、その結果、推薦度D(n)の値は0となる。
また、例えば、画像2の場合、対象被写体1および3が含まれており、対象被写体1の場合、表情の類似度Eは、図11の表情の類似度テーブル80の「楽しい」-「happy」を参照しE=5、対象被写体3の場合、図12(a)の式により、図6に示した対象被写体の特徴値73のSmilingの値(50%)と、図8に示した対象被写体3の画像2のSmilingの値(44%)を元に、E=4.7となり、重みWにより、D(2)=19.7となる。
また、画像6も同様にD(6)の値を算出すると、D(6)=29.65となる。
For example, in the case of the
Further, for example, in the case of the
Similarly, when the value of D (6) is calculated for the
ここで、しきい値TH=15とすると、画像2および画像6が推薦画像90となる。
Here, if the threshold value TH = 15, the
最後に、制御部7は、図2のステップ106により、推薦画像90を表示部17に表示して処理を終了する。
図13は、推薦画像90の表示部17への表示画面の例を示す図である。
図13の例では、画像1から順に全画像を表示するとともに、推薦画像に「★」マークを付して推薦画像であることを示している。
Finally, the
FIG. 13 is a diagram illustrating an example of a display screen of the recommended
In the example of FIG. 13, all images are displayed in order from the
図13の例では推薦画像90に特定のマークを付して推薦画像であることを示したが、推薦画像90の提示方法はそれに限ることはない。例えば、推薦画像90のみを別に表示部17に表示するようにしてもよい。
In the example of FIG. 13, a specific mark is added to the recommended
以上、本発明によれば、単なる笑顔の顔を良い画像として推薦するのではなく、ユーザの嗜好に基づいて嗜好情報70として指定された人の、指定された表情に近い顔情報を多く含む画像を推薦画像として抽出することが可能となり、よりきめ細やかな推薦画像抽出が可能になる。
また、嗜好情報70における人の指定において優先順位を付すことにより、優先順位の高い指定された人の、指定された表情に近い顔情報を含む画像を推薦画像として抽出することが可能になる。
As described above, according to the present invention, instead of simply recommending a smiling face as a good image, an image including a lot of face information close to the specified facial expression of the person specified as the preference information 70 based on the user's preference. Can be extracted as a recommended image, and a more detailed recommended image can be extracted.
In addition, by assigning priorities to the designation of people in the preference information 70, it is possible to extract, as a recommended image, an image including face information close to a designated facial expression of a designated person with a high priority.
以上、添付図を参照しながら、本発明の実施の形態を説明したが、本発明の技術的範囲は、前述した実施の形態に左右されない。当業者であれば、特許請求の範囲に記載された技術的思想の範疇内において各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although embodiment of this invention was described referring an accompanying drawing, the technical scope of this invention is not influenced by embodiment mentioned above. It is obvious for those skilled in the art that various modifications or modifications can be conceived within the scope of the technical idea described in the claims, and these are naturally within the technical scope of the present invention. It is understood that it belongs.
例えば、本実施形態では、表情の類似度Eの算出方法に笑顔の確度(Smiling)の値、または、moodの値(「楽しい」、「悲しい」等の表情の種類)を用い、図12(a)の式あるいは図11の表に従って類似度Eの値を算出するようにしたが、図12(a)の式、あるいは、図11の表の値はこれに限ることはなく、他の式、他の値であってもよい。 For example, in the present embodiment, the value of smile similarity (Smiling) or the value of mod (the types of facial expressions such as “fun” and “sad”) are used as a method of calculating the similarity E of facial expressions. Although the value of the similarity E is calculated according to the equation of a) or the table of FIG. 11, the value of the equation of FIG. 12A or the table of FIG. 11 is not limited to this, and other equations Other values may be used.
1………画像表示装置
7………制御部
9………記憶部
17………表示部
60………画像データ
70………嗜好情報
DESCRIPTION OF
Claims (3)
所望の人の顔、および、前記所望の人の優先順位および前記所望の人の所望の表情を指定させ、前記所望の人の顔の特徴値とともに第2の記憶部に記憶する顔指定手段と、
前記第1の記憶部に記憶されている前記画像データに含まれるすべての顔の特徴値および表情を算出する特徴値算出手段と、
前記特徴値算出手段により算出された前記画像データに含まれる顔の特徴値と、前記第2の記憶部に記憶されている前記所望の人の顔の特徴値とを照合し、前記所望の人の顔であるか否かを識別する識別手段と、
前記識別手段により、前記画像データに含まれる顔が、前記所望の人の顔であると識別された場合に、前記画像データに含まれる顔の表情と、前記所望の表情の差を算出する表情距離算出手段と、
前記画像データごとに、前記所望の人の顔の有無、および、前記表情距離算出手段により算出された表情の差、および、前記優先順位を元に、前記画像データの推薦度を算出し、前記推薦度が所定の値以上の場合に前記画像データを推薦画像データとして推薦する推薦手段と、
を具備することを特徴とする画像表示装置。 A first storage unit for storing a plurality of image data;
A face designating unit for designating a desired person's face, a priority order of the desired person and a desired facial expression of the desired person, and storing them in a second storage unit together with a feature value of the desired person's face; ,
Feature value calculating means for calculating feature values and facial expressions of all faces included in the image data stored in the first storage unit;
The feature value of the face included in the image data calculated by the feature value calculation means is collated with the feature value of the face of the desired person stored in the second storage unit, and the desired person Identification means for identifying whether or not the face is,
When the identification means identifies that the face included in the image data is the face of the desired person, the facial expression included in the image data and an expression for calculating the difference between the desired expression A distance calculating means;
For each of the image data, the degree of recommendation of the image data is calculated based on the presence or absence of the face of the desired person, the difference in facial expression calculated by the facial expression distance calculation means, and the priority order, Recommending means for recommending the image data as recommended image data when the degree of recommendation is a predetermined value or more;
An image display device comprising:
コンピュータが、
所望の人の顔、および、前記所望の人の優先順位および前記所望の人の欲しい表情を指定させ、前記所望の人の顔の特徴値とともに第2の記憶部に記憶する顔指定工程と、
前記第1の記憶部に記憶されている前記画像データに含まれるすべての顔の特徴値および表情を算出する特徴値算出工程と、
前記特徴値算出工程により算出された前記画像データに含まれる顔の特徴値と、前記第2の記憶部に記憶されている前記所望の人の顔の特徴値とを照合し、前記所望の人の顔であるか否かを識別する識別工程と、
前記識別工程により、前記画像データに含まれる顔が、前記所望の人の顔であると識別された場合に、前記画像データに含まれる顔の表情と、前記所望の表情の差を算出する表情距離算出工程と、
前記画像データごとに、前記所望の人の顔の有無、および、前記表情距離算出工程により算出された表情の差、および、前記優先順位を元に、前記画像データの推薦度を算出し、前記推薦度が所定の値以上の場合に前記画像データを推薦画像データとして推薦する推薦工程と、
を実行することを特徴とする画像表示方法。 An image display method for extracting and displaying recommended image data from a plurality of image data stored in a first storage unit,
Computer
A face designating step of causing a desired person's face, a priority order of the desired person and an expression desired by the desired person to be designated, and storing them in a second storage unit together with a feature value of the desired person's face;
A feature value calculating step of calculating feature values and facial expressions of all the faces included in the image data stored in the first storage unit;
The feature value of the face included in the image data calculated by the feature value calculation step is collated with the feature value of the desired person's face stored in the second storage unit, and the desired person An identification step for identifying whether the face is
When the identification step identifies that the face included in the image data is the face of the desired person, an expression for calculating the difference between the facial expression included in the image data and the desired expression A distance calculation step;
For each of the image data, based on the presence / absence of the face of the desired person, the difference in facial expression calculated by the facial expression distance calculation step, and the priority, the recommendation degree of the image data is calculated, A recommendation step of recommending the image data as recommended image data when the recommendation level is a predetermined value or more;
The image display method characterized by performing.
複数の画像データを記憶する第1の記憶部と、
所望の人の顔、および、前記所望の人の優先順位および前記所望の人の所望の表情を指定させ、前記所望の人の顔の特徴値とともに第2の記憶部に記憶する顔指定手段と、
前記第1の記憶部に記憶されている前記画像データに含まれるすべての顔の特徴値および表情を算出する特徴値算出手段と、
前記特徴値算出手段により算出された前記画像データに含まれる顔の特徴値と、前記第2の記憶部に記憶されている前記所望の人の顔の特徴値とを照合し、前記所望の人の顔であるか否かを識別する識別手段と、
前記識別手段により、前記画像データに含まれる顔が、前記所望の人の顔であると識別された場合に、前記画像データに含まれる顔の表情と、前記所望の表情の差を算出する表情距離算出手段と、
前記画像データごとに、前記所望の人の顔の有無、および、前記表情距離算出手段により算出された表情の差、および、前記優先順位を元に、前記画像データの推薦度を算出し、前記推薦度が所定の値以上の場合に前記画像データを推薦画像データとして推薦する推薦手段と、
を具備する画像表示装置として機能させるためのプログラム。 Computer
A first storage unit for storing a plurality of image data;
A face designating unit for designating a desired person's face, a priority order of the desired person and a desired facial expression of the desired person, and storing them in a second storage unit together with a feature value of the desired person's face; ,
Feature value calculating means for calculating feature values and facial expressions of all faces included in the image data stored in the first storage unit;
The feature value of the face included in the image data calculated by the feature value calculation means is collated with the feature value of the face of the desired person stored in the second storage unit, and the desired person Identification means for identifying whether or not the face is,
When the identification means identifies that the face included in the image data is the face of the desired person, the facial expression included in the image data and an expression for calculating the difference between the desired expression A distance calculating means;
For each of the image data, the degree of recommendation of the image data is calculated based on the presence or absence of the face of the desired person, the difference in facial expression calculated by the facial expression distance calculation means, and the priority order, Recommending means for recommending the image data as recommended image data when the degree of recommendation is a predetermined value or more;
A program for causing an image display apparatus to function as an image display apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012063170A JP2013196417A (en) | 2012-03-21 | 2012-03-21 | Image display device, image display method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012063170A JP2013196417A (en) | 2012-03-21 | 2012-03-21 | Image display device, image display method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013196417A true JP2013196417A (en) | 2013-09-30 |
Family
ID=49395264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012063170A Pending JP2013196417A (en) | 2012-03-21 | 2012-03-21 | Image display device, image display method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013196417A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015159406A (en) * | 2014-02-24 | 2015-09-03 | キヤノン株式会社 | Image pickup device and control method of the same |
CN105163139A (en) * | 2014-05-28 | 2015-12-16 | 青岛海尔电子有限公司 | Information push method, information push server and intelligent television |
JP2017045376A (en) * | 2015-08-28 | 2017-03-02 | 富士フイルム株式会社 | Commodity image display control device and commodity image display control method, and program |
JP2021150865A (en) * | 2020-03-19 | 2021-09-27 | 富士フイルム株式会社 | Image processing device, image processing method, and image processing program |
US11715328B2 (en) | 2018-09-19 | 2023-08-01 | Fujifilm Corporation | Image processing apparatus for selecting images based on a standard |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213378A (en) * | 2006-02-10 | 2007-08-23 | Fujifilm Corp | Method for detecting face of specific expression, imaging control method, device and program |
JP2009118009A (en) * | 2007-11-02 | 2009-05-28 | Sony Corp | Imaging apparatus, method for controlling same, and program |
JP2011129033A (en) * | 2009-12-21 | 2011-06-30 | Tamura Seisakusho Co Ltd | Digital photograph frame and image display method |
JP2011155605A (en) * | 2010-01-28 | 2011-08-11 | Nikon Corp | Image processing device, imaging device, and image processing program |
JP2011170579A (en) * | 2010-02-18 | 2011-09-01 | Seiko Epson Corp | Intimacy degree determination method and intimacy degree determination device |
-
2012
- 2012-03-21 JP JP2012063170A patent/JP2013196417A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213378A (en) * | 2006-02-10 | 2007-08-23 | Fujifilm Corp | Method for detecting face of specific expression, imaging control method, device and program |
JP2009118009A (en) * | 2007-11-02 | 2009-05-28 | Sony Corp | Imaging apparatus, method for controlling same, and program |
JP2011129033A (en) * | 2009-12-21 | 2011-06-30 | Tamura Seisakusho Co Ltd | Digital photograph frame and image display method |
JP2011155605A (en) * | 2010-01-28 | 2011-08-11 | Nikon Corp | Image processing device, imaging device, and image processing program |
JP2011170579A (en) * | 2010-02-18 | 2011-09-01 | Seiko Epson Corp | Intimacy degree determination method and intimacy degree determination device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015159406A (en) * | 2014-02-24 | 2015-09-03 | キヤノン株式会社 | Image pickup device and control method of the same |
CN105163139A (en) * | 2014-05-28 | 2015-12-16 | 青岛海尔电子有限公司 | Information push method, information push server and intelligent television |
JP2017045376A (en) * | 2015-08-28 | 2017-03-02 | 富士フイルム株式会社 | Commodity image display control device and commodity image display control method, and program |
US11715328B2 (en) | 2018-09-19 | 2023-08-01 | Fujifilm Corporation | Image processing apparatus for selecting images based on a standard |
JP2021150865A (en) * | 2020-03-19 | 2021-09-27 | 富士フイルム株式会社 | Image processing device, image processing method, and image processing program |
JP7247136B2 (en) | 2020-03-19 | 2023-03-28 | 富士フイルム株式会社 | Image processing device, image processing method, and image processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6902860B2 (en) | Image processing equipment, image processing methods, and programs | |
US10275652B2 (en) | Information processing method, information processing apparatus, and non-transitory computer-readable storage medium that determine whether a target person is an important person based on importance degrees | |
US10055640B2 (en) | Classification of feature information into groups based upon similarity, and apparatus, image processing method, and computer-readable storage medium thereof | |
US10943376B2 (en) | Image processing apparatus for laying out image on template and image processing method | |
JP7128665B2 (en) | Image processing device, image processing method, image processing program, and recording medium storing the program | |
US20170228453A1 (en) | Photograph organization based on facial recognition | |
US20170039748A1 (en) | Image processing apparatus and image processing method | |
JP2013196417A (en) | Image display device, image display method and program | |
JP6529314B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP7167283B2 (en) | Image candidate determination device, image candidate determination method, program for controlling image candidate determination device, and recording medium storing the program | |
CN108596079B (en) | Gesture recognition method and device and electronic equipment | |
JP2017037618A (en) | Image processing device, image processing method and program | |
WO2016006090A1 (en) | Electronic apparatus, method, and program | |
JP2020140557A (en) | Image processing device, control method, and program | |
JP2020140555A (en) | Image processing device, control method, and program | |
JP4881185B2 (en) | Image sorting apparatus, method, and program | |
JP2007140897A (en) | Image search device and method, and program | |
JP2017037417A (en) | Image processor, method and program | |
JP6635208B1 (en) | Search device, search method, and program | |
JP2006236217A (en) | Person recognition system, person recognition method, and person recognition program | |
JP7465487B2 (en) | Emoticon Generator | |
JP5845988B2 (en) | Image processing system, image processing method, server, and program | |
JP4891119B2 (en) | Image sorting apparatus, method, and program | |
JP7188478B2 (en) | SEARCH DEVICE, SEARCH METHOD, AND PROGRAM | |
JP6188292B2 (en) | Medical information processing apparatus, medical information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151117 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160308 |