JP7267227B2 - Image processing device, method for operating image processing device, and program for operating image processing device - Google Patents

Image processing device, method for operating image processing device, and program for operating image processing device Download PDF

Info

Publication number
JP7267227B2
JP7267227B2 JP2020058616A JP2020058616A JP7267227B2 JP 7267227 B2 JP7267227 B2 JP 7267227B2 JP 2020058616 A JP2020058616 A JP 2020058616A JP 2020058616 A JP2020058616 A JP 2020058616A JP 7267227 B2 JP7267227 B2 JP 7267227B2
Authority
JP
Japan
Prior art keywords
image
user
face
related person
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020058616A
Other languages
Japanese (ja)
Other versions
JP2021157621A (en
Inventor
義隆 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2020058616A priority Critical patent/JP7267227B2/en
Publication of JP2021157621A publication Critical patent/JP2021157621A/en
Priority to JP2023068876A priority patent/JP7459345B2/en
Application granted granted Critical
Publication of JP7267227B2 publication Critical patent/JP7267227B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示の技術は、画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムに関する。 The technology of the present disclosure relates to an image processing device, an image processing device operating method, and an image processing device operating program.

従来、特許文献1に記載されているように、画像から特定の人物の顔を含む領域を切り出すトリミングが行われている。特許文献1では、ユーザ(画像の撮影者)およびその関係者といった特定の人物の顔画像が予め登録されている。そして、トリミング対象の画像に含まれる顔と、予め登録された顔画像とを比較することで、トリミング対象の画像に含まれる特定の人物の顔を抽出している。特許文献1では、抽出した特定の人物の顔の位置に合わせて、トリミング対象の画像に対してトリミングを行っている。特許文献1において、トリミング対象の画像は、ユーザ本人が撮影した画像である。 Conventionally, as described in Japanese Patent Application Laid-Open No. 2002-200310, trimming is performed to cut out a region including a specific person's face from an image. In Patent Document 1, face images of specific persons such as a user (photographer of an image) and related persons are registered in advance. By comparing the face included in the image to be trimmed with a pre-registered face image, the face of a specific person included in the image to be trimmed is extracted. In Patent Document 1, trimming is performed on an image to be trimmed in accordance with the position of the extracted face of a specific person. In Patent Document 1, an image to be trimmed is an image taken by the user himself/herself.

特開2007-272685号公報JP 2007-272685 A

ところで、最近、撮影した画像を複数のユーザがネットワーク上の画像配信サーバにアップロードし、アクセス権限を与えたユーザグループ内で、アップロードした画像の閲覧、写真プリント等を許可するサービスが行われている。ユーザグループを構成する複数のユーザは、例えば運動会、パーティー、結婚式、発表会、コンサート、スポーツの試合といった、共通するイベントの参加者である。 By the way, recently, a service has been provided in which a plurality of users upload photographed images to an image distribution server on a network, and a user group to which access authority is given is permitted to browse the uploaded images, print the photographs, and the like. . A plurality of users constituting a user group are participants in a common event such as an athletic meet, a party, a wedding ceremony, a presentation, a concert, or a sports match.

こうしたサービスの提供者によれば、例えば、ユーザグループの1人である第1ユーザに対して、第1ユーザとは異なる第2ユーザが撮影した画像(以下、第2ユーザ画像という)の中から、お勧めの画像を提供することで、使い勝手をよくして多くのユーザをサービスに呼び込みたいという要望がある。また、カップル、夫婦、家族、クラブ、サークル等を構成するユーザに対して、例えば第1ユーザ自身といった1人の特定の人物が含まれている画像ではなく、例えば第1ユーザとその家族といった複数人の特定の人物が含まれている、より付加価値の高い画像をお勧めの画像として提示することで、同様に多くのユーザをサービスに呼び込みたいという要望もある。 According to such service providers, for example, for a first user who is one of a user group, an image taken by a second user different from the first user (hereinafter referred to as a second user image) , there is a demand to improve usability and attract many users to the service by providing recommended images. Also, for users constituting a couple, a couple, a family, a club, a circle, etc., an image containing not one specific person such as the first user himself, but a plurality of images such as the first user and his family, for example, is used. There is also a desire to similarly attract more users to the service by presenting an image with a higher added value that includes a specific person of a person as a recommended image.

第2ユーザ画像は、当然ながら第1ユーザ用に撮影された画像ではない。このため、第2ユーザ画像には、第1ユーザの特定の人物の顔だけでなく、第2ユーザの特定の人物の顔も含まれている確率が非常に高い。つまり、第2ユーザ画像は、そのままでは第1ユーザにとって価値が低い画像ともいえる。こうした第2ユーザ画像を、より付加価値の高いお勧め画像として第1ユーザに提示する技術が切望されていた。 The second user image is, of course, not an image taken for the first user. Therefore, the probability that the second user image includes not only the face of the specific person of the first user but also the face of the specific person of the second user is very high. In other words, it can be said that the second user image is an image of low value to the first user as it is. There has been a strong demand for a technique for presenting such a second user image to the first user as a recommended image with higher added value.

本開示の技術は、第2ユーザに帰属する画像から、第1ユーザの関連人物情報に基づいて切り出した画像を、第1ユーザに提示することが可能な画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムを提供することを目的とする。 The technology of the present disclosure is an image processing device capable of presenting to a first user an image cut out from an image belonging to a second user based on related personal information of a first user, and an operating method of the image processing device. , to provide an operating program for an image processing apparatus.

上記目的を達成するために、本開示の画像処理装置は、少なくとも1つのプロセッサを備え、プロセッサは、第1ユーザに帰属し、かつ顔が含まれた第1ユーザ画像を元に、第1ユーザに関連する関連人物の情報である関連人物情報を作成し、第1ユーザとは異なる第2ユーザに帰属する第2ユーザ画像を取得し、関連人物情報に基づいて、関連人物の顔が含まれている第2ユーザ画像を抽出し、関連人物の顔が含まれている第2ユーザ画像から、関連人物の顔を含む領域を切り出す。 In order to achieve the above object, an image processing apparatus of the present disclosure includes at least one processor. create related person information that is information on a related person related to the first user, acquire a second user image belonging to a second user different from the first user, and obtain a second user image that includes the face of the related person based on the related person information; A second user image containing the face of the related person is extracted, and a region containing the face of the related person is cut out from the second user image containing the face of the related person.

本開示の画像処理装置の作動方法は、第1ユーザに帰属し、かつ顔が含まれた第1ユーザ画像を元に、第1ユーザに関連する関連人物の情報である関連人物情報を作成する情報作成ステップと、第1ユーザとは異なる第2ユーザに帰属する第2ユーザ画像を取得する画像取得ステップと、関連人物情報に基づいて、関連人物の顔が含まれている第2ユーザ画像を抽出する抽出ステップと、関連人物の顔が含まれている第2ユーザ画像から、関連人物の顔を含む領域を切り出すトリミングステップと、を備える。 A method of operating an image processing apparatus according to the present disclosure creates related person information, which is information on related persons related to a first user, based on a first user image that belongs to the first user and includes a face. an information creation step; an image acquisition step of acquiring a second user image belonging to a second user different from the first user; and a second user image including the face of the related person based on the related person information. and a trimming step of cutting out an area including the face of the related person from the second user image including the face of the related person.

本開示の画像処理装置の作動プログラムは、第1ユーザに帰属し、かつ顔が含まれた第1ユーザ画像を元に、第1ユーザに関連する関連人物の情報である関連人物情報を作成する情報作成部と、第1ユーザとは異なる第2ユーザに帰属する第2ユーザ画像を取得する画像取得部と、関連人物情報に基づいて、関連人物の顔が含まれている第2ユーザ画像を抽出する抽出部と、関連人物の顔が含まれている第2ユーザ画像から、関連人物の顔を含む領域を切り出すトリミング部として、コンピュータを機能させる。 An operation program of an image processing apparatus of the present disclosure creates related person information, which is information of a related person related to a first user, based on a first user image that belongs to the first user and includes a face. An information creation unit, an image acquisition unit that acquires a second user image belonging to a second user different from the first user, and a second user image that includes the face of the related person based on related person information. The computer is caused to function as an extraction unit that extracts and a trimming unit that cuts out a region including the face of the related person from the second user image including the face of the related person.

本開示の技術によれば、第2ユーザに帰属する画像から、第1ユーザの関連人物情報に基づいて切り出した画像を、第1ユーザに提示することが可能な画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムを提供することができる。 According to the technology of the present disclosure, an image processing device capable of presenting to a first user an image cut out from an image belonging to a second user based on related personal information of a first user, and an image processing device of the image processing device An operating method and an operating program for the image processing apparatus can be provided.

画像配信サーバと、画像配信サーバに接続される各種装置とを示す図である。1 is a diagram showing an image distribution server and various devices connected to the image distribution server; FIG. 画像DBおよびユーザ情報DBの内部を示す図である。It is a figure which shows the inside of image DB and user information DB. 共有フォルダの成り立ちを説明するための図である。FIG. 4 is a diagram for explaining the structure of a shared folder; FIG. 画像ファイルを示す図である。FIG. 4 is a diagram showing an image file; ユーザ基本情報を示す図である。It is a figure which shows user basic information. 関連人物情報を示す図である。It is a figure which shows related person information. 画像配信サーバおよびユーザ端末を構成するコンピュータを示すブロック図である。2 is a block diagram showing a computer that constitutes an image distribution server and user terminals; FIG. 画像配信サーバのCPUの処理部を示すブロック図である。4 is a block diagram showing a processing section of a CPU of the image distribution server; FIG. 情報作成部により実行される情報作成処理の手順を示すフローチャートである。4 is a flow chart showing a procedure of information creation processing executed by an information creation unit; 情報作成部により実行される情報作成処理の説明図である。FIG. 4 is an explanatory diagram of information creation processing executed by an information creation unit; 情報作成部により実行される情報作成処理の説明図である。FIG. 4 is an explanatory diagram of information creation processing executed by an information creation unit; 抽出部により実行される抽出処理の手順を示すフローチャートである。4 is a flowchart showing a procedure of extraction processing executed by an extraction unit; 抽出部により実行される抽出処理の説明図である。FIG. 4 is an explanatory diagram of extraction processing executed by an extraction unit; 抽出部により実行される抽出処理の説明図である。FIG. 4 is an explanatory diagram of extraction processing executed by an extraction unit; 第1顔配置マップを示す図である。It is a figure which shows a 1st face arrangement map. 第2顔配置マップを示す図である。It is a figure which shows a 2nd face arrangement map. 第3顔配置マップを示す図である。It is a figure which shows the 3rd face arrangement map. 第4顔配置マップを示す図である。It is a figure which shows a 4th face arrangement map. トリミング部により実行されるトリミング処理の手順を示すフローチャートである。6 is a flow chart showing a procedure of trimming processing executed by a trimming unit; トリミング部により実行されるトリミング処理の手順を示すフローチャートである。6 is a flow chart showing a procedure of trimming processing executed by a trimming unit; トリミング部により実行されるトリミング処理の説明図である。FIG. 5 is an explanatory diagram of trimming processing executed by a trimming unit; トリミング部により実行されるトリミング処理の説明図である。FIG. 5 is an explanatory diagram of trimming processing executed by a trimming unit; トリミング部により実行されるトリミング処理の説明図である。FIG. 5 is an explanatory diagram of trimming processing executed by a trimming unit; トリミング部により実行されるトリミング処理の説明図である。FIG. 5 is an explanatory diagram of trimming processing executed by a trimming unit; トリミング部により実行されるトリミング処理の説明図である。FIG. 5 is an explanatory diagram of trimming processing executed by a trimming unit; お勧め画像情報の内容を示す図である。FIG. 10 is a diagram showing the contents of recommended image information; ユーザ端末のCPUの処理部を示すブロック図である。4 is a block diagram showing a processing unit of a CPU of the user terminal; FIG. 画像表示画面を示す図である。It is a figure which shows an image display screen. お勧め画像情報表示画面を示す図である。FIG. 10 is a diagram showing a recommended image information display screen; 画像配信サーバの処理手順を示すフローチャートである。4 is a flow chart showing a processing procedure of an image distribution server; 画像配信サーバの処理手順を示すフローチャートである。4 is a flow chart showing a processing procedure of an image distribution server; トリミング部により実行されるトリミング処理の別の例の説明図である。FIG. 9 is an explanatory diagram of another example of trimming processing executed by the trimming unit; お勧め画像情報の内容の別の例を示す図である。FIG. 10 is a diagram showing another example of the content of recommended image information; 第2実施形態において情報作成部により実行される情報作成処理の説明図である。It is explanatory drawing of the information preparation process performed by the information preparation part in 2nd Embodiment. 第2実施形態において情報作成部により実行される情報作成処理の別の例の説明図である。FIG. 11 is an explanatory diagram of another example of information creation processing executed by an information creation unit in the second embodiment; 特定の期間毎に関連人物情報を作成する態様を示す図である。It is a figure which shows the aspect which produces related person information for every specific period. 関連人物以外の人物の顔に係るスコアを、関連人物の顔に係るスコアの正負とは逆の値で算出する第3実施形態を示す図である。FIG. 12 is a diagram showing a third embodiment in which a score related to the face of a person other than a related person is calculated with a value opposite to the positive/negative value of the score related to the face of the related person; 第3実施形態の効果を説明するための図であり、図38Aは、関連人物以外の人物の顔に係るスコアを、関連人物の顔に係るスコアの正負とは逆の値で算出しない場合の切り出し画像、図38Bは、関連人物以外の人物の顔に係るスコアを、関連人物の顔に係るスコアの正負とは逆の値で算出する場合の切り出し画像をそれぞれ示す。FIG. 38A is a diagram for explaining the effect of the third embodiment, and FIG. 38A shows a case where the score for the face of a person other than the related person is not calculated with a value opposite to the positive or negative value of the score for the face of the related person. Clipped images and FIG. 38B respectively show clipped images when the score for the face of a person other than the related person is calculated with the positive/negative value of the score for the face of the related person. 関連人物の顔の数と、関連人物以外の人物の顔の数を合計した数に応じて、使用する顔配置マップを選択する態様を示す図である。FIG. 10 is a diagram showing a manner in which a face arrangement map to be used is selected according to the sum of the number of faces of related persons and the number of faces of persons other than related persons; 顔あり画像を元に顔配置マップを作成する第4実施形態の概要を示す図である。FIG. 14 is a diagram showing an outline of a fourth embodiment for creating a face layout map based on an image with a face; マップ作成部により実行されるマップ作成処理の手順を示すフローチャートである。4 is a flowchart showing the procedure of map creation processing executed by a map creation unit; マップ作成部により実行されるマップ作成処理の手順を示すフローチャートである。4 is a flowchart showing the procedure of map creation processing executed by a map creation unit; マップ作成部により実行されるマップ作成処理の説明図である。FIG. 4 is an explanatory diagram of map creation processing executed by a map creation unit; マップ作成部により実行されるマップ作成処理の説明図である。FIG. 4 is an explanatory diagram of map creation processing executed by a map creation unit; マップ作成部により実行されるマップ作成処理の手順の別の例を示すフローチャートである。9 is a flow chart showing another example of the procedure of map creation processing executed by the map creation unit; マップ作成部により実行されるマップ作成処理の別の例の説明図である。FIG. 9 is an explanatory diagram of another example of map creation processing executed by the map creation unit;

[第1実施形態]
図1において、本開示の技術に係る「画像処理装置」の一例である画像配信サーバ10には、複数台のユーザ端末11が接続されている。ユーザ端末11は、複数のユーザ12が各々所持する端末である。画像配信サーバ10とユーザ端末11とは、ネットワーク13を介して接続されている。ネットワーク13は、例えばインターネット、公衆通信網等のWAN(Wide Area Network)である。画像配信サーバ10において、ユーザ12は、例えば、ユーザ12毎に付与されるユーザID(Identification Data)によって識別される。なお、1つのユーザIDを複数のユーザ12で使用している場合は、1つのユーザIDに対応する複数のユーザ12を1人のユーザ12としてもよい。また、ユーザ端末11は、例えば、各ユーザIDに対応付けられた端末装置である。なお、1つのユーザIDに対して対応付けられるユーザ端末11は複数であってもよい。
[First embodiment]
In FIG. 1, a plurality of user terminals 11 are connected to an image distribution server 10, which is an example of an "image processing apparatus" according to the technology of the present disclosure. A user terminal 11 is a terminal possessed by each of a plurality of users 12 . The image distribution server 10 and user terminal 11 are connected via a network 13 . The network 13 is, for example, a WAN (Wide Area Network) such as the Internet or a public communication network. In the image distribution server 10, the users 12 are identified, for example, by user IDs (Identification Data) assigned to each user 12. FIG. Note that when one user ID is used by multiple users 12 , multiple users 12 corresponding to one user ID may be treated as one user 12 . Also, the user terminal 11 is, for example, a terminal device associated with each user ID. A plurality of user terminals 11 may be associated with one user ID.

ユーザ端末11は、画像36(図4参照)の画像ファイル27(図2参照)をネットワーク13経由で送受信する機能を有している。また、ユーザ端末11は、画像36を表示する機能を有している。ユーザ端末11は、例えばパーソナルコンピュータであり、デジタルカメラ15等の撮影装置で撮影した画像36、あるいはフイルム写真等をスキャナ16で読み取った画像36を取り込んで、取り込んだ画像36の画像ファイル27を、ネットワーク13経由で画像配信サーバ10にアップロードする。また、ユーザ端末11は、例えば撮影装置を内蔵するスマートフォン、タブレット端末等であり、撮影装置で撮影した画像36の画像ファイル27を、ネットワーク13経由で画像配信サーバ10にアップロードする。 The user terminal 11 has a function of transmitting/receiving the image file 27 (see FIG. 2) of the image 36 (see FIG. 4) via the network 13 . The user terminal 11 also has a function of displaying an image 36 . The user terminal 11, which is, for example, a personal computer, captures an image 36 captured by a photographing device such as a digital camera 15 or an image 36 obtained by reading a film photograph or the like with a scanner 16, and stores an image file 27 of the captured image 36 as The image is uploaded to the image distribution server 10 via the network 13. - 特許庁Also, the user terminal 11 is, for example, a smart phone, a tablet terminal, or the like that incorporates a photographing device, and uploads an image file 27 of an image 36 photographed by the photographing device to the image distribution server 10 via the network 13 .

画像配信サーバ10には、例えばLAN(Local Area Network)等のネットワーク(図示省略)を介して、画像データベース(以下、DB(Data Base)と略す)サーバ20およびユーザ情報DBサーバ21が接続されている。画像配信サーバ10は、ユーザ端末11からの画像ファイル27を画像DBサーバ20に送信する。画像DBサーバ20は画像DB22を有する。画像DBサーバ20は、画像配信サーバ10からの画像ファイル27を画像DB22に蓄積して管理する。また、画像DBサーバ20は、画像配信サーバ10からの要求に応じて、画像DB22に蓄積された画像ファイル27を画像配信サーバ10に送信する。 An image database (hereinafter abbreviated as DB (Data Base)) server 20 and a user information DB server 21 are connected to the image distribution server 10 via a network (not shown) such as a LAN (Local Area Network). there is The image distribution server 10 transmits the image file 27 from the user terminal 11 to the image DB server 20 . The image DB server 20 has an image DB 22 . The image DB server 20 stores and manages the image files 27 from the image distribution server 10 in the image DB 22 . The image DB server 20 also transmits the image files 27 accumulated in the image DB 22 to the image distribution server 10 in response to a request from the image distribution server 10 .

画像配信サーバ10は、ユーザ12に関する情報であるユーザ情報30(図2参照)をユーザ情報DBサーバ21に送信する。ユーザ情報DBサーバ21はユーザ情報DB23を有する。ユーザ情報DBサーバ21は、画像配信サーバ10からのユーザ情報30をユーザ情報DB23に蓄積して管理する。また、ユーザ情報DBサーバ21は、画像配信サーバ10からの要求に応じて、ユーザ情報DB23に蓄積されたユーザ情報30のうちの後述する関連人物情報32を画像配信サーバ10に送信する。なお、画像配信サーバ10は、画像DBサーバ20およびユーザ情報DBサーバ21と、ネットワーク13を介して接続されてもよい。また、画像DBサーバ20とユーザ情報DBサーバ21とは、画像DB22およびユーザ情報DB23の両方を有する1つのDBサーバであってもよい。さらに、画像配信サーバ10は、画像DBサーバ20およびユーザ情報DBサーバ21を含んでもよい。言い換えると、本開示の技術に係る「画像処理装置」は、画像配信サーバ10、画像DBサーバ20、およびユーザ情報DBサーバ21で構成されてもよい。 The image distribution server 10 transmits user information 30 (see FIG. 2) that is information about the user 12 to the user information DB server 21 . User information DB server 21 has user information DB 23 . The user information DB server 21 accumulates and manages the user information 30 from the image distribution server 10 in the user information DB 23 . Further, the user information DB server 21 transmits related person information 32 to the image distribution server 10, which is included in the user information 30 accumulated in the user information DB 23, in response to a request from the image distribution server 10. FIG. Note that the image distribution server 10 may be connected to the image DB server 20 and the user information DB server 21 via the network 13 . Also, the image DB server 20 and the user information DB server 21 may be one DB server having both the image DB 22 and the user information DB 23 . Furthermore, the image distribution server 10 may include an image DB server 20 and a user information DB server 21 . In other words, the “image processing device” according to the technology of the present disclosure may be configured with the image distribution server 10 , the image DB server 20 , and the user information DB server 21 .

図2に示すように、画像DB22には、個人フォルダ25と共有フォルダ26とが設けられている。個人フォルダ25は、各々のユーザ12に対して個別に対応付けられる、1人のユーザ12に固有のフォルダである。このため、個人フォルダ25はユーザ12の人数分設けられている。個人フォルダ25には、各ユーザ12のユーザ端末11からアップロードされた画像ファイル27が格納される。画像ファイル27には、後述するように画像36が含まれる。このため、個人フォルダ25には、各ユーザ12に帰属する画像36が格納される。つまり、「ユーザに帰属する画像」は、各ユーザ12に対応付けられた画像36であり、例えば、ユーザ12のユーザ端末11から画像配信サーバ10に送信された画像ファイル27に含まれる画像36である。言い換えると、画像配信サーバ10がユーザ端末11から受信した画像フィイル27に含まれる画像36である。「ユーザに帰属する画像」は、例えば、ユーザ12が撮影装置で撮影した画像36、およびユーザ12がスキャナ16で読み取った画像36が含まれる。加えて、「ユーザに帰属する画像」には、ユーザ12が友達、家族等の他のユーザ12から譲渡された画像36、ユーザ12がインターネットサイトでダウンロードした画像36等も含まれる。 As shown in FIG. 2, the image DB 22 is provided with a personal folder 25 and a shared folder 26 . The personal folder 25 is a folder unique to one user 12 that is individually associated with each user 12 . For this reason, personal folders 25 are provided for the number of users 12 . An image file 27 uploaded from the user terminal 11 of each user 12 is stored in the personal folder 25 . The image file 27 contains an image 36 as will be described later. Therefore, an image 36 belonging to each user 12 is stored in the personal folder 25 . In other words, the “image belonging to the user” is the image 36 associated with each user 12, for example, the image 36 included in the image file 27 transmitted from the user terminal 11 of the user 12 to the image distribution server 10. be. In other words, it is the image 36 included in the image file 27 received by the image distribution server 10 from the user terminal 11 . The “image belonging to the user” includes, for example, the image 36 photographed by the user 12 with the photographing device and the image 36 read by the scanner 16 by the user 12 . In addition, the “images belonging to the user” include images 36 transferred to the user 12 from other users 12 such as friends and family, images 36 downloaded by the user 12 from Internet sites, and the like.

画像DB22に含まれる個人フォルダ25には、ユーザIDが対応付けられており、例えば、「個人フォルダ」の後の「(U1)」で示される。また、「個人フォルダ(U1)」とは、ユーザIDが「U1」のユーザ12の個人フォルダ25、という意である。つまり、「ユーザに帰属する画像」は、各ユーザ12のユーザIDに対応付けられる画像36を示す。 A user ID is associated with the personal folder 25 included in the image DB 22, and is indicated by, for example, "(U1)" after "personal folder". "Personal folder (U1)" means the personal folder 25 of the user 12 whose user ID is "U1". That is, the “image belonging to the user” indicates the image 36 associated with the user ID of each user 12 .

図3にも示すように、共有フォルダ26は、個人フォルダ25とは異なり、複数のユーザ12で構成されるユーザグループ28によって共有されるフォルダである。このため、共有フォルダ26には、当該共有フォルダ26を共有する複数のユーザ12のユーザIDが対応付けられている。共有フォルダ26には、ユーザIDが対応付けられたユーザ12にのみアクセス権限が与えられる。共有フォルダ26には、複数のユーザ12から画像36の画像ファイル27が格納される。共有フォルダ26は、例えば、イベント毎に作成されてもよい。また、共有フォルダ26は、例えば、イベント毎に複数のユーザ12のいずれか1人によって手動で作成されてもよいし、ユーザ12から送信された画像36を画像解析することによって、各画像36に対応するイベントを特定することで自動的に作成されてもよい。共有フォルダ26には、複数のユーザ12が対応付けられる。共有フォルダ26に対応付けられる複数のユーザ12は、例えば、共有フォルダ26に対応付けられるユーザ12のうちの特定の管理ユーザによって設定されてもよいし、共有フォルダ26に対応付けられるイベントもしくは画像36に類似する画像36を有するユーザ12が自動的に設定されてもよい。イベントは、例えば運動会、パーティー、結婚式、発表会、コンサート、スポーツの試合等である。 As also shown in FIG. 3 , the shared folder 26 is a folder shared by a user group 28 composed of a plurality of users 12 , unlike the personal folder 25 . Therefore, the shared folder 26 is associated with the user IDs of the users 12 who share the shared folder 26 . Only the user 12 associated with the user ID is given access authority to the shared folder 26 . Image files 27 of images 36 from a plurality of users 12 are stored in the shared folder 26 . A shared folder 26 may be created for each event, for example. In addition, the shared folder 26 may be manually created by any one of the users 12 for each event, or may be created by analyzing the images 36 sent from the users 12 so that each image 36 It may be created automatically by identifying the corresponding event. Multiple users 12 are associated with the shared folder 26 . A plurality of users 12 associated with the shared folder 26 may be set by, for example, a specific administrative user among the users 12 associated with the shared folder 26, or an event or image 36 associated with the shared folder 26 may be set. Users 12 with images 36 similar to may be automatically set. Events include, for example, athletic meets, parties, weddings, recitals, concerts, sports games, and the like.

図3では、イベント「結婚式1」に参加した、ユーザID「U5」、「U10」、「U15」等の複数のユーザ12が、「共有フォルダ(結婚式1)」と名付けられた共有フォルダ26に、自身に帰属する画像36の画像ファイル27をアップロードする様子を示している。なお、共有フォルダ26は、例えば、ユーザグループ28を構成する複数のユーザ12のうちの1人のユーザ12によって作成される。イベントの主催者によって共有フォルダ26が作成されてもよい。なお、共有フォルダ26の名称は、本実施形態においては、ユーザ12もしくは画像配信サーバ10によって共有フォルダ26に関連付けられたイベント名としているが、これに限らない。共有フォルダ26の各々を識別する識別番号もしくは管理番号を、共有フォルダ26の名称としてもよい。 In FIG. 3, a plurality of users 12 having user IDs "U5", "U10", "U15", etc. who participated in the event "wedding ceremony 1" share a shared folder named "shared folder (wedding ceremony 1)". 26 shows how an image file 27 of an image 36 belonging to itself is uploaded. Note that the shared folder 26 is created by, for example, one user 12 out of the plurality of users 12 forming the user group 28 . A shared folder 26 may be created by the organizer of the event. Although the name of the shared folder 26 is an event name associated with the shared folder 26 by the user 12 or the image distribution server 10 in this embodiment, the name is not limited to this. An identification number or a management number that identifies each shared folder 26 may be used as the name of the shared folder 26 .

ユーザ情報DBサーバ21には、ユーザ情報30として、ユーザ基本情報31および関連人物情報32が記憶されている。ユーザ基本情報31は、各ユーザ12の基本的な情報である。関連人物情報32は、各ユーザ12に関連する関連人物45(図6参照)の情報である。これらユーザ基本情報31および関連人物情報32と、個人フォルダ25とは、ユーザIDによって互いに関連付けられている。なお、「ユーザ基本情報(U1)」および「関連人物情報(U1)」とは、「個人フォルダ(U1)」と同様に、ユーザIDが「U1」のユーザ12のユーザ基本情報31および関連人物情報32、という意である。 User basic information 31 and related person information 32 are stored as user information 30 in the user information DB server 21 . The user basic information 31 is basic information of each user 12 . The related person information 32 is information of related persons 45 (see FIG. 6) related to each user 12 . The user basic information 31 and related person information 32 and the personal folder 25 are associated with each other by the user ID. It should be noted that the "user basic information (U1)" and "related person information (U1)" are similar to the "personal folder (U1)" and refer to the user basic information 31 and related person information of the user 12 whose user ID is "U1". It means information 32.

図4に示すように、画像ファイル27は、画像情報35、画像36、およびユーザIDを含む。画像情報35は、各画像36を識別するための画像ID、画像36の撮影日時、撮影場所、解像度、タグ等の項目を有する。撮影場所の項目には、撮影装置のGPS(Global Positioning System)機能により検出された経緯度が記録される。解像度の項目には、撮影装置に搭載される撮像素子の画素の水平方向および垂直方向のdpi(dots per inch)が記録される。タグの項目には、画像36の被写体を端的に表す単語が記録される。タグは、ユーザ12の手入力、および/または、画像36の解析により得られる。画像情報35は、これらの他にも、画像36を撮影した撮影装置の機種、画像36の水平方向および垂直方向の画素数、露出値、ISO(International Organization for Standardization)感度、焦点距離、フラッシュの有無等々、様々な項目を有する。 As shown in FIG. 4, image file 27 includes image information 35, image 36, and a user ID. The image information 35 includes items such as an image ID for identifying each image 36, the date and time when the image 36 was taken, the location of the image taken, the resolution, and the tag. The shooting location field records the latitude and longitude detected by the GPS (Global Positioning System) function of the shooting device. The item of resolution records horizontal and vertical dpi (dots per inch) of the pixels of the imaging device mounted on the imaging device. In the tag item, a word that simply expresses the subject of the image 36 is recorded. Tags may be obtained by manual input by user 12 and/or analysis of image 36 . The image information 35 includes, in addition to these, the model of the photographing device that photographed the image 36, the number of pixels in the horizontal and vertical directions of the image 36, the exposure value, the ISO (International Organization for Standardization) sensitivity, the focal length, and the number of flashes. It has various items such as presence/absence.

図5に示すように、ユーザ基本情報31には、ユーザID、ユーザ12の氏名、性別、生年月日、年齢、居所、共有フォルダ、顔画像等の項目を有する。居所の項目には、ユーザ12が居住している都道府県が記録される。共有フォルダの項目には、ユーザIDが登録されていて、アクセス権限を有している共有フォルダ26が記録される。顔画像の項目には、ユーザ12の顔画像40が記録される。ユーザ12の顔画像40は、例えばユーザ12が自ら登録する。なお、本明細書において「顔」とは、例えば、頭、耳、目、鼻、口、頬、顎等を含む人体の領域である。 As shown in FIG. 5, the basic user information 31 includes items such as a user ID, name, sex, date of birth, age, location, shared folder, and face image of the user 12 . The prefecture in which the user 12 resides is recorded in the item of whereabouts. A user ID is registered in the shared folder item, and the shared folder 26 to which the user has access authority is recorded. A face image 40 of the user 12 is recorded in the face image item. The face image 40 of the user 12 is registered by the user 12 himself/herself, for example. As used herein, the term "face" refers to regions of the human body including, for example, the head, ears, eyes, nose, mouth, cheeks, chin, and the like.

図6に示すように、関連人物情報32は、ユーザID、および関連人物45の顔画像40を含む。関連人物45の顔画像40は、代表的な1枚であってもよいし、複数枚であってもよい。 As shown in FIG. 6, the related person information 32 includes the user ID and the face image 40 of the related person 45. As shown in FIG. The face image 40 of the related person 45 may be one representative image, or may be multiple images.

関連人物45は、メイン人物45Mとサブ人物45Sとを含む。メイン人物45Mは、当該ユーザIDのユーザ12との関連性が相対的に高い人物である。サブ人物45Sは、当該ユーザIDのユーザ12との関連性が、メイン人物45Mよりも低い人物である。この関連人物45をメイン人物45Mとサブ人物45Sとに振り分ける態様は、本開示の技術に係る「第1ユーザとの関連性の高低を示す関連ランクを関連人物毎に付与」する態様の一例である。 Related persons 45 include a main person 45M and a sub-person 45S. The main person 45M is a person who is relatively highly related to the user 12 with the user ID. The sub-person 45S is a person whose relevance to the user 12 with the user ID is lower than that of the main person 45M. The mode of sorting the related person 45 into the main person 45M and the sub-person 45S is an example of a mode of "giving each related person a related rank indicating the degree of relevance to the first user" according to the technology of the present disclosure. be.

図7において、画像配信サーバ10およびユーザ端末11を構成するコンピュータは、基本的には同じ構成であり、ストレージデバイス50、メモリ51、CPU(Central Processing Unit)52、通信部53、ディスプレイ54、および入力デバイス55を備えている。これらはバスライン56を介して相互接続されている。 In FIG. 7, the computer that constitutes the image distribution server 10 and the user terminal 11 basically have the same configuration, and include a storage device 50, a memory 51, a CPU (Central Processing Unit) 52, a communication section 53, a display 54, and a An input device 55 is provided. These are interconnected via bus lines 56 .

ストレージデバイス50は、画像配信サーバ10およびユーザ端末11を構成するコンピュータに内蔵、またはケーブル、ネットワークを通じて接続されたハードディスクドライブである。もしくはストレージデバイス50は、ハードディスクドライブを複数台連装したディスクアレイである。ストレージデバイス50には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム(以下、AP(Application Program)と略す)、およびこれらのプログラムに付随する各種データ等が記憶されている。なお、ハードディスクドライブに代えてソリッドステートドライブを用いてもよい。また、画像DBサーバ20、または、ユーザ情報DBサーバ21の少なくとも一方が、ストレージデバイス50に含まれてもよい。 The storage device 50 is a hard disk drive that is built in the computer that constitutes the image distribution server 10 and the user terminal 11 or that is connected via a cable or network. Alternatively, the storage device 50 is a disk array in which a plurality of hard disk drives are connected. The storage device 50 stores a control program such as an operating system, various application programs (hereinafter abbreviated as AP (Application Program)), and various data associated with these programs. A solid state drive may be used instead of the hard disk drive. At least one of the image DB server 20 and the user information DB server 21 may be included in the storage device 50 .

メモリ51は、CPU52が処理を実行するためのワークメモリである。CPU52は、ストレージデバイス50に記憶されたプログラムをメモリ51へロードして、プログラムにしたがった処理を実行することにより、コンピュータの各部を統括的に制御する。 The memory 51 is a work memory for the CPU 52 to execute processing. The CPU 52 loads a program stored in the storage device 50 into the memory 51 and executes processing according to the program, thereby comprehensively controlling each section of the computer.

通信部53は、ネットワーク13等を介した各種情報の伝送制御を行うネットワークインターフェースである。ディスプレイ54は各種画面を表示する。各種画面にはGUI(Graphical User Interface)による操作機能が備えられる。画像配信サーバ10およびユーザ端末11を構成するコンピュータは、各種画面を通じて、入力デバイス55からの操作指示の入力を受け付ける。入力デバイス55は、キーボード、マウス、タッチパネル、音声入力用のマイクロフォン等である。 The communication unit 53 is a network interface that controls transmission of various information via the network 13 or the like. The display 54 displays various screens. Various screens are provided with an operation function by a GUI (Graphical User Interface). A computer that constitutes the image distribution server 10 and the user terminal 11 accepts input of operation instructions from the input device 55 through various screens. The input device 55 is a keyboard, mouse, touch panel, microphone for voice input, or the like.

なお、以下の説明では、画像配信サーバ10を構成するコンピュータの各部には添え字の「A」を、ユーザ端末11を構成するコンピュータの各部には添え字の「B」をそれぞれ符号に付して区別する。 In the following description, each part of the computer that constitutes the image distribution server 10 is denoted by a suffix "A", and each part of the computer that constitutes the user terminal 11 is denoted by a suffix "B". distinguish between

図8において、ユーザ端末11は、画像配信要求57を画像配信サーバ10に送信する。画像配信要求57は、例えば、ユーザ12のユーザIDを含む。画像配信サーバ10は、画像配信要求57に応じて、ユーザIDで指定される個人フォルダ25内の画像ファイル27を、画像配信要求57の送信元のユーザ端末11に配信する。また、画像配信サーバ10は、ユーザIDで指定される共有フォルダ26があった場合は、当該共有フォルダ26内の画像ファイル27を、個人フォルダ25内の画像ファイル27と併せて、画像配信要求57の送信元のユーザ端末11に配信する。なお、ユーザ端末11に配信する画像ファイル27は、1つであっても構わない。 In FIG. 8 , the user terminal 11 transmits an image distribution request 57 to the image distribution server 10 . Image delivery request 57 includes, for example, the user ID of user 12 . In response to the image distribution request 57 , the image distribution server 10 distributes the image file 27 in the personal folder 25 specified by the user ID to the user terminal 11 that sent the image distribution request 57 . Further, when there is a shared folder 26 designated by the user ID, the image distribution server 10 sends the image file 27 in the shared folder 26 together with the image file 27 in the personal folder 25 to the image distribution request 57. is delivered to the user terminal 11 that is the source of the transmission. Note that the number of image files 27 to be distributed to the user terminal 11 may be one.

また、ユーザ端末11は、お勧め画像配信要求58を画像配信サーバ10に送信する。お勧め画像配信要求58は、ユーザ12のユーザID、およびお勧め画像を要求する共有フォルダ26の名称を含む。お勧め画像配信要求58は、お勧め画像配信要求58をユーザ端末11から送信したユーザ12が、名称で指定される共有フォルダ26内の、自分以外のユーザ12に帰属する画像36に基づくお勧め画像を、画像配信サーバ10に提示させるための要求である。なお、本実施形態において、お勧め画像とは、お勧め画像配信要求58で指定される共有フォルダ26内の、お勧め画像配信要求58を送信したユーザ12以外のユーザ12に帰属する画像36を、お勧め画像配信要求58を送信したユーザ12に対応する関係人物情報32に基づき切り出した切り出し画像110(図25参照)である。画像配信サーバ10は、お勧め画像配信要求58に応じて、お勧め画像である切り出し画像110を含むお勧め画像情報59を、お勧め画像配信要求58の送信元のユーザ端末11に配信する。 Also, the user terminal 11 transmits a recommended image distribution request 58 to the image distribution server 10 . The recommended image distribution request 58 includes the user ID of the user 12 and the name of the shared folder 26 requesting the recommended image. The recommended image distribution request 58 is sent from the user terminal 11 by the user 12 who sends the recommended image distribution request based on the images 36 belonging to the users 12 other than the user 12 in the shared folder 26 specified by the name. This is a request for presenting an image to the image distribution server 10 . In the present embodiment, the recommended image is the image 36 belonging to the user 12 other than the user 12 who sent the recommended image distribution request 58 in the shared folder 26 specified by the recommended image distribution request 58. 25 are clipped images 110 (see FIG. 25) that are clipped based on related person information 32 corresponding to user 12 who has transmitted recommended image distribution request 58. FIG. In response to the recommended image distribution request 58 , the image distribution server 10 distributes recommended image information 59 including the recommended image clipped image 110 to the user terminal 11 that sent the recommended image distribution request 58 .

なお、ユーザ端末11から画像配信サーバ10に送信される要求(例えば、画像配信要求57およびお勧め画像配信要求58)は、ユーザ端末11の端末IDを含んでもよい。画像配信サーバ10は、例えば、端末IDを受信することで、端末IDに対応するユーザ端末11に、要求に応じた画像(例えば、画像ファイル27)、あるいは情報(例えば、お勧め画像情報59)を配信する。ここで、端末IDは、例えば、MAC(Media Access Control)アドレス等のユーザ端末11固有のIDに限らず、IP(Internet Protocol)アドレス、ポート番号等、データの送受信においてユーザ端末11を識別するIDを含む。 Requests (for example, the image distribution request 57 and the recommended image distribution request 58 ) transmitted from the user terminal 11 to the image distribution server 10 may include the terminal ID of the user terminal 11 . For example, by receiving the terminal ID, the image distribution server 10 sends an image (for example, the image file 27) or information (for example, the recommended image information 59) corresponding to the request to the user terminal 11 corresponding to the terminal ID. deliver. Here, the terminal ID is not limited to an ID unique to the user terminal 11 such as a MAC (Media Access Control) address, but may be an IP (Internet Protocol) address, port number, or other ID that identifies the user terminal 11 in data transmission/reception. including.

ここで、お勧め画像配信要求58をユーザ端末11から送信したユーザ12は、本開示の技術に係る「第1ユーザ」の一例である。また、お勧め画像配信要求58をユーザ端末11から送信したユーザ12以外のユーザ12は、本開示の技術に係る「第1ユーザとは異なる第2ユーザ」の一例である。以下では、第1ユーザに符号12F、第2ユーザに符号12Sをそれぞれ付して区別する。また、第1ユーザ12Fの個人フォルダ25内に画像ファイル27が存在し、第1ユーザ12Fに帰属する画像36を、第1ユーザ画像36Fと表記する。さらに、第2ユーザ12Sの個人フォルダ25内に画像ファイル27が存在し、第2ユーザ12Sに帰属する画像36を、第2ユーザ画像36Sと表記する。 Here, the user 12 who has transmitted the recommended image distribution request 58 from the user terminal 11 is an example of the "first user" according to the technology of the present disclosure. Also, the user 12 other than the user 12 who transmitted the recommended image distribution request 58 from the user terminal 11 is an example of the "second user different from the first user" according to the technology of the present disclosure. In the following description, the first user is denoted by reference numeral 12F, and the second user is denoted by reference numeral 12S. An image 36 belonging to the first user 12F, which has an image file 27 in the personal folder 25 of the first user 12F, is referred to as a first user image 36F. Further, an image 36 that has an image file 27 in the personal folder 25 of the second user 12S and belongs to the second user 12S is referred to as a second user image 36S.

画像配信サーバ10のストレージデバイス50Aには、作動プログラム65が記憶されている。作動プログラム65は、画像配信サーバ10を構成するサーバコンピュータを、本開示の技術に係る「画像処理装置」として機能させるためのAPである。すなわち、作動プログラム65は、本開示の技術に係る「画像処理装置の作動プログラム」の一例である。ストレージデバイス50Aには、作動プログラム65の他に、顔配置マップセット66も記憶されている。 An operating program 65 is stored in the storage device 50A of the image distribution server 10 . The operation program 65 is an AP for causing the server computer that configures the image distribution server 10 to function as an "image processing apparatus" according to the technique of the present disclosure. That is, the operation program 65 is an example of the "image processing apparatus operation program" according to the technology of the present disclosure. In addition to the operating program 65, a face layout map set 66 is also stored in the storage device 50A.

作動プログラム65が起動されると、画像配信サーバ10のCPU52Aは、メモリ51等と協働して、情報作成部70、要求受付部71、画像取得部72、情報取得部73、抽出部74、リードライト(以下、RW(Read Write)と略す)制御部75、トリミング部76、および配信制御部77として機能する。CPU52Aは、本開示の技術に係る「プロセッサ」の一例である。 When the operation program 65 is activated, the CPU 52A of the image distribution server 10 cooperates with the memory 51 and the like to create an information generation unit 70, a request reception unit 71, an image acquisition unit 72, an information acquisition unit 73, an extraction unit 74, It functions as a read/write (hereinafter abbreviated as RW (Read Write)) control section 75 , a trimming section 76 and a distribution control section 77 . The CPU 52A is an example of a "processor" according to the technology of the present disclosure.

情報作成部70は、関連人物情報32を作成する。情報作成部70は、第1画像取得要求80を画像DBサーバ20に送信する。第1画像取得要求80は、関連人物情報32が作成されていない第1ユーザ12Fの個人フォルダ25内の画像ファイル27の取得を要求するものである。また、第1画像取得要求80は、前回関連人物情報32を作成してから、予め定められた時間(以下、第1設定時間という)が経過した場合、もしくは、予め定められた枚数(以下、第1枚数という)の画像ファイル27を新たに送信した場合の少なくとも一方の場合において、第1ユーザ12Fの個人フォルダ25内の画像ファイル27の取得を要求するものである。第1画像取得要求80は、関連人物情報32が作成されていない第1ユーザ12FのユーザID、前回関連人物情報32を作成してから第1設定時間が経過した第1ユーザ12FのユーザID、もしくは第1枚数の画像ファイル27を送信した第1ユーザ12FのユーザIDを含む。第1画像取得要求80によって、関連人物情報32が作成されていない第1ユーザ12Fの個人フォルダ25内の画像ファイル27の取得を要求するタイミングは、例えば、当該第1ユーザ12Fの個人フォルダ25内に格納されている画像ファイル27が、予め定められた枚数以上となったタイミングである。あるいは、当該第1ユーザ12Fが、ユーザ端末11に画像閲覧AP115(図27参照)をインストールしたタイミングでもよい。なお、第1設定時間は、例えば1ケ月、半年、1年等である。また、第1枚数は、例えば、1以上の自然数である。 The information creating unit 70 creates related person information 32 . The information creation unit 70 transmits the first image acquisition request 80 to the image DB server 20 . The first image acquisition request 80 requests acquisition of the image file 27 in the personal folder 25 of the first user 12F for which the related person information 32 has not been created. Further, the first image acquisition request 80 is issued when a predetermined time (hereinafter referred to as a first set time) has passed since the related person information 32 was created last time, or when a predetermined number of images (hereinafter referred to as a (referred to as the first number) of image files 27 are newly transmitted, in at least one case, acquisition of the image files 27 in the personal folder 25 of the first user 12F is requested. The first image acquisition request 80 includes the user ID of the first user 12F for whom the related personal information 32 has not been created, the user ID of the first user 12F for whom the first set time has passed since the previous related personal information 32 was created, Alternatively, the user ID of the first user 12F who has sent the first number of image files 27 is included. The timing of requesting acquisition of the image file 27 in the personal folder 25 of the first user 12F for which the related person information 32 has not been created by the first image acquisition request 80 is, for example, This is the timing when the number of image files 27 stored in is equal to or greater than a predetermined number. Alternatively, it may be the timing when the first user 12F installs the image viewing AP 115 (see FIG. 27) on the user terminal 11. FIG. Note that the first set time is, for example, one month, half a year, one year, or the like. Also, the first number is, for example, a natural number of 1 or more.

画像DBサーバ20は、第1画像取得要求80に応じた第1ユーザ12Fの個人フォルダ25内の、第1ユーザ画像36Fを含む画像ファイル27を画像DB22から読み出し、読み出した画像ファイル27を画像配信サーバ10に送信する。情報作成部70は、第1画像取得要求80に応じて画像DBサーバ20から送信された、第1ユーザ画像36Fを含む画像ファイル27を取得する。情報作成部70は、取得した画像ファイル27の第1ユーザ画像36Fを元に、関連人物情報32を作成する。情報作成部70は、作成した関連人物情報32をユーザ情報DBサーバ21に送信する。関連人物情報32が作成されていなかった場合、ユーザ情報DBサーバ21は、情報作成部70からの関連人物情報32をユーザ情報DB23に新規に登録する。一方、関連人物情報32が既に作成されていた場合、ユーザ情報DBサーバ21は、ユーザ情報DB23に記憶されている関連人物情報32を、情報作成部70からの関連人物情報32に書き換える。 The image DB server 20 reads from the image DB 22 the image file 27 including the first user image 36F in the personal folder 25 of the first user 12F in response to the first image acquisition request 80, and distributes the read image file 27 as an image. Send to server 10 . The information creating unit 70 acquires the image file 27 including the first user image 36F, which is transmitted from the image DB server 20 in response to the first image acquisition request 80. FIG. The information creation unit 70 creates the related person information 32 based on the first user image 36F of the acquired image file 27 . The information creating unit 70 transmits the created related person information 32 to the user information DB server 21 . If the related personal information 32 has not been created, the user information DB server 21 newly registers the related personal information 32 from the information creating unit 70 in the user information DB 23 . On the other hand, if the related personal information 32 has already been created, the user information DB server 21 rewrites the related personal information 32 stored in the user information DB 23 with the related personal information 32 from the information creation unit 70 .

要求受付部71は、ユーザ端末11からの各種要求を受け付ける。要求受付部71は、ユーザ端末11からの各種要求を受け付けた場合、各種要求に対応する指示を、画像取得部72または情報取得部73に出力する。例えば、要求受付部71は画像配信要求57またはお勧め画像配信要求58を受け付けた場合、画像配信要求57またはお勧め画像配信要求58に対応する指示を、画像取得部72または情報取得部73に出力する。 The request reception unit 71 receives various requests from the user terminal 11 . Upon receiving various requests from the user terminal 11 , the request receiving portion 71 outputs instructions corresponding to the various requests to the image obtaining portion 72 or the information obtaining portion 73 . For example, when receiving the image distribution request 57 or the recommended image distribution request 58, the request reception unit 71 sends an instruction corresponding to the image distribution request 57 or the recommended image distribution request 58 to the image acquisition unit 72 or the information acquisition unit 73. Output.

画像取得部72は、要求受付部71から出力された各種要求に対応する指示に応じて、第2画像取得要求81を画像DBサーバ20に送信する。第2画像取得要求81は、画像配信要求57またはお勧め画像配信要求58のユーザIDで指定される個人フォルダ25の画像ファイル27または共有フォルダ26の画像ファイル27のうちの少なくとも一方の取得を要求するものである。 The image acquisition unit 72 transmits a second image acquisition request 81 to the image DB server 20 in response to instructions corresponding to various requests output from the request reception unit 71 . The second image acquisition request 81 requests acquisition of at least one of the image file 27 in the personal folder 25 and the image file 27 in the shared folder 26 specified by the user ID of the image distribution request 57 or the recommended image distribution request 58. It is something to do.

画像DBサーバ20は、第2画像取得要求81に応じた個人フォルダ25の画像ファイル27および共有フォルダ26の画像ファイル27を画像DB22から読み出し、読み出した画像ファイル27を画像配信サーバ10に送信する。画像取得部72は、第2画像取得要求81に応じて画像DBサーバ20から送信された画像ファイル27を取得する。画像取得部72は、取得した画像ファイル27を配信制御部77に出力する。また、画像取得部72は、取得した画像ファイル27のうちの共有フォルダ26の画像ファイル27を抽出部74に出力する。なお、画像配信要求57のユーザIDで指定される共有フォルダ26がない場合は、個人フォルダ25内の画像ファイル27のみが画像取得部72において取得される。 The image DB server 20 reads the image file 27 of the personal folder 25 and the image file 27 of the shared folder 26 in response to the second image acquisition request 81 from the image DB 22 and transmits the read image file 27 to the image distribution server 10 . The image acquisition unit 72 acquires the image file 27 transmitted from the image DB server 20 in response to the second image acquisition request 81 . The image acquisition section 72 outputs the acquired image file 27 to the distribution control section 77 . The image acquisition unit 72 also outputs the image files 27 in the shared folder 26 among the acquired image files 27 to the extraction unit 74 . Note that if there is no shared folder 26 specified by the user ID of the image distribution request 57 , only the image file 27 in the personal folder 25 is acquired by the image acquisition unit 72 .

共有フォルダ26内には、第1ユーザ12F以外のユーザ12、すなわち第2ユーザ12Sに帰属する第2ユーザ画像36Sの画像ファイル27も含まれる。このため、画像取得部72は、共有フォルダ26の画像ファイル27を取得することで、第2ユーザ12Sに帰属する第2ユーザ画像36Sを取得していることになる。 The shared folder 26 also includes an image file 27 of a second user image 36S belonging to a user 12 other than the first user 12F, that is, the second user 12S. Therefore, by acquiring the image file 27 in the shared folder 26, the image acquiring unit 72 acquires the second user image 36S belonging to the second user 12S.

情報取得部73は、要求受付部71から出力された各種要求に対応する指示に応じて、情報取得要求82をユーザ情報DBサーバ21に送信する。情報取得要求82は、お勧め画像配信要求58に含まれるユーザIDのユーザ12、すなわち第1ユーザ12Fの関連人物情報32の取得を要求するものである。ユーザ情報DBサーバ21は、情報取得要求82に応じた関連人物情報32をユーザ情報DB23から読み出し、読み出した関連人物情報32を画像配信サーバ10に送信する。情報取得部73は、情報取得要求82に応じてユーザ情報DBサーバ21から送信された関連人物情報32を取得する。情報取得部73は、取得した関連人物情報32を抽出部74およびトリミング部76に出力する。 The information acquisition unit 73 transmits an information acquisition request 82 to the user information DB server 21 in response to instructions corresponding to various requests output from the request reception unit 71 . The information acquisition request 82 requests acquisition of the related person information 32 of the user 12 having the user ID included in the recommended image distribution request 58, that is, the first user 12F. The user information DB server 21 reads the related person information 32 corresponding to the information acquisition request 82 from the user information DB 23 and transmits the read related person information 32 to the image distribution server 10 . The information acquisition unit 73 acquires the related person information 32 transmitted from the user information DB server 21 in response to the information acquisition request 82 . The information acquisition unit 73 outputs the acquired related person information 32 to the extraction unit 74 and the trimming unit 76 .

抽出部74は、第1ユーザ12Fの関連人物情報32に基づいて、お勧め画像配信要求58で指定される共有フォルダ26の画像ファイル27に含まれる画像36から、第1ユーザ12Fの関連人物45の顔90R(図14参照)が含まれている第2ユーザ画像36Sを抽出する。抽出部74は、抽出した第2ユーザ画像36Sをトリミング部76に出力する。 Based on the related person information 32 of the first user 12F, the extraction unit 74 extracts the related person 45 of the first user 12F from the image 36 included in the image file 27 in the shared folder 26 specified by the recommended image delivery request 58. The second user image 36S including the face 90R (see FIG. 14) is extracted. The extraction section 74 outputs the extracted second user image 36S to the trimming section 76 .

RW制御部75は、ストレージデバイス50Aへの各種情報の記憶、およびストレージデバイス50A内の各種情報の読み出しを制御する。例えば、RW制御部75は、顔配置マップセット66をストレージデバイス50Aから読み出し、読み出した顔配置マップセット66をトリミング部76に出力する。顔配置マップセット66は、第1顔配置マップ85a、第2顔配置マップ85b、第3顔配置マップ85c、および第4顔配置マップ85dで構成される。なお、以下では、第1顔配置マップ85a、第2顔配置マップ85b、第3顔配置マップ85c、および第4顔配置マップ85dを、まとめて顔配置マップ85と表記する場合がある。 The RW control unit 75 controls storage of various information in the storage device 50A and reading of various information in the storage device 50A. For example, the RW control section 75 reads the face arrangement map set 66 from the storage device 50A and outputs the read face arrangement map set 66 to the trimming section 76 . The face arrangement map set 66 is composed of a first face arrangement map 85a, a second face arrangement map 85b, a third face arrangement map 85c, and a fourth face arrangement map 85d. Note that the first face layout map 85a, the second face layout map 85b, the third face layout map 85c, and the fourth face layout map 85d may be collectively referred to as the face layout map 85 below.

トリミング部76は、顔配置マップ85を用いて、抽出部74が抽出した、第1ユーザ12Fの関連人物45の顔90Rが含まれている第2ユーザ画像36Sから、第1ユーザ12Fの関連人物45の顔90Rを含む領域を切り出す。トリミング部76は、切り出した切り出し画像110(図25参照)を配信制御部77に出力する。なお、トリミング部76は、切り出し画像110を拡大して切り出し画像110E(図25参照)とし、切り出し画像110Eを配信制御部77に出力してもよい。 Using the face arrangement map 85, the trimming unit 76 trims the related person of the first user 12F from the second user image 36S including the face 90R of the related person 45 of the first user 12F extracted by the extraction unit 74. A region containing 45 faces 90R is cut out. The trimming unit 76 outputs the clipped image 110 (see FIG. 25) to the distribution control unit 77 . Note that the trimming unit 76 may enlarge the clipped image 110 to form a clipped image 110E (see FIG. 25), and output the clipped image 110E to the distribution control unit 77. FIG.

配信制御部77は、画像取得部72またはトリミング部76から出力された、要求受付部71が受け付けた各種要求に対応する画像または情報をユーザ端末11に配信する制御を行う。配信制御部77は、例えば、画像取得部72から出力された画像配信要求57に応じた画像ファイル27を、画像配信要求57の送信元のユーザ端末11に配信する制御を行う。また、配信制御部77は、トリミング部76から出力された、お勧め画像配信要求58に応じたお勧め画像情報59を、お勧め画像配信要求58の送信元のユーザ端末11に配信する制御を行う。お勧め画像情報59は、例えば、切り出し画像110Eを含む。このお勧め画像情報59をユーザ端末11に配信する態様は、本開示の技術に係る「切り出し画像を第1ユーザに対して提示する」態様の一例である。 The distribution control unit 77 controls distribution of images or information output from the image acquisition unit 72 or the trimming unit 76 and corresponding to various requests received by the request reception unit 71 to the user terminal 11 . The distribution control unit 77 controls, for example, distribution of the image file 27 corresponding to the image distribution request 57 output from the image acquisition unit 72 to the user terminal 11 that is the transmission source of the image distribution request 57 . Further, the distribution control unit 77 controls distribution of the recommended image information 59 corresponding to the recommended image distribution request 58 output from the trimming unit 76 to the user terminal 11 that is the transmission source of the recommended image distribution request 58 . conduct. The recommended image information 59 includes, for example, a clipped image 110E. A mode of distributing this recommended image information 59 to the user terminal 11 is an example of a mode of "presenting the clipped image to the first user" according to the technology of the present disclosure.

図9~図11は、情報作成部70において実行される関連人物情報32を作成する情報作成処理(ステップST100A)の手順を示す。情報作成部70は、まず、第1画像取得要求80を画像DBサーバ20に送信する(ステップST1001)。そして、情報作成部70は、第1画像取得要求80に応じて画像DBサーバ20から送信された個人フォルダ25内の画像ファイル27を取得する(ステップST1002)。 9 to 11 show the procedure of information creation processing (step ST100A) for creating related person information 32 executed in information creation section . The information creating section 70 first transmits the first image acquisition request 80 to the image DB server 20 (step ST1001). Then, information creating section 70 acquires image file 27 in personal folder 25 transmitted from image DB server 20 in response to first image acquisition request 80 (step ST1002).

情報作成部70は、顔認識技術を用いて、取得した画像ファイル27に含まれる第1ユーザ画像36Fから、顔90が含まれた顔あり画像91を抽出する(ステップST1003)。ステップST1003で抽出した顔あり画像91は、本開示の技術に係る「予め定められた設定条件を満たす第1ユーザ画像」の一例である。 The information creating unit 70 uses face recognition technology to extract a face image 91 including a face 90 from the first user image 36F included in the obtained image file 27 (step ST1003). The image with a face 91 extracted in step ST1003 is an example of a "first user image that satisfies a predetermined setting condition" according to the technology of the present disclosure.

次いで、情報作成部70は、顔あり画像91に含まれる顔90の人物を認識する(ステップST1004)。言い換えると、情報作成部70は、顔あり画像91を人物毎に分類する。人物の認識または分類は、例えば以下の方法で行う。すなわち、顔あり画像91に含まれる全ての顔90の特徴量を算出し、算出した特徴量の類似度を、全ての顔90に関して総当たりで算出する。そして、類似度が予め定められた範囲内にある顔90同士を、同一人物の顔90として認識または分類する。図10では、「P1」、「P2」、「P3」、・・・といった人物を認識した例を示している。なお、本実施形態において、第1ユーザ画像36Fから顔あり画像91を抽出してから、顔あり画像91に含まれる顔90の人物を認識したが、これに限られない。顔あり画像91の抽出はせずに、第1ユーザ画像36Fの全てに対して人物の認識または分類をしてもよい。 Next, information creating section 70 recognizes the person with face 90 included in image with face 91 (step ST1004). In other words, the information creating unit 70 classifies the images 91 with faces according to persons. Recognition or classification of a person is performed, for example, by the following method. That is, the feature amounts of all the faces 90 included in the face-containing image 91 are calculated, and the similarity of the calculated feature amounts is calculated for all the faces 90 by round-robin. Then, faces 90 whose similarity is within a predetermined range are recognized or classified as faces 90 of the same person. FIG. 10 shows an example in which persons such as "P1", "P2", "P3", . . . are recognized. In the present embodiment, after extracting the image with face 91 from the first user image 36F, the person with the face 90 included in the image with face 91 is recognized, but the present invention is not limited to this. Without extracting the image 91 with a face, all of the first user images 36F may be recognized or classified as persons.

情報作成部70は、認識した人物毎に、各人物の顔90を含む顔あり画像91の枚数、または個人フォルダ26に含まれる第1ユーザ画像36Fにおける、各人物の顔90を含む顔あり画像91の割合を算出する(ステップST1005)。そして、選定条件96にしたがって、第1ユーザ12Fの関連人物情報32を作成する(ステップST1006)。選定条件96は、第1ユーザ12Fとの関連度を示す情報である。また、選定条件96は、第1ユーザ12Fとの関連ランクに応じて異なる条件を含んでもよく、例えば、メイン人物45Mを選定するための第1選択条件93と、サブ人物を選定するための第2選択条件94とを含む。第1選択条件93は、第2選択条件92より相対的に厳しい条件であり、例えば、相対的に多くの枚数または多くの割合が必要となる条件である。選定条件96は、例えば、図10の表92に示すように、各人物の顔90を含む顔あり画像91の枚数に関連する条件である。 For each recognized person, the information creating unit 70 calculates the number of images with faces 91 including the face 90 of each person, or images with faces including the face 90 of each person in the first user image 36F included in the personal folder 26. A ratio of 91 is calculated (step ST1005). Then, according to the selection condition 96, the related person information 32 of the first user 12F is created (step ST1006). The selection condition 96 is information indicating the degree of association with the first user 12F. Also, the selection conditions 96 may include different conditions according to the rank of association with the first user 12F. For example, the first selection conditions 93 for selecting the main person 45M and the second 2 selection conditions 94 . The first selection condition 93 is a condition that is relatively stricter than the second selection condition 92, for example, a condition that requires a relatively large number of sheets or a large ratio. The selection condition 96 is, for example, a condition related to the number of face images 91 including the face 90 of each person, as shown in Table 92 of FIG.

情報生成部70は、第1選定条件93にしたがって、認識した人物の中からメイン人物45Mを選定し、選定したメイン人物45Mの顔画像40を関連人物情報32に登録する。第1選定条件93は、顔90が含まれる顔あり画像91の枚数が最も多い人物をメイン人物45Mとする、という内容である。このため、情報作成部70は、顔90が含まれる顔あり画像91の枚数が最も多い人物を、メイン人物45Mとして選定する。図10では、顔90が含まれる顔あり画像91の枚数が最も多い人物「P1」が、メイン人物45Mとして選定された例を示している。 The information generator 70 selects the main person 45M from among the recognized persons according to the first selection condition 93 and registers the face image 40 of the selected main person 45M in the related person information 32 . The first selection condition 93 is that the person who has the largest number of face images 91 including the face 90 is set as the main person 45M. Therefore, the information creating unit 70 selects the person who has the largest number of face images 91 including the face 90 as the main person 45M. FIG. 10 shows an example in which the person "P1" having the largest number of face images 91 including the face 90 is selected as the main person 45M.

情報作成部70は、第2選定条件94にしたがって、認識した人物の中からサブ人物45Sを選定し、選定したサブ人物45Sの顔画像40を関連人物情報32に登録する。第2選定条件94は、顔90が含まれる顔あり画像91の枚数がメイン人物45Mの次に多い人物をサブ人物45Sとする、という内容である。このため、情報作成部70は、顔90が含まれる顔あり画像91の枚数がメイン人物45Mの次に多い人物を、サブ人物45Sとして選定する。図10では、顔90が含まれる顔あり画像91の枚数が人物「P1」の次に多い人物「P2」が、サブ人物45Sとして選定された例を示している。 The information creating unit 70 selects the sub-person 45S from among the recognized persons according to the second selection condition 94, and registers the face image 40 of the selected sub-person 45S in the related person information 32. FIG. The second selection condition 94 is that the sub-person 45S is the person who has the second largest number of face images 91 including the face 90 after the main person 45M. Therefore, the information creating unit 70 selects the person who has the second largest number of face images 91 including the face 90 after the main person 45M as the sub person 45S. FIG. 10 shows an example in which a person "P2" having the second largest number of face images 91 including a face 90 after the person "P1" is selected as the sub-person 45S.

なお、本実施形態において、ユーザの関連人物情報32として、関連度の異なる2種類以上の関連ランクの関連人物45(メイン人物45Mとサブ人物45S)を作成するとしたが、これに限られない。ユーザの関連人物情報32として、関連度が一定以上の1種類の関連ランクの関連人物45(例えば、メイン人物45M)のみを作成してもよいし、関連度の異なる3種類以上の関連ランクの関連人物45を選定してもよい。 In the present embodiment, two or more types of related persons 45 (main person 45M and sub-person 45S) with different degrees of relatedness are created as the related person information 32 of the user, but the present invention is not limited to this. As the related person information 32 of the user, only one type of related person 45 (for example, the main person 45M) having a certain degree of relatedness or higher may be created, or three or more types of related ranks having different degrees of relatedness may be created. A related person 45 may be selected.

また、情報作成部70は、個人フォルダ26に含まれる第1ユーザ画像36Fにおける、各人物の顔90を含む顔あり画像91の割合を算出してもよい。情報作成部70は、変形例として図11の表95に示すように、各人物の顔90を含む顔あり画像91の割合として、第1割合と第2割合を算出する。第1割合は、ステップST1003で抽出した顔あり画像91の全枚数に対する、各人物の顔90を含む顔あり画像91の枚数の割合である。例えば顔あり画像91の全枚数が1000枚であった場合を考える。この場合、人物「P1」の顔90を含む顔有画像91が200枚であれば、人物「P1」の第1割合は、表95に示すように、200/1000=0.20となる。同様に、顔あり画像91の枚数が150枚の人物「P2」の第1割合は0.15であり、顔あり画像91の枚数が80枚の人物「P3」の第1割合は0.08であり、顔あり画像91の枚数が60枚の人物「P4」の第1割合は0.06となる。 The information creating unit 70 may also calculate the ratio of the face images 91 including the face 90 of each person in the first user image 36</b>F included in the personal folder 26 . As a modified example, the information creating unit 70 calculates a first ratio and a second ratio as the ratio of the face-containing image 91 including the face 90 of each person, as shown in Table 95 of FIG. 11 . The first ratio is the ratio of the number of face images 91 including each person's face 90 to the total number of face images 91 extracted in step ST1003. For example, consider a case where the total number of images 91 with faces is 1000 sheets. In this case, if there are 200 face images 91 including the face 90 of the person "P1", the first ratio of the person "P1" is 200/1000=0.20 as shown in Table 95. Similarly, the first ratio of the person “P2” with 150 face images 91 is 0.15, and the first ratio of the person “P3” with 80 face images 91 is 0.08. , and the first ratio of the person "P4" having 60 face images 91 is 0.06.

第2割合は、メイン人物45Mの顔90Rを含む顔あり画像91の枚数に対する、各人物の顔90を含む顔あり画像91の枚数の割合である。メイン人物45Mである人物「P1」の顔90Rを含む顔あり画像91の枚数は200枚である。このため、人物「P1」の第2割合は、表95に示すように100/100=1.0であり、人物「P2」の第2割合は0.75であり、人物「P3」の第2割合は0.4であり、人物「P4」の第2割合は0.3となる。なお、メイン人物45Mの顔90Rが写っている顔あり画像91も、本開示の技術に係る「予め定められた設定条件を満たす第1ユーザ画像」の一例である。 The second ratio is the ratio of the number of face images 91 including the face 90 of each person to the number of face images 91 including the face 90R of the main person 45M. The number of face images 91 including the face 90R of the person "P1" who is the main person 45M is 200 sheets. Therefore, the second ratio for person “P1” is 100/100=1.0, the second ratio for person “P2” is 0.75, and the second ratio for person “P3” is 100/100=1.0, as shown in Table 95. The second proportion is 0.4, and the second proportion for person "P4" is 0.3. Note that the face-containing image 91 including the face 90R of the main person 45M is also an example of the "first user image that satisfies a predetermined setting condition" according to the technology of the present disclosure.

第1選択条件93には、例えば第1割合に対する第1閾値が記憶され、第2選択条件94には、例えば第2割合に対する第2閾値が記憶されている。情報作成部70は、第1割合が第1閾値以上である人物をメイン人物45Mとして選定し、第2割合が第2閾値以上である人物をサブ人物45Sとして選定し、関連人物情報32として登録してもよい。図11では、第1閾値として0.2、第2閾値として0.4がそれぞれ設定され、第1割合が0.2以上である人物「P1」がメイン人物45Mとして選定され、第2割合が0.4以上である人物「P2」および「P3」がサブ人物45Sとして選定される。なお、選定条件96は、ストレージデバイス50に記憶されており、RW制御部75によって読み出されて、情報作成部70に出力される。また、第1選択条件93と第2選択条件94は、図11に示す通り異なる割合に対応する条件であってもよいし、異なる枚数に対応する条件であってもよい。 The first selection condition 93 stores, for example, the first threshold for the first ratio, and the second selection condition 94 stores, for example, the second threshold for the second ratio. The information creating unit 70 selects a person whose first ratio is equal to or higher than the first threshold as the main person 45M, selects a person whose second ratio is equal to or higher than the second threshold as the sub-person 45S, and registers them as related person information 32. You may In FIG. 11, 0.2 is set as the first threshold, and 0.4 is set as the second threshold. Persons "P2" and "P3" who are 0.4 or more are selected as sub-persons 45S. The selection condition 96 is stored in the storage device 50 , read by the RW control unit 75 and output to the information creation unit 70 . Also, the first selection condition 93 and the second selection condition 94 may be conditions corresponding to different ratios as shown in FIG. 11, or may be conditions corresponding to different numbers of sheets.

情報作成部70は、こうして作成した関連人物情報32を、ユーザ情報DBサーバ21に送信する(ステップST1007)。以上で、情報作成部70による情報作成処理が終了する。 The information creation unit 70 transmits the related person information 32 created in this way to the user information DB server 21 (step ST1007). Thus, the information creation processing by the information creation unit 70 is completed.

図12~図14は、抽出部74において実行される、第1ユーザ12Fの関連人物45の顔90Rが含まれている第2ユーザ画像36Sを抽出する抽出処理(ステップST300)の手順を示す。抽出部74は、まず、お勧め画像配信要求58で指定される共有フォルダ26の画像ファイル27から、第2ユーザ画像36Sを抽出する(ステップST3001)。より詳しくは、抽出部74は、お勧め画像配信要求58で指定される共有フォルダ26のユーザグループ28を構成するユーザ12のうち、お勧め画像配信要求58で指定されるユーザIDのユーザ12(すなわち第1ユーザ12F)以外のユーザ12を、第2ユーザ12Sとして特定する。そして、特定した第2ユーザ12SのユーザIDを含む画像ファイル27の画像36を、第2ユーザ画像36Sとして抽出する。 12 to 14 show the procedure of extraction processing (step ST300) for extracting the second user image 36S including the face 90R of the related person 45 of the first user 12F, which is executed by the extraction unit 74. FIG. Extraction unit 74 first extracts second user image 36S from image file 27 in shared folder 26 specified by recommended image distribution request 58 (step ST3001). More specifically, the extraction unit 74 extracts the user 12 ( That is, the user 12 other than the first user 12F) is identified as the second user 12S. Then, the image 36 of the image file 27 including the identified user ID of the second user 12S is extracted as the second user image 36S.

図13では、ユーザIDが「U1」、「U2」の2人のユーザ12で構成されるユーザグループ28の共有フォルダ26(名称「同窓会1」)を対象として、ユーザID「U1」のユーザ12のユーザ端末11から、お勧め画像配信要求58が送信された場合を例示している。この場合、ユーザID「U1」のユーザ12が第1ユーザ12Fであり、ユーザID「U2」のユーザ12が第2ユーザ12Sである。このため、抽出部74は、共有フォルダ26の画像ファイル27から、ユーザID「U2」のユーザ12に帰属する画像36を、第2ユーザ画像36Sとして抽出する。 In FIG. 13, the user 12 with the user ID "U1" is targeted for the shared folder 26 (named "Alumni Association 1") of the user group 28 consisting of two users 12 with the user IDs "U1" and "U2". A case where a recommended image distribution request 58 is transmitted from the user terminal 11 of . In this case, the user 12 with the user ID "U1" is the first user 12F, and the user 12 with the user ID "U2" is the second user 12S. Therefore, the extraction unit 74 extracts the image 36 belonging to the user 12 with the user ID "U2" from the image file 27 in the shared folder 26 as the second user image 36S.

抽出部74は、情報作成処理のステップST1003と同様に、ステップST3001で抽出した第2ユーザ画像36Sから、顔90を含む顔あり画像91を抽出する(ステップST3002)。次いで、抽出部74は、情報作成処理のステップST1004と同様に、顔あり画像91に含まれる顔90の人物を認識または分類する(ステップST3003)。図14では、「P1」、「P2」、「P3」、「P4」、・・・といった人物を認識した例を示している。なお、本実施形態において、第2ユーザ画像36Sから顔あり画像91を抽出してから、顔あり画像91に含まれる顔90の人物を認識したが、これに限られない。顔あり画像91の抽出はせずに、第2ユーザ画像36Sの全てに対して人物の認識または分類をしてもよい。 The extracting unit 74 extracts an image with a face 91 including the face 90 from the second user image 36S extracted in step ST3001, as in step ST1003 of the information creation process (step ST3002). Next, the extraction unit 74 recognizes or classifies the person with the face 90 included in the image with a face 91 (step ST3003), as in step ST1004 of the information creation process. FIG. 14 shows an example of recognition of persons such as "P1", "P2", "P3", "P4", . Note that in the present embodiment, after extracting the image with face 91 from the second user image 36S, the person with the face 90 included in the image with face 91 is recognized, but the present invention is not limited to this. Without extracting the image with face 91, the person may be recognized or classified for all of the second user images 36S.

抽出部74は、ステップST3003における人物の認識結果と、情報取得部73からの第1ユーザ12Fの関連人物情報32とに基づいて、顔あり画像91から、第1ユーザ12Fの関連人物45の顔90Rが含まれている顔あり画像91Rを抽出する(ステップST3004)。顔あり画像91Rは、トリミング部76における後述するトリミング処理の対象となる。このため、以下の説明では、顔あり画像91Rを対象画像91Rと表記する。 Based on the person recognition result in step ST3003 and the related person information 32 of the first user 12F from the information acquisition unit 73, the extraction unit 74 extracts the face of the related person 45 of the first user 12F from the image with face 91. An image with face 91R including 90R is extracted (step ST3004). The image with face 91R is subject to trimming processing in the trimming unit 76, which will be described later. Therefore, in the following description, the image with a face 91R is referred to as the target image 91R.

抽出部74は、ステップST3003で認識した人物の顔90の中に、第1ユーザ12Fの関連人物45の顔90Rと一致する顔90があるか否かを判定する。ステップST3003で認識した人物の顔90の中に、第1ユーザ12Fの関連人物45の顔90Rと一致する顔90があった場合、抽出部74は、当該顔90が含まれている全ての顔あり画像91を抽出する。そして、抽出した顔あり画像91を、対象画像91Rとして扱う。なお、抽出部74は、抽出した顔あり画像91のうち、第1ユーザ12Fの関連人物45の顔90Rと一致する顔90が2つ以上含まれる顔あり画像91を、対象画像91Rとして抽出してもよい。 The extraction unit 74 determines whether or not there is a face 90 matching the face 90R of the related person 45 of the first user 12F among the faces 90 of the persons recognized in step ST3003. If there is a face 90 that matches the face 90R of the related person 45 of the first user 12F among the faces 90 of the persons recognized in step ST3003, the extraction unit 74 extracts all faces that include the face 90. The presence image 91 is extracted. Then, the extracted image with face 91 is treated as the target image 91R. Note that the extracting unit 74 extracts, from the extracted face-containing images 91, the face-containing images 91 that include two or more faces 90 that match the face 90R of the related person 45 of the first user 12F as the target image 91R. may

図14では、ユーザIDが「U1」の第1ユーザ12Fの関連人物情報32に基づいて、第2ユーザ画像36Sである顔あり画像91から、ユーザIDが「U1」の第1ユーザ12Fの、少なくとも2人の関連人物45の顔90Rが含まれている対象画像91Rを抽出する様子を例示している。 In FIG. 14, based on the related person information 32 of the first user 12F whose user ID is "U1", the image with face 91, which is the second user image 36S, of the first user 12F whose user ID is "U1", It illustrates how to extract a target image 91R including the faces 90R of at least two related persons 45. FIG.

抽出部74は、こうして抽出した対象画像91Rをトリミング部76に出力する(ステップST3005)。以上で、抽出部74による抽出処理が終了する。 The extraction section 74 outputs the target image 91R thus extracted to the trimming section 76 (step ST3005). Thus, the extraction processing by the extraction unit 74 is completed.

図15に示すように、第1顔配置マップ85aは、画像36内における2人の人物の顔90の適切な配置位置を表す。第1顔配置マップ85aは、水平方向および垂直方向に配列された複数の分割セル100で構成される。表101の「分割セル座標」に示すように、分割セル100は、水平方向および垂直方向にそれぞれ例えば1024個配列されている。 As shown in FIG. 15, the first face placement map 85a represents appropriate placement positions of the faces 90 of two persons in the image 36. FIG. The first face layout map 85a is composed of a plurality of divided cells 100 arranged horizontally and vertically. As shown in "divisional cell coordinates" in table 101, 1024 divisional cells 100 are arranged horizontally and vertically, for example.

各分割セル100には、0~1の値をとる評価値が割り当てられている。具体的には、ハッチングのグラデーションで示すように、顔90が配置されるべき分割セル100に対しては、顔90が配置されるべきでない分割セル100と比べて相対的に高い値が割り当てられている。例えば、顔90が配置されるべき、座標(200、300)の分割セル100には、評価値として1が割り当てられている。対して、顔90が配置されるべきでない、座標(1023、1023)の分割セル100には、評価値として0が割り当てられている。 Each divided cell 100 is assigned an evaluation value between 0 and 1. FIG. Specifically, as shown by the hatching gradation, a relatively high value is assigned to the divided cells 100 in which the face 90 should be placed compared to the divided cells 100 in which the face 90 should not be placed. ing. For example, an evaluation value of 1 is assigned to the divided cell 100 at coordinates (200, 300) in which the face 90 is to be placed. On the other hand, 0 is assigned as an evaluation value to the divided cell 100 at the coordinates (1023, 1023) in which the face 90 should not be placed.

同様にして、図16は、画像36内における3人の人物の顔90の適切な配置位置を表す第2顔配置マップ85bを示す。また、図17は、画像36内における4人以上の人物の顔90の適切な配置位置を表す第3顔配置マップ85cを示す。さらに、図18は、画像36内における1人の人物の顔90の適切な配置位置を表す第4顔配置マップ85dを示す。このように、顔90の数毎に、第1顔配置マップ85a、第2顔配置マップ85b、第3顔配置マップ85c、および第4顔配置マップ85dという複数の顔配置マップ85が用意されている。 Similarly, FIG. 16 shows a second face placement map 85b representing appropriate placement positions of three human faces 90 within image 36. FIG. FIG. 17 also shows a third face placement map 85c representing appropriate placement positions of faces 90 of four or more persons in image 36. FIG. Further, FIG. 18 shows a fourth face placement map 85d representing appropriate placement positions of a person's face 90 within the image 36. FIG. In this way, a plurality of face layout maps 85 are prepared for each number of faces 90, including a first face layout map 85a, a second face layout map 85b, a third face layout map 85c, and a fourth face layout map 85d. there is

第1顔配置マップ85aは、ガウス分布のガウス関数にしたがった以下の式(1)および式(2)に基づいて作成される。式(1)は水平方向に関する評価値、式(2)は垂直方向に関する評価値をそれぞれ表す。第1顔配置マップ85aの各分割セル100に割り当てられる評価値は、これら式(1)および式(2)で得られた、水平方向に関する評価値および垂直方向に関する評価値の積である。 The first face arrangement map 85a is created based on the following equations (1) and (2) according to the Gaussian function of Gaussian distribution. Equation (1) represents the evaluation value for the horizontal direction, and Equation (2) represents the evaluation value for the vertical direction. The evaluation value assigned to each divided cell 100 of the first face arrangement map 85a is the product of the horizontal evaluation value and the vertical evaluation value obtained by the formulas (1) and (2).

Figure 0007267227000001
Figure 0007267227000001

なお、Cはガウス関数の係数、μは平均、σは標準偏差(σは分散)である。式(1)においてC、μ、σの下に付されている「21」は、2人の人物の顔90のうちの左から数えて1番目、という意である。同様に、「22」は、2人の人物の顔90のうちの左から数えて2番目、という意である。C、μ、σの値は、例えば、C21=C22=0.9、C=1、μ21=0.3、μ22=0.7、μ=1/3、σ21=σ22=σ=0.15である。 Note that C is the coefficient of the Gaussian function, μ is the mean, and σ is the standard deviation ( σ2 is the variance). "21" attached below C, μ, and σ in equation (1) means the first face counted from the left of the faces 90 of the two persons. Similarly, "22" means the second from the left of the faces 90 of the two persons. The values of C, μ, and σ are, for example, C 21 =C 22 =0.9, C=1, μ 21 =0.3, μ 22 =0.7, μ=1/3, σ 2122 = σ = 0.15.

第2顔配置マップ85bは、以下の式(3)および式(4)に基づいて作成される。式(3)は水平方向に関する評価値、式(4)は垂直方向に関する評価値をそれぞれ表す。式(4)は式(2)と同じである。第2顔配置マップ85bの各分割セル100に割り当てられる評価値は、これら式(3)および式(4)で得られた、水平方向に関する評価値および垂直方向に関する評価値の積である。 The second face arrangement map 85b is created based on Equations (3) and (4) below. Equation (3) represents the evaluation value for the horizontal direction, and Equation (4) represents the evaluation value for the vertical direction. Equation (4) is the same as Equation (2). The evaluation value assigned to each divided cell 100 of the second face arrangement map 85b is the product of the horizontal evaluation value and the vertical evaluation value obtained by the formulas (3) and (4).

Figure 0007267227000002
Figure 0007267227000002

式(3)においてC、μ、σの下に付されている「31」は、3人の人物の顔90のうちの左から数えて1番目、という意である。同様に、「32」は、3人の人物の顔90のうちの左から数えて2番目、「33」は、3人の人物の顔90のうちの左から数えて3番目、という意である。C、μ、σの値は、例えば、C31=C32=C33=0.9、C=1、μ31=0.25、μ32=0.5、μ33=0.75、μ=1/3、σ31=σ32=σ33=0.1、σ=0.15である。 "31" attached below C, μ, and σ in equation (3) means the first one counted from the left among the faces 90 of the three persons. Similarly, "32" means the second from the left of the three human faces 90, and "33" means the third from the left of the three human faces 90. be. The values of C, μ, and σ are, for example, C 31 =C 32 =C 33 =0.9, C=1, μ 31 =0.25, μ 32 =0.5, μ 33 =0.75, μ = 1/3, σ 31 = σ 32 = σ 33 = 0.1, σ = 0.15.

また、第3顔配置マップ85cは、以下の式(5)および式(6)に基づいて作成される。式(5)は水平方向に関する評価値、式(6)は垂直方向に関する評価値をそれぞれ表す。式(6)は式(2)および式(4)と同じである。第3顔配置マップ85cの各分割セル100に割り当てられる評価値は、これら式(5)および式(6)で得られた、水平方向に関する評価値および垂直方向に関する評価値の積である。 Also, the third face arrangement map 85c is created based on the following equations (5) and (6). Equation (5) represents the evaluation value for the horizontal direction, and Equation (6) represents the evaluation value for the vertical direction. Equation (6) is the same as Equations (2) and (4). The evaluation value assigned to each divided cell 100 of the third face arrangement map 85c is the product of the horizontal evaluation value and the vertical evaluation value obtained by the formulas (5) and (6).

Figure 0007267227000003
Figure 0007267227000003

式(5)においてC、μ、σの下に付されている「4」は、4人以上の人物の顔90に関する、という意である。C、μ、σの値は、例えば、C=C=1、μ=0.5、μ=1/3、σ=0.5、σ=0.15である。 "4" attached below C, μ, and σ in equation (5) means that it relates to faces 90 of four or more persons. Values of C, μ, and σ are, for example, C 4 =C=1, μ 4 =0.5, μ=1/3, σ 4 =0.5, and σ=0.15.

また、第4顔配置マップ85dは、以下の式(7)および式(8)に基づいて作成される。式(7)は水平方向に関する評価値、式(8)は垂直方向に関する評価値をそれぞれ表す。式(8)は式(2)、式(4)および式(6)と同じである。第4顔配置マップ85dの各分割セル100に割り当てられる評価値は、これら式(7)および式(8)で得られた、水平方向に関する評価値および垂直方向に関する評価値の積である。 Also, the fourth face arrangement map 85d is created based on the following equations (7) and (8). Equation (7) represents the evaluation value for the horizontal direction, and Equation (8) represents the evaluation value for the vertical direction. Equation (8) is the same as Equations (2), (4) and (6). The evaluation value assigned to each divided cell 100 of the fourth face arrangement map 85d is the product of the horizontal evaluation value and the vertical evaluation value obtained by the formulas (7) and (8).

Figure 0007267227000004
Figure 0007267227000004

式(7)においてC、μ、σの下に付されている「1」は、1人の人物の顔90に関する、という意である。C、μ、σの値は、例えば、C=C=1、μ=0.5、μ=1/3、σ=σ=0.15である。 "1" attached below C, μ, and σ in equation (7) means that it relates to the face 90 of one person. The values of C, μ, and σ are, for example, C 1 =C=1, μ 1 =0.5, μ=1/3, σ 1 =σ=0.15.

このように、顔配置マップ85は、ガウス関数にしたがった式(1)~式(8)に基づいて作成される。このため、顔配置マップ85は、左右対称な評価値の分布を有する。 Thus, the face arrangement map 85 is created based on equations (1) to (8) according to Gaussian functions. Therefore, the face arrangement map 85 has a symmetric distribution of evaluation values.

図19~図25は、トリミング部76において実行される、対象画像91Rから関連人物45の顔90Rを含む領域を切り出すトリミング処理(ステップST400)の手順を示す。トリミング部76は、まず、抽出部74で抽出した対象画像91Rのうちの1枚の対象画像91Rについて、当該対象画像91Rに含まれる関連人物45の顔90Rの数に応じた顔配置マップ85を、顔配置マップセット66の中から選択する(ステップST4001)。 19 to 25 show the procedure of the trimming process (step ST400) for cutting out the area including the face 90R of the related person 45 from the target image 91R, which is executed by the trimming unit 76. FIG. The trimming unit 76 first creates a face layout map 85 corresponding to the number of faces 90R of the related person 45 included in the target image 91R for one of the target images 91R extracted by the extraction unit 74. , face arrangement map set 66 (step ST4001).

具体的には、トリミング部76は、対象画像91Rに含まれる関連人物45の顔90Rの数が2つであった場合、第1顔配置マップ85aを選択する。対象画像91Rに含まれる関連人物45の顔90Rの数が3つであった場合は、第2顔配置マップ85bを選択する。対象画像91Rに含まれる関連人物45の顔90Rの数が4つ以上であった場合は、第3顔配置マップ85cを選択する。対象画像91Rに含まれる関連人物45の顔90Rの数が1つであった場合は、第4顔配置マップ85dを選択する。 Specifically, when the number of faces 90R of the related person 45 included in the target image 91R is two, the trimming unit 76 selects the first face layout map 85a. When the number of faces 90R of the related person 45 included in the target image 91R is three, the second face arrangement map 85b is selected. If the number of faces 90R of the related person 45 included in the target image 91R is four or more, the third face layout map 85c is selected. If the number of faces 90R of the related person 45 included in the target image 91R is one, the fourth face arrangement map 85d is selected.

トリミング部76は、最低解像度に合わせて顔配置マップ85を整形する(ステップST4002)。最低解像度は、トリミング処理で切り出した切り出し画像110Eを写真プリントした場合に、商品としての最低限の画質を確保するために必要な解像度である。最低解像度は、例えば画素数で表される。なお、最低解像度は、対象画像91Rの解像度に応じて予め定められてもよい。また、顔位置マップ85を整形する解像度は、最低解像度に限られない。 Trimming section 76 shapes face layout map 85 in accordance with the lowest resolution (step ST4002). The minimum resolution is the resolution required to ensure the minimum image quality as a product when the clipped image 110E clipped by the trimming process is photo printed. The minimum resolution is represented, for example, by the number of pixels. Note that the minimum resolution may be determined in advance according to the resolution of the target image 91R. Also, the resolution for shaping the face position map 85 is not limited to the lowest resolution.

図21は、ステップST4002の一例を示す。より詳しくは、対象画像91Rの解像度が100dpi×100dpi、最低解像度が500画素×500画素で、100インチ×100インチの第1顔配置マップ85aを整形する場合を例示している。この場合、最低解像度をカバーするために最低限必要な顔配置マップ85のインチ数は、(500×500)/100=2500=50×50である。このためトリミング部76は、100インチ×100インチの第1顔配置マップ85aを、50インチ×50インチに整形する。 FIG. 21 shows an example of step ST4002. More specifically, the case where the resolution of the target image 91R is 100 dpi×100 dpi, the minimum resolution is 500 pixels×500 pixels, and the first face layout map 85a of 100 inches×100 inches is shaped is exemplified. In this case, the minimum required number of inches of face layout map 85 to cover the lowest resolution is (500×500)/100=2500=50×50. Therefore, the trimming unit 76 trims the first face layout map 85a of 100 inches by 100 inches to 50 inches by 50 inches.

トリミング部76は、整形後の顔配置マップ85を、対象画像91Rに適用する。トリミング部76は、図22にも示すように、対象画像91R内における顔配置マップ85の適用位置を変更しつつ、適用位置毎にスコアを算出する(ステップST4003)。トリミング部76は、算出したスコアを適用位置毎に記憶する。 The trimming unit 76 applies the face arrangement map 85 after shaping to the target image 91R. As also shown in FIG. 22, the trimming unit 76 calculates a score for each application position while changing the application position of the face layout map 85 in the target image 91R (step ST4003). The trimming unit 76 stores the calculated score for each application position.

図22では、4人の人物の顔90が写り、かつ左から数えて2番目と3番目の人物が関連人物45である対象画像91Rに、第1顔配置マップ85aを適用した場合を例示している。第1顔配置マップ85aの適用位置が、関連人物45の顔90Rを含む位置でない場合は、当然ながらスコアは0点である。対して、第1顔配置マップ85aの適用位置が、関連人物45の顔90Rを含む位置である場合は、スコアは30点、40点等となる。なお、図22では、他の人物の顔90と区別するため、関連人物45の顔90Rを斜線のハッチングで示している。以降の図も同様である。 FIG. 22 illustrates a case where the first face arrangement map 85a is applied to a target image 91R in which the faces 90 of four persons are captured and the second and third persons counted from the left are the related persons 45. ing. If the application position of the first face layout map 85a does not include the face 90R of the related person 45, the score is naturally 0 points. On the other hand, when the application position of the first face arrangement map 85a is a position including the face 90R of the related person 45, the score is 30 points, 40 points, or the like. In addition, in FIG. 22, the face 90R of the related person 45 is hatched with oblique lines in order to distinguish it from the face 90 of another person. The same applies to subsequent figures.

図20は、ステップST4003のスコアの算出のより詳しい手順を示す。まず、トリミング部76は、スコアの算出に先立って、対象画像91Rのメイン人物45Mの顔領域の画素値を第1設定値、サブ人物45Sの顔領域の画素値を第2設定値、他の領域の画素値を0にそれぞれ置換する(ステップST40031)。 FIG. 20 shows a more detailed procedure for score calculation in step ST4003. First, prior to score calculation, the trimming unit 76 sets the pixel value of the face region of the main person 45M in the target image 91R to the first set value, sets the pixel value of the face region of the sub-person 45S to the second set value, and sets the pixel value of the face region of the sub-person 45S to the second set value. The pixel values of the regions are replaced with 0 (step ST40031).

図23は、表105に示すように、第1設定値として1、第2設定値として0.8を設定した場合を例示している。また、図23は、左から数えて2番目の人物がメイン人物45M、左から数えて3番目の人物がサブ人物45Sであった場合を例示している。この場合、トリミング部76は、メイン人物45Mの顔90Rの領域の画素値を1、サブ人物45Sの顔90Rの領域の画素値を0.8に置換する。また、トリミング部76は、他の領域の画素値を0に置換する。他の領域は、人物の背景の領域、メイン人物45Mおよびサブ人物45Sの胴体の領域、メイン人物45Mでもサブ人物45Sでもない人物の顔90および胴体の領域である。このように、トリミング部76は、メイン人物45Mとサブ人物45Sとで、顔90Rの領域の画素値に置換する設定値を変更することで、関連ランクを加味してスコアを算出していることになる。なお、関連人物45の顔領域に設定される設定値は、関連人物45の顔領域以外の領域に設定される設定値より大きければよい。このため、例えば、メイン人物45Mに対して設定される第1設定値と、サブ人物45Sに対して設定される第2設定値は、同一の値であってもよい。 As shown in Table 105, FIG. 23 illustrates a case where the first set value is set to 1 and the second set value is set to 0.8. Also, FIG. 23 illustrates a case where the second person from the left is the main person 45M, and the third person from the left is the sub-person 45S. In this case, the trimming unit 76 replaces the pixel value of the area of the face 90R of the main person 45M with 1 and the pixel value of the area of the face 90R of the sub-person 45S with 0.8. Also, the trimming unit 76 replaces the pixel values of other regions with zero. The other areas are the background area of the person, the torso area of the main person 45M and the sub-person 45S, and the face 90 and torso area of the person who is neither the main person 45M nor the sub-person 45S. In this way, the trimming unit 76 calculates the score by adding the related rank by changing the set value for replacing the pixel value of the area of the face 90R between the main person 45M and the sub-person 45S. become. The set value set for the face area of the related person 45 may be larger than the set value set for areas other than the face area of the related person 45 . Therefore, for example, the first setting value set for the main person 45M and the second setting value set for the sub-person 45S may be the same value.

トリミング部76は、顔配置マップ85の各分割セル100の評価値と、各分割セル100に対応する位置にある、対象画像91Rの画素の画素値とを乗算する(ステップST40032)。そして、乗算結果を積算し、積算結果をスコアとして出力する(ステップST40033)。 The trimming section 76 multiplies the evaluation value of each divided cell 100 of the face layout map 85 by the pixel value of the pixel of the target image 91R at the position corresponding to each divided cell 100 (step ST40032). Then, the multiplication results are integrated, and the integration result is output as a score (step ST40033).

適用位置毎にスコアを算出した後、トリミング部76は、顔配置マップ85を拡大する(ステップST4005)。そして、再びステップST4003の処理を実行する。トリミング部76は、顔配置マップ85のサイズが、対象画像91Rのサイズと同じにならないうちは、ステップST4003の処理を繰り返す(ステップST4004でNO)。 After calculating the score for each application position, trimming section 76 enlarges face layout map 85 (step ST4005). Then, the process of step ST4003 is executed again. Trimming section 76 repeats the process of step ST4003 until the size of face layout map 85 becomes the same as the size of target image 91R (NO in step ST4004).

図24は、図22と同じく、4人の人物の顔90が写り、かつ左から数えて2番目と3番目の人物が関連人物45である対象画像91Rに、第1顔配置マップ85aを適用した場合を例示している。トリミング部76は、第1顔配置マップ85aを徐々に拡大しつつ、ステップST4003の処理を行う。 In FIG. 24, as in FIG. 22, the first face arrangement map 85a is applied to the target image 91R in which the faces 90 of four persons are captured and the second and third persons counted from the left are the related persons 45. This is an example of a case where The trimming section 76 performs the process of step ST4003 while gradually enlarging the first face layout map 85a.

顔配置マップ85のサイズが、対象画像91Rのサイズと同じとなった場合(ステップST4004でYES)、トリミング部76は、ステップST4003の処理を終える。そして、記憶したスコアのうちの最高スコアの適用位置で、顔配置マップ85に合わせて対象画像91Rを切り出し、切り出し画像110とする(ステップST4006)。トリミング部76は、全ての対象画像91Rに対して切り出し画像110を生成しないうちは、対象画像91Rを変更したうえで、ステップST4001~ステップST4006の処理を繰り返す(ステップST4007でNO)。なお、本実施形態において、トリミング部76は、顔配置マップ85を徐々に拡大するとしたが、これに限られない。顔配置マップ85の大きさを、特定の画素数もしくは解像度で規定された1つの大きさのみとしてもよい。この場合、1つの大きさの顔配置マップ85についてスコア取得し、記憶したスコアのうちの最高スコアの適用位置で対象画像91Rを切り出し、切り出し画像110としてもよい。 If the size of face layout map 85 is the same as the size of target image 91R (YES in step ST4004), trimming section 76 ends the processing of step ST4003. Then, the target image 91R is cut out according to the face layout map 85 at the position where the highest score among the stored scores is applied, and the cutout image 110 is obtained (step ST4006). The trimming unit 76 repeats the processing of steps ST4001 to ST4006 after changing the target image 91R until the clipped image 110 is generated for all the target images 91R (NO in step ST4007). Although the trimming unit 76 gradually enlarges the face layout map 85 in the present embodiment, the present invention is not limited to this. The face layout map 85 may have only one size defined by a specific number of pixels or resolution. In this case, a score may be obtained for the face arrangement map 85 of one size, and the target image 91R may be cut out at the position where the highest score among the stored scores is applied, and the cutout image 110 may be obtained.

図25は、図22等と同じく、4人の人物の顔90が写り、かつ左から数えて2番目と3番目の人物が関連人物45である対象画像91Rに、第1顔配置マップ85aを適用した場合を例示している。トリミング部76は、スコアが最高点の300点である適用位置で、顔配置マップ85に合わせて対象画像91Rを切り出し、切り出し画像110とする。そして、切り出し画像110を、元の対象画像91Rのサイズに拡大して切り出し画像110Eとする。なお、スコアの最高点が予め定められた閾値未満であった場合は、対象画像91Rの切り出しを中止してもよい。また、本実施形態において、トリミング部76は、スコアが最高点の適用位置で、顔配置マップ85に合わせて対象画像91Rから切り出し画像110を切り出すとしたが、これに限られない。例えば、トリミング部76は、スコアが予め定められた設定値を超える適用位置であって、かつ、顔配置マップ85のサイズが異なる複数の切り出し画像110を切り出してもよい。 In FIG. 25, as in FIG. 22 and the like, the first face arrangement map 85a is applied to the target image 91R in which the faces 90 of four persons are shown and the second and third persons counted from the left are the related persons 45. An example of application is shown. The trimming unit 76 cuts out the target image 91R according to the face layout map 85 at the application position with the highest score of 300 points, and uses it as a cutout image 110 . Then, the clipped image 110 is enlarged to the size of the original target image 91R to obtain a clipped image 110E. It should be noted that if the maximum score is less than the predetermined threshold, the extraction of the target image 91R may be stopped. Further, in the present embodiment, the trimming unit 76 cuts out the clipped image 110 from the target image 91R in accordance with the face layout map 85 at the application position with the highest score, but the present invention is not limited to this. For example, the trimming unit 76 may cut out a plurality of cut-out images 110 having different sizes of the face arrangement map 85 at application positions where the score exceeds a predetermined set value.

全ての対象画像91Rに対して切り出し画像110Eを生成した場合、トリミング部76は、生成した切り出し画像110Eをお勧め画像として出力する(ステップST4008)。以上で、トリミング部76によるトリミング処理が終了する。 When the clipped image 110E is generated for all the target images 91R, the trimming section 76 outputs the generated clipped image 110E as a recommended image (step ST4008). Thus, the trimming process by the trimming section 76 is completed.

図26に示すように、配信制御部77は、切り出し画像110Eとスコアの組を、お勧め画像情報59としてお勧め画像配信要求58の送信元のユーザ端末11に配信する。また、配信制御部77は、例示するように切り出し画像110Eが複数枚ある場合、切り出し画像110Eを、スコアに応じて優先的に表示されるようにする。「スコアに応じて優先的に表示されるようにする」態様の例としては、図26に示すように、スコアが高い切り出し画像110Eの表示順を高くする態様が挙げられる。なお、スコアが高い切り出し画像110Eの表示サイズを、スコアが低い切り出し画像110Eの表示サイズより相対的に大きく表示してもよい。 As shown in FIG. 26 , the distribution control unit 77 distributes the combination of the clipped image 110E and the score as the recommended image information 59 to the user terminal 11 that sent the recommended image distribution request 58 . Further, when there are a plurality of clipped images 110E as illustrated, the distribution control unit 77 preferentially displays the clipped image 110E according to the score. As an example of the aspect of "preferentially displaying according to the score", as shown in FIG. 26, there is an aspect in which a clipped image 110E with a high score is displayed in a higher order. The display size of the clipped image 110E with a high score may be displayed relatively larger than the display size of the clipped image 110E with a low score.

図27において、ユーザ端末11のストレージデバイス50Bには、画像閲覧AP115が記憶されている。画像閲覧AP115が実行されて、画像閲覧AP115に専用のウェブブラウザが起動されると、ユーザ端末11のCPU52Bは、メモリ51等と協働して、ブラウザ制御部120として機能する。ブラウザ制御部120は、ウェブブラウザの動作を制御する。ブラウザ制御部120は、画像配信サーバ10からの画像ファイル27、およびお勧め画像情報59等を受信する。ブラウザ制御部120は、画像ファイル27の画像36を表示する画像表示画面125(図28参照)、お勧め画像情報59を表示するお勧め画像情報表示画面130(図29参照)といった各種画面を生成し、ディスプレイ54Bに表示する。 In FIG. 27, the storage device 50B of the user terminal 11 stores an image viewing AP 115 . When the image browsing AP 115 is executed and a web browser dedicated to the image browsing AP 115 is activated, the CPU 52B of the user terminal 11 functions as the browser control section 120 in cooperation with the memory 51 and the like. Browser control unit 120 controls the operation of the web browser. The browser control unit 120 receives the image file 27 from the image distribution server 10, the recommended image information 59, and the like. The browser control unit 120 generates various screens such as an image display screen 125 (see FIG. 28) displaying the image 36 of the image file 27 and a recommended image information display screen 130 (see FIG. 29) displaying the recommended image information 59. and displayed on the display 54B.

また、ブラウザ制御部120は、各種画面を通じて、ユーザ12によって入力デバイス55Bから入力される様々な操作指示を受け付ける。操作指示には、画像配信サーバ10への画像配信指示、お勧め画像配信指示等がある。画像配信指示は、例えば画像閲覧AP115の起動指示が兼ねている。ブラウザ制御部120は、操作指示に応じた要求を画像配信サーバ10に送信する。具体的には、ブラウザ制御部120は、画像配信サーバ10への画像配信指示に応じて、画像配信要求57を画像配信サーバ10に送信する。また、ブラウザ制御部120は、画像配信サーバ10へのお勧め画像配信指示に応じて、お勧め画像配信要求58を画像配信サーバ10に送信する。 In addition, the browser control unit 120 accepts various operation instructions input from the input device 55B by the user 12 through various screens. The operation instruction includes an image distribution instruction to the image distribution server 10, a recommended image distribution instruction, and the like. The image distribution instruction also serves as an instruction to activate the image viewing AP 115, for example. Browser control unit 120 transmits a request corresponding to the operation instruction to image distribution server 10 . Specifically, browser control unit 120 transmits image distribution request 57 to image distribution server 10 in response to an image distribution instruction to image distribution server 10 . In addition, the browser control unit 120 transmits a recommended image distribution request 58 to the image distribution server 10 in response to the recommended image distribution instruction to the image distribution server 10 .

図28は、共有フォルダ26内の画像ファイル27に含まれる画像36を表示する画像表示画面125を示す。画像表示画面125には、複数枚の画像36が、例えば撮影日時順に一覧表示される。また、画像表示画面125には、ユーザ12に共有されている共有フォルダ26を示す情報が表示されている。画像表示画面125には、ユーザ12に共有されている共有フォルダ26を示す情報とともに、共有フォルダ26を指定する共有フォルダ指定ボタン126が表示されている。本実施形態において、共有フォルダ指定ボタン126は星形をしているが、特にこれに限らず、いずれの形状であっても良い。画像表示画面125において共有フォルダ指定ボタン126が選択された場合、コンテキストメニュー127がポップアップ表示される。コンテキストメニュー127には、お勧め画像配信指示ボタン128とキャンセルボタン129が表示される。お勧め画像配信指示ボタン128が選択された場合、ブラウザ制御部120にお勧め画像配信指示が入力され、ブラウザ制御部120から画像配信サーバ10にお勧め画像配信要求58が送信される。お勧め画像配信要求58は、指定された共有フォルダ26の情報を含む。キャンセルボタン129が選択された場合は、コンテキストメニュー127の表示が消される。 FIG. 28 shows an image display screen 125 displaying an image 36 included in an image file 27 in the shared folder 26. FIG. On the image display screen 125, a list of a plurality of images 36 is displayed, for example, in order of photographing date and time. Information indicating the shared folder 26 shared by the user 12 is also displayed on the image display screen 125 . The image display screen 125 displays information indicating the shared folder 26 shared by the user 12 and a shared folder designation button 126 for designating the shared folder 26 . In the present embodiment, the shared folder designation button 126 has a star shape, but it is not limited to this and may have any shape. When the shared folder designation button 126 is selected on the image display screen 125, a popup context menu 127 is displayed. A recommended image distribution instruction button 128 and a cancel button 129 are displayed on the context menu 127 . When the recommended image distribution instruction button 128 is selected, a recommended image distribution instruction is input to the browser control unit 120 and a recommended image distribution request 58 is transmitted from the browser control unit 120 to the image distribution server 10 . The recommended image distribution request 58 includes information on the designated shared folder 26 . When the cancel button 129 is selected, the display of the context menu 127 disappears.

図29は、お勧め画像情報59を表示するお勧め画像情報表示画面130を示す。お勧め画像情報表示画面130には、切り出し画像110Eがお勧め画像として表示される。切り出し画像110Eは、配信制御部77によってスコアに応じて付された表示順にしたがって表示される。 FIG. 29 shows a recommended image information display screen 130 that displays recommended image information 59 . A clipped image 110E is displayed on the recommended image information display screen 130 as a recommended image. The clipped images 110E are displayed according to the display order given by the distribution control unit 77 according to the scores.

切り出し画像110Eの横には、符号131でお勧めスコアとして示すように、スコアが表示される。また、切り出し画像110Eの横には、保存ボタン132およびプリント注文ボタン133が表示される。保存ボタン132が選択された場合、切り出し画像110Eが個人フォルダ25に保存される。プリント注文ボタン133が選択された場合、切り出し画像110Eの写真プリントの注文が可能となる。 A score is displayed next to the clipped image 110E as indicated by reference numeral 131 as a recommended score. Also, a save button 132 and a print order button 133 are displayed beside the clipped image 110E. When the save button 132 is selected, the clipped image 110E is saved in the personal folder 25. FIG. When the print order button 133 is selected, it becomes possible to order photo prints of the clipped image 110E.

次に、上記構成による作用について、図30および図31のフローチャートを参照して説明する。作動プログラム65が起動されると、画像配信サーバ10のCPU52Aは、図8で示したように、情報作成部70、要求受付部71、画像取得部72、情報取得部73、抽出部74、RW制御部75、トリミング部76、および配信制御部77として機能される。 Next, the operation of the above configuration will be described with reference to the flow charts of FIGS. 30 and 31. FIG. When the operation program 65 is activated, the CPU 52A of the image distribution server 10, as shown in FIG. It functions as a control section 75 , a trimming section 76 and a distribution control section 77 .

図30に示すように、関連人物情報32を作成していない第1ユーザ12Fがいて、当該第1ユーザ12Fの最初の関連人物情報32の作成タイミングであった場合、前回関連人物情報32を作成してから第1設定時間が経過した第1ユーザ12Fがいて、当該第1ユーザ12Fの関連人物情報32の更新タイミングであった場合、もしくは第1枚数の画像ファイル27を新たに送信した第1ユーザ12Fがいて、当該第1ユーザ12Fの関連人物情報32の更新タイミングであった場合(ステップST10でYES)、情報作成部70において、図9~図11で示した情報作成処理(ステップST100A)が実行される。これにより新しい関連人物情報32が作成される。ステップST100Aは、本開示の技術に係る「情報作成ステップ」の一例である。 As shown in FIG. 30, when there is a first user 12F who has not created related personal information 32 and it is time to create the first related personal information 32 of the first user 12F, the previous related personal information 32 is created. If there is a first user 12F for whom the first set time has elapsed since then, and it is time to update the related personal information 32 of the first user 12F, or if the first number of image files 27 newly transmitted is If there is a user 12F and it is time to update the related personal information 32 of the first user 12F (YES in step ST10), the information creating section 70 performs the information creating process shown in FIGS. 9 to 11 (step ST100A). is executed. As a result, new related person information 32 is created. Step ST100A is an example of an "information creation step" according to the technology of the present disclosure.

図31に示すように、要求受付部71においてお勧め画像配信要求58が受け付けられた場合(ステップST20でYES)、画像取得部72から画像DBサーバ20に第2画像取得要求81が送信される(ステップST21)。そして、第2画像取得要求81に応じて画像DBサーバ20から送信された個人フォルダ25内の画像ファイル27および共有フォルダ26内の画像ファイル27が、画像取得部72において取得される(ステップST200)。ステップST200は、本開示の技術に係る「画像取得ステップ」の一例である。 As shown in FIG. 31, when the request receiving unit 71 receives the recommended image distribution request 58 (YES in step ST20), the image obtaining unit 72 transmits the second image obtaining request 81 to the image DB server 20. (Step ST21). Then, the image file 27 in the personal folder 25 and the image file 27 in the shared folder 26 transmitted from the image DB server 20 in response to the second image acquisition request 81 are acquired by the image acquisition unit 72 (step ST200). . Step ST200 is an example of an "image acquisition step" according to the technology of the present disclosure.

続いて抽出部74において、図12~図14で示した抽出処理(ステップST300)が実行される。これにより第1ユーザ12Fの関連人物45の顔90Rが含まれている第2ユーザ画像36Sが抽出される。ステップST300は、本開示の技術に係る「抽出ステップ」の一例である。 Subsequently, the extracting section 74 executes the extraction process (step ST300) shown in FIGS. Thereby, the second user image 36S including the face 90R of the related person 45 of the first user 12F is extracted. Step ST300 is an example of an "extraction step" according to the technology of the present disclosure.

次いでトリミング部76において、図19~図25で示したトリミング処理(ステップST400)が実行される。これにより切り出し画像110Eがお勧め画像として生成される。ステップST400は、本開示の技術に係る「トリミングステップ」の一例である。 Next, the trimming section 76 performs the trimming process (step ST400) shown in FIGS. As a result, a clipped image 110E is generated as a recommended image. Step ST400 is an example of a "trimming step" according to the technology of the present disclosure.

切り出し画像110Eは、トリミング部76から配信制御部77に出力される。図26で示したように、切り出し画像110Eは、配信制御部77によって、スコアとともにお勧め画像情報59とされる。また、切り出し画像110Eには、スコアに応じた表示順が付される。お勧め画像情報59は、配信制御部77によって、お勧め画像配信要求58の送信元のユーザ端末11に配信される(ステップST22)。 The clipped image 110</b>E is output from the trimming section 76 to the distribution control section 77 . As shown in FIG. 26, the clipped image 110E is made into the recommended image information 59 together with the score by the distribution control unit 77. FIG. Also, the clipped images 110E are assigned a display order according to the score. The recommended image information 59 is distributed by the distribution control unit 77 to the user terminal 11 that sent the recommended image distribution request 58 (step ST22).

以上説明したように、画像配信サーバ10のCPU52Aは、情報作成部70と、画像取得部72と、抽出部74と、トリミング部76とを有する。情報作成部70は、第1ユーザ12Fに帰属する第1ユーザ画像36Fであって、顔90が含まれた顔あり画像91を元に、第1ユーザ12Fに関連する関連人物45の情報である関連人物情報32を作成する。画像取得部72は、共有フォルダ26内の画像ファイル27を取得することで、第1ユーザ12Fとは異なる第2ユーザ12Sに帰属する第2ユーザ画像36Sを取得する。抽出部74は、関連人物情報32に基づいて、第1ユーザ12Fの関連人物45の顔90Rが含まれている第2ユーザ画像36Sである対象画像91Rを抽出する。トリミング部76は、関連人物45の顔90Rが含まれている対象画像91Rから、関連人物45の顔90Rを含む領域を切り出し、切り出し画像110Eとする。したがって、第2ユーザ12Sに帰属する第2ユーザ画像36Sから、第1ユーザ12Fの関連人物情報32に基づいて切り出した切り出し画像110を、第1ユーザ12Fに提示することが可能となる。結果として、多くのユーザ12をサービスに呼び込むことが可能となる。 As described above, the CPU 52A of the image distribution server 10 has the information creation section 70, the image acquisition section 72, the extraction section 74, and the trimming section . The information creation unit 70 creates information on the related person 45 related to the first user 12F based on the first user image 36F belonging to the first user 12F and the face image 91 including the face 90. Related person information 32 is created. By acquiring the image file 27 in the shared folder 26, the image acquiring unit 72 acquires the second user image 36S belonging to the second user 12S different from the first user 12F. Based on the related person information 32, the extraction unit 74 extracts the target image 91R, which is the second user image 36S including the face 90R of the related person 45 of the first user 12F. The trimming unit 76 cuts out a region including the face 90R of the related person 45 from the target image 91R including the face 90R of the related person 45 to obtain a cutout image 110E. Therefore, it is possible to present to the first user 12F the clipped image 110 clipped from the second user image 36S belonging to the second user 12S based on the related person information 32 of the first user 12F. As a result, it is possible to attract many users 12 to the service.

関連人物情報32の作成をユーザ12に頼った場合は、関連人物45の登録作業を面倒と感じて登録を怠るユーザ12がいないとも限らない。こうしたユーザ12に対しては、関連人物情報32に基づく切り出し画像110を提示することができないので、画像配信サーバ10によるサービスの提供者にとっては機会損失となる。しかし、本開示の技術では、ユーザ12に頼ることなく関連人物情報32を作成することができるため、機会損失を防ぐことができる。 If the related person information 32 is created by the user 12, there may be a user 12 who feels that the work of registering the related person 45 is troublesome and neglects the registration. Since the clipped image 110 based on the related personal information 32 cannot be presented to such a user 12, the provider of the service by the image distribution server 10 loses an opportunity. However, with the technology of the present disclosure, the related person information 32 can be created without relying on the user 12, so opportunity loss can be prevented.

情報作成部70は、2人以上の関連人物45を含む関連人物情報32を作成する。抽出部74は、2人以上の関連人物45のうちの少なくとも2人の顔90Rが含まれている対象画像91Rを抽出する。トリミング部76は、少なくとも2人の顔90Rが含まれている対象画像91Rから、少なくとも2人の顔90Rを含む領域を切り出す。このため、カップル、夫婦、家族、クラブ、サークル等を構成する第1ユーザ12Fに対して、例えば第1ユーザ12Fとその家族といった複数人の人物が含まれている、より付加価値の高い切り出し画像110Eを提示することができる。 The information creating unit 70 creates related person information 32 including two or more related persons 45 . The extraction unit 74 extracts the target image 91R including the faces 90R of at least two of the two or more related persons 45. FIG. The trimming unit 76 cuts out a region including at least two faces 90R from a target image 91R including at least two faces 90R. For this reason, for the first user 12F who constitutes a couple, a married couple, a family, a club, a circle, etc., a clipped image with a higher added value that includes a plurality of persons such as the first user 12F and his family, for example. 110E can be presented.

図26で示したように、配信制御部77は、お勧め画像情報59をユーザ端末11に配信することで、関連人物45の顔90Rが含まれている第2ユーザ画像36Sである対象画像91Rから切り出した切り出し画像110Eを、第1ユーザ12Fに対して提示する。このため、第1ユーザ12Fは、切り出し画像110Eを閲覧することができ、切り出し画像110Eを自分の個人フォルダ25に保存したり、写真プリントの注文をしたりして楽しむことができる。 As shown in FIG. 26, the distribution control unit 77 distributes the recommended image information 59 to the user terminal 11 so that the target image 91R, which is the second user image 36S including the face 90R of the related person 45, is displayed. A clipped image 110E clipped from is presented to the first user 12F. Therefore, the first user 12F can browse the clipped image 110E, save the clipped image 110E in his or her personal folder 25, or order a photo print to enjoy the clipped image 110E.

図25で示したように、トリミング部76は、顔配置マップ85を用いて、関連人物45の顔90Rを含む領域を切り出す。図15~図18で示したように、顔配置マップ85は、画像36内における顔90の配置位置を表す。そして、顔配置マップ85の複数の分割セル100のうち、顔90が配置されるべき分割セル100に対して相対的に高い評価値が割り当てられている。このため、適切な位置に顔90Rが配置された切り出し画像110Eを得ることができ、切り出し画像110Eの付加価値をさらに高めることができる。 As shown in FIG. 25, the trimming unit 76 cuts out a region including the face 90R of the related person 45 using the face arrangement map 85. FIG. As shown in FIGS. 15-18, face placement map 85 represents the placement position of face 90 in image 36 . A relatively high evaluation value is assigned to the divided cell 100 in which the face 90 is to be arranged among the plurality of divided cells 100 of the face arrangement map 85 . Therefore, a clipped image 110E in which the face 90R is arranged at an appropriate position can be obtained, and the added value of the clipped image 110E can be further increased.

図15~図18で示したように、顔配置マップ85は関連人物45の顔90Rの数毎に複数用意されている。トリミング部76は、複数の顔配置マップ85の中から、抽出部74で抽出した対象画像91Rに含まれる関連人物45の顔90Rの数に応じた1つの顔配置マップ85を選択する。このため、関連人物45の顔90Rの数に適合した顔配置マップ85を用いてトリミング処理を行うことができ、切り出し画像110Eの付加価値をさらに高めることができる。 As shown in FIGS. 15 to 18, a plurality of face layout maps 85 are prepared for each number of faces 90R of the related person 45. FIG. The trimming unit 76 selects one face layout map 85 from the plurality of face layout maps 85 according to the number of faces 90R of the related person 45 included in the target image 91R extracted by the extraction unit 74 . Therefore, the trimming process can be performed using the face arrangement map 85 that matches the number of faces 90R of the related person 45, and the added value of the clipped image 110E can be further increased.

図22および図24で示したように、トリミング部76は、対象画像91R内における顔配置マップ85の適用位置を変更しつつ、適用位置毎に評価値に応じたスコアを算出し、算出したスコアに基づいて関連人物45の顔90Rを含む領域を切り出す。このため、適切な位置に顔90Rが配置された切り出し画像110Eを得ることができ、切り出し画像110Eの付加価値をさらに高めることができる。 As shown in FIGS. 22 and 24, the trimming unit 76 calculates a score according to the evaluation value for each application position while changing the application position of the face arrangement map 85 in the target image 91R, and calculates the calculated score. A region including the face 90R of the related person 45 is cut out based on . Therefore, a clipped image 110E in which the face 90R is arranged at an appropriate position can be obtained, and the added value of the clipped image 110E can be further increased.

図6で示したように、関連人物45は、第1ユーザ12Fとの関連性が相対的に高いメイン人物45Mと、メイン人物45Mよりも第1ユーザ12Fとの関連性が低いサブ人物45Sとを含む。こうして関連人物45を振り分け、第1ユーザ12Fとの関連性の高低を示す関連ランクを付与することによって、図23で示したように、関連ランクを加味してスコアを算出することができる。 As shown in FIG. 6, the related persons 45 include a main person 45M who is relatively highly related to the first user 12F and a sub-person 45S who is less related to the first user 12F than the main person 45M. including. By distributing the related persons 45 in this way and assigning a related rank indicating the degree of relatedness to the first user 12F, it is possible to calculate a score taking into consideration the related rank as shown in FIG.

図10および図11で示したように、情報作成部70は、顔90が含まれている第1ユーザ画像36Fである顔あり画像91の枚数に基づいて、メイン人物45Mとサブ人物45Sとを振り分ける。また、情報作成部70は、予め定められた設定条件を満たす第1ユーザ画像36Fの枚数に対する、顔90が含まれている顔あり画像91の枚数の割合に基づいて、メイン人物45Mとサブ人物45Sとを振り分ける。このため、明確にメイン人物45Mとサブ人物45Sとを振り分けることができ、関連人物情報32の信頼性を高めることができる。 As shown in FIGS. 10 and 11, the information creation unit 70 selects the main person 45M and the sub-person 45S based on the number of face images 91, which are the first user images 36F including the face 90. Allocate. In addition, the information creating unit 70 determines the main person 45M and the sub-person based on the ratio of the number of face images 91 including the face 90 to the number of first user images 36F that satisfy a predetermined setting condition. 45S is distributed. Therefore, the main person 45M and the sub-person 45S can be clearly sorted, and the reliability of the related person information 32 can be improved.

図26で示したように、配信制御部77は、お勧め画像情報59をユーザ端末11に配信することで、切り出し画像110Eとスコアの組を、第1ユーザ12Fに対して提示する。このため、第1ユーザ12Fは、切り出し画像110Eがどの程度適切な位置に顔90Rが配置された画像であるのかを、スコアによって確認することができる。 As shown in FIG. 26, the distribution control unit 77 distributes the recommended image information 59 to the user terminal 11, thereby presenting the set of the clipped image 110E and the score to the first user 12F. Therefore, the first user 12F can confirm by the score how well the clipped image 110E is an image in which the face 90R is arranged at an appropriate position.

また、切り出し画像110Eが複数枚ある場合、複数枚の切り出し画像110Eは、スコアに応じて並べ替えられて、第1ユーザ12Fに対して提示される。このため、第1ユーザ12Fは、スコアが高い切り出し画像110Eを一目で把握することができる。 Also, when there are a plurality of clipped images 110E, the plurality of clipped images 110E are rearranged according to the scores and presented to the first user 12F. Therefore, the first user 12F can grasp the clipped image 110E with a high score at a glance.

なお、図10および図11で示した、第1ユーザ画像36Fで認識された人物に対して関連ランクを付与するための選定条件96は、認識した人物毎の枚数に関連する条件、および、認識した人物毎の第1ユーザ画像36Fにおける割合に関連する条件のうちの、少なくとも一方に基づくものであってもよい。また、関連ランクに応じて、枚数に関連する条件、または割合に関連する条件を変えてもよい。例えば、メイン人物45Mの選定条件96である第1選定条件93を枚数に関連する条件とし、サブ人物45Sの選定条件96である第2選定条件94を割合に関連する条件としてもよい。 10 and 11, the selection condition 96 for assigning the related rank to the person recognized in the first user image 36F includes the condition related to the number of images for each recognized person and the recognition It may be based on at least one of the conditions related to the proportion of each person in the first user image 36F. Also, the condition related to the number of sheets or the condition related to the ratio may be changed according to the related rank. For example, the first selection condition 93, which is the selection condition 96 for the main person 45M, may be a condition related to the number of images, and the second selection condition 94, which is the selection condition 96 for the sub person 45S, may be a condition related to the ratio.

なお、メイン人物45Mは、顔90を含む顔あり画像91の枚数が最も多い人物に限らない。例えば、顔90を含む顔あり画像91の枚数が予め定められた第3閾値以上(第3閾値≦枚数)の人物を、メイン人物45Mとして選定してもよい。あるいは、第1割合および第2割合といった割合が予め定められた第4閾値以上(第4閾値≦割合)の人物を、メイン人物45Mとして選定してもよい。これらの場合は、メイン人物45Mとして選定される人物が複数人となることもある。 Note that the main person 45M is not limited to the person with the largest number of face images 91 including the face 90 . For example, a person whose number of face images 91 including the face 90 is equal to or greater than a predetermined third threshold (third threshold≦number of images) may be selected as the main person 45M. Alternatively, a person whose ratio of the first ratio and the second ratio is equal to or higher than a predetermined fourth threshold (fourth threshold≦ratio) may be selected as the main person 45M. In these cases, a plurality of persons may be selected as the main person 45M.

サブ人物45Sも同様に、上記第1実施形態で例示した第2選定条件94にしたがって選定した人物に限らない。例えば、顔90を含む顔あり画像91の枚数が、第3閾値未満、かつ予め定められた第5閾値以上(第5閾値≦枚数<第3閾値)の人物を、サブ人物45Sとして選定してもよい。あるいは、第1割合および第2割合といった割合が、第4閾値未満、かつ予め定められた第6閾値以上(第6閾値≦割合<第4閾値)の人物を、サブ人物45Sとして選定してもよい。 Similarly, the sub-person 45S is not limited to the person selected according to the second selection condition 94 illustrated in the first embodiment. For example, a person whose number of face images 91 including the face 90 is less than the third threshold and equal to or greater than a predetermined fifth threshold (fifth threshold≦number of images<third threshold) is selected as the sub-person 45S. good too. Alternatively, a person whose ratio of the first ratio and the second ratio is less than the fourth threshold and equal to or greater than a predetermined sixth threshold (sixth threshold≦ratio<fourth threshold) may be selected as the sub-person 45S. good.

また、割合の算出の元となる「予め定められた設定条件を満たす第1ユーザ画像」は、例示のステップST1003で抽出した顔あり画像91、メイン人物45Mの顔90Rが含まれている顔あり画像91に限らない。例えば全ての第1ユーザ画像36Fを「予め定められた設定条件を満たす第1ユーザ画像」としてもよい。また、第1ユーザ12Fの顔90が含まれる顔あり画像91を「予め定められた設定条件を満たす第1ユーザ画像」としてもよい。こうすることで、第1ユーザ12Fと同じ画像36に収まっていて、親密度が高いと考えられるユーザ12の顔90に基づいて、関連人物情報32を作成することができる。 Further, the "first user image that satisfies a predetermined setting condition", which is the basis for calculating the ratio, is the image with face 91 extracted in step ST1003 of the example, and the image with face that includes the face 90R of the main person 45M. It is not limited to the image 91 . For example, all the first user images 36F may be set as "first user images that satisfy predetermined setting conditions". Also, the image with face 91 including the face 90 of the first user 12F may be set as the "first user image that satisfies a predetermined setting condition". By doing so, the related person information 32 can be created based on the face 90 of the user 12 who is included in the same image 36 as the first user 12F and who is considered to have a high degree of intimacy.

第1ユーザ12Fとの関連性の高低を示す関連ランクを付与する態様としては、上記第1実施形態のメイン人物45Mとサブ人物45Sに振り分ける態様に限らない。例えば、顔90を含む顔あり画像91の枚数が最も多い人物に関連ランク1を付与し、次に多い人物に関連ランク2を付与し、3番目に多い人物に関連ランク3を付与する等、顔90を含む顔あり画像91の枚数順に関連ランクを付与してもよい。同様に、第1割合等の割合順に関連ランクを付与してもよい。 The aspect of assigning the relation rank indicating the degree of relevance to the first user 12F is not limited to the aspect of assigning to the main person 45M and the sub-person 45S of the first embodiment. For example, a person with the largest number of face images 91 including a face 90 is given a relation rank of 1, a person with the next largest number of images is given a relation rank of 2, and a person with the third largest number of images is given a relation rank of 3, and so on. A relation rank may be given in order of the number of face images 91 including the face 90 . Similarly, a related rank may be assigned in order of percentage, such as the first percentage.

図32は、上記のようにして関連ランクを付与した場合に、対象画像91Rの画素値を設定値に置換する例を示す。対象画像91Rには、関連ランク1の関連人物45_1、関連ランク2の関連人物45_2、関連ランク3の関連人物45_3のそれぞれの顔90Rが含まれている。また、表135に示すように、関連ランク1の関連人物45_1の顔90Rの領域の設定値として1、関連ランク2の関連人物45_2の顔90Rの領域の設定値として0.8、関連ランク3の関連人物45_3の顔90Rの領域の設定値として0.6、・・・がそれぞれ設定されている。また、他の領域の設定値として0が設定されている。この場合、トリミング部76は、関連人物45_1の顔90Rの領域の画素値を1、関連人物45_2の顔90Rの領域の画素値を0.8、関連人物45_3の顔90Rの領域の画素値を0.6に置換する。また、トリミング部76は、他の領域の画素値を0に置換する。なお、関連人物情報32の関連ランクの数は、1つでもよいし、3つ以上でもよい。言い換えると、関連ランクに対応する設定値の数も1つでもよいし、3つ以上でもよい。同様に、図10および図11で示した、第1ユーザ画像36Fで認識された人物に対して関連ランクを付与するための選定条件96の数も1つでもよいし、3つ以上でもよい。 FIG. 32 shows an example of replacing the pixel values of the target image 91R with the set values when the relation rank is assigned as described above. The target image 91R includes the faces 90R of the related person 45_1 with the related rank 1, the related person 45_2 with the related rank 2, and the related person 45_3 with the related rank 3. Further, as shown in Table 135, the set value for the region of the face 90R of the related person 45_1 with the related rank 1 is 1, the set value for the region of the face 90R of the related person 45_2 with the related rank 2 is 0.8, and the related rank 3. are set to 0.6, . In addition, 0 is set as the set value for other areas. In this case, the trimming unit 76 sets the pixel value of the area of the face 90R of the related person 45_1 to 1, the pixel value of the area of the face 90R of the related person 45_2 to 0.8, and the pixel value of the area of the face 90R of the related person 45_3 to Substitute 0.6. Also, the trimming unit 76 replaces the pixel values of other regions with zero. Note that the number of related ranks in the related person information 32 may be one, or three or more. In other words, the number of set values corresponding to the related rank may be one, or three or more. Similarly, the number of selection conditions 96 for assigning a related rank to the person recognized in the first user image 36F shown in FIGS. 10 and 11 may be one, or three or more.

上記第1実施形態では、対象画像91Rの関連人物45の顔90Rの領域の画素値を正の設定値に置換し、他の領域の画素値を0に置換しているが、これに限らない。関連人物45の顔90Rの領域の中心の領域の画素値のみを正の設定値に置換し、他の領域の画素値を0に置換してもよい。中心の領域は、例えば鼻と眉間を含む楕円形状の領域である。 In the first embodiment, the pixel values of the area of the face 90R of the related person 45 in the target image 91R are replaced with positive set values, and the pixel values of other areas are replaced with 0, but the present invention is not limited to this. . Only the pixel values in the center area of the face 90R of the related person 45 may be replaced with positive set values, and the pixel values in other areas may be replaced with zero. The central area is an elliptical area including, for example, the nose and the glabella.

図33に示すように、関連ランク1の関連人物45_1、関連ランク2の関連人物45_2、・・・というように、関連人物45毎に、スコアに応じて切り出し画像110Eに表示順を付してもよい。 As shown in FIG. 33, the clipped image 110E is assigned a display order according to the score for each related person 45, such as a related person 45_1 with a related rank of 1, a related person 45_2 with a related rank of 2, and so on. good too.

上記第1実施形態では、最低解像度に合わせて顔配置マップ85を整形してから、徐々に顔配置マップ85を拡大しているが、これに限らない。反対に、対象画像91Rに合わせて顔配置マップ85を整形してから、徐々に顔配置マップ85を最低解像度に向けて縮小してもよい。また、対象画像91Rを切り出して切り出し画像110とし、切り出し画像110を元の対象画像91Rのサイズに拡大して切り出し画像110Eとしているが、これに限らない。元の対象画像91Rのサイズではなく、切り出し画像110を予め定められたサイズとしてもよい。予め定められたサイズとは、例えば、写真プリントに応じたサイズである。 In the first embodiment described above, the face layout map 85 is shaped to match the lowest resolution and then gradually enlarged, but the present invention is not limited to this. Conversely, the face arrangement map 85 may be shaped according to the target image 91R and then gradually reduced toward the lowest resolution. In addition, the target image 91R is cut out to form the cutout image 110, and the cutout image 110 is enlarged to the size of the original target image 91R to form the cutout image 110E, but the present invention is not limited to this. The clipped image 110 may have a predetermined size instead of the size of the original target image 91R. A predetermined size is, for example, a size corresponding to a photo print.

なお、関連人物情報32の作成タイミングは、上記で例示したタイミングに限らない。お勧め画像配信要求58を要求受付部71で受け付けた場合に、関連人物情報32を作成してもよい。 Note that the timing of creating the related person information 32 is not limited to the timing illustrated above. The related person information 32 may be created when the recommended image distribution request 58 is received by the request receiving unit 71 .

[第2実施形態]
上記第1実施形態では、情報作成処理において、個人フォルダ25に含まれる全ての第1ユーザ画像36Fを対象として関連人物情報32を作成しているが、これに限らない。図34および図36に示す第2実施形態のように、関連人物情報32の作成に用いる第1ユーザ画像36Fを、特定の画像に絞ってもよい。
[Second embodiment]
In the first embodiment described above, in the information creation process, the related person information 32 is created for all the first user images 36F included in the personal folder 25, but the invention is not limited to this. As in the second embodiment shown in FIGS. 34 and 36, the first user images 36F used to create the related person information 32 may be narrowed down to specific images.

図34は、特定のイベントに関する第1ユーザ画像36Fのみを元に、関連人物情報32を作成する例である。図9および図10で示した、上記第1実施形態の情報作成処理と異なる点について重点的に説明する。この場合の情報作成処理(ステップST100B)は、第1画像取得要求80の送信(ステップST1001)、および個人フォルダ25内の画像ファイル27の取得(ステップST1002)までは、上記第1実施形態の情報作成処理(ステップST100A)と同じである。この場合においては、上記第1実施形態の情報作成処理(ステップST100A)の、画像ファイル27に含まれる第1ユーザ画像36Fから顔あり画像91を抽出する処理(ステップST1003)に代えて、個人フォルダ25内の画像ファイル27の取得後、取得した画像ファイル27に含まれる第1ユーザ画像36Fから、特定のイベントに関するイベント画像140を抽出し(ステップST1010)、イベント画像140から顔あり画像91を抽出する(ステップST1011)。そして、イベント画像140から抽出された顔あり画像91に含まれる顔の人物認識を行う(ステップ1004)。ステップ1004以降の手順は、上記第1実施形態の情報作成処理(ステップST100A)と同様であるため、説明を省略する。 FIG. 34 is an example of creating the related person information 32 based only on the first user image 36F related to a specific event. Differences from the information creation process of the first embodiment shown in FIGS. 9 and 10 will be mainly described. The information creation process (step ST100B) in this case is performed until the transmission of the first image acquisition request 80 (step ST1001) and the acquisition of the image file 27 in the personal folder 25 (step ST1002). This is the same as the creation process (step ST100A). In this case, instead of extracting the image with face 91 from the first user image 36F included in the image file 27 (step ST1003) in the information creation process (step ST100A) of the first embodiment, the personal folder 25, the event image 140 related to the specific event is extracted from the first user image 36F included in the acquired image file 27 (step ST1010), and the image with face 91 is extracted from the event image 140. (step ST1011). Then, person recognition of the face included in the image with face 91 extracted from the event image 140 is performed (step 1004). Since the procedure after step 1004 is the same as the information creation process (step ST100A) of the first embodiment, description thereof is omitted.

図34では、画像情報35のタグに登録された単語から、結婚式、誕生日、クリスマス等の特定のイベントに関するイベント画像140を抽出する例を示している。イベント画像140としては、人物の顔90が含まれていないもの(例えばタグ「クリスマス」のケーキが写っている写真)も含まれる。情報作成部70は、こうしたイベント画像140の中から、顔90が含まれる顔あり画像91を抽出する。 FIG. 34 shows an example of extracting event images 140 related to specific events such as weddings, birthdays, and Christmas from words registered in tags of image information 35 . Event images 140 include those that do not include a person's face 90 (for example, a photo showing a cake tagged "Christmas"). The information creating section 70 extracts the face-containing image 91 including the face 90 from the event image 140 .

このように、情報作成部70は、特定のイベントに関する第1ユーザ画像36Fであるイベント画像140のみを元に、関連人物情報32を作成する。特定のイベントには、第1ユーザ12Fとの関連性がより高い人物が参加する。このため、第1ユーザ画像36Fには度々写っているが、実際は第1ユーザ12Fとの関連性が比較的低い人物を、関連人物45として誤認識してしまう事態を避けることができる。関連人物情報32の信頼性を高めることができる。また、全ての第1ユーザ画像36Fを対象とする場合よりも、関連人物情報32の作成に掛かる負荷を減らすことができる。 In this way, the information creation unit 70 creates the related person information 32 based only on the event image 140, which is the first user image 36F related to the specific event. A person who has a higher relationship with the first user 12F participates in the specific event. Therefore, it is possible to avoid a situation in which a person who is frequently shown in the first user image 36F but who actually has relatively low relevance to the first user 12F is erroneously recognized as the related person 45. FIG. The reliability of the related person information 32 can be enhanced. Moreover, the load of creating the related person information 32 can be reduced as compared with the case where all the first user images 36F are targeted.

なお、特定のイベントは、例示の結婚式、誕生日、クリスマス等に限らない。葬式、地元の祭り、旅行、ひな祭り、端午の節句等でもよい。誕生日、クリスマス、ひな祭り、端午の節句といったイベントに関するイベント画像140は、タグに登録された単語ではなく撮影日時から抽出してもよい。また、画像解析によって第1ユーザ画像36Fに写されているイベントを推定し、推定したイベントが特定のイベントであった場合は、当該第1ユーザ画像36Fをイベント画像140として抽出してもよい。 Note that specific events are not limited to the exemplary weddings, birthdays, Christmas, and the like. Funerals, local festivals, trips, Hinamatsuri, Boy's Festival, etc. are also acceptable. Event images 140 related to events such as birthdays, Christmas, Hinamatsuri, and Boy's Festival may be extracted from the shooting date and time instead of the words registered in the tags. Further, the event shown in the first user image 36F may be estimated by image analysis, and if the estimated event is a specific event, the first user image 36F may be extracted as the event image 140. FIG.

ステップST1010とステップST1011の手順を逆にしてもよい。すなわち、第1ユーザ画像36Fから顔あり画像91を抽出した後、顔あり画像91からイベント画像140を抽出してもよい。 The procedures of steps ST1010 and ST1011 may be reversed. That is, the event image 140 may be extracted from the face-containing image 91 after extracting the face-containing image 91 from the first user image 36F.

図35は、特定の期間に関する第1ユーザ画像36Fのみを元に、関連人物情報32を作成する例である。図9および図10で示した、上記第1実施形態の情報作成処理と異なる点について重点的に説明する。この場合の情報作成処理(ステップST100C)は、前述の情報作成処理(ステップST100B)と同じく、第1画像取得要求80の送信(ステップST1001)、および個人フォルダ25内の画像ファイル27の取得(ステップST1002)までは、上記第1実施形態の情報作成処理(ステップST100A)と同じである。この場合においては、上記第1実施形態の情報作成処理(ステップST100A)の、画像ファイル27に含まれる第1ユーザ画像36Fから顔あり画像91を抽出する処理(ステップST1003)に代えて、個人フォルダ25内の画像ファイル27の取得後、取得した画像ファイル27に含まれる第1ユーザ画像36Fから特定の期間に関する期間画像142を抽出し(ステップST1020)、期間画像142から顔あり画像91を抽出する(ステップST1021)。そして、期間画像142から抽出された顔あり画像91に含まれる顔の人物認識を行う(ステップ1004)。ステップ1004以降の手順は、上記第1実施形態の情報作成処理(ステップST100A)と同様であるため、説明を省略する。 FIG. 35 is an example of creating the related person information 32 based only on the first user image 36F relating to a specific period. Differences from the information creation process of the first embodiment shown in FIGS. 9 and 10 will be mainly described. The information creation process (step ST100C) in this case includes transmission of the first image acquisition request 80 (step ST1001) and acquisition of the image file 27 in the personal folder 25 (step ST1002) is the same as the information creation process (step ST100A) of the first embodiment. In this case, instead of extracting the image with face 91 from the first user image 36F included in the image file 27 (step ST1003) in the information creation process (step ST100A) of the first embodiment, the personal folder After acquiring the image file 27 in 25, the period image 142 relating to the specific period is extracted from the first user image 36F included in the acquired image file 27 (step ST1020), and the image with face 91 is extracted from the period image 142. (Step ST1021). Then, person recognition of the face included in the image with face 91 extracted from the period image 142 is performed (step 1004). Since the procedure after step 1004 is the same as the information creation process (step ST100A) of the first embodiment, description thereof is omitted.

図35では、画像情報35の撮影日時が2019年の第1ユーザ画像36Fを、期間画像142として抽出する例を示している。情報作成部70は、こうした期間画像142の中から、顔90が含まれる顔あり画像91を抽出する。 FIG. 35 shows an example in which the first user image 36</b>F whose photographing date and time of the image information 35 is 2019 is extracted as the period image 142 . The information creating unit 70 extracts the face-containing image 91 including the face 90 from the period image 142 .

このように、情報作成部70は、特定の期間に関する第1ユーザ画像36Fである期間画像142のみを元に、関連人物情報32を作成する。このため、日々変化する第1ユーザ12Fの人間関係を、関連人物情報32に反映させることができる。また、イベント画像140を対象とする場合と同じく、全ての第1ユーザ画像36Fを対象とする場合よりも、関連人物情報32の作成に掛かる負荷を減らすことができる。 In this way, the information creating unit 70 creates the related person information 32 based only on the period image 142, which is the first user image 36F related to the specific period. Therefore, the personal relationship of the first user 12</b>F, which changes daily, can be reflected in the related person information 32 . Moreover, as in the case of targeting the event image 140, the load of creating the related person information 32 can be reduced more than the case of targeting all the first user images 36F.

なお、特定の期間は、例示の1年間に限らない。5年間、10年間等でもよい。また、スキャナ16で読み取った古い写真等、撮影日時が不明な第1ユーザ画像36Fに対して画像解析を施すことで撮影日時を推定し、推定した撮影日時を元に期間画像142を抽出してもよい。 In addition, the specific period is not limited to the illustrated one year. It may be five years, ten years, or the like. In addition, by performing image analysis on the first user image 36F whose shooting date and time is unknown, such as an old photograph read by the scanner 16, the shooting date and time are estimated, and the period image 142 is extracted based on the estimated shooting date and time. good too.

ステップST1020とステップST1021の手順を逆にしてもよい。すなわち、第1ユーザ画像36Fから顔あり画像91を抽出した後、顔あり画像91から期間画像142を抽出してもよい。 You may reverse the procedure of step ST1020 and step ST1021. That is, the period image 142 may be extracted from the face-containing image 91 after extracting the face-containing image 91 from the first user image 36F.

第1割合および第2割合といった割合の算出に用いる「予め定められた設定条件を満たす第1ユーザ画像の枚数」を、イベント画像140の全枚数、または期間画像142の全枚数としてもよい。 The total number of event images 140 or the total number of period images 142 may be used as the “number of first user images satisfying a predetermined setting condition” used to calculate the ratios such as the first ratio and the second ratio.

例えば直近5年間の特定のイベントに関する第1ユーザ画像36Fを元に関連人物情報32を作成する等、図34に示す態様と、図35に示す態様とを、複合して実施してもよい。 For example, the aspect shown in FIG. 34 and the aspect shown in FIG. 35 may be combined, such as creating the related person information 32 based on the first user image 36F related to a specific event in the last five years.

図36に示すように、特定の期間毎に関連人物情報32を作成し、抽出部74において第2ユーザ画像36Sから対象画像91Rを抽出する場合に、関連人物情報32を使い分けてもよい。図36は、年度毎に関連人物情報32を作成した例を示す。この場合、例えば2019年度の関連人物情報32は、抽出部74において2019年度の第2ユーザ画像36Sから対象画像91Rを抽出する場合に用いる。こうすれば、より第1ユーザ12Fの人間関係を反映させた対象画像91Rを抽出することができ、結果として切り出し画像110Eの付加価値をより高めることができる。 As shown in FIG. 36, when the related person information 32 is created for each specific period and the extraction unit 74 extracts the target image 91R from the second user image 36S, the related person information 32 may be used differently. FIG. 36 shows an example of creating related person information 32 for each year. In this case, for example, the related person information 32 of 2019 is used when the extraction unit 74 extracts the target image 91R from the second user image 36S of 2019. By doing so, it is possible to extract the target image 91R that reflects the human relationship of the first user 12F more, and as a result, it is possible to further increase the added value of the clipped image 110E.

なお、上記第1実施形態の、全ての第1ユーザ画像36Fを対象として関連人物情報32を作成する態様において、以下のようにしてもよい。すなわち、第1ユーザ画像36Fから抽出した顔あり画像91の中から、さらにイベント画像140を抽出する。そして、イベント画像140については、顔90を認識した人物毎に、顔90を含む顔あり画像91の枚数を算出するステップST1005において、枚数を1枚ではなく例えば5枚と算出する。あるいは、第1ユーザ画像36Fから抽出した顔あり画像91の中から期間画像142を抽出し、期間画像142については、ステップST1005において例えば5枚と算出する。第1ユーザ画像36Fから抽出した顔あり画像91の中から、イベント画像140および期間画像142を抽出し、ステップST1005において算出するイベント画像140および期間画像142の枚数を1枚より多くしてもよい。こうすれば、全ての第1ユーザ画像36Fを対象としつつも、より信頼性の高い関連人物情報32を作成することができる。 In addition, in the aspect of creating the related person information 32 for all the first user images 36F in the first embodiment, the following may be performed. That is, the event image 140 is further extracted from the image with face 91 extracted from the first user image 36F. As for the event image 140, in step ST1005 for calculating the number of face images 91 including the face 90 for each person whose face 90 has been recognized, the number is calculated as, for example, five instead of one. Alternatively, the period images 142 are extracted from the face images 91 extracted from the first user image 36F, and the period images 142 are calculated as, for example, five in step ST1005. Event images 140 and period images 142 may be extracted from face images 91 extracted from first user image 36F, and the number of event images 140 and period images 142 calculated in step ST1005 may be greater than one. . In this way, it is possible to create more reliable related person information 32 while targeting all first user images 36F.

[第3実施形態]
図37および図38に示す第3実施形態では、関連人物45以外の人物の顔90に係るスコアを、関連人物45の顔90Rに係るスコアの正負とは逆の値で算出する。
[Third embodiment]
In the third embodiment shown in FIGS. 37 and 38, the score for the face 90 of the person other than the related person 45 is calculated as the positive/negative value of the score for the face 90R of the related person 45 .

図37は、第3実施形態において、対象画像91Rの画素値を設定値に置換する様子を示す。対象画像91Rには、計5人の人物の顔90が含まれている。そして、5人の人物のうちの中央に2人並んだ人物が関連人物45で、2人の関連人物45の顔90Rの上部中央に、関連人物45以外の人物の顔90が写っている。表145に示すように、設定値は、関連人物45の顔90Rの領域には1が設定されているのに対して、関連人物45以外の人物の顔90の領域には-1が設定されている。また、他の領域には0が設定されている。この場合、トリミング部76は、関連人物45の顔90Rの領域の画素値を1、関連人物45以外の人物の顔90の領域の画素値を-1、他の領域の画素値を0にそれぞれ置換する。関連人物45以外の人物の顔90の領域の画素値を-1に置換したことで、関連人物45以外の人物の顔90に係るスコアは、関連人物45の顔90Rに係るスコアとは正負が逆の、負の値で算出される。 FIG. 37 shows how the pixel values of the target image 91R are replaced with the set values in the third embodiment. The target image 91R includes faces 90 of a total of five persons. Among the five persons, the two persons in the middle are the related persons 45, and the faces 90 of the persons other than the related persons 45 are shown in the upper center of the faces 90R of the two related persons 45. As shown in Table 145, the setting value is set to 1 for the area of the face 90R of the related person 45, while -1 is set to the area of the face 90 of the person other than the related person 45. ing. 0 is set in other areas. In this case, the trimming unit 76 sets the pixel value of the area of the face 90R of the related person 45 to 1, the pixel value of the area of the face 90 of the person other than the related person 45 to -1, and the pixel value of the other areas to 0. Replace. By replacing the pixel value of the area of the face 90 of the person other than the related person 45 with -1, the score of the face 90 of the person other than the related person 45 is positive or negative with the score of the face 90R of the related person 45. Calculated as the opposite, negative value.

このように、関連人物45以外の人物の顔90に係るスコアを負の値で算出することで、以下に説明する効果を奏する。まず、上記第1実施形態のように、関連人物45以外の人物の顔90に係るスコアを負の値で算出しない場合を考える。この場合、図37で示した対象画像91Rのような、関連人物45の顔90Rと、関連人物45以外の人物の顔90との距離が相対的に近い構図では、図38Aに示すように、顔配置マップ85aにしたがって切り出した切り出し画像110Eに、関連人物45以外の人物の顔90も一部写り込んでしまい、見栄えがよくない。 By calculating the score of the face 90 of the person other than the related person 45 as a negative value in this way, the following effects can be obtained. First, let us consider a case where the score for the face 90 of a person other than the related person 45 is not calculated as a negative value, as in the first embodiment. In this case, in a composition where the distance between the face 90R of the related person 45 and the face 90 of the person other than the related person 45 is relatively close, such as the target image 91R shown in FIG. 37, as shown in FIG. 38A, A clipped image 110E clipped according to the face layout map 85a includes a part of the face 90 of a person other than the related person 45, which does not look good.

対して、関連人物45以外の人物の顔90に係るスコアを負の値で算出すれば、関連人物45以外の人物の顔90を含む適用位置におけるスコアが、関連人物45以外の人物の顔90を含まない適用位置におけるスコアよりも低く算出される。このため、図38Bに示すように、関連人物45以外の人物の顔90を含まない領域を切り出す確率が高くなる。したがって、切り出し画像110Eの見栄えをよくすることができ、切り出し画像110Eの付加価値をより高めることができる。 On the other hand, if the score for the face 90 of the person other than the related person 45 is calculated as a negative value, the score at the application position including the face 90 of the person other than the related person 45 is the face 90 of the person other than the related person 45. is calculated to be lower than the score at the application position that does not include Therefore, as shown in FIG. 38B, the probability of cutting out an area that does not include the face 90 of a person other than the related person 45 increases. Therefore, the appearance of the cutout image 110E can be improved, and the added value of the cutout image 110E can be further increased.

なお、上記とは逆に、関連人物45の顔90Rの領域に負の値の設定値を設定する等して、関連人物45の顔90Rに係るスコアを負の値で算出する場合、トリミング部76は、関連人物45以外の人物の顔90の領域に正の値の設定値を設定する等して、関連人物45以外の人物の顔90に係るスコアを正の値で算出する。また、関連人物45の顔90Rに係るスコアを負の値で算出する場合、トリミング部76は、スコアが最低点、もしくは、予め定められた設定値以下の適用位置に配置された顔配置マップ85で、切り出し画像110を生成してもよい。 Note that, contrary to the above, when the score for the face 90R of the related person 45 is calculated as a negative value by, for example, setting a negative set value in the region of the face 90R of the related person 45, the trimming unit 76 calculates the score of the face 90 of the person other than the related person 45 as a positive value by, for example, setting a positive set value in the area of the face 90 of the person other than the related person 45 . Further, when calculating the score of the face 90R of the related person 45 as a negative value, the trimming unit 76 selects the face layout map 85 arranged at the application position where the score is the lowest point or equal to or less than a predetermined set value. , the clipped image 110 may be generated.

切り出し画像110Eの見栄えをよくする方法としては、以下に示す方法を採用してもよい。すなわち、関連人物45の顔90Rと、関連人物45以外の人物の顔90との距離が、予め定められた第7閾値未満であった場合は、関連人物45の顔90Rの数と、関連人物45以外の人物の顔90の数を合計した数に応じて、使用する顔配置マップ85を選択する。そして、関連人物45以外の人物の顔90の領域に対して、関連人物45の顔90Rと同等の設定値を設定する。 As a method for improving the appearance of the clipped image 110E, the following method may be adopted. That is, when the distance between the face 90R of the related person 45 and the face 90 of the person other than the related person 45 is less than the predetermined seventh threshold, the number of faces 90R of the related person 45 and the number of related person The face arrangement map 85 to be used is selected according to the total number of faces 90 of persons other than 45. Then, a setting value equivalent to that of the face 90R of the related person 45 is set for the area of the face 90 of the person other than the related person 45. FIG.

図39は、2人の関連人物45の顔90R1、90R2と、関連人物45以外の1人の人物の顔90との距離が第7閾値pL未満であった場合を例示している。2人の関連人物45の顔90R1、90R2と、関連人物45以外の1人の人物の顔90との距離とは、例えば、関連人物45の顔90R1、90R2の中心をそれぞれc1、c2として、関連人物45以外の1人の人物の顔90の中心をc3とした場合、c1とc3を結ぶ線分L1の長さと、c2とc3を結ぶ線分L2の長さである。トリミング部76は、線分L1と線分L2の少なくとも一方の長さが第7閾値pL未満である場合、関連事物45以外の1人の人物を、以下に説明するように関連人物45と同様に扱ってもよい。 FIG. 39 illustrates a case where the distance between the faces 90R1 and 90R2 of two related persons 45 and the face 90 of one person other than the related person 45 is less than the seventh threshold pL. The distance between the faces 90R1 and 90R2 of the two related persons 45 and the face 90 of one person other than the related person 45 is, for example, c1 and c2 as the centers of the faces 90R1 and 90R2 of the related person 45. Assuming that the center of the face 90 of one person other than the related person 45 is c3, the length of the line segment L1 connecting c1 and c3 and the length of the line segment L2 connecting c2 and c3 are provided. If the length of at least one of the line segment L1 and the line segment L2 is less than the seventh threshold pL, the trimming unit 76 trims the one person other than the related matter 45 to be similar to the related person 45 as described below. can be treated as

トリミング部76は、関連人物45の顔90Rの数によれば第1顔配置マップ85aを選択すべきところ、関連人物45の顔90Rの数と、関連人物45以外の人物の顔90の数を合計した数である3つに応じて、第2顔配置マップ85bを選択する。こうすれば、関連人物45以外の人物の顔90の全体を、図38Aで示したように一部切られることなく、切り出し画像110E内に収めることができる。なお、図39において、関連人物45と関連人物45以外の人物との距離を、顔90の中心同士を結ぶ線分の長さとしたが、これに限らない。例えば、顔90の重心同士を結ぶ線分の長さ、顔90に含まれる目、鼻等の特定部位同士を結ぶ線分の長さ、顔90の輪郭同士を結ぶ最短の線分の長さの少なくともいずれかとしてもよい。 Although the trimming unit 76 should select the first face arrangement map 85a according to the number of faces 90R of the related person 45, the number of faces 90R of the related person 45 and the number of faces 90 of persons other than the related person 45 are The second face layout map 85b is selected according to the total number of three. In this way, the entire face 90 of the person other than the related person 45 can be included in the clipped image 110E without being partially cut off as shown in FIG. 38A. In FIG. 39, the distance between the related person 45 and the person other than the related person 45 is the length of the line segment connecting the centers of the faces 90, but it is not limited to this. For example, the length of a line segment connecting the centers of gravity of the face 90, the length of a line segment connecting specific parts such as eyes and nose included in the face 90, and the length of the shortest line segment connecting the contours of the face 90. It may be at least one of

図37および図38Bで示した態様、図38Aで示した態様、および図39で示した態様を、ユーザ12が選択可能に構成してもよい。また、これら3つの態様でそれぞれ切り出し画像110Eを生成し、3つの切り出し画像110Eをユーザ12に提示してもよい。 37 and 38B, the aspect shown in FIG. 38A, and the aspect shown in FIG. 39 may be configured so that the user 12 can select them. Alternatively, the clipped image 110E may be generated in each of these three modes, and the three clipped images 110E may be presented to the user 12. FIG.

[第4実施形態]
上記第1実施形態では、式(1)~式(8)に基づいて予め作成された顔配置マップ85を用いているが、これに限らない。図40~図46に示す第4実施形態のように、顔あり画像91を元に顔配置マップ85を作成してもよい。
[Fourth embodiment]
In the above-described first embodiment, the face arrangement map 85 created in advance based on the formulas (1) to (8) is used, but the present invention is not limited to this. As in the fourth embodiment shown in FIGS. 40 to 46, a face layout map 85 may be created based on an image 91 with a face.

図40において、第4実施形態では、画像配信サーバ10のCPU52Aは、上記第1実施形態の各部に加えて、マップ作成部150として機能する。また、画像配信サーバ10には、画像DBサーバ20およびユーザ情報DBサーバ21に加えて、マップDBサーバ151が接続されている。なお、マップDBサーバ151は、画像DBサーバ20およびユーザ情報DBサーバ21の少なくとも一方と同一のDBサーバとして構成されてもよいし、画像配信サーバ10に含まれていてもよい。 In FIG. 40, in the fourth embodiment, the CPU 52A of the image distribution server 10 functions as a map creation section 150 in addition to each section of the first embodiment. In addition to the image DB server 20 and the user information DB server 21 , a map DB server 151 is connected to the image distribution server 10 . Note that the map DB server 151 may be configured as the same DB server as at least one of the image DB server 20 and the user information DB server 21 , or may be included in the image distribution server 10 .

マップ作成部150は、ユーザ12毎に顔配置マップ85を作成する。マップ作成部150は、作成した顔配置マップ85をマップDBサーバ151に送信する。マップDBサーバ151はマップDB152を有する。マップDBサーバ151は、マップ作成部150からの顔配置マップ85をマップDB152に蓄積して管理する。マップDB152は、ユーザIDに関連付けて顔配置マップ85を記憶する。 The map creator 150 creates a face layout map 85 for each user 12 . The map creating unit 150 transmits the created face layout map 85 to the map DB server 151 . A map DB server 151 has a map DB 152 . The map DB server 151 stores and manages the face layout map 85 from the map creating unit 150 in the map DB 152 . The map DB 152 stores the face layout map 85 in association with the user ID.

マップ作成部150は、第3画像取得要求153を画像DBサーバ20に送信する。第3画像取得要求153は、顔配置マップ85が作成されていない第1ユーザ12Fの個人フォルダ25内の画像ファイル27の取得を要求するものである。また、第3画像取得要求153は、前回顔配置マップ85を作成してから、予め定められた時間(以下、第2設定時間という)が経過した第1ユーザ12Fの個人フォルダ25内の画像ファイル27の取得を要求するものである。第3画像取得要求153は、顔配置マップ85が作成されていない第1ユーザ12FのユーザID、または前回顔配置マップ85を作成してから第2設定時間が経過した第1ユーザ12FのユーザIDを含む。第3画像取得要求153によって、顔配置マップ85が作成されていない第1ユーザ12Fの個人フォルダ25内の画像ファイル27の取得を要求するタイミングは、例えば、当該第1ユーザ12Fの個人フォルダ25内に格納されている画像ファイル27が、予め定められた枚数以上となったタイミングである。あるいは、当該第1ユーザ12Fが、ユーザ端末11に画像閲覧AP115をインストールしたタイミングでもよい。なお、第2設定時間は、例えば1ケ月、半年、1年等である。予め定められた第2枚数の画像ファイル27を新たに送信した場合に、第3画像取得要求153を送信してもよい。 The map creation unit 150 transmits a third image acquisition request 153 to the image DB server 20 . The third image acquisition request 153 requests acquisition of the image file 27 in the personal folder 25 of the first user 12F for which the face layout map 85 has not been created. The third image acquisition request 153 is an image file in the personal folder 25 of the first user 12F after a predetermined time (hereinafter referred to as a second set time) has passed since the face arrangement map 85 was created last time. 27 is requested. The third image acquisition request 153 is the user ID of the first user 12F for whom the face arrangement map 85 has not been created or the user ID of the first user 12F for whom the second set time has passed since the previous face arrangement map 85 was created. including. The timing of requesting acquisition of the image file 27 in the personal folder 25 of the first user 12F for which the face arrangement map 85 is not created by the third image acquisition request 153 is, for example, This is the timing when the number of image files 27 stored in is equal to or greater than a predetermined number. Alternatively, it may be the timing at which the first user 12F installs the image viewing AP 115 on the user terminal 11 . The second set time is, for example, one month, half a year, one year, or the like. The third image acquisition request 153 may be transmitted when a predetermined second number of image files 27 are newly transmitted.

画像DBサーバ20は、第3画像取得要求153に応じた個人フォルダ25内の、第1ユーザ画像36Fを含む画像ファイル27を画像DB22から読み出し、読み出した画像ファイル27を画像配信サーバ10に送信する。マップ作成部150は、第3画像取得要求153に応じて画像DBサーバ20から送信された、第1ユーザ画像36Fを含む画像ファイル27を取得する。マップ作成部150は、取得した画像ファイル27に含まれる第1ユーザ画像36Fを元に、顔配置マップ85を作成する。顔配置マップ85が作成されていなかった場合、マップDBサーバ151は、マップ作成部150からの顔配置マップ85をマップDB152に新規に登録する。一方、顔配置マップ85が既に作成されていた場合、マップDBサーバ151は、マップDB152に記憶されている顔配置マップ85を、マップ作成部150からの顔配置マップ85に書き換える。また、マップDBサーバ151は、顔配置マップ85をトリミング部76に送信する。 The image DB server 20 reads the image file 27 including the first user image 36F in the personal folder 25 in response to the third image acquisition request 153 from the image DB 22 and transmits the read image file 27 to the image distribution server 10. . The map creation unit 150 acquires the image file 27 including the first user image 36F transmitted from the image DB server 20 in response to the third image acquisition request 153. FIG. The map creation unit 150 creates a face layout map 85 based on the first user image 36F included in the acquired image file 27. FIG. If the face layout map 85 has not been created, the map DB server 151 newly registers the face layout map 85 from the map creating unit 150 in the map DB 152 . On the other hand, when the face layout map 85 has already been created, the map DB server 151 rewrites the face layout map 85 stored in the map DB 152 with the face layout map 85 from the map creation unit 150 . The map DB server 151 also transmits the face layout map 85 to the trimming unit 76 .

図41~図44は、マップ作成部150において実行される顔配置マップ85を作成するマップ作成処理(ステップST500A)の手順を示す。マップ作成部150は、まず、第3画像取得要求153を画像DBサーバ20に送信する(ステップST5001)。そして、マップ作成部150は、第3画像取得要求153に応じて画像DBサーバ20から送信された個人フォルダ25内の画像ファイル27を取得する(ステップST5002)。 41 to 44 show the procedure of map creation processing (step ST500A) for creating face layout map 85 executed in map creation section 150. FIG. Map creation section 150 first transmits third image acquisition request 153 to image DB server 20 (step ST5001). Then, map creation section 150 acquires image file 27 in personal folder 25 transmitted from image DB server 20 in response to third image acquisition request 153 (step ST5002).

マップ作成部150は、顔認識技術を用いて、取得した画像ファイル27に含まれる第1ユーザ画像36Fから、顔90が含まれる顔あり画像91を抽出する(ステップST5003)。次いで、マップ作成部150は、抽出した顔あり画像91の画質を評価する(ステップST5004)。 Map creation section 150 uses face recognition technology to extract face-containing image 91 including face 90 from first user image 36F included in acquired image file 27 (step ST5003). Next, map creation section 150 evaluates the image quality of extracted image with face 91 (step ST5004).

図43では、画質の評価結果として画質評価値を算出する場合を例示している。画質評価値は、例えば、顔90の輪郭に対してエッジ検出を行って得られた、顔90の輪郭のブレ度を示す値である。なお、画質評価値は、例えば露出度(白飛び、黒つぶれ)に応じた値であってもよいし、ブレ度、露出度等の画質を表す複数の指標を網羅的に取り込んだ値であってもよい。 FIG. 43 illustrates a case where an image quality evaluation value is calculated as an image quality evaluation result. The image quality evaluation value is, for example, a value indicating the blurring degree of the outline of the face 90 obtained by performing edge detection on the outline of the face 90 . Note that the image quality evaluation value may be, for example, a value corresponding to the degree of exposure (overexposed highlights, blocked out shadows), or a value comprehensively capturing a plurality of indexes representing image quality such as the degree of blurring and the degree of exposure. may

マップ作成部150は、評価した画質が設定レベル以上の顔あり画像91を選定する(ステップST5005)。図43では、設定レベルが100であった場合を例示している。この場合、画質評価値が100未満の顔あり画像91は除外される。 Map creating section 150 selects face-containing images 91 whose evaluated image quality is equal to or higher than the set level (step ST5005). FIG. 43 illustrates a case where the setting level is 100. In FIG. In this case, images 91 with faces whose image quality evaluation value is less than 100 are excluded.

マップ作成部150は、ステップST5005で選定した、画質が設定レベル以上の顔あり画像91を元に、顔配置マップ85を作成する(ステップST5006)。 Map creating section 150 creates face layout map 85 based on face-containing image 91 having image quality equal to or higher than the set level selected in step ST5005 (step ST5006).

図42は、ステップST5006の顔配置マップ85の作成のより詳しい手順を示す。まず、マップ作成部150は、顔あり画像91の人物の顔90の領域の画素値を1、他の領域の画素値を0にそれぞれ置換する(ステップST50061)。次いで、マップ作成部150は、各顔あり画像91の置換した画素値を、画素毎に積算する(ステップST50062)。マップ作成部150は、画素値の積算値を顔あり画像91の枚数で除算し、これにより得られた数値を顔配置マップ85の評価値とする(ステップST50063)。 FIG. 42 shows a more detailed procedure for creating face layout map 85 in step ST5006. First, the map creating section 150 replaces the pixel values of the area of the person's face 90 in the image with face 91 with 1, and replaces the pixel values of other areas with 0 (step ST50061). Next, map creating section 150 integrates the replaced pixel values of each image with face 91 for each pixel (step ST50062). Map creation section 150 divides the integrated value of the pixel values by the number of face images 91, and sets the obtained numerical value as the evaluation value of face layout map 85 (step ST50063).

マップ作成部150は、2人の人物の顔90が含まれている顔あり画像91から第1顔配置マップ85aを作成する。また、マップ作成部150は、3人の人物の顔90が含まれている顔あり画像91から第2顔配置マップ85bを作成する。さらに、マップ作成部150は、4人以上の人物の顔90が含まれている顔あり画像91から第3顔配置マップ85cを作成する。さらにまた、マップ作成部150は、1人の人物の顔90が含まれている顔あり画像91から第4顔配置マップ85dを作成する。 The map creation unit 150 creates the first face layout map 85a from the face image 91 including the faces 90 of two persons. Also, the map creating unit 150 creates the second face layout map 85b from the face-containing image 91 including the faces 90 of three persons. Further, the map creating unit 150 creates a third face arrangement map 85c from the face-containing image 91 including the faces 90 of four or more persons. Furthermore, the map creating unit 150 creates a fourth face arrangement map 85d from the face image 91 including the face 90 of one person.

図44は、2人の人物の顔90が含まれている100枚の顔あり画像91から、第1顔配置マップ85aを作成する例を示している。顔あり画像91において、顔90は、様々な位置に配置されている。このため、ステップST50062において算出される画素値の積算値は、破線の円155内に示すように様々な値をとる。同様に、ステップST50063において算出される評価値も、破線の円156内に示すように様々な値となる。したがって、顔配置マップ85は、上記第1実施形態のように左右対称な評価値の分布とはならず、偏った評価値の分布となる。 FIG. 44 shows an example of creating the first face arrangement map 85a from 100 images 91 with faces containing the faces 90 of two persons. In an image 91 with a face, faces 90 are arranged at various positions. For this reason, the integrated value of the pixel values calculated in step ST50062 takes various values as indicated within the dashed circle 155 . Similarly, the evaluation values calculated in step ST50063 also have various values as indicated within the dashed circle 156 . Therefore, the face arrangement map 85 does not have a symmetric distribution of evaluation values as in the first embodiment, but has a biased distribution of evaluation values.

マップ作成部150は、こうして作成した顔配置マップ85を、マップDBサーバ151に送信する(ステップST5007)。マップ作成部150は、例えば、第1ユーザ12Fの第1ユーザ画像36Fに基づき作成した顔配置マップ85を、第1ユーザ12FのユーザIDに対応付けてマップDBサーバ151に登録させる。以上で、マップ作成部150によるマップ作成処理が終了する。なお、本実施形態において、マップ作成部150は、評価した画質が設定レベル以上の顔あり画像91を選定するとしたが、これに限らない。例えば、第1ユーザ画像36Fに含まれる顔あり画像91の全てを対象として顔配置マップ85を作成してもよい。 Map creating section 150 transmits face layout map 85 created in this way to map DB server 151 (step ST5007). The map creating unit 150 registers, for example, the face layout map 85 created based on the first user image 36F of the first user 12F in the map DB server 151 in association with the user ID of the first user 12F. Thus, the map creating process by the map creating unit 150 ends. Note that, in the present embodiment, the map creation unit 150 selects the image with a face 91 whose evaluated image quality is equal to or higher than the set level, but the present invention is not limited to this. For example, the face layout map 85 may be created for all of the images with faces 91 included in the first user image 36F.

このように、顔あり画像91を元に顔配置マップ85を作成すれば、実際の撮影傾向に適応した顔配置マップ85を作成することができる。また、顔配置マップ85の作成に用いる顔あり画像91を、画質が予め定められた設定レベル以上の画像とするので、顔配置マップ85の信頼性を高めることができる。 Thus, by creating the face arrangement map 85 based on the image 91 with a face, it is possible to create the face arrangement map 85 adapted to the actual photographing tendency. In addition, since the image with a face 91 used to create the face layout map 85 is an image with image quality equal to or higher than a predetermined set level, the reliability of the face layout map 85 can be enhanced.

顔配置マップ85の作成に用いる顔あり画像91を、第1ユーザ画像36Fとするので、第1ユーザ12Fの撮影傾向に適応した顔配置マップ85を作成することができる。言い換えれば、顔配置マップ85を第1ユーザ12F用にカスタマイズすることができる。 Since the first user image 36F is used as the image with face 91 used to create the face layout map 85, the face layout map 85 adapted to the photographing tendency of the first user 12F can be created. In other words, the face placement map 85 can be customized for the first user 12F.

図45および図46は、第1ユーザ12Fによって選択された第1ユーザ画像36Fを、顔配置マップ85の作成に用いる例を示す。この場合のマップ作成処理(ステップST500B)は、第1ユーザ12Fによる選択履歴がある顔あり画像91を選定する(ステップST5010)点が、マップ作成処理(ステップST500A)と異なる。選択履歴は、画像情報35に項目が用意されて記憶される。選択履歴の項目には、例えば、画像投稿に特化したSNS(Social Networking Service)に、第1ユーザ12Fの手でアップロードされた第1ユーザ画像36Fに対して「あり」が記憶される。 45 and 46 show an example of using the first user image 36F selected by the first user 12F to create the face arrangement map 85. FIG. The map creation process (step ST500B) in this case is different from the map creation process (step ST500A) in that an image with a face 91 having a selection history by the first user 12F is selected (step ST5010). The selection history is stored with items prepared in the image information 35 . In the selection history item, for example, "yes" is stored for the first user image 36F uploaded by the first user 12F to a SNS (Social Networking Service) specializing in image posting.

図46は、ステップST5002、ステップST5003、およびステップST5010の様子を示す。マップ作成部150は、選択履歴が「あり」の顔あり画像91を選定し、選択履歴が「なし」の顔あり画像91を除外する。 FIG. 46 shows steps ST5002, ST5003, and ST5010. The map creating unit 150 selects images with faces 91 with a selection history of "yes" and excludes images with faces 91 with a selection history of "no".

第1ユーザ12Fによって選択された第1ユーザ画像36Fは、第1ユーザ12Fが好む画像である。このため、第1ユーザ12Fによって選択された第1ユーザ画像36Fを選定して顔配置マップ85の作成に用いれば、第1ユーザ12Fが好む顔90の配置位置を反映させた顔配置マップ85を作成することができる。 The first user image 36F selected by the first user 12F is an image preferred by the first user 12F. Therefore, if the first user image 36F selected by the first user 12F is selected and used to create the face arrangement map 85, the face arrangement map 85 reflecting the arrangement position of the face 90 preferred by the first user 12F can be created. can be created.

なお、SNSにアップロードされた第1ユーザ画像36Fを、第1ユーザ12Fによって選択された第1ユーザ画像36Fとしたが、これに限らない。顔配置マップ85の作成に先立って、ユーザ端末11に第1ユーザ画像36Fを一覧表示し、一覧表示された第1ユーザ画像36Fの中から、顔配置マップ85の作成に用いる第1ユーザ画像36Fを第1ユーザ12Fに選択させてもよい。 Although the first user image 36F uploaded to the SNS is the first user image 36F selected by the first user 12F, it is not limited to this. Prior to creation of the face arrangement map 85, a list of the first user images 36F is displayed on the user terminal 11, and the first user images 36F used for creation of the face arrangement map 85 are selected from the first user images 36F displayed as a list. may be selected by the first user 12F.

第1ユーザ画像36Fに限らず、他の画像36を元に顔配置マップ85を作成してもよい。他の画像36としては、例えば共有フォルダ26内の画像ファイル27に含まれる第2ユーザ画像36Sが挙げられる。画像DB22に格納された全画像36を元に顔配置マップ85を作成してもよい。このように、第1ユーザ画像36Fに限らず、他の画像36を元に顔配置マップ85を作成すれば、より一般的な撮影傾向に適応した顔配置マップ85を作成することができる。なお、他の画像36を元に顔配置マップ85を作成する場合も、画質が予め定められた設定レベル以上の顔あり画像91を選定してもよいし、ユーザ12によって選択された顔あり画像91を選定してもよい。 The face layout map 85 may be created based on not only the first user image 36F but also other images 36. FIG. Another image 36 is, for example, a second user image 36S included in the image file 27 in the shared folder 26. FIG. The face layout map 85 may be created based on all the images 36 stored in the image DB 22 . In this way, by creating the face arrangement map 85 based on not only the first user image 36F but also other images 36, it is possible to create a face arrangement map 85 adapted to more general shooting tendencies. When the face arrangement map 85 is created based on another image 36, an image with a face 91 having an image quality equal to or higher than a predetermined set level may be selected, or an image with a face selected by the user 12 may be selected. 91 may be selected.

顔あり画像91の枚数が予め定められた閾値未満であった場合は、顔配置マップ85の作成を中止してもよい。この場合は、上記第1実施形態で例示した、式(1)~式(8)に基づいて予め作成された顔配置マップ85を用いる。また、顔あり画像91から、関連人物45の顔90Rが含まれている対象画像91Rを選定し、選定した対象画像91Rを元に顔配置マップ85を作成してもよい。 If the number of face-containing images 91 is less than a predetermined threshold value, creation of the face arrangement map 85 may be stopped. In this case, the face layout map 85 created in advance based on the equations (1) to (8) exemplified in the first embodiment is used. Alternatively, a target image 91R including the face 90R of the related person 45 may be selected from the image 91 with a face, and the face layout map 85 may be created based on the selected target image 91R.

縦長の画像36用の顔配置マップ85と横長の画像36用の顔配置マップ85とを分けて作成してもよい。また、1:1、4:3、16:9といった画像36のアスペクト比毎に顔配置マップ85を作成してもよい。 The face arrangement map 85 for the portrait image 36 and the face arrangement map 85 for the landscape image 36 may be created separately. Also, the face layout map 85 may be created for each aspect ratio of the image 36 such as 1:1, 4:3, and 16:9.

結婚式、運動会といったイベント毎に顔配置マップ85を作成してもよい。また、運動会の徒競走等で人物が動いている場合と、集合写真等で人物が静止している場合とで分けて顔配置マップ85を作成してもよい。 A face layout map 85 may be created for each event such as a wedding ceremony or an athletic meet. Further, the face layout map 85 may be created separately for a case where a person is moving in a foot race of an athletic meet, etc., and a case where a person is stationary in a group photo or the like.

関連ランク1が付与された関連人物45_1用、関連ランク2が付与された関連人物45_2用等、関連人物45の関連ランク毎に顔配置マップ85を作成してもよい。 The face arrangement map 85 may be created for each related rank of the related person 45, such as for the related person 45_1 assigned the related rank 1, for the related person 45_2 assigned the related rank 2, and the like.

なお、顔配置マップ85の作成タイミングは、上記で例示したタイミングに限らない。お勧め画像配信要求58を要求受付部71で受け付けた場合に、顔配置マップ85を作成してもよい。 Note that the timing of creating the face layout map 85 is not limited to the timing illustrated above. The face layout map 85 may be created when the request receiving unit 71 receives the recommended image distribution request 58 .

画質が予め定められた設定レベル以上の第1ユーザ画像36Fを用いて、関連人物情報32を作成してもよい。この場合、第1割合および第2割合といった割合の算出の元になる「予め定められた設定条件を満たす第1ユーザ画像の枚数」を、画質が予め定められた設定レベル以上の第1ユーザ画像36Fの全枚数としてもよい。 The related person information 32 may be created using the first user image 36F whose image quality is equal to or higher than a predetermined set level. In this case, "the number of first user images that satisfy a predetermined setting condition", which is the basis for calculating the ratios such as the first ratio and the second ratio, is the first user image whose image quality is equal to or higher than a predetermined setting level. It is good also as all the number of sheets of 36F.

例えば特開2007-272685号公報の方法を用いて、顔配置マップ85を用いずにトリミング処理を実行してもよい。ただし、この場合は、最低解像度よりも低い解像度の切り出し画像110Eが生成されるおそれがある。対して顔配置マップ85を用いれば、スコアの最高点が予め定められた閾値未満であった場合に、対象画像91Rの切り出しを中止することもできるため、最低解像度よりも低い解像度の切り出し画像110Eが生成されるおそれはない。 For example, the trimming process may be performed using the method disclosed in Japanese Patent Application Laid-Open No. 2007-272685 without using the face layout map 85 . However, in this case, the clipped image 110E may be generated with a resolution lower than the lowest resolution. On the other hand, if the face arrangement map 85 is used, the clipping of the target image 91R can be stopped when the highest score is less than the predetermined threshold, so that the clipped image 110E having a resolution lower than the lowest resolution can be obtained. is not likely to be generated.

対象画像91Rを、メイン人物45Mが含まれている対象画像91Rに限定してもよい。また、関連人物情報32をユーザ12が修正可能に構成してもよい。 The target image 91R may be limited to the target image 91R including the main person 45M. Also, the related person information 32 may be configured to be modifiable by the user 12 .

ユーザグループ28を構成する複数のユーザ12の中に、画像ファイル27は共有フォルダ26に格納していないが、共有フォルダ26へのアクセス権限はもつユーザ12がいても構わない。 Among the plurality of users 12 forming the user group 28 , there may be a user 12 who does not store the image file 27 in the shared folder 26 but has access authority to the shared folder 26 .

画像配信サーバ10を構成するコンピュータのハードウェア構成は種々の変形が可能である。例えば、画像配信サーバ10を、処理能力および信頼性の向上を目的として、ハードウェアとして分離された複数台のサーバコンピュータで構成することも可能である。例えば、要求受付部71、画像取得部72、情報取得部73、および配信制御部77の機能と、情報作成部70、抽出部74、RW制御部75、およびトリミング部76の機能とを、2台のサーバコンピュータに分散して担わせる。この場合は2台のサーバコンピュータで画像配信サーバ10を構成する。 Various modifications are possible for the hardware configuration of the computer that constitutes the image distribution server 10 . For example, the image distribution server 10 can be composed of a plurality of server computers separated as hardware for the purpose of improving processing capability and reliability. For example, the functions of the request reception unit 71, the image acquisition unit 72, the information acquisition unit 73, and the distribution control unit 77, and the functions of the information creation unit 70, the extraction unit 74, the RW control unit 75, and the trimming unit 76 are combined into two. It is distributed to each server computer. In this case, the image distribution server 10 is composed of two server computers.

このように、画像配信サーバ10のコンピュータのハードウェア構成は、処理能力、安全性、信頼性等の要求される性能に応じて適宜変更することができる。さらに、ハードウェアに限らず、作動プログラム65等のアプリケーションプログラムについても、安全性および信頼性の確保を目的として、二重化したり、あるいは、複数のストレージデバイスに分散して格納することももちろん可能である。 In this manner, the hardware configuration of the computer of the image distribution server 10 can be appropriately changed according to required performance such as processing power, safety, and reliability. Furthermore, not only the hardware but also application programs such as the operation program 65 can of course be duplicated or distributed and stored in multiple storage devices for the purpose of ensuring safety and reliability. be.

画像配信サーバ10の各処理部の機能の一部または全部を、ユーザ端末11が担ってもよい。 A part or all of the functions of the processing units of the image distribution server 10 may be performed by the user terminal 11 .

上記各実施形態において、例えば、情報作成部70、要求受付部71、画像取得部72、情報取得部73、抽出部74、RW制御部75、トリミング部76、配信制御部77、およびマップ作成部150といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、ソフトウェア(作動プログラム65)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU52Aに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、および/またはASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。 In each of the above embodiments, for example, the information creation unit 70, the request reception unit 71, the image acquisition unit 72, the information acquisition unit 73, the extraction unit 74, the RW control unit 75, the trimming unit 76, the distribution control unit 77, and the map creation unit As a hardware structure of the processing unit (Processing Unit) that executes various processes such as 150, various processors shown below can be used. In addition to the CPU 52A, which is a general-purpose processor that executes software (operation program 65) and functions as various processing units, the various processors include an FPGA (Field Programmable Gate Array) whose circuit configuration can be changed after manufacture. Programmable Logic Device (PLD), which is a processor, and/or ASIC (Application Specific Integrated Circuit). etc. are included.

1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、および/または、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。 One processing unit may be configured with one of these various processors, or a combination of two or more processors of the same or different type (for example, a combination of a plurality of FPGAs and/or a CPU and combination with FPGA). Also, a plurality of processing units may be configured by one processor.

複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。 As an example of configuring a plurality of processing units with a single processor, first, as represented by computers such as clients and servers, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple processing units. Secondly, as typified by System On Chip (SoC), etc., there is a mode of using a processor that realizes the function of the entire system including multiple processing units with a single IC (Integrated Circuit) chip. be. In this way, the various processing units are configured using one or more of the above various processors as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。 Furthermore, more specifically, as the hardware structure of these various processors, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined can be used.

本開示の技術は、上述の種々の実施形態および/または種々の変形例を適宜組み合わせることも可能である。また、上記各実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本開示の技術は、プログラムに加えて、プログラムを非一時的に記憶する記憶媒体にもおよぶ。 The technology of the present disclosure can also appropriately combine various embodiments and/or various modifications described above. Moreover, it is needless to say that various configurations can be employed without departing from the scope of the present invention without being limited to the above embodiments. Furthermore, the technology of the present disclosure extends to storage media that non-temporarily store programs in addition to programs.

以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。 The above description and illustration are detailed descriptions of the parts related to the technology of the present disclosure, and are merely examples of the technology of the present disclosure. For example, the above descriptions of configurations, functions, actions, and effects are descriptions of examples of configurations, functions, actions, and effects of portions related to the technology of the present disclosure. Therefore, unnecessary parts may be deleted, new elements added, or replaced with respect to the above-described description and illustration without departing from the gist of the technology of the present disclosure. Needless to say. In addition, in order to avoid complication and facilitate understanding of the portion related to the technology of the present disclosure, the descriptions and illustrations shown above require no particular explanation in order to enable implementation of the technology of the present disclosure. Descriptions of common technical knowledge, etc., that are not used are omitted.

本明細書において、「Aおよび/またはB」は、「AおよびBのうちの少なくとも1つ」と同義である。つまり、「Aおよび/またはB」は、Aだけであってもよいし、Bだけであってもよいし、AおよびBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「および/または」で結び付けて表現する場合も、「Aおよび/またはB」と同様の考え方が適用される。 As used herein, "A and/or B" is synonymous with "at least one of A and B." That is, "A and/or B" means that only A, only B, or a combination of A and B may be used. In addition, in this specification, when three or more matters are expressed by connecting with "and/or", the same idea as "A and/or B" is applied.

本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。 All publications, patent applications and technical standards mentioned herein are expressly incorporated herein by reference to the same extent as if each individual publication, patent application and technical standard were specifically and individually noted to be incorporated by reference. incorporated by reference into the book.

10 画像配信サーバ(画像処理装置)
11 ユーザ端末
12 ユーザ
12F 第1ユーザ
12S 第2ユーザ
13 ネットワーク
15 デジタルカメラ
16 スキャナ
20 画像データベースサーバ(画像DBサーバ)
21 ユーザ情報データベースサーバ(ユーザ情報DBサーバ)
22 画像データベース(画像DB)
23 ユーザ情報データベース(ユーザ情報DB)
25 個人フォルダ
26 共有フォルダ
27 画像ファイル
28 ユーザグループ
30 ユーザ情報
31 ユーザ基本情報
32 関連人物情報
35 画像情報
36 画像
36F 第1ユーザ画像
36S 第2ユーザ画像
40 顔画像
45、45_1、45_2、45_3 関連人物
45M メイン人物
45S サブ人物
50、50A、50B ストレージデバイス
51 メモリ
52、52B CPU
52A CPU(プロセッサ)
53 通信部
54、54B ディスプレイ
55、55B 入力デバイス
56 バスライン
57 画像配信要求
58 お勧め画像配信要求
59 お勧め画像情報
65 作動プログラム(画像処理装置の作動プログラム)
66 顔配置マップセット
70 情報作成部
71 要求受付部
72 画像取得部
73 情報取得部
74 抽出部
75 リードライト制御部(RW制御部)
76 トリミング部
77 配信制御部
80 第1画像取得要求
81 第2画像取得要求
82 情報取得要求
85 顔配置マップ
85a 第1顔配置マップ
85b 第2顔配置マップ
85c 第3顔配置マップ
85d 第4顔配置マップ
90 顔
90R、90R1、90R2 関連人物の顔
91 顔あり画像
91R 対象画像(関連人物の顔が含まれている顔あり画像)
92、95、101、105、135、145 表
93 第1選定条件
94 第2選定条件
96 選定条件
100 分割セル
110、110E 切り出し画像
115 画像閲覧アプリケーションプログラム(画像閲覧AP)
120 ブラウザ制御部
125 画像表示画面
126 共有フォルダ指定ボタン
127 コンテキストメニュー
128 お勧め画像配信指示ボタン
129 キャンセルボタン
130 お勧め画像情報表示画面
131 お勧めスコア
132 保存ボタン
133 プリント注文ボタン
140 イベント画像
142 期間画像
150 マップ作成部
151 マップデータベースサーバ(マップDBサーバ)
152 マップDB(マップデータベース)
153 第3画像取得要求
155、156 円
c1~c3 顔の中心
L1、L2 顔の中心を結ぶ線分
pL 第7閾値
ST10、ST20、ST21、ST22、ST500A、ST500B、ST1001、ST1002、ST1003、ST1004、ST1005、ST1006、ST1007、ST1010、ST1011、ST1020、ST1021、ST3001、ST3002、ST3003、ST3004、ST3005、ST4001、ST4002、ST4003、ST4004、ST4005、ST4006、ST4007、ST4008、ST5001、ST5002、ST5003、ST5004、ST5005、ST5006、ST5007、ST5010、ST40031、ST40032、ST40033、ST50061、ST50062、ST50063 ステップ
ST100A、ST100B、ST100C ステップ(情報作成ステップ)
ST200 ステップ(画像取得ステップ)
ST300 ステップ(抽出ステップ)
ST400 ステップ(トリミングステップ)
10 Image distribution server (image processing device)
11 User terminal 12 User 12F First user 12S Second user 13 Network 15 Digital camera 16 Scanner 20 Image database server (image DB server)
21 User information database server (user information DB server)
22 Image Database (Image DB)
23 User information database (user information DB)
25 personal folder 26 shared folder 27 image file 28 user group 30 user information 31 user basic information 32 related person information 35 image information 36 image 36F first user image 36S second user image 40 face image 45, 45_1, 45_2, 45_3 related person 45M Main person 45S Sub person 50, 50A, 50B Storage device 51 Memory 52, 52B CPU
52A CPU (processor)
53 communication unit 54, 54B display 55, 55B input device 56 bus line 57 image distribution request 58 recommended image distribution request 59 recommended image information 65 operation program (image processing apparatus operation program)
66 face layout map set 70 information creation unit 71 request reception unit 72 image acquisition unit 73 information acquisition unit 74 extraction unit 75 read/write control unit (RW control unit)
76 trimming unit 77 distribution control unit 80 first image acquisition request 81 second image acquisition request 82 information acquisition request 85 face arrangement map 85a first face arrangement map 85b second face arrangement map 85c third face arrangement map 85d fourth face arrangement Map 90 Faces 90R, 90R1, 90R2 Related person's face 91 Face-containing image 91R Target image (face-containing image containing the related person's face)
92, 95, 101, 105, 135, 145 Table 93 First selection condition 94 Second selection condition 96 Selection condition 100 Divided cells 110, 110E Clipped image 115 Image viewing application program (image viewing AP)
120 Browser control unit 125 Image display screen 126 Shared folder designation button 127 Context menu 128 Recommended image distribution instruction button 129 Cancel button 130 Recommended image information display screen 131 Recommended score 132 Save button 133 Print order button 140 Event image 142 Period image 150 map creation unit 151 map database server (map DB server)
152 Map DB (Map Database)
153 Third image acquisition request 155, 156 Circles c1 to c3 Face centers L1, L2 Line segment pL connecting the centers of faces Seventh threshold values ST10, ST20, ST21, ST22, ST500A, ST500B, ST1001, ST1002, ST1003, ST1004, ST1005, ST1006, ST1007, ST1010, ST1011, ST1020, ST1021, ST3001, ST3002, ST3003, ST3004, ST3005, ST4001, ST4002, ST4003, ST4004, ST4005, ST4006, ST4007, ST4008, ST 5001, ST5002, ST5003, ST5004, ST5005, ST5006, ST5007, ST5010, ST40031, ST40032, ST40033, ST50061, ST50062, ST50063 Step ST100A, ST100B, ST100C Step (information creation step)
ST200 step (image acquisition step)
ST300 step (extraction step)
ST400 step (trimming step)

Claims (22)

少なくとも1つのプロセッサを備え、
前記プロセッサは、
第1ユーザに帰属し、かつ顔が含まれた第1ユーザ画像を元に、前記第1ユーザに関連する関連人物の情報である関連人物情報を作成し、
前記第1ユーザとは異なる第2ユーザに帰属する第2ユーザ画像を取得し、
前記関連人物情報に基づいて、前記関連人物の顔が含まれている前記第2ユーザ画像を抽出し、
前記関連人物の顔が含まれている前記第2ユーザ画像から、画像内における顔の配置位置を表す顔配置マップであって、複数の分割セルのうち、顔が配置されるべき前記分割セルに対して相対的に高い評価値が割り当てられた顔配置マップを用いて、前記関連人物の顔を含む領域を切り出す、
画像処理装置。
comprising at least one processor;
The processor
Based on the first user image belonging to the first user and including the face, related person information is created, which is information about a related person related to the first user,
Acquiring a second user image belonging to a second user different from the first user,
extracting the second user image containing the face of the related person based on the related person information;
A face arrangement map representing the arrangement position of the face in the image, from the second user image including the face of the related person, to the divided cell in which the face is to be arranged, among a plurality of divided cells. Using a face arrangement map assigned a relatively high evaluation value to the
Image processing device.
前記プロセッサは、
2人以上の前記関連人物を含む前記関連人物情報を作成し、
前記2人以上の前記関連人物のうちの少なくとも2人の顔が含まれている前記第2ユーザ画像を抽出し、
前記少なくとも2人の顔が含まれている前記第2ユーザ画像から、前記少なくとも2人の顔を含む領域を切り出す請求項1に記載の画像処理装置。
The processor
creating the related person information including two or more of the related persons;
extracting the second user image containing the faces of at least two of the two or more related persons;
The image processing apparatus according to claim 1, wherein a region including the faces of the at least two persons is cut out from the second user image including the faces of the at least two persons.
前記プロセッサは、
前記第2ユーザ画像から切り出した切り出し画像を前記第1ユーザに対して提示する請求項1または請求項2に記載の画像処理装置。
The processor
3. The image processing apparatus according to claim 1, wherein a clipped image clipped from the second user image is presented to the first user.
前記プロセッサは、
特定のイベントに関する前記第1ユーザ画像のみを元に、前記関連人物情報を作成する請求項1から請求項3のいずれか1項に記載の画像処理装置。
The processor
4. The image processing apparatus according to any one of claims 1 to 3, wherein the related person information is created based only on the first user image related to a specific event.
前記プロセッサは、
特定の期間に関する前記第1ユーザ画像のみを元に、前記関連人物情報を作成する請求項1から請求項4のいずれか1項に記載の画像処理装置。
The processor
5. The image processing apparatus according to any one of claims 1 to 4, wherein the related person information is created based only on the first user image relating to a specific period.
前記顔配置マップは顔の数毎に複数用意されており、
前記プロセッサは、
複数の前記顔配置マップの中から、前記抽出した前記第2ユーザ画像に含まれる前記関連人物の顔の数に応じた1つの前記顔配置マップを選択する請求項1から請求項5のいずれか1項に記載の画像処理装置。
A plurality of face arrangement maps are prepared for each number of faces,
The processor
6. The face arrangement map according to the number of faces of the related persons included in the extracted second user image is selected from among the plurality of face arrangement maps. 2. The image processing device according to item 1 .
前記プロセッサは、
前記第2ユーザ画像内における前記顔配置マップの適用位置を変更しつつ、前記適用位置毎に前記評価値に応じたスコアを算出し、算出した前記スコアに基づいて前記関連人物の顔を含む領域を切り出す請求項1から請求項6のいずれか1項に記載の画像処理装置。
The processor
While changing the application position of the face arrangement map in the second user image, a score corresponding to the evaluation value is calculated for each application position, and an area including the face of the related person is calculated based on the calculated score. 7. The image processing apparatus according to any one of claims 1 to 6, which cuts out the .
前記プロセッサは、
前記関連人物情報を作成する場合に、前記第1ユーザとの関連性の高低を示す関連ランクを前記関連人物毎に付与し、
前記関連ランクを加味して前記スコアを算出する請求項に記載の画像処理装置。
The processor
When creating the related person information, giving each related person a related rank indicating the degree of relevance to the first user;
8. The image processing apparatus according to claim 7 , wherein the score is calculated taking into consideration the related rank.
前記プロセッサは、
顔が含まれている前記第1ユーザ画像の枚数に基づいて、前記関連ランクを付与する請求項に記載の画像処理装置。
The processor
9. The image processing apparatus according to claim 8 , wherein the relation rank is given based on the number of the first user images containing a face.
前記プロセッサは、
予め定められた設定条件を満たす前記第1ユーザ画像の枚数に対する、顔が含まれている前記第1ユーザ画像の枚数の割合に基づいて、前記関連ランクを付与する請求項または請求項に記載の画像処理装置。
The processor
Claim 8 or 9 , wherein the relation rank is given based on a ratio of the number of the first user images containing a face to the number of the first user images satisfying a predetermined setting condition. The described image processing device.
前記プロセッサは、
前記関連人物以外の人物の顔に係る前記スコアを、前記関連人物の顔に係る前記スコアの正負とは逆の値で算出する請求項から請求項10のいずれか1項に記載の画像処理装置。
The processor
11. The image processing according to any one of claims 7 to 10 , wherein the score for the face of the person other than the related person is calculated as a positive/negative value of the score for the face of the related person. Device.
前記プロセッサは、
前記第2ユーザ画像から切り出した切り出し画像と前記スコアの組を、前記第1ユーザに対して提示する請求項から請求項11のいずれか1項に記載の画像処理装置。
The processor
The image processing device according to any one of claims 7 to 11 , wherein a set of the clipped image clipped from the second user image and the score is presented to the first user.
前記第2ユーザ画像から切り出した切り出し画像が複数枚ある場合、複数枚の前記切り出し画像は、前記スコアに応じて並べ替えられて、前記第1ユーザに対して提示される請求項から請求項12のいずれか1項に画像処理装置。 When there are a plurality of clipped images clipped from the second user image, the plurality of clipped images are rearranged according to the score and presented to the first user. 12. An image processing device according to any one of 12 . 前記プロセッサは、
顔が含まれた顔あり画像を元に前記顔配置マップを作成する請求項から請求項13のいずれか1項に記載の画像処理装置。
The processor
14. The image processing apparatus according to any one of claims 1 to 13 , wherein the face arrangement map is created based on an image with a face containing a face.
前記顔あり画像は、画質が予め定められた設定レベル以上の画像である請求項14に記載の画像処理装置。 15. The image processing apparatus according to claim 14 , wherein the image with a face is an image having an image quality equal to or higher than a predetermined set level. 前記顔あり画像は、前記第1ユーザ画像である請求項14または請求項15に記載の画像処理装置。 16. The image processing apparatus according to claim 14 , wherein the image with face is the first user image. 前記顔あり画像は、前記第1ユーザによって選択された前記第1ユーザ画像である請求項16に記載の画像処理装置。 17. The image processing apparatus according to claim 16 , wherein the image with face is the first user image selected by the first user. 第1ユーザに帰属し、かつ顔が含まれた第1ユーザ画像を元に、前記第1ユーザに関連する関連人物の情報である関連人物情報を作成する情報作成ステップと、
前記第1ユーザとは異なる第2ユーザに帰属する第2ユーザ画像を取得する画像取得ステップと、
前記関連人物情報に基づいて、前記関連人物の顔が含まれている前記第2ユーザ画像を抽出する抽出ステップと、
前記関連人物の顔が含まれている前記第2ユーザ画像から、画像内における顔の配置位置を表す顔配置マップであって、複数の分割セルのうち、顔が配置されるべき前記分割セルに対して相対的に高い評価値が割り当てられた顔配置マップを用いて、前記関連人物の顔を含む領域を切り出すトリミングステップと、
を備える画像処理装置の作動方法。
An information creation step of creating related person information, which is information of a related person related to the first user, based on the first user image belonging to the first user and including the face;
an image acquisition step of acquiring a second user image belonging to a second user different from the first user;
an extracting step of extracting the second user image including the face of the related person based on the related person information;
A face arrangement map representing the arrangement position of the face in the image, from the second user image including the face of the related person, to the divided cell in which the face is to be arranged, among a plurality of divided cells. a trimming step of cutting out a region containing the face of the related person using a face arrangement map assigned a relatively high evaluation value for the face arrangement map ;
A method of operating an image processing apparatus comprising:
第1ユーザに帰属し、かつ顔が含まれた第1ユーザ画像を元に、前記第1ユーザに関連する関連人物の情報である関連人物情報を作成する情報作成部と、
前記第1ユーザとは異なる第2ユーザに帰属する第2ユーザ画像を取得する画像取得部と、
前記関連人物情報に基づいて、前記関連人物の顔が含まれている前記第2ユーザ画像を抽出する抽出部と、
前記関連人物の顔が含まれている前記第2ユーザ画像から、画像内における顔の配置位置を表す顔配置マップであって、複数の分割セルのうち、顔が配置されるべき前記分割セルに対して相対的に高い評価値が割り当てられた顔配置マップを用いて、前記関連人物の顔を含む領域を切り出すトリミング部として、
コンピュータを機能させる画像処理装置の作動プログラム。
an information creation unit that creates related person information, which is information about a related person related to the first user, based on a first user image that belongs to the first user and includes a face;
an image acquisition unit that acquires a second user image belonging to a second user different from the first user;
an extraction unit that extracts the second user image including the face of the related person based on the related person information;
A face arrangement map representing the arrangement position of the face in the image, from the second user image including the face of the related person, to the divided cell in which the face is to be arranged, among a plurality of divided cells. As a trimming unit that cuts out an area containing the face of the related person using a face arrangement map to which a relatively high evaluation value is assigned ,
An operating program for an image processing device that causes a computer to function.
少なくとも1つのプロセッサを備え、comprising at least one processor;
前記プロセッサは、The processor
第1ユーザに帰属し、かつ顔が含まれた第1ユーザ画像であって、特定の期間に関する第1ユーザ画像のみを元に、前記第1ユーザに関連する関連人物の情報である関連人物情報を作成し、Related person information, which is information on a related person related to the first user, based only on the first user image belonging to the first user and including the face and relating to a specific period. and create
前記第1ユーザとは異なる第2ユーザに帰属する第2ユーザ画像を取得し、Acquiring a second user image belonging to a second user different from the first user,
前記関連人物情報に基づいて、前記関連人物の顔が含まれている前記第2ユーザ画像を抽出し、extracting the second user image containing the face of the related person based on the related person information;
前記関連人物の顔が含まれている前記第2ユーザ画像から、前記関連人物の顔を含む領域を切り出し、cutting out a region containing the face of the related person from the second user image containing the face of the related person;
前記特定の期間は複数あり、There are a plurality of said specific periods,
複数の前記特定の期間毎に前記関連人物情報を作成し、creating the related person information for each of the plurality of specific periods;
前記関連人物の顔が含まれている前記第2ユーザ画像を抽出する場合に、前記第2ユーザ画像の取得期間に応じて、前記特定の期間毎の前記関連人物情報を使い分ける、When extracting the second user image containing the face of the related person, according to the acquisition period of the second user image, selectively use the related person information for each specific period,
画像処理装置。Image processing device.
第1ユーザに帰属し、かつ顔が含まれた第1ユーザ画像であって、特定の期間に関する第1ユーザ画像のみを元に、前記第1ユーザに関連する関連人物の情報である関連人物情報を作成する情報作成ステップと、Related person information, which is information on a related person related to the first user, based only on the first user image belonging to the first user and including the face and relating to a specific period. an information creating step of creating a
前記第1ユーザとは異なる第2ユーザに帰属する第2ユーザ画像を取得する画像取得ステップと、an image acquisition step of acquiring a second user image belonging to a second user different from the first user;
前記関連人物情報に基づいて、前記関連人物の顔が含まれている前記第2ユーザ画像を抽出する抽出ステップと、an extracting step of extracting the second user image including the face of the related person based on the related person information;
前記関連人物の顔が含まれている前記第2ユーザ画像から、前記関連人物の顔を含む領域を切り出すトリミングステップと、a trimming step of cutting out an area including the face of the related person from the second user image including the face of the related person;
を備え、with
前記特定の期間は複数あり、There are a plurality of said specific periods,
前記情報作成ステップでは、複数の前記特定の期間毎に前記関連人物情報を作成し、In the information creating step, the related person information is created for each of the plurality of specific periods;
前記抽出ステップでは、前記関連人物の顔が含まれている前記第2ユーザ画像を抽出する場合に、前記第2ユーザ画像の取得期間に応じて、前記特定の期間毎の前記関連人物情報を使い分ける、In the extracting step, when extracting the second user image including the face of the related person, the related person information for each specific period is selectively used according to the acquisition period of the second user image. ,
画像処理装置の作動方法。A method of operating an image processing device.
第1ユーザに帰属し、かつ顔が含まれた第1ユーザ画像であって、特定の期間に関する第1ユーザ画像のみを元に、前記第1ユーザに関連する関連人物の情報である関連人物情報を作成する情報作成部と、Related person information, which is information on a related person related to the first user, based only on the first user image belonging to the first user and including the face and relating to a specific period. an information creation unit that creates
前記第1ユーザとは異なる第2ユーザに帰属する第2ユーザ画像を取得する画像取得部と、an image acquisition unit that acquires a second user image belonging to a second user different from the first user;
前記関連人物情報に基づいて、前記関連人物の顔が含まれている前記第2ユーザ画像を抽出する抽出部と、an extraction unit that extracts the second user image including the face of the related person based on the related person information;
前記関連人物の顔が含まれている前記第2ユーザ画像から、前記関連人物の顔を含む領域を切り出すトリミング部として、A trimming unit that cuts out an area containing the face of the related person from the second user image containing the face of the related person,
コンピュータを機能させ、make your computer work
前記特定の期間は複数あり、There are a plurality of said specific periods,
前記情報作成部は、複数の前記特定の期間毎に前記関連人物情報を作成し、The information creating unit creates the related person information for each of the plurality of specific periods,
前記抽出部は、前記関連人物の顔が含まれている前記第2ユーザ画像を抽出する場合に、前記第2ユーザ画像の取得期間に応じて、前記特定の期間毎の前記関連人物情報を使い分ける、When extracting the second user image including the face of the related person, the extraction unit selectively uses the related person information for each specific period according to the acquisition period of the second user image. ,
画像処理装置の作動プログラム。An operating program for an image processing device.
JP2020058616A 2020-03-27 2020-03-27 Image processing device, method for operating image processing device, and program for operating image processing device Active JP7267227B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020058616A JP7267227B2 (en) 2020-03-27 2020-03-27 Image processing device, method for operating image processing device, and program for operating image processing device
JP2023068876A JP7459345B2 (en) 2020-03-27 2023-04-19 Image processing device, image processing device operating method, image processing device operating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020058616A JP7267227B2 (en) 2020-03-27 2020-03-27 Image processing device, method for operating image processing device, and program for operating image processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023068876A Division JP7459345B2 (en) 2020-03-27 2023-04-19 Image processing device, image processing device operating method, image processing device operating program

Publications (2)

Publication Number Publication Date
JP2021157621A JP2021157621A (en) 2021-10-07
JP7267227B2 true JP7267227B2 (en) 2023-05-01

Family

ID=77919743

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020058616A Active JP7267227B2 (en) 2020-03-27 2020-03-27 Image processing device, method for operating image processing device, and program for operating image processing device
JP2023068876A Active JP7459345B2 (en) 2020-03-27 2023-04-19 Image processing device, image processing device operating method, image processing device operating program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023068876A Active JP7459345B2 (en) 2020-03-27 2023-04-19 Image processing device, image processing device operating method, image processing device operating program

Country Status (1)

Country Link
JP (2) JP7267227B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243754A (en) 2006-03-10 2007-09-20 Seiko Epson Corp Printer and print method
JP2010118868A (en) 2008-11-12 2010-05-27 Canon Inc Information processor and control method thereof
JP2010140069A (en) 2008-12-09 2010-06-24 Sony Corp Image processing apparatus, imaging apparatus, image processing method, and program
JP2015172795A (en) 2014-03-11 2015-10-01 富士フイルム株式会社 Image processing apparatus, important person determination method, image layout method and program, and recording medium
JP2017037413A (en) 2015-08-07 2017-02-16 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2017090988A (en) 2015-11-04 2017-05-25 セイコーエプソン株式会社 Photographic image extraction device, photographic image extraction method and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011070277A (en) 2009-09-24 2011-04-07 Seiko Epson Corp Image processor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243754A (en) 2006-03-10 2007-09-20 Seiko Epson Corp Printer and print method
JP2010118868A (en) 2008-11-12 2010-05-27 Canon Inc Information processor and control method thereof
JP2010140069A (en) 2008-12-09 2010-06-24 Sony Corp Image processing apparatus, imaging apparatus, image processing method, and program
JP2015172795A (en) 2014-03-11 2015-10-01 富士フイルム株式会社 Image processing apparatus, important person determination method, image layout method and program, and recording medium
JP2017037413A (en) 2015-08-07 2017-02-16 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2017090988A (en) 2015-11-04 2017-05-25 セイコーエプソン株式会社 Photographic image extraction device, photographic image extraction method and program

Also Published As

Publication number Publication date
JP2023083459A (en) 2023-06-15
JP7459345B2 (en) 2024-04-01
JP2021157621A (en) 2021-10-07

Similar Documents

Publication Publication Date Title
US10885307B2 (en) Private photo sharing system, method and network
US8949335B2 (en) Content processing device, content processing method, computer-readable recording medium, and integrated circuit for processing at least one of more contents
EP3063731B1 (en) Image cache for replacing portions of images
JP6012310B2 (en) Image processing apparatus, image processing method, and program
AU2012219277B2 (en) Facial recognition
US8224824B2 (en) Saving device for image sharing, image sharing system, and image sharing method
US20130243273A1 (en) Image publishing device, image publishing method, image publishing system, and program
US10762126B2 (en) System and method for reducing similar photos for display and product design
US9390107B2 (en) System and method for automatically creating a photo calendar
JP5814700B2 (en) Image processing system and image processing method
US10262193B2 (en) Image processing apparatus and method which determine an intimacy between a person in an image and a photographer of the image
US9521211B2 (en) Content processing device, content processing method, computer-readable recording medium, and integrated circuit
JP2015053541A (en) Image processing apparatus, image processing method, and program
US20200090243A1 (en) Photo product engine powered by blog content
US20130250131A1 (en) Image evaluating device, image evaluating method, image evaluating system, and program
JP6222900B2 (en) Image processing apparatus, image processing method, and program
JP2015053542A (en) Image processing apparatus, image processing method, and program
JP6168928B2 (en) Image processing apparatus, image processing method, and program
US20240037623A1 (en) System and method for reducing similar photos from display and product design
JP7267227B2 (en) Image processing device, method for operating image processing device, and program for operating image processing device
JP2009301197A (en) Preview provision method, device and program and device for providing object with image
CN103353879B (en) Image processing method and apparatus
US20220417598A1 (en) Image processing device, operation method of image processing device, and operation program of image processing device
CN106537417B (en) Summarizing photo album
US20210248661A1 (en) Image processing apparatus, image processing method, program, and image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230419

R150 Certificate of patent or registration of utility model

Ref document number: 7267227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150