JP6004718B2 - Image processing apparatus, control method therefor, and program - Google Patents

Image processing apparatus, control method therefor, and program Download PDF

Info

Publication number
JP6004718B2
JP6004718B2 JP2012093395A JP2012093395A JP6004718B2 JP 6004718 B2 JP6004718 B2 JP 6004718B2 JP 2012093395 A JP2012093395 A JP 2012093395A JP 2012093395 A JP2012093395 A JP 2012093395A JP 6004718 B2 JP6004718 B2 JP 6004718B2
Authority
JP
Japan
Prior art keywords
image
images
evaluation
subject
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012093395A
Other languages
Japanese (ja)
Other versions
JP2013222304A5 (en
JP2013222304A (en
Inventor
川崎 勝彦
勝彦 川崎
茂樹 弘岡
茂樹 弘岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012093395A priority Critical patent/JP6004718B2/en
Publication of JP2013222304A publication Critical patent/JP2013222304A/en
Publication of JP2013222304A5 publication Critical patent/JP2013222304A5/ja
Application granted granted Critical
Publication of JP6004718B2 publication Critical patent/JP6004718B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ユーザが画像を選択するアルバム作製システムにおいて、適切な画像の選択を容易にする、画像処理装置および方法及びプログラムに関する。   The present invention relates to an image processing apparatus, method, and program for facilitating selection of an appropriate image in an album creating system in which a user selects an image.

合焦、顔の大きさなどに基づいて、画像を自動的に選択する印刷装置が提案されている。しかしながら、そのような一般的な技術では、良い画像を選択することができても、同じような構図、同じ被写体の組み合わせ、同一時間帯の画像ばかりになってしまう可能性がある。   There has been proposed a printing apparatus that automatically selects an image based on focus, face size, and the like. However, with such a general technique, even if a good image can be selected, there is a possibility that only a similar composition, a combination of the same subject, and an image in the same time zone may be obtained.

また、特許文献1には、画像に写っている人物に応じて画像をグループ分けし、画像の鑑賞者に応じて、表示すべき画像グループを判断し、画像を表示する電子アルバム表示システムが記載されている。   Patent Document 1 describes an electronic album display system in which images are grouped according to the person in the image, an image group to be displayed is determined according to the viewer of the image, and the image is displayed. Has been.

また、特許文献2に記載のアルバム作成装置、アルバム作成方法、及びプログラムでは、候補画像をイベント毎に分類し、各イベントの主画像を選択し、各イベントの従画像を同じイベント分類内から主画像の内容に基づいて選択する。特に、特許文献2では、従画像選択部が主画像との類似度を算出し、類似度が小さい画像を選択すること、類似度とは、被写体が同じであるか否かであることが記載されている。   Further, in the album creating apparatus, the album creating method, and the program described in Patent Document 2, the candidate images are classified for each event, the main image for each event is selected, and the sub-image for each event is selected from the same event classification. Select based on image content. In particular, Patent Document 2 describes that the sub-image selection unit calculates the degree of similarity with the main image, selects an image with a low degree of similarity, and the degree of similarity is whether or not the subject is the same. Has been.

また、特許文献3に記載の画像選択装置および画像選択方法では、ユーザが印刷の目的に応じて自動印刷モードを選択する。そして、モードに応じて設定された評価基準および荷重を適用して各画像を評価し、閾値以上の総合評価値を有する画像を印刷対象の画像として選択する。ここでの評価項目には、少なくとも、ピントずれの程度、ブレの程度、露出の適正度、被写体の顔の大きさ、被写体の顔の位置、撮影位置までの距離、のいずれか1つが含まれる。   Further, in the image selection device and the image selection method described in Patent Document 3, the user selects an automatic print mode according to the purpose of printing. Then, each image is evaluated by applying an evaluation standard and a load set according to the mode, and an image having a comprehensive evaluation value equal to or greater than a threshold is selected as an image to be printed. The evaluation items here include at least one of the degree of defocus, the degree of blurring, the appropriateness of exposure, the size of the subject's face, the position of the subject's face, and the distance to the shooting position. .

特開2006−236218号公報JP 2006-236218 A 特開2006−295890号公報JP 2006-295890 A 特開2007−041836号公報JP 2007-041836 A

特許文献1に記載されている方法で、画像を選択し、印刷物のアルバムを作成した場合には、同じ被写体の組み合わせ、構図の写真が続いてしまう可能性がある。また、特許文献2に記載されている方法では、従画像同士の類似度は判断せず、人物の組み合わせによる類似度の判断は行なわない。また、画像の加工による類似度の低減についても言及していない。さらに、特許文献3に記載されている方法では、選択した画像に基づいて評価値を決定しないため、似たような画像ばかりが選択されてしまう可能性がある。また、被写体の組み合わせが評価項目に入っていないため、同一の組み合わせの画像ばかりになってしまう可能性がある。さらに、画像を加工する構成がないため、閾値に達した画像が不足の場合には、レイアウトに空欄ができてしまう。   When an image is selected and a printed album is created by the method described in Patent Document 1, there is a possibility that a combination of the same subject and a photograph of the composition will continue. In the method described in Patent Document 2, the degree of similarity between sub-images is not judged, and the degree of similarity is not judged based on a combination of persons. In addition, there is no mention of reduction of similarity by image processing. Furthermore, in the method described in Patent Document 3, since an evaluation value is not determined based on a selected image, only a similar image may be selected. Further, since the combination of subjects is not included in the evaluation items, there is a possibility that only the images of the same combination will be obtained. Furthermore, since there is no configuration for processing the image, if there is a shortage of images that have reached the threshold value, a blank is created in the layout.

したがって、以上のような特許文献1〜3に記載の従来技術では、良い画像を選択することはできても、選択された画像の集合は、同じような構図、同じ被写体の組み合わせ、同一時間帯の画像ばかりになってしまう可能性がある。   Therefore, in the conventional techniques described in Patent Documents 1 to 3 as described above, although a good image can be selected, the set of selected images has the same composition, the same subject combination, and the same time zone. There is a possibility of becoming only the image of.

本発明は、上記課題に鑑みてなされたものであり、画像の内容または属性について偏りのない画像選択が行える画像処理装置およびその制御方法を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide an image processing apparatus capable of performing image selection with no bias in the content or attribute of an image and a control method thereof.

上記の目的を達成するための本発明の一態様による画像処理装置は以下の構成を備える。すなわち、
画像の内容および属性情報の少なくとも何れかに基づいて、複数の画像を評価する評価手段と、
ユーザ指示に応じて選択できる選択候補として、前記評価に基づく順に前記複数の画像を表示部の表示領域に提示する提示手段と、
前記選択候補として前記表示領域に提示された前記複数の画像からユーザの指示に応じて選択された画像の内容および属性情報の少なくとも何れかに基づいて、前記複数の画像のうちの前記選択された画像以外の画像の評価を更新する更新手段と、を備え
前記提示手段は、前記更新手段によって更新された画像の評価に基づいて、前記選択された画像以外の複数の画像を並べ替えて前記表示領域に提示する。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention has the following arrangement. That is,
Evaluation means for evaluating a plurality of images based on at least one of image content and attribute information;
As selection candidates which can be selected according to user instructions, and presenting means for presenting the plurality of images sequentially rather based on the evaluation in the display area of the display unit,
The selected of the plurality of images based on at least one of content and attribute information of the image selected according to a user instruction from the plurality of images presented in the display area as the selection candidate Updating means for updating the evaluation of images other than images ,
Said presenting means, on the basis of the evaluation of the updated image by updating means, you presented in the display area are rearranged plurality of images other than the selected image.

本発明によれば、画像の内容または属性について偏りのない画像選択が行える画像処理装置およびその制御方法が提供される。   According to the present invention, there are provided an image processing apparatus and a control method therefor that can perform image selection with no bias in the contents or attributes of the image.

実施形態によるアルバム作成システムの物理的構成を示すブロック図。The block diagram which shows the physical structure of the album creation system by embodiment. 実施形態によるアルバム作成システムの論理的構成を示すブロック図。The block diagram which shows the logical structure of the album creation system by embodiment. アルバム作成処理の全体の流れを示すフローチャート。The flowchart which shows the whole flow of an album creation process. 登録情報の編集処理の流れを示すフローチャート。6 is a flowchart showing a flow of registration information editing processing. 登録情報(被写体リスト、被写体関係情報)を説明する図。The figure explaining registration information (subject list, subject-related information). ポイント算出規則設定処理を示すフローチャート。The flowchart which shows a point calculation rule setting process. 画像ポイント算出処理を示すフローチャート。The flowchart which shows an image point calculation process. 画像に付与されている属性情報を示す図。The figure which shows the attribute information provided to the image. (a)画像内被写体関係情報と、(b)被写体ポイントを説明する図。FIG. 6A is a view for explaining subject-related information in an image and FIG. 画像ポイントを算出する過程を説明する図。The figure explaining the process which calculates an image point. 画像選択処理を示すフローチャート。The flowchart which shows an image selection process. ユーザの画像選択操作を説明する図。The figure explaining user's image selection operation. 他の実施形態による画像選択処理を示すフローチャート。The flowchart which shows the image selection process by other embodiment. ユーザの画像選択操作を説明する図。The figure explaining user's image selection operation. 他の実施形態による画像選択処理を示すフローチャート。The flowchart which shows the image selection process by other embodiment. 画像ポイントを算出する過程を説明する図。The figure explaining the process which calculates an image point. 他の実施形態によるアルバム作成処理を示すフローチャート。The flowchart which shows the album creation process by other embodiment. トリミング処理を示すフローチャート。The flowchart which shows a trimming process. トリミング処理を説明する図。The figure explaining a trimming process. ポイント算出規則の一例を示す図。The figure which shows an example of a point calculation rule. アルバム作成システムの操作画面の一例を示す図。The figure which shows an example of the operation screen of an album creation system.

[第1実施形態]
<アルバム作成システムの構成>
図1は、本実施形態に於けるアルバム作成システムとして動作する画像処理装置の一例を示す物理的構成図である。100は、アルバム作成システムとして機能する画像処理装置である。画像処理装置100には、CPU101、ROM102、RAM103、表示部104、操作部105、印刷部106が具備されている。本アルバム作成システムは、ROM102に記憶されたプログラムをCPU101が読み出して実行することによって動作し、たとえば図2に示す各機能部を実現する。なお、印刷部106は、画像処理装置100の外部に接続される形態であってもよく、いわゆるコンピュータ(情報処理装置)と印刷装置から構成されてもよい。
[First Embodiment]
<Configuration of album creation system>
FIG. 1 is a physical configuration diagram illustrating an example of an image processing apparatus that operates as an album creating system according to the present embodiment. Reference numeral 100 denotes an image processing apparatus that functions as an album creation system. The image processing apparatus 100 includes a CPU 101, a ROM 102, a RAM 103, a display unit 104, an operation unit 105, and a printing unit 106. The album creating system operates when the CPU 101 reads out and executes a program stored in the ROM 102, and implements each functional unit shown in FIG. 2, for example. The printing unit 106 may be connected to the outside of the image processing apparatus 100, or may be configured by a so-called computer (information processing apparatus) and a printing apparatus.

図2は、第1実施形態によるアルバム作成システムの一例を示す論理的構成図である。画像読み込み部201によって、メモリーカードなどから読み込まれた画像は、入力画像集合記憶部202に記憶される。入力画像集合記憶部202には入力画像集合Imgs−inが記憶されている。入力画像集合記憶部202には、読み込まれた複数の画像の一部または全てを要素とした集合が記憶されることになる。選択画像集合記憶部203には、入力画像集合記憶部202の集合から選択された画像を要素とする選択画像集合Imgs−outが記憶されている。登録情報記憶部204には、被写体情報や構図情報などの登録情報が記憶されている。登録情報編集部205は、登録情報記憶部204に記憶されている登録情報を編集する。   FIG. 2 is a logical configuration diagram showing an example of the album creating system according to the first embodiment. The image read from the memory card or the like by the image reading unit 201 is stored in the input image set storage unit 202. The input image set storage unit 202 stores an input image set Imgs-in. The input image set storage unit 202 stores a set including some or all of the plurality of read images as elements. The selected image set storage unit 203 stores a selected image set Imgs-out whose elements are images selected from the set of the input image set storage unit 202. The registration information storage unit 204 stores registration information such as subject information and composition information. The registration information editing unit 205 edits the registration information stored in the registration information storage unit 204.

ポイント算出規則記憶部206には、たとえば図20に示されるような、画像にポイントを付与する規則であるポイント算出規則が記憶されている。ポイント算出規則は、ポイント算出規則編集部207によって編集される。画像選択部208は入力画像集合記憶部202の画像集合から画像を選択し、選択された画像を、選択画像Img−selとする。ポイント算出部209は、画像に対するポイントを算出する。レイアウト処理部210は、画像選択部208によって選択された画像をアルバム用にレイアウトする。印刷処理部211は、印刷部106にレイアウトされた画像を印刷させる。トリミング部212は、入力画像集合記憶部202および選択画像集合記憶部203に記憶されている画像をトリミングする。   The point calculation rule storage unit 206 stores a point calculation rule that is a rule for assigning points to an image, for example, as shown in FIG. The point calculation rule is edited by the point calculation rule editing unit 207. The image selection unit 208 selects an image from the image set in the input image set storage unit 202, and sets the selected image as a selected image Img-sel. The point calculation unit 209 calculates points for the image. The layout processing unit 210 lays out the image selected by the image selection unit 208 for the album. The print processing unit 211 causes the printing unit 106 to print the laid out image. The trimming unit 212 trims the images stored in the input image set storage unit 202 and the selected image set storage unit 203.

図21に、アルバム作成システムの操作画面の一例を示す。ページレイアウト領域Layout−editD内にはページ領域Page1、Page2、・・・が設定されている。各ページ領域Page1、Page2、・・・内には画像設置領域Place1、Place2、・・・が設定されている。また、ボタンButtonLによって左方向にアルバムのページを捲ることができ、ボタンButtonRによって右方向にアルバムのページを捲ることができる。ページレイアウト領域Layout−editDの下部には、入力画像集合表示領域Imgs−inDと選択画像集合表示領域Imgs−outDが設定されている。入力画像集合表示領域Imgs−inDには、入力画像集合Imgs−inの縮小画像(サムネイル)が、ユーザ指示に応じて選択できる選択候補として表示される。また、選択画像集合表示領域Imgs−outDには、上記選択候補からユーザ指示により選択された選択済みの画像の集合である選択画像集合Imgs−outが、各画像の縮小画像(サムネイル)により表示される。ユーザは、入力画像集合表示領域Imgs−inDに表示されている選択候補の画像を、選択画像集合表示領域Imgs−outDに移動することでアルバムに使用する画像を選択する。また、選択画像集合表示領域Imgs−outDから選択した画像を、入力画像集合表示領域Imgs−inDに移動することで選択した画像を非選択状態に戻す(非選択画像に戻す)ことができる。選択画像集合表示領域Imgs−outDに表示されている選択画像集合Imgs−outは選択順に、画像設置領域Place1、Place2、・・・に表示される。   FIG. 21 shows an example of the operation screen of the album creation system. In the page layout area Layout-editD, page areas Page1, Page2,... Are set. Image setting areas Place1, Place2,... Are set in each page area Page1, Page2,. Also, the button ButtonL can be used to turn the album page in the left direction, and the button ButtonR can be used to turn the album page in the right direction. An input image set display area Imgs-inD and a selected image set display area Imgs-outD are set below the page layout area Layout-editD. In the input image set display area Imgs-inD, a reduced image (thumbnail) of the input image set Imgs-in is displayed as a selection candidate that can be selected according to a user instruction. In the selected image set display area Imgs-outD, a selected image set Imgs-out, which is a set of selected images selected by the user instruction from the selection candidates, is displayed as a reduced image (thumbnail) of each image. The The user selects an image to be used for the album by moving the selection candidate image displayed in the input image set display area Imgs-inD to the selected image set display area Imgs-outD. Further, the selected image can be returned to the non-selected state (returned to the non-selected image) by moving the image selected from the selected image set display area Imgs-outD to the input image set display area Imgs-inD. The selected image set Imgs-out displayed in the selected image set display area Imgs-outD is displayed in the image setting areas Place1, Place2,.

<アルバム作成処理>
図3は、アルバム作成処理の全体の流れを示すフローチャートである。ステップS301において、画像読み込み部201は、メモリーカードなどから画像の読み込みを行う。ここで読み込んだ画像は、入力画像集合Imgs−inとして入力画像集合記憶部202に記憶される。ステップS302において、登録情報記憶部204、登録情報編集部205は、登録情報の設定を行なう。ステップS302における登録情報の設定処理の詳細は後述する。ステップS303において、ポイント算出規則記憶部206、ポイント算出規則編集部207は、ポイント算出規則の設定を行う。ステップS303におけるポイント算出規則の設定処理の詳細は後述する。ステップS304において、画像選択部208は、入力画像集合表示領域Imgs−inDの設定を行う。入力画像集合記憶部202に記憶されている入力画像集合Imgs−inの画像は、入力画像集合表示領域Imgs−inDに表示される。ステップS305において、画像選択部208は、選択画像集合表示領域Imgs−outDの設定を行う。選択画像集合記憶部203に記憶されている選択画像集合Imgs−outの画像は、選択画像集合表示領域Imgs−outDに表示される。ステップS306において、ポイント算出部209は、画像内容または属性に基づいて画像を評価し、その評価値を画像ポイントとして算出する。本実施形態では、ポイント算出部209は、ポイント算出規則記憶部206に記憶されているポイント算出規則に基づいて画像のポイントを算出し、算出したポイントを画像に付加する。ステップS306における画像ポイント算出処理の詳細については後述する。ステップS307において、画像選択部208は、画像を選択する。画像選択処理の詳細は後述する。ステップ308において、レイアウト処理部210は、選択された画像をアルバム用にレイアウトする。ステップS309において、印刷処理部211は、レイアウトされた画像を印刷する。トリミング部212については、第4実施形態により後述する。
<Album creation process>
FIG. 3 is a flowchart showing the overall flow of the album creation process. In step S301, the image reading unit 201 reads an image from a memory card or the like. The image read here is stored in the input image set storage unit 202 as an input image set Imgs-in. In step S302, the registration information storage unit 204 and the registration information editing unit 205 set registration information. Details of the registration information setting process in step S302 will be described later. In step S303, the point calculation rule storage unit 206 and the point calculation rule editing unit 207 set a point calculation rule. Details of the point calculation rule setting processing in step S303 will be described later. In step S304, the image selection unit 208 sets the input image aggregate display area Imgs-inD. The images of the input image set Imgs-in stored in the input image set storage unit 202 are displayed in the input image set display area Imgs-inD. In step S305, the image selection unit 208 sets the selected image set display area Imgs-outD. The images of the selected image set Imgs-out stored in the selected image set storage unit 203 are displayed in the selected image set display area Imgs-outD. In step S306, the point calculation unit 209 evaluates the image based on the image content or attribute, and calculates the evaluation value as an image point. In the present embodiment, the point calculation unit 209 calculates an image point based on the point calculation rule stored in the point calculation rule storage unit 206, and adds the calculated point to the image. Details of the image point calculation processing in step S306 will be described later. In step S307, the image selection unit 208 selects an image. Details of the image selection process will be described later. In step 308, the layout processing unit 210 lays out the selected image for the album. In step S309, the print processing unit 211 prints the laid out image. The trimming unit 212 will be described later according to the fourth embodiment.

<画像に付いている情報>
ステップS301において読み込まれた画像には、被写体情報と構図情報が付いている。例えば、図8(a1)の画像ImgABには、被写体の識別情報としての被写体名を含む構図情報として、図8(b1)のようなフレーム情報F1〜F4が付いている。ここで、フレームF1は、被写体Aの全体領域、フレームF2は被写体Aの顔領域を表す。また、フレームF3は、被写体Bの全体領域、フレームF4は被写体Bの顔領域を表す。各フレームには、被写体名、および、画像中の位置と大きさが指定されている。例えばフレームF1は、被写体Aに対するものあり、左上の位置が(X1,Y1)であり、幅がW1、高さがH1であると指定されている。さらに顔フレームF2には、図8(c1)に示すように、顔の向きを示す情報Y2(両耳を結ぶ線)と、N2(鼻筋を示す線)が付いていてもよい。同様に、図8(a2)の画像ImgABCには、図8(b2)のようなフレーム情報F5〜F10が付いている。画像に付いている被写体名は構図情報に含まれていてもよいし、被写体名と構図情報と分離していてもよい。また、画像に付いている被写体名と構図情報などは、画像を読み込んだ後に認識技術などによって付けてもよい。
<Information attached to the image>
The image read in step S301 has subject information and composition information. For example, the image ImgAB in FIG. 8A1 has frame information F1 to F4 as shown in FIG. 8B1 as composition information including a subject name as subject identification information. Here, the frame F1 represents the entire area of the subject A, and the frame F2 represents the face area of the subject A. The frame F3 represents the entire area of the subject B, and the frame F4 represents the face area of the subject B. In each frame, the subject name and the position and size in the image are designated. For example, the frame F1 is for the subject A, the upper left position is (X1, Y1), the width is W1, and the height is H1. Further, as shown in FIG. 8C1, the face frame F2 may include information Y2 (line connecting both ears) indicating the orientation of the face and N2 (line indicating the nose). Similarly, frame information F5 to F10 as shown in FIG. 8B2 is attached to the image ImgABC in FIG. 8A2. The subject name attached to the image may be included in the composition information, or may be separated from the subject name and the composition information. Also, the subject name and composition information attached to the image may be attached by a recognition technique after the image is read.

<登録情報の設定処理>
図4の流れ図を用いて、登録情報の設定処理(図3のステップS302)の詳細な説明を行う。ステップS401において、登録情報編集部205は、登録情報記憶部204から登録情報の読み込みを行う。登録情報には、図5(a)に示すような被写体リストObj−Listと、図5(b)に示すような被写体関係情報Obj−Connectとがある。図5(a)に示すように、被写体リストObj−Listは、例えば人名A〜Hからなるリストである。被写体リストの人名は、何らかの方法で予め与えられていても良いし、手動で設定されても良いし、入力画像集合内の人物認識によって自動的に取得しても良い。また、図5(b)に示すように、被写体関係情報Obj−Connectは、被写体名、被写体の所属するグループ、グループ名、被写体間の関係等を記録した情報である。具体的には、Family(A,B,C)、父子(A,C)のようにデータとして記録されている。ステップS402において、登録情報編集部205は、登録情報を編集するかどうかをユーザに確認する。ステップS402において、ユーザが登録情報を編集すると指定すれば、処理はステップS403に移る。ステップS402において、ユーザが登録情報を編集しないと指定すれば、処理を終了する。
<Registration information setting process>
The registration information setting process (step S302 in FIG. 3) will be described in detail with reference to the flowchart in FIG. In step S <b> 401, the registration information editing unit 205 reads registration information from the registration information storage unit 204. The registration information includes a subject list Obj-List as shown in FIG. 5A and subject-related information Obj-Connect as shown in FIG. As shown in FIG. 5A, the subject list Obj-List is a list made up of, for example, person names A to H. The names of subjects in the subject list may be given in advance by some method, may be set manually, or may be automatically acquired by person recognition in the input image set. As shown in FIG. 5B, the subject relationship information Obj-Connect is information that records the subject name, the group to which the subject belongs, the group name, the relationship between subjects, and the like. Specifically, it is recorded as data such as Family (A, B, C), father and son (A, C). In step S402, the registration information editing unit 205 confirms with the user whether or not to edit the registration information. In step S402, if the user specifies to edit the registration information, the process proceeds to step S403. In step S402, if the user specifies not to edit the registration information, the process ends.

ステップS403において、登録情報編集部205は、ユーザ操作に応じて、例えば、図5(a)のような被写体リストObj−Listの編集を行う。ステップS404において、登録情報編集部205は、被写体の属性の設定を行う。ここでは属性として、図5(b)の被写体関係情報Obj−Connectに示すような被写体名A、B、C・・・、およびそれらの関係の設定を行う。ステップS405において、登録情報編集部205は、ユーザ操作に応じて、アルバムの主体となる被写体の設定を行う。例えば、図5(b)に示すように被写体Aを主体に設定することができる。ステップS406において、登録情報編集部205は、ユーザ操作に応じて、被写体と被写体との関係を編集する。例えば、図5(b)に示すように、「被写体Cは被写体Aの息子である」のような設定を行う。ステップS407において、登録情報編集部205は、ユーザ操作に応じて、被写体のグルーピングを行う。例えば被写体AとBとCを同一グループとしてまとめる。ステップS408において、登録情報編集部205は、ユーザ操作に応じて、被写体のグループに属性を設定する。例えば図5(b)の被写体AとBとCの属するグループ名に「家族」を設定する。ステップS409において、登録情報編集部205は、各種属性の設定を終了するかどうかユーザに確認する。ステップS409において、各種属性の設定を続けるとユーザが指定すれば、処理はステップS403に戻る。ステップS409において、各種属性の設定を終了するとユーザが指定すれば、登録情報の設定処理を終了する。なお、編集結果の登録情報は、登録情報記憶部204に記憶される。   In step S403, the registration information editing unit 205 edits the subject list Obj-List as shown in FIG. In step S404, the registration information editing unit 205 sets subject attributes. Here, subject names A, B, C... And their relationship are set as attributes as shown in the subject relationship information Obj-Connect in FIG. In step S <b> 405, the registration information editing unit 205 sets a subject that is a subject of the album in response to a user operation. For example, the subject A can be set mainly as shown in FIG. In step S406, the registration information editing unit 205 edits the relationship between the subject in response to a user operation. For example, as shown in FIG. 5B, a setting such as “Subject C is the son of Subject A” is performed. In step S407, the registration information editing unit 205 performs subject grouping according to a user operation. For example, subjects A, B, and C are grouped into the same group. In step S408, the registration information editing unit 205 sets an attribute for the group of subjects in response to a user operation. For example, “family” is set as the group name to which subjects A, B, and C belong in FIG. In step S409, the registration information editing unit 205 confirms with the user whether or not to finish setting various attributes. In step S409, if the user specifies to continue setting various attributes, the process returns to step S403. In step S409, if the user specifies that setting of various attributes is to be ended, the registration information setting process is ended. The registration information of the editing result is stored in the registration information storage unit 204.

このような処理によって、図5(a)の被写体リストを編集して、図5(c)に示されるような被写体リストを作成できる。また、図5(b)のような被写体関係情報を、図5(d)に示すように、被写体関係情報編集画面Obj−Connect−Edit上で編集することができる。   Through such processing, the subject list shown in FIG. 5A can be edited to create a subject list as shown in FIG. Further, the subject relationship information as shown in FIG. 5B can be edited on the subject relationship information editing screen Obj-Connect-Edit as shown in FIG. 5D.

<ポイント算出規則の設定処理>
次に、図6のフローチャートを用いて、ポイント算出規則編集部207によるポイント算出規則の設定処理(図3のステップS303)の詳細な説明を行う。ポイント算出規則は、画像中の被写体や構図情報から、画像のポイントを算出する規則である。ポイント算出規則は、ユーザ等が作成したもの、システムが予め設定したものでもよいし、入力画像集合を画像解析して得られた情報に応じた規則を適用してもよい。ポイント算出規則は、例えば、「画像ポイント=被写体ポイント+構図ポイント」のような規則や、「画像ポイント=F(被写体ポイント,構図ポイント,合焦ポイント):F(X,Y,Z)はユーザが定義した関数」のような規則である。なお、合焦ポイントの詳細な使用例については第3実施形態において詳述する。
<Point calculation rule setting processing>
Next, the point calculation rule setting process (step S303 in FIG. 3) by the point calculation rule editing unit 207 will be described in detail with reference to the flowchart of FIG. The point calculation rule is a rule for calculating a point of an image from a subject in the image and composition information. The point calculation rule may be a rule created by a user or the like, a preset value set by the system, or a rule corresponding to information obtained by image analysis of an input image set. The point calculation rule is, for example, a rule such as “image point = subject point + composition point” or “image point = F (subject point, composition point, in-focus point): F (X, Y, Z)” is a user. It is a rule like “function defined by”. A detailed usage example of the in-focus point will be described in detail in the third embodiment.

ステップS501において、ポイント算出規則編集部207は、メモリーカードなどからポイント算出規則記憶部206にポイント算出規則を読み込む。ステップS502において、ポイント算出規則編集部207は、ポイント算出規則記憶部206に記憶されているポイント算出規則を編集するかどうかを判定する。ステップS502において、ポイント算出規則を編集するとユーザが指定すれば、処理はステップS503に移る。他方、ステップS502において、ポイント算出規則を編集しないとユーザが指定すれば、ポイント算出規則の設定処理を終了する。   In step S501, the point calculation rule editing unit 207 reads the point calculation rule from the memory card or the like into the point calculation rule storage unit 206. In step S502, the point calculation rule editing unit 207 determines whether or not to edit the point calculation rule stored in the point calculation rule storage unit 206. In step S502, if the user specifies that the point calculation rule is to be edited, the process proceeds to step S503. On the other hand, if the user specifies not to edit the point calculation rule in step S502, the point calculation rule setting process is terminated.

ステップS503において、ポイント算出規則編集部207は、ポイント算出規則記憶部206に記憶されているポイント算出規則をユーザ操作に応じて編集する。例えば、「画像ポイント=F(被写体ポイント,構図ポイント,合焦ポイント):F(X,Y,Z)」のようなポイント算出規則があったとき、関数F(X,Y,Z)の形をユーザが変更することができる。ステップS504において、ポイント算出規則編集部207は、ポイント算出規則の編集を終了するかどうか判定する。ステップS504において、ポイント算出規則の編集を終了するとユーザが指定したならば、ポイント算出規則の設定処理を終了する。他方、ステップS504において、ポイント算出規則の編集を続けるとユーザが指定したならば、処理はステップS503に戻る。   In step S503, the point calculation rule editing unit 207 edits the point calculation rule stored in the point calculation rule storage unit 206 according to a user operation. For example, when there is a point calculation rule such as “image point = F (subject point, composition point, focusing point): F (X, Y, Z)”, the form of the function F (X, Y, Z) Can be changed by the user. In step S504, the point calculation rule editing unit 207 determines whether or not to finish editing the point calculation rule. In step S504, if the user specifies that the editing of the point calculation rule is to be ended, the point calculation rule setting process is ended. On the other hand, in step S504, if the user specifies to continue editing the point calculation rule, the process returns to step S503.

図20は、ポイント算出規則の一例である。ここでは、最優先の規則0によって、規則を適用する順番(優先順位)が指定されている。上述したようにこれらのポイント算出規則はユーザが編集可能である。また、ポイント算出規則は、プログラムと分離してデータベースに記録されていてもよいし、プログラム内に記述されていてもよい。   FIG. 20 is an example of a point calculation rule. Here, the highest priority rule 0 specifies the order (priority order) in which the rules are applied. As described above, these point calculation rules can be edited by the user. Further, the point calculation rule may be recorded in the database separately from the program, or may be described in the program.

<画像ポイント算出処理>
図7のフローチャートを用いて、複数の画像の各々について、画像の内容および属性情報の少なくとも何れかに基づいて評価値を算出する処理の一例である画像ポイント算出処理(図3のステップS306)の詳細を説明する。本実施形態では、被写体名と構図情報とは分離可能な属性として画像に付いているものとして、画像ポイント=被写体ポイント+構図ポイント、と算出する。ステップS601において、ポイント算出部209は、入力画像集合記憶部202から最初の画像を選択する。ステップS602において、ポイント算出部209は、画像内被写体情報を抽出する。読み込んだ画像には、図10(b1)のように出現する被写体名と、図10(e1)のような構図情報が付与されている。また、登録情報記憶部204には、図5(b)のような被写体関係情報Obj−Connectが記憶されている。ここでは、読み込んだ画像に対して、画像内に出現する被写体が抽出される。そして、ポイント算出部209は、図5(b)の被写体関係情報Obj−Connectを用いて、図9(a)のような画像内被写体情報を抽出する。例えば画像Img1に対して、図10(c1)のような画像内被写体情報が設定される。
<Image point calculation processing>
Using the flowchart in FIG. 7, an image point calculation process (step S306 in FIG. 3) that is an example of a process for calculating an evaluation value for each of a plurality of images based on at least one of the image content and attribute information. Details will be described. In this embodiment, assuming that the subject name and the composition information are attached to the image as separable attributes, image point = subject point + composition point is calculated. In step S <b> 601, the point calculation unit 209 selects the first image from the input image set storage unit 202. In step S602, the point calculation unit 209 extracts in-image subject information. The read image is given the name of the subject appearing as shown in FIG. 10 (b1) and the composition information as shown in FIG. 10 (e1). The registration information storage unit 204 stores subject-related information Obj-Connect as shown in FIG. Here, a subject appearing in the image is extracted from the read image. Then, the point calculation unit 209 extracts the in-image subject information as illustrated in FIG. 9A using the subject relationship information Obj-Connect illustrated in FIG. For example, the in-image subject information as shown in FIG. 10C1 is set for the image Img1.

ステップS603において、ポイント算出部209は、例えば図20に示すようなポイント算出規則を用いて、画像の被写体ポイントを算出する。ここでは、図9(a)のような画像内被写体情報に対して、図9(b)のように被写体ポイントが算出される。ここでは、図9(b1)〜(b6)において、(20)や(10)のような括弧内の数字が算出された被写体ポイントを表す。すると、例えば図10(a1)の画像Img1に対する被写体ポイントは、図10(d1)のようになる。次に、ステップS604において、ポイント算出部209は、画像に付与されている被写体の構図情報(図10(e1))と、例えば図20に示すようなポイント算出規則を用いて、画像の構図ポイントを算出する。すると、例えば図10(a1)の画像Img1に対する構図ポイントは、図10(f1)のようになる。その後、被写体ポイントと構図ポイントは加算されて、図10(a1)の画像については図10(h1)に示す画像ポイントが得られることになる。   In step S603, the point calculation unit 209 calculates the subject point of the image using a point calculation rule as shown in FIG. 20, for example. Here, subject points are calculated as shown in FIG. 9B with respect to the in-image subject information as shown in FIG. Here, in FIG. 9 (b1) to (b6), subject numbers for which numbers in parentheses such as (20) and (10) are calculated are shown. Then, for example, the subject point with respect to the image Img1 in FIG. 10 (a1) is as shown in FIG. 10 (d1). Next, in step S604, the point calculation unit 209 uses the composition information (FIG. 10 (e1)) of the subject attached to the image and the point calculation rule as shown in FIG. Is calculated. Then, for example, the composition point for the image Img1 in FIG. 10A1 is as shown in FIG. 10F1. Thereafter, the subject point and the composition point are added, and the image point shown in FIG. 10 (h1) is obtained for the image of FIG. 10 (a1).

ステップS605において、ポイント算出部209は、最後の画像に対して画像ポイント算出処理が行なわれたかどうか判定する。ステップS605においてYESならば、画像ポイント算出処理を終了する。ステップS605においてNOならば、処理はステップS606に移る。ステップS606において、ポイント算出部209は、入力画像集合内の次の画像を選択し、処理はステップS602に戻る。   In step S605, the point calculation unit 209 determines whether image point calculation processing has been performed on the last image. If YES in step S605, the image point calculation process ends. If NO in step S605, the process proceeds to step S606. In step S606, the point calculation unit 209 selects the next image in the input image set, and the process returns to step S602.

以上のようなステップ601〜ステップS606の画像ポイント算出処理によって、最終的に、図10(a1)〜図10(a10)の画像Img1〜Img10に対して付与される画像ポイントは、図10(h1)〜図10(h10)のように算出される。以下の説明で、画像ImgXのポイントがNであるとき、ImgX(N)と記述する。例えば図10に示した画像(Img1〜Img10)の各々の画像のポイントは、Img1(120)、Img2(120)、Img3(120)、Img4(120)、Img5(100)、Img6(100)、Img7(90)、Img8(100)、Img9(90)、Img10(90)となる。   The image points finally given to the images Img1 to Img10 in FIGS. 10 (a1) to 10 (a10) by the image point calculation processing in steps 601 to S606 as described above are shown in FIG. ) To FIG. 10 (h10). In the following description, when the point of the image ImgX is N, it is described as ImgX (N). For example, the points of each of the images (Img1 to Img10) shown in FIG. 10 are Img1 (120), Img2 (120), Img3 (120), Img4 (120), Img5 (100), Img6 (100), Img7 (90), Img8 (100), Img9 (90), and Img10 (90).

<画像選択処理>
本実施形態では、選択画像と被写体情報および構図が一致する他画像のポイントを下げる。図11のフローチャートを用いて、画像選択処理(図3のステップS307)の詳細を説明する。
<Image selection process>
In the present embodiment, the points of other images that match the selected image and subject information and composition are lowered. Details of the image selection process (step S307 in FIG. 3) will be described using the flowchart in FIG.

ステップS701において、画像選択部208は、入力画像集合(入力画像集合記憶部202に記憶されている)を、上記の画像ポイント算出処理で算出された画像ポイント順に、入力画像集合表示領域Imgs−inDに表示する。ステップS702において、ユーザによる画像の選択操作を受け付ける。ユーザによる画像の選択操作とは、たとえば、ユーザが図21の入力画像集合表示領域Imgs−inDに表示されている画像を選択し、選択画像集合表示領域Imgs−outDに移動する操作である。或いは、ユーザが選択画像集合表示領域Imgs−outDに表示されている画像を選択し、入力画像集合表示領域Imgs−inDに移動する操作である。このときユーザが選択した画像を選択画像Img−selとする。入力画像集合表示領域Imgs−inDから選択画像集合表示領域Imgs−outDに移動した選択画像Img−selは、入力画像集合から除外され、選択画像集合に加入されることになる。同様に、選択画像集合表示領域Imgs−outDから入力画像集合表示領域Imgs−inDに移動した選択画像Img−selは、選択画像集合から除外され、入力画像集合に加入されることになる。ステップS703において、画像選択部208は、選択画像が入力画像集合内の画像である(Img−sel⊂Imgs−in)かどうかを判定する。ステップS703においてYESならば、処理はステップS704に移る。また、ステップS703においてNOならば、選択画像が選択画像集合内の画像である(Img−sel⊂Imgs−out)とみなして、処理はステップS709に移る。   In step S701, the image selection unit 208 converts the input image set (stored in the input image set storage unit 202) into the input image set display area Imgs-inD in the order of the image points calculated in the image point calculation process. To display. In step S702, an image selection operation by the user is accepted. The image selection operation by the user is, for example, an operation in which the user selects an image displayed in the input image set display area Imgs-inD in FIG. 21 and moves to the selected image set display area Imgs-outD. Alternatively, the user selects an image displayed in the selected image set display area Imgs-outD and moves to the input image set display area Imgs-inD. At this time, the image selected by the user is set as a selected image Img-sel. The selected image Img-sel moved from the input image set display area Imgs-inD to the selected image set display area Imgs-outD is excluded from the input image set and joined to the selected image set. Similarly, the selected image Img-sel moved from the selected image set display area Imgs-outD to the input image set display area Imgs-inD is excluded from the selected image set and joined to the input image set. In step S703, the image selection unit 208 determines whether the selected image is an image in the input image set (Img-sel⊂Imgs-in). If YES in step S703, the process proceeds to step S704. If NO in step S703, the selected image is regarded as an image in the selected image set (Img-selsImgs-out), and the process proceeds to step S709.

ステップS704〜S708では、入力画像集合表示領域Imgs−inDに表示された選択候補から選択された画像の内容および属性情報の少なくとも何れかに基づいて、選択された画像以外の画像の評価値が更新される。本実施形態では、評価値の更新に画像の内容(被写体、構図)を用いる例を示す。ステップS704において、画像選択部208は、入力画像集合Imgs−inから選択画像Img−selを取り除く。ステップS705において、画像選択部208は、選択画像Img−selを選択画像集合Imgs−outに追加する。選択画像集合Imgs−outは選択画像集合記憶部203に記憶される。ステップS706において、画像選択部208は、選択画像Img−selと入力画像集合Imgs−in中の他画像との被写体の一致度、および選択画像Img−selと選択画像集合Imgs−out中の他画像との被写体一致度をそれぞれ算出する。被写体一致度は、同一人物か否かに基づいて判断される。次に、ステップS707において、画像選択部208は、選択画像Img−selと入力画像集合Imgs−in中の他画像との構図一致度、および選択画像Img−selと選択画像集合Imgs−out中の他画像との構図一致度をそれぞれ算出する。構図一致度の算出は、例えば図20の規則10や規則11を用いて行う。ステップS708において、画像選択部208は、選択画像Img−selと、被写体および構図が一致する(被写体一致度と構図一致度が所定値より大きい)入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像のポイントを下げる。そして、処理はステップS714に移る。   In steps S704 to S708, the evaluation value of the image other than the selected image is updated based on at least one of the content and attribute information of the image selected from the selection candidates displayed in the input image set display area Imgs-inD. Is done. In the present embodiment, an example in which image content (subject, composition) is used to update an evaluation value is shown. In step S704, the image selection unit 208 removes the selected image Img-sel from the input image set Imgs-in. In step S705, the image selection unit 208 adds the selected image Img-sel to the selected image set Imgs-out. The selected image set Imgs-out is stored in the selected image set storage unit 203. In step S706, the image selection unit 208 determines the degree of coincidence of the subject between the selected image Img-sel and the other images in the input image set Imgs-in, and the other images in the selected image Img-sel and the selected image set Imgs-out. And the subject matching degree are calculated. The subject coincidence is determined based on whether or not they are the same person. Next, in step S707, the image selection unit 208 determines the degree of composition matching between the selected image Img-sel and the other images in the input image set Imgs-in, and the selected image Img-sel and the selected image set Imgs-out. The degree of composition coincidence with another image is calculated. The composition matching degree is calculated using, for example, rule 10 or rule 11 in FIG. In step S708, the image selection unit 208 matches the selected image Img-sel with the subject and the composition (the subject coincidence and the composition coincidence are greater than a predetermined value) in the input image set Imgs-in and the selected image set Imgs-. Decrease point of other image during out. Then, the process proceeds to step S714.

他方、選択画像集合Imgs−outに属する選択済みの画像がユーザ指示に応じて非選択状態になった場合(選択候補、すなわち入力画像集合Imgs−inに戻った場合)は、ステップS709以降の処理が実行される。ステップS709以降では、選択候補に戻った画像の内容および属性情報の少なくとも何れかに基づいて、その選択候補に戻った画像以外の画像の評価値を更新する処理が実行される。ステップS709において、画像選択部208は、選択画像集合Imgs−outから選択画像Img−selを取り除く。ステップS710において、画像選択部208は、選択画像Img−selを入力画像集合Imgs−inに追加する。ステップS711において、画像選択部208は、選択画像Img−selと入力画像集合Imgs−in中の他画像との被写体一致度、および選択画像Img−selと選択画像集合Imgs−out中の他画像との被写体一致度をそれぞれ算出する。ステップS712において、画像選択部208は、選択画像Img−selと入力画像集合Imgs−in中の他画像との構図一致度、および選択画像Img−selと選択画像集合Imgs−out中の他画像との構図一致度をそれぞれ算出する。ステップS713において、画像選択部208は、選択画像Imgs−selと、被写体および構図が一致する入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像のポイントを増加する。こうして、選択画像Img−sel以外の画像について、選択画像Img−selの選択により生じた画像ポイントの減少分を元に戻す。そして、処理はステップS714に移る。   On the other hand, when the selected image belonging to the selected image set Imgs-out is in a non-selected state according to the user instruction (when the selection image is returned to the input image set Imgs-in), the processing after step S709 is performed. Is executed. In step S709 and subsequent steps, processing for updating the evaluation value of an image other than the image returned to the selection candidate is executed based on at least one of the content of the image returned to the selection candidate and the attribute information. In step S709, the image selection unit 208 removes the selected image Img-sel from the selected image set Imgs-out. In step S710, the image selection unit 208 adds the selected image Img-sel to the input image set Imgs-in. In step S <b> 711, the image selection unit 208 determines the subject coincidence between the selected image Img-sel and the other images in the input image set Imgs-in, and the other images in the selected image Img-sel and the selected image set Imgs-out. The subject coincidence degree is calculated. In step S712, the image selection unit 208 compares the composition match degree between the selected image Img-sel and the other images in the input image set Imgs-in, and the selected image Img-sel and the other images in the selected image set Imgs-out. The degree of composition matching is calculated. In step S713, the image selection unit 208 increases the points of other images in the input image set Imgs-in and the selected image set Imgs-out that match the selected image Imgs-sel with the subject and the composition. In this way, for the images other than the selected image Img-sel, the image point reduction caused by the selection of the selected image Img-sel is restored. Then, the process proceeds to step S714.

なお、選択状態にある画像(選択画像集合に属する画像)を非選択状態に戻した場合の画像ポイントの再計算の方法は、上記に限られるものではない。例えば、各画像について、選択された画像と画像ポイントの減少値とを対応付けて保持しておき、各画像の画像ポイントを非選択状態に戻された画像に対応して保持されている減少値だけ増加させるようにしてもよい。   Note that the method of recalculating the image points when the image in the selected state (image belonging to the selected image set) is returned to the non-selected state is not limited to the above. For example, for each image, the selected image and the decrease value of the image point are stored in association with each other, and the decrease value stored in correspondence with the image in which the image point of each image is returned to the non-selected state You may make it increase only.

ステップS714において、画像選択部208は、入力画像集合Imgs−inをポイント順に入力画像集合表示領域Imgs−inDに表示する。ステップS715において、画像選択部208は、選択画像集合Imgs−outを選択順に選択画像集合表示領域Imgs−outDに表示する。ステップS716において、画像選択部208は、画像選択処理を終了するかどうかユーザに確認する。ステップS716において、ユーザが画像選択処理を終了すると判定したならば、処理を終了する。他方、ステップS716において、ユーザが画像選択処理を継続すると判定したならば、処理はステップS702に戻る。   In step S714, the image selection unit 208 displays the input image set Imgs-in in the input image set display area Imgs-inD in the order of points. In step S715, the image selection unit 208 displays the selected image set Imgs-out in the selected image set display area Imgs-outD in the order of selection. In step S716, the image selection unit 208 confirms with the user whether to end the image selection process. If it is determined in step S716 that the user ends the image selection process, the process ends. On the other hand, if it is determined in step S716 that the user continues the image selection process, the process returns to step S702.

<ユーザの画像選択操作の説明>
図12を用いて、上記画像選択処理(図11)におけるユーザの画像選択操作を説明する。画像選択処理への入力は、ステップS306(図3)においてポイント付けされた入力画像集合Imgs−inである。ここでは、Imgs−in=(Img1(120)、Img2(120)、Img3(120)、Img4(120)、Img5(100)、Img6(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))である。また、このときの選択画像集合Imgs−out=(空集合)である。
<Description of user image selection operation>
The user's image selection operation in the image selection process (FIG. 11) will be described with reference to FIG. The input to the image selection process is the input image set Imgs-in pointed at in step S306 (FIG. 3). Here, Imgs-in = (Img1 (120), Img2 (120), Img3 (120), Img4 (120), Img5 (100), Img6 (100), Img8 (100), Img7 (90), Img9 ( 90), Img10 (90)). Further, the selected image set Imgs-out = (empty set) at this time.

まず、入力画像集合Imgs−inの画像が、図12(b1)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示される。ここで、ポイントが同じ画像は、一定の基準でソートされて表示される。また、選択画像集合Imgs−outの画像が、図12(a1)に示すように、選択画像集合表示領域Imgs−outDに表示される(ステップS701)。   First, the images of the input image set Imgs-in are displayed in the input image set display area Imgs-inD in the order of points as shown in FIG. Here, images with the same point are sorted and displayed according to a certain standard. Further, the images of the selected image set Imgs-out are displayed in the selected image set display area Imgs-outD as shown in FIG. 12 (a1) (step S701).

ユーザが入力画像集合表示領域Imgs−inDに表示されている画像Img1を選択(第1の選択)して、選択画像集合表示領域Imgs−outDに移動する(ステップS702)。すると、選択画像が入力画像集合内の画像である(Img−sel⊂Img−in)と判定される(ステップS703)。結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(120)、Img5(100)、Img6(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる(ステップS704)。また、選択画像集合は、Imgs−out=(Img1(120))となる(ステップS705)。   The user selects the image Img1 displayed in the input image set display area Imgs-inD (first selection), and moves to the selected image set display area Imgs-outD (step S702). Then, it is determined that the selected image is an image in the input image set (Img-sel⊂Img-in) (step S703). As a result, the input image set is Imgs-in = (Img2 (120), Img3 (120), Img4 (120), Img5 (100), Img6 (100), Img8 (100), Img7 (90), Img9 (90 ), Img10 (90)) (step S704). Further, the selected image set is Imgs−out = (Img1 (120)) (step S705).

次に、画像選択部208は、選択画像Img1と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との被写体一致度を算出する(ステップS706)。ここでの、選択画像Img1に対する画像内被写体情報は、図10(c1)である。図10(c1)と同じ画像内被写体情報は、図10(c4)と図10(c8)である。したがって、ステップS706では、画像Img4とImg8が、選択画像Img1と被写体情報が一致すると判定される。   Next, the image selection unit 208 calculates the degree of subject coincidence between the selected image Img1 and the other images in the input image set Imgs-in and the selected image set Imgs-out (step S706). The in-image subject information for the selected image Img1 here is FIG. 10 (c1). The same in-image subject information as in FIG. 10C1 is shown in FIG. 10C4 and FIG. 10C8. Therefore, in step S706, it is determined that the images Img4 and Img8 match the selected image Img1 and the subject information.

次に、画像選択部208は、選択画像Img1と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との構図一致度を算出する(ステップS707)。ここでの、選択画像Img1に対する構図は、図10(e1)である。図10(e1)と同じ構図は、図10(e3)と図10(e4)である。したがって、ステップS707では、画像Img3とImg4が、選択画像Img1と構図が一致すると判定される。   Next, the image selection unit 208 calculates the degree of composition matching between the selected image Img1 and the other images in the input image set Imgs-in and the selected image set Imgs-out (step S707). The composition for the selected image Img1 here is FIG. 10 (e1). The same composition as FIG. 10 (e1) is FIG. 10 (e3) and FIG. 10 (e4). Therefore, in step S707, it is determined that the images Img3 and Img4 have the same composition as the selected image Img1.

次に、画像選択部208は、選択画像Img1と、被写体情報および構図が一致する画像のポイントを下げる。ここでは、選択画像Img1と被写体情報および構図が一致する画像はImg4(120)であるので、Img4のポイントを一定値(例えば40)下げて、Img4(80)とする(ステップS708)。この結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(80)、Img5(100)、Img6(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる。   Next, the image selection unit 208 lowers the point of the image in which the selected image Img1 matches the subject information and the composition. Here, since the image whose subject information and composition match the selected image Img1 is Img4 (120), the point of Img4 is lowered by a certain value (for example, 40) to be Img4 (80) (step S708). As a result, the input image set is Imgs-in = (Img2 (120), Img3 (120), Img4 (80), Img5 (100), Img6 (100), Img8 (100), Img7 (90), Img9 ( 90) and Img10 (90)).

次に、画像選択部208は、入力画像集合Imgs−inの画像を、図12(b2)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示する(ステップS714)。また、画像選択部208は、選択画像集合Imgs−outの画像を、図12(a2)に示すように、ユーザの選択順に選択画像集合表示領域Imgs−outDに表示する(ステップS715)。ユーザがさらに画像選択(第2の選択)を続けると、処理はステップS716を経て、ステップS702に戻る。   Next, the image selection unit 208 displays the images of the input image set Imgs-in in the input image set display area Imgs-inD in the order of points as shown in FIG. 12 (b2) (step S714). Further, the image selection unit 208 displays the images of the selected image set Imgs-out in the selected image set display area Imgs-outD in the order selected by the user as shown in FIG. 12 (a2) (step S715). If the user continues image selection (second selection), the process returns to step S702 via step S716.

続いて、ユーザが入力画像集合表示領域Imgs−inDに表示されている画像Img6を選択したとする。すると、画像選択部208は、画像Img6を選択画像集合表示領域Imgs−outDに移動する(ステップS702)。選択画像である画像Img6は入力画像集合内の画像である(Img−sel⊂Img−in)と判定される(ステップS703)。その結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(80)、Img5(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる(ステップS704)。また、選択画像集合は、Imgs−out=(Img1(120)、Img6(100))となる(ステップS705)。   Subsequently, it is assumed that the user selects the image Img6 displayed in the input image collection display area Imgs-inD. Then, the image selection unit 208 moves the image Img6 to the selected image set display area Imgs-outD (step S702). The selected image Img6 is determined to be an image in the input image set (Img-selsImg-in) (step S703). As a result, the input image set is Imgs-in = (Img2 (120), Img3 (120), Img4 (80), Img5 (100), Img8 (100), Img7 (90), Img9 (90), Img10 ( 90)) (step S704). Further, the selected image set is Imgs−out = (Img1 (120), Img6 (100)) (step S705).

次に、画像選択部208は、選択画像Img6と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との被写体一致度を算出する(ステップS706)。ここでの、選択画像Img6に対する画像内被写体情報は、図10(c6)である。図10(c6)と同じ画像内被写体情報は、図10(c5)と図10(c10)である。したがって、ステップS706では、画像Img5とImg10が、選択画像Img6と被写体情報が一致すると判定される。   Next, the image selection unit 208 calculates the degree of subject coincidence between the selected image Img6 and the other images in the input image set Imgs-in and the selected image set Imgs-out (step S706). The in-image subject information for the selected image Img6 here is shown in FIG. 10 (c6). The same in-image subject information as in FIG. 10C6 is shown in FIG. 10C5 and FIG. 10C10. Therefore, in step S706, it is determined that the images Img5 and Img10 match the selected image Img6 and the subject information.

次に、画像選択部208は、選択画像Img6と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との構図一致度を算出する(ステップS707)。ここでの、選択画像Img6に対する構図は、図10(e6)である。図10(e6)と同じ構図は、図10(e5)である。したがって、ステップS707では、画像Img5が、選択画像Img6と構図が一致すると判定される。   Next, the image selection unit 208 calculates the degree of composition coincidence between the selected image Img6 and the other images in the input image set Imgs-in and the selected image set Imgs-out (step S707). The composition for the selected image Img6 here is as shown in FIG. 10 (e6). The same composition as FIG. 10 (e6) is FIG. 10 (e5). Therefore, in step S707, it is determined that the image Img5 has the same composition as the selected image Img6.

次に、画像選択部208は、被写体情報および構図が選択画像Img6と一致する画像のポイントを下げる。ここでは、被写体情報および構図が選択画像Img6と一致する画像はImg5(100)であるので、画像選択部208はImg5のポイントを一定値(例えば40)下げて、Img5(60)とする(ステップS708)。この結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(80)、Img5(60)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる。   Next, the image selection unit 208 lowers the point of the image whose subject information and composition match the selected image Img6. Here, since the image whose subject information and composition match the selected image Img6 is Img5 (100), the image selection unit 208 lowers the point of Img5 by a certain value (for example, 40) to Img5 (60) (step) S708). As a result, the input image set is Imgs-in = (Img2 (120), Img3 (120), Img4 (80), Img5 (60), Img8 (100), Img7 (90), Img9 (90), Img10 ( 90)).

次に、画像選択部208は、入力画像集合Imgs−inの画像を、図12(b3)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示する(ステップS714)。また、画像選択部208は、選択画像集合Imgs−outの画像を、図12(a3)に示すように、ユーザの選択順に選択画像集合表示領域Imgs−outDに表示する(ステップS715)。ユーザがさらに画像選択を続けると、処理はステップS716を経て、ステップS702に戻る。   Next, the image selection unit 208 displays the images of the input image set Imgs-in in the input image set display area Imgs-inD in the order of points as shown in FIG. 12 (b3) (step S714). Further, the image selection unit 208 displays the images of the selected image set Imgs-out in the selected image set display area Imgs-outD in the order selected by the user as shown in FIG. 12 (a3) (step S715). If the user continues to select an image, the process returns to step S702 via step S716.

次に、ユーザが選択画像集合表示領域Imgs−outDに表示されている画像Img1を選択して、入力画像集合表示領域Imgs−inDに移動したとする(ステップS702)。すると、画像選択部208は、選択画像が選択画像集合内の画像である(Img−sel⊂Imgs−out)と判定する(ステップS703)。その結果、選択画像集合は、Imgs−out=(Img6(100))となる(ステップS709)。   Next, it is assumed that the user selects the image Img1 displayed in the selected image set display area Imgs-outD and moves to the input image set display area Imgs-inD (step S702). Then, the image selection unit 208 determines that the selected image is an image in the selected image set (Img-sel⊂Imgs-out) (step S703). As a result, the selected image set is Imgs−out = (Img6 (100)) (step S709).

画像選択部208が、選択画像(Img1)を入力画像集合の最後に加えるとImgs−inは次のようになる(ステップS710)。すなわち、Imgs−in=(Img2(120)、Img3(120)、Img4(80)、Img5(60)、Img8(100)、Img7(90)、Img9(90)、Img10(90)、Img1(120))となる。   When the image selection unit 208 adds the selected image (Img1) to the end of the input image set, Imgs-in is as follows (step S710). That is, Imgs-in = (Img2 (120), Img3 (120), Img4 (80), Img5 (60), Img8 (100), Img7 (90), Img9 (90), Img10 (90), Img1 (120 )).

次に、画像選択部208は、選択画像Img1と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との被写体一致度を算出する(ステップS711)。ここでの、選択画像Img1に対する画像内被写体情報は、図10(c1)である。図10(c1)と同じ画像内被写体情報は、図10(c4)と図10(c8)である。したがって、ステップS711では、画像Img4とImg8が、選択画像Img1と被写体情報が一致すると判定される。   Next, the image selection unit 208 calculates the degree of subject coincidence between the selected image Img1 and other images in the input image set Imgs-in and the selected image set Imgs-out (step S711). The in-image subject information for the selected image Img1 here is FIG. 10 (c1). The same in-image subject information as in FIG. 10C1 is shown in FIG. 10C4 and FIG. 10C8. Therefore, in step S711, it is determined that the images Img4 and Img8 match the selected image Img1 and subject information.

次に、画像選択部208は、選択画像Img1と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との構図一致度を算出する(ステップS712)。ここでの、選択画像Img1に対する構図は、図10(e1)である。図10(e1)と同じ構図は、図10(e3)と図10(e4)である。したがって、ステップS712では、画像Img3とImg4が、選択画像Img1と構図が一致すると判定される。   Next, the image selection unit 208 calculates the degree of composition coincidence between the selected image Img1 and the other images in the input image set Imgs-in and the selected image set Imgs-out (step S712). The composition for the selected image Img1 here is FIG. 10 (e1). The same composition as FIG. 10 (e1) is FIG. 10 (e3) and FIG. 10 (e4). Accordingly, in step S712, it is determined that the images Img3 and Img4 have the same composition as the selected image Img1.

次に、画像選択部208は、選択画像Img1と、被写体情報および構図が一致する画像のポイントをもとに戻す(ステップS713)。ここでは、選択画像Img1と被写体情報および構図が一致する画像はImg4(80)であるので、Img4のポイントを一定値(例えば40)上げて、Img4(120)とする(ステップS713)。その結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(120)、Img5(60)、Img8(100)、Img7(90)、Img9(90)、Img10(90)、Img1(120))となる。   Next, the image selection unit 208 returns the selected image Img1 to the original image point where the subject information and the composition match (step S713). Here, since the image whose subject information and composition coincide with the selected image Img1 is Img4 (80), the point of Img4 is increased by a certain value (for example, 40) to be Img4 (120) (step S713). As a result, the input image set is Imgs-in = (Img2 (120), Img3 (120), Img4 (120), Img5 (60), Img8 (100), Img7 (90), Img9 (90), Img10 ( 90), Img1 (120)).

次に、入力画像集合Imgs−inの画像が、図12(b4)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示される(ステップS714)。また、選択画像集合Imgs−outの画像が、図12(a4)に示すように、ユーザの選択順に選択画像集合表示領域Imgs−outDに表示される(ステップS715)。   Next, the images of the input image set Imgs-in are displayed in the input image set display area Imgs-inD in the order of points as shown in FIG. 12 (b4) (step S714). Further, the images of the selected image set Imgs-out are displayed in the selected image set display area Imgs-outD in the order selected by the user as shown in FIG. 12 (a4) (step S715).

ここで、ユーザが画像選択処理を終了する旨を入力すると、ステップS716を経て、本処理が終了する。   Here, when the user inputs an instruction to end the image selection process, the process ends through step S716.

上記実施形態では、画像に図8(a1)、図8(b1)のような属性情報(被写体情報、構図情報)が設定されているものとして、画像ポイント算出処理(図7)と画像選択処理(図11)を説明した。画像に設定される属性としては、図8(c1)のような顔の向きがあってもよい。ここでは、顔フレームF2内に、両耳の位置を通る線分Y2と、鼻筋を示す線分N2を座標等で指定する。このとき、ステップS604(図7)の構図ポイント算出では、適当な関数FD()を用いて、顔向きポイント=FD(Y2、N2)を算出し、顔向きポイントを構図ポイントに加える。このような顔向きポイント算出規則は、図20の規則群中に記述されているものとする。また顔フレームF2内の表情に対して、ポイントを算出する関数FH()を定義し、表情ポイント=FH(F2)のように算出する。そして、表情ポイントを画像ポイントに加える規則を作成して、図20の規則群に加えてもよい。   In the above embodiment, it is assumed that attribute information (subject information, composition information) as shown in FIGS. 8A1 and 8B1 is set in an image, and image point calculation processing (FIG. 7) and image selection processing are performed. (FIG. 11) has been described. As an attribute set in the image, there may be a face orientation as shown in FIG. Here, a line segment Y2 passing through the positions of both ears and a line segment N2 indicating the nose are designated by coordinates or the like in the face frame F2. At this time, in the composition point calculation in step S604 (FIG. 7), the face direction point = FD (Y2, N2) is calculated using an appropriate function FD (), and the face direction point is added to the composition point. Such face orientation point calculation rules are described in the rule group of FIG. Also, a function FH () for calculating a point is defined for the facial expression in the face frame F2, and the expression is calculated as expression point = FH (F2). Then, a rule for adding an expression point to an image point may be created and added to the rule group of FIG.

また、上記実施形態において、ステップS708では選択された画像と類似するか否かにより画像ポイントを所定値だけ減少させているが、これに限られるものではない。例えば、選択された画像と他の画像との類似度を算出し、算出された類似の度合いに応じて減少させる画像ポイントの値が変化するようにしてもよい。同様に、ステップS713で画像ポイントを戻す場合にも、算出された類似の度合いに応じて増加させる画像ポイントの値が変化するようにしてもよい。   In the above embodiment, the image point is decreased by a predetermined value depending on whether or not it is similar to the selected image in step S708. However, the present invention is not limited to this. For example, the degree of similarity between the selected image and another image may be calculated, and the value of the image point to be decreased may be changed according to the calculated degree of similarity. Similarly, when returning an image point in step S713, the value of the image point to be increased may be changed according to the calculated degree of similarity.

<第1実施形態の効果>
以上のように、第1実施形態によれば、1つ以上の画像に対しその画像内容、属性情報、および選択済みの画像の画像内容および属性情報に応じてポイントを算出するポイント算出部と、画像をポイント順に並べて表示する表示部とを具備する。さらに、ユーザが表示された画像の中から画像を選択する画像選択部を有し、ユーザが画像を選択する度に、ポイント算出部は選択された画像以外の画像のポイントを再計算し、更新する。ポイントの算出に用いられる画像内容は被写体、被写体の組み合わせ、構図、被写体に対する合焦の有無、被写体が人間である場合の顔の向き、表情のいずれかあるいは1つ以上の組み合わせである。以上のような構成によれば、ユーザが選択した写真と、同一の被写体や同一の構図の写真のポイントが下げられ、優先順位が下げられて再表示されるので、選ばれにくくなる。したがって、アルバム作成の画像選択において、ユーザは被写体と構図が一度選んだ写真と異なる写真を選びやすくなる。したがって、上記実施形態によれば、アルバム作成のための画像選択の際に、被写体の組み合わせや構図、時間帯に偏りのない画像選択が容易になる。
<Effects of First Embodiment>
As described above, according to the first embodiment, for one or more images, a point calculation unit that calculates points according to the image content, attribute information, and the image content and attribute information of a selected image; And a display unit that displays the images arranged in the order of points. Furthermore, the user has an image selection unit that selects an image from displayed images, and each time the user selects an image, the point calculation unit recalculates and updates the points of the image other than the selected image. To do. The image content used for the calculation of the point is a subject, a combination of subjects, composition, presence / absence of focusing on the subject, face orientation when the subject is a human being, or a combination of one or more expressions. According to the configuration described above, the point of the photograph selected by the user and the photograph of the same subject or the same composition is lowered, and the priority is lowered and displayed again. Therefore, in selecting an image for creating an album, the user can easily select a photo whose subject and composition are different from those once selected. Therefore, according to the above-described embodiment, when selecting images for creating an album, it is easy to select images with no bias in subject combination, composition, and time zone.

[第2実施形態]
<画像選択処理の他の実施形態>
第1実施形態では、選択画像と被写体情報および構図が一致する他画像のポイントを下げる構成を説明した。第2実施形態では、さらに、選択画像と撮影時刻が(一定の範囲内で)一致する他画像のポイントを下げる。図13の流れ図を用いて、第2実施形態による画像選択処理(図3のステップS308)の詳細を説明する。なお、図13のステップS801〜S807、S810〜S813の処理は、第1実施形態(図11)のステップS701〜S707、S709〜S712と同様の処理である。
[Second Embodiment]
<Another Embodiment of Image Selection Processing>
In the first embodiment, the configuration has been described in which the point of another image in which the selected image matches the subject information and the composition is lowered. In the second embodiment, the points of other images whose selected images and shooting times coincide (within a certain range) are further lowered. Details of the image selection processing (step S308 in FIG. 3) according to the second embodiment will be described with reference to the flowchart in FIG. Note that the processes in steps S801 to S807 and S810 to S813 in FIG. 13 are the same as steps S701 to S707 and S709 to S712 in the first embodiment (FIG. 11).

ステップS808において、画像選択部208は、選択画像Img−selと入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との撮影時刻一致度を算出する。ステップS809において、画像選択部208は、選択画像Img−selと、撮影時刻、または、被写体および構図が一致する他画像のポイントを下げる。そして、処理はステップS816に移る。   In step S808, the image selection unit 208 calculates the degree of coincidence of the photographing time between the selected image Img-sel and the other images in the input image set Imgs-in and the selected image set Imgs-out. In step S809, the image selection unit 208 lowers the point of the other image that matches the selected image Img-sel and the shooting time or subject and composition. Then, the process proceeds to step S816.

また、ステップS814において画像選択部208は、選択画像Img−selと入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との撮影時刻一致度を算出する。ステップS815において画像選択部208は、選択画像Imgs−selと、撮影時刻、または、被写体および構図が一致する他画像のポイントを、ステップS713と同様に、元に戻す。そして、処理はステップS816に移る。ステップS816〜S818の処理は、図11のステップS714〜S716と同様である。   In step S814, the image selection unit 208 calculates the degree of coincidence of the photographing time between the selected image Img-sel and the other images in the input image set Imgs-in and the selected image set Imgs-out. In step S815, the image selection unit 208 returns the selected image Imgs-sel to the point of the other image in which the photographing time or the subject and the composition match, as in step S713. Then, the process proceeds to step S816. The processing of steps S816 to S818 is the same as that of steps S714 to S716 in FIG.

<第2実施形態におけるユーザの画像選択操作の説明>
図14を用いて、第2実施形態による画像選択処理(図13)におけるユーザの画像選択操作を説明する。画像選択処理への入力は、図3のステップS306において、ポイント付けされた入力画像集合Imgs−inである。ここでは、Imgs−in=(Img1(120)、Img2(120)、Img3(120)、Img4(120)、Img5(100)、Img6(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))である。また、このときの選択画像集合Imgs−out=(空集合)である。
<Description of User Image Selection Operation in Second Embodiment>
A user's image selection operation in the image selection process (FIG. 13) according to the second embodiment will be described with reference to FIG. The input to the image selection process is the input image set Imgs-in pointed to in step S306 of FIG. Here, Imgs-in = (Img1 (120), Img2 (120), Img3 (120), Img4 (120), Img5 (100), Img6 (100), Img8 (100), Img7 (90), Img9 ( 90), Img10 (90)). Further, the selected image set Imgs-out = (empty set) at this time.

まず、入力画像集合Imgs−inの画像が、図14(b1)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示される。また、選択画像集合Imgs−outの画像が、図14(a1)に示すように、選択画像集合表示領域Imgs−outDに表示される(ステップS801)。   First, the images of the input image set Imgs-in are displayed in the input image set display area Imgs-inD in the order of points as shown in FIG. Further, the images of the selected image set Imgs-out are displayed in the selected image set display area Imgs-outD as shown in FIG. 14 (a1) (step S801).

ユーザが入力画像集合表示領域Imgs−inDに表示されている画像Img1を選択して、選択画像集合表示領域Imgs−outDに移動する(ステップS802)。すると、選択画像は、入力画像集合内の画像である(Img−sel⊂Imgs−in)と判定される(ステップS803)。その結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(120)、Img5(100)、Img6(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる(ステップS804)。また、選択画像集合は、Imgs−out=(Img1(120))となる(ステップS805)。   The user selects the image Img1 displayed in the input image set display area Imgs-inD and moves to the selected image set display area Imgs-outD (step S802). Then, it is determined that the selected image is an image in the input image set (Img-selsImgs-in) (step S803). As a result, the input image set is Imgs-in = (Img2 (120), Img3 (120), Img4 (120), Img5 (100), Img6 (100), Img8 (100), Img7 (90), Img9 ( 90) and Img10 (90)) (step S804). The selected image set is Imgs−out = (Img1 (120)) (step S805).

次に、画像選択部208は、選択画像Img1と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との被写体一致度を算出する(ステップS806)。ここでの、選択画像Img1に対する画像内被写体情報は、図10(c1)である。図10(c1)と同じ画像内被写体情報は、図10(c4)と図10(c8)である。したがって、ステップS806では、画像Img4とImg8が、選択画像Img1と被写体情報が一致すると判定される。   Next, the image selection unit 208 calculates the degree of subject coincidence between the selected image Img1 and other images in the input image set Imgs-in and the selected image set Imgs-out (step S806). The in-image subject information for the selected image Img1 here is FIG. 10 (c1). The same in-image subject information as in FIG. 10C1 is shown in FIG. 10C4 and FIG. 10C8. Accordingly, in step S806, it is determined that the images Img4 and Img8 match the selected image Img1 and the subject information.

次に、画像選択部208は、選択画像Img1と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との構図一致度を算出する(ステップS807)。ここでの、選択画像Img1に対する構図は、図10(e1)である。図10(e1)と同じ構図は、図10(e3)と図10(e4)である。したがって、ステップS807では、画像Img3とImg4が、選択画像Img1と構図が一致すると判定される。次に、画像選択部208は、選択画像Img1と他の画像との撮影時刻一致度を算出する(ステップS808)。ここでは、画像間の撮影時刻の差が5分以内(この時間差は設定可能)ならば、2つの画像の撮影時刻が一致しているものとする。選択画像Img1に対する撮影時刻情報は、図10(g1)である。図10(g1)と同じとみなされる撮影時刻情報は、存在しない。   Next, the image selection unit 208 calculates the degree of composition matching between the selected image Img1 and the other images in the input image set Imgs-in and the selected image set Imgs-out (step S807). The composition for the selected image Img1 here is FIG. 10 (e1). The same composition as FIG. 10 (e1) is FIG. 10 (e3) and FIG. 10 (e4). Accordingly, in step S807, it is determined that the images Img3 and Img4 have the same composition as the selected image Img1. Next, the image selection unit 208 calculates the photographing time coincidence between the selected image Img1 and another image (step S808). Here, if the difference in shooting time between images is within 5 minutes (this time difference can be set), it is assumed that the shooting times of the two images match. The shooting time information for the selected image Img1 is shown in FIG. 10 (g1). There is no shooting time information that is considered to be the same as in FIG.

次に、画像選択部208は、選択画像Img1と、撮影時刻、または、被写体情報および構図が一致する画像のポイントを下げる(ステップS809)。選択画像Img1と撮影時刻、または、被写体情報および構図が一致する画像はImg4(120)であるので、Img4のポイントを一定値(例えば40)下げて、Img4(80)とする。その結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(80)、Img5(100)、Img6(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる。また、入力画像集合Imgs−inの画像が、図14(b2)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示される(ステップS816)。さらに、選択画像集合Imgs−outの画像が、図14(a2)に示すように、ユーザの選択順に選択画像集合表示領域Imgs−outDに表示される(ステップS817)。   Next, the image selection unit 208 lowers the point of the image that matches the selected image Img1 with the shooting time or subject information and composition (step S809). Since the selected image Img1 and the photographing time or the image whose subject information and composition match are Img4 (120), the point of Img4 is lowered by a certain value (for example, 40) to be Img4 (80). As a result, the input image set is Imgs-in = (Img2 (120), Img3 (120), Img4 (80), Img5 (100), Img6 (100), Img8 (100), Img7 (90), Img9 ( 90) and Img10 (90)). Further, the images of the input image set Imgs-in are displayed in the input image set display area Imgs-inD in the order of points as shown in FIG. 14 (b2) (step S816). Furthermore, the images of the selected image set Imgs-out are displayed in the selected image set display area Imgs-outD in the order selected by the user as shown in FIG. 14 (a2) (step S817).

ユーザはさらに画像選択を続ける。すると、処理はステップS818を経て、ステップS802に戻る。   The user continues to select an image. Then, the process returns to step S802 via step S818.

続いて、ユーザが入力画像集合表示領域Imgs−inDに表示されている画像Img6を選択して、選択画像集合表示領域Imgs−outDに移動したとする(ステップS802)。選択画像Img6は入力画像集合内の画像である(Img−sel⊂Imgs−in)と判定される(ステップS803)。その結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(80)、Img5(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる(ステップS804)。また、選択画像集合は、Imgs−out=(Img1(120)、Img6(100))となる(ステップS805)。   Subsequently, it is assumed that the user selects the image Img6 displayed in the input image set display area Imgs-inD and moves to the selected image set display area Imgs-outD (step S802). The selected image Img6 is determined to be an image in the input image set (Img-selsImgs-in) (step S803). As a result, the input image set is Imgs-in = (Img2 (120), Img3 (120), Img4 (80), Img5 (100), Img8 (100), Img7 (90), Img9 (90), Img10 ( 90)) (step S804). Further, the selected image set is Imgs−out = (Img1 (120), Img6 (100)) (step S805).

次に、画像選択部208は、選択画像Img6と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との被写体一致度を算出する(ステップS806)。本例において、選択画像Img6に対する画像内被写体情報は、図10(c6)である。図10(c6)と同じ画像内被写体情報は、図10(c5)と図10(c10)である。したがって、ステップS806では、画像Img5とImg10が、選択画像Img6と被写体情報が一致すると判定される。   Next, the image selection unit 208 calculates the degree of subject coincidence between the selected image Img6 and the other images in the input image set Imgs-in and the selected image set Imgs-out (step S806). In this example, the in-image subject information for the selected image Img6 is shown in FIG. 10 (c6). The same in-image subject information as in FIG. 10C6 is shown in FIG. 10C5 and FIG. 10C10. Therefore, in step S806, it is determined that the images Img5 and Img10 match the selected image Img6 and the subject information.

次に、画像選択部208は、選択画像Img6と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との構図一致度を算出する(ステップS807)。ここでの、選択画像Img6に対する構図は、図10(e6)である。図10(e6)と同じ構図は、図10(e5)である。したがって、ステップS807では、画像Img5が、選択画像Img6と構図が一致すると判定される。   Next, the image selection unit 208 calculates the degree of composition matching between the selected image Img6 and the other images in the input image set Imgs-in and the selected image set Imgs-out (step S807). The composition for the selected image Img6 here is as shown in FIG. 10 (e6). The same composition as FIG. 10 (e6) is FIG. 10 (e5). Accordingly, in step S807, it is determined that the image Img5 has the same composition as the selected image Img6.

次に、画像選択部208は、選択画像Img6と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との撮影時刻一致度を算出する(ステップS808)。ここでの、選択画像Img6に対する撮影時刻は、図10(g6)である。図10(g6)と同じ撮影時刻は、図10(g3)である。したがって、ステップS808では、画像Img3が、選択画像Img6と撮影時刻が一致すると判定される。   Next, the image selection unit 208 calculates the degree of coincidence of the photographing time between the selected image Img6 and the other images in the input image set Imgs-in and the selected image set Imgs-out (step S808). The photographing time for the selected image Img6 here is (g6) in FIG. The same photographing time as in FIG. 10 (g6) is FIG. 10 (g3). Therefore, in step S808, it is determined that the image Img3 has the same shooting time as the selected image Img6.

続いて、画像選択部208は、選択画像Img6と、撮影時刻、または、被写体情報および構図が一致する画像のポイントを下げる(ステップS809)。ここでは、選択画像Img6と撮影時刻が一致する画像はImg3である(120)。また、選択画像Img6と被写体情報および構図が一致する画像はImg5(100)である。したがって、Img3とImg5のポイントを一定値(例えば40)下げて、Img3(80)およびImg5(60)とする(ステップS809)。その結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(80)、Img4(80)、Img5(60)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる。   Subsequently, the image selection unit 208 lowers the point of the image in which the selected image Img6 matches the shooting time or subject information and composition (step S809). Here, the image whose photographing time coincides with the selected image Img6 is Img3 (120). An image whose subject information and composition match the selected image Img6 is Img5 (100). Therefore, the points of Img3 and Img5 are lowered by a certain value (for example, 40) to obtain Img3 (80) and Img5 (60) (step S809). As a result, the input image set is Imgs-in = (Img2 (120), Img3 (80), Img4 (80), Img5 (60), Img8 (100), Img7 (90), Img9 (90), Img10 ( 90)).

次に、画像選択部208は、入力画像集合Imgs−inの画像を、図14(b3)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示する(ステップS816)。また、画像選択部208は、選択画像集合Imgs−outの画像を、図14(a3)に示すように、ユーザの選択順に選択画像集合表示領域Imgs−outDに表示する(ステップS817)。ここで、ユーザが画像選択処理を終了する旨を入力すると、ステップS818を経て、処理を終了する。   Next, the image selection unit 208 displays the images of the input image set Imgs-in in the input image set display area Imgs-inD in the order of points as shown in FIG. 14 (b3) (step S816). Further, the image selection unit 208 displays the images of the selected image set Imgs-out in the selected image set display area Imgs-outD in the order selected by the user as shown in FIG. 14 (a3) (step S817). Here, when the user inputs an instruction to end the image selection process, the process ends after step S818.

以上のように、第2実施形態では、ユーザが選んだ画像と、撮影時刻、または、被写体および構図が一致する画像のポイントを下げる。これ以外にも、ユーザが選んだ画像と、撮影場所、撮影時刻、被写体、構図のうちの1つ以上の組み合わせが一定の範囲内で一致する画像のポイントを下げるようにしてもよい。例えば、場所の一致度の判定は、次のように行う。画像Aの撮影位置をPA、被写体位置をPA1、PA2・・・PAn、画像Bの撮影位置をPB、被写体位置をPB1、PB2・・・PABm、とする。そして、ある判定関数FP()と閾値THDを定義し、FP(PA,PA1,PA2・・・PAn、PB、PB1、PB2・・・Pbm)<THD、のとき撮影場所が一致すると判定する。なお、撮影位置は、たとえばGPSを利用して取得され得る。また、被写体位置は、画像内の各被写体までの焦点距離情報などを利用して撮影位置と被写体位置との位置関係を求めることで、取得され得る。   As described above, in the second embodiment, the point of an image that matches the image selected by the user with the shooting time or subject and composition is lowered. In addition to this, the point of an image in which an image selected by the user and one or more combinations of shooting location, shooting time, subject, and composition match within a certain range may be lowered. For example, the determination of the degree of coincidence of locations is performed as follows. The shooting position of image A is PA, the subject position is PA1, PA2... PAn, the shooting position of image B is PB, and the subject positions are PB1, PB2,. Then, a certain determination function FP () and a threshold value THD are defined, and it is determined that the shooting locations match when FP (PA, PA1, PA2... PAn, PB, PB1, PB2... Pbm) <THD. Note that the shooting position can be acquired using, for example, GPS. The subject position can be acquired by obtaining the positional relationship between the shooting position and the subject position using the focal length information to each subject in the image.

<第2実施形態の効果>
このように、ユーザが選択した写真と、撮影時刻、撮影場所、被写体、構図のいずれか、または、これらの1つ以上組み合わせが一致するとみなされる写真のポイントが下げられる。ポイントの下げられた写真は、優先順位が下げられて再表示されるので、再度選ばれにくくなる。したがって、アルバム作成の画像選択において、ユーザは、撮影時刻、撮影場所、被写体、構図などが一度選んだ写真と異なる写真を選びやすくなる。
<Effects of Second Embodiment>
In this way, the point of the photograph selected by the user and the photograph taken as one of the photographing time, the photographing place, the subject, the composition, or one or a combination thereof is lowered. Photos with lowered points are re-displayed with lower priority, making it difficult to select again. Therefore, in selecting an image for creating an album, the user can easily select a photo that is different from a photo that has been selected once, such as the shooting time, shooting location, subject, and composition.

[第3実施形態]
<画像ポイント算出処理の他の実施形態>
第1実施形態では、画像の被写体ポイントと構図ポイントをそれぞれ算出し、それらを合計することにより画像ポイント得た(図7のステップS603、S604)。第3実施形態では、ポイント算出処理の他の実施形態として、被写体情報と構図情報とを関連させて画像ポイントを算出する処理を説明する。以下、図15のフローチャートを用いて、第3実施形態における画像ポイント算出処理(図3のステップS306)を説明する。
[Third Embodiment]
<Another Embodiment of Image Point Calculation Processing>
In the first embodiment, the subject point and the composition point of the image are calculated, and the image points are obtained by summing them (steps S603 and S604 in FIG. 7). In the third embodiment, as another embodiment of the point calculation process, a process of calculating image points by associating subject information and composition information will be described. Hereinafter, the image point calculation process (step S306 in FIG. 3) in the third embodiment will be described with reference to the flowchart in FIG.

読み込んだ画像、例えば図16(a1)のImgAXには、図16(a2)、図16(a4)、図16(a6)、図16(a8)のような属性情報が付いているものとする。図16(a2)は被写体情報であり、図16(a4)は構図情報であり、図16(a6)および図16(a8)は被写体構図情報である。そして、図16(a2)のような被写体情報からは、被写体ポイントが算出される。また、図16(a4)のような構図情報からは、構図ポイントが算出される。さらに、図16(a6)や図16(a8)のような被写体構図情報からは、被写体構図ポイントが算出される。また、例えば、規則50〜規則52(図20)を用いて、合焦情報(フォーカスの有無、および、フォーカスの位置)に基づいて合焦ポイントを算出する。そして、例えば、規則100(図20)によって、画像ポイント=被写体ポイント+構図ポイント+被写体構図ポイント+合焦ポイント、と算出する。   Assume that the read image, for example, ImgAX in FIG. 16 (a1) has attribute information as shown in FIG. 16 (a2), FIG. 16 (a4), FIG. 16 (a6), and FIG. . FIG. 16 (a2) is subject information, FIG. 16 (a4) is composition information, and FIGS. 16 (a6) and 16 (a8) are subject composition information. Then, subject points are calculated from the subject information as shown in FIG. Further, composition points are calculated from the composition information as shown in FIG. Further, subject composition points are calculated from the subject composition information as shown in FIGS. 16 (a6) and 16 (a8). Further, for example, using rule 50 to rule 52 (FIG. 20), the in-focus point is calculated based on the in-focus information (the presence / absence of focus and the position of focus). Then, for example, according to the rule 100 (FIG. 20), image point = subject point + composition point + subject composition point + focus point is calculated.

本実施形態では、図16(a1)のImgAXと、図16(b1)のImgXAの2枚の画像が読み込まれている場合についてのべる。   In the present embodiment, the case where two images of ImgAX in FIG. 16 (a1) and ImgXA in FIG. 16 (b1) are read will be described.

ステップS901において、ポイント算出部209は、最初の画像(=ImgAX)を選択する。ステップS902において、ポイント算出部209は、画像内被写体情報を抽出する。ステップS903において、ポイント算出部209は、画像の被写体ポイントを算出する(図16(a3))。ここでは、図9(a)のような画像内被写体情報に対して、図20のようなポイント算出規則を適用して、図9(b)のような被写体ポイントを算出する。次に、ステップS904において、ポイント算出部209は、画像の構図ポイントを算出する(図16(a5))。例えば、規則21(図20)のようなポイント算出規則を適用して、画像の構図ポイントを算出する。   In step S901, the point calculation unit 209 selects the first image (= ImgAX). In step S902, the point calculation unit 209 extracts in-image subject information. In step S903, the point calculation unit 209 calculates the subject point of the image (FIG. 16 (a3)). Here, the point calculation rule as shown in FIG. 20 is applied to the in-image subject information as shown in FIG. 9A to calculate the subject point as shown in FIG. 9B. Next, in step S904, the point calculation unit 209 calculates a composition point of the image (FIG. 16 (a5)). For example, the composition point of the image is calculated by applying a point calculation rule such as rule 21 (FIG. 20).

続いて、ステップS905において、ポイント算出部209は、画像の被写体構図ポイントを算出する(図16(a7)、図16(a9))。例えば、規則22(図20)のようなポイント算出規則を適用して、画像の被写体構図ポイントを算出する。また、ステップS906において、ポイント算出部209は、画像の合焦ポイントを算出する。例えば、規則50〜規則52(図20)のようなポイント算出規則を適用して、画像の合焦ポイントを算出する(図16(a10))。   Subsequently, in step S905, the point calculation unit 209 calculates a subject composition point of the image (FIG. 16 (a7), FIG. 16 (a9)). For example, a subject calculation point of the image is calculated by applying a point calculation rule such as rule 22 (FIG. 20). In step S906, the point calculation unit 209 calculates an in-focus point of the image. For example, a point calculation rule such as rule 50 to rule 52 (FIG. 20) is applied to calculate the in-focus point of the image (FIG. 16 (a10)).

ステップS907において、ポイント算出部209は、ステップS903〜S906で算出されたポイントを用いて画像にポイントを設定する。   In step S907, the point calculation unit 209 sets a point on the image using the points calculated in steps S903 to S906.

例えば、図16(a1)の画像ImgAXに対しては、図16(a3)に示すように被写体ポイント=(10)、図16(a5)に示すように構図ポイント=(70)が得られる。また、図16(a7)および図16(a9)に示すように、画像ImgAXに対して被写体構図ポイント=(50)+(−10)=(40)、図16(a10)に示すように合焦ポイント=(10)が得られる。以上から、図16(a11)に示すように、ImgAXの画像ポイント=被写体ポイント(10)+構図ポイント(70)+被写体構図ポイント(40)+合焦ポイント(10)=(130)となる。   For example, with respect to the image ImgAX in FIG. 16A1, subject point = (10) is obtained as shown in FIG. 16A3, and composition point = (70) is obtained as shown in FIG. 16A5. Also, as shown in FIGS. 16 (a7) and 16 (a9), subject composition point = (50) + (− 10) = (40) with respect to the image ImgAX, as shown in FIG. 16 (a10). The focal point = (10) is obtained. From the above, as shown in FIG. 16A11, ImgAX image point = subject point (10) + composition point (70) + subject composition point (40) + focus point (10) = (130).

ステップS908において、ポイント算出部209は、最後の画像に対して画像ポイント算出処理が行なわれたかどうか判定する。ステップS908においてYESならば、画像ポイント算出処理を終了する。ステップS908においてNOならば、処理はステップS909に移る。ステップS909において、ポイント算出部209は、入力画像集合内の次の画像を選択し、処理はステップS902に戻る。例えば、ステップS909において次の画像ImgXAが選択され、ステップS902〜ステップS907の処理が行われる。すると、図16(b11)に示すように、ImgXAの画像ポイント=被写体ポイント(10)+構図ポイント(70)+被写体構図ポイント(−20)+合焦ポイント(−5)=(55)となる。   In step S908, the point calculation unit 209 determines whether image point calculation processing has been performed on the last image. If YES in step S908, the image point calculation process ends. If NO in step S908, the process proceeds to step S909. In step S909, the point calculation unit 209 selects the next image in the input image set, and the process returns to step S902. For example, in step S909, the next image ImgXA is selected, and the processing in steps S902 to S907 is performed. Then, as shown in FIG. 16B11, ImgXA image point = subject point (10) + composition point (70) + subject composition point (−20) + focus point (−5) = (55). .

<第3実施形態の効果>
このように、写真内の被写体の位置に応じてポイントを付加でき、それらのポイント算出規則を設定できる。また焦点が主体に合っていたらポイントを高くしたり、焦点が無関係な人に合っていたらポイントを低くしたりする規則を記述して登録できる。したがって、アルバムの主体が指定した構図で出現する写真のポイントを高くしたり、無関係な人が大きく写っている写真のポイントを低くしたりできる。また、焦点が写真内の誰に合っているかに応じて、写真のポイントを制御できる。そして、被写体、構図、被写体情報を含む構図、合焦の有無、焦点の位置によって写真へのポイントの付き方を規則として記述でき、これらの規則群を用いて、写真のポイントを算出できる。
<Effect of the third embodiment>
In this way, points can be added according to the position of the subject in the photograph, and the point calculation rules can be set. Also, it is possible to describe and register a rule that raises the point when the focus is on the subject and lowers the point when the focus is on an unrelated person. Therefore, it is possible to increase the point of a photo that appears in the composition designated by the subject of the album, or to decrease the point of a photo in which an irrelevant person is greatly shown. Also, the point of the photo can be controlled depending on who is in focus in the photo. Then, it is possible to describe how to attach a point to a photograph as a rule by subject, composition, composition including subject information, presence / absence of focus, and focus position, and the point of the photograph can be calculated using these rule groups.

[第4実施形態]
<アルバム作成処理の他の実施形態>
第4実施形態では、画像ポイントが閾値以下の入力画像集合の画像に対して自動的に加工(ここではトリミング)を行い、トリミングした画像のポイントが閾値以上ならば、もとの画像と置き換えてアルバム作成処理を行う。図17は、第4実施形態によるアルバム作成処理を説明するフローチャートである。なお、図17のステップS1001〜S1006の処理は第1実施形態(図3)のステップS301〜S306と同様である。ただし、ステップS1006の画像ポイント算出処理では、第1実施形態(図7のステップS601〜ステップS606)、第3実施形態(図15のステップS901〜ステップS909)のいずれを用いてもよい。
[Fourth Embodiment]
<Other Embodiments of Album Creation Processing>
In the fourth embodiment, an image of an input image set whose image points are equal to or less than a threshold value is automatically processed (trimmed in this case). Perform album creation processing. FIG. 17 is a flowchart for explaining album creation processing according to the fourth embodiment. Note that the processing in steps S1001 to S1006 in FIG. 17 is the same as steps S301 to S306 in the first embodiment (FIG. 3). However, in the image point calculation process in step S1006, either the first embodiment (steps S601 to S606 in FIG. 7) or the third embodiment (steps S901 to S909 in FIG. 15) may be used.

ステップS1007において、トリミング部212(図1)は、トリミング処理を行う。トリミング処理においては、入力画像集合内のポイントが閾値以下の画像をトリミングして、閾値以上になるものがあれば、元の画像をトリミング後の画像に置き換える。トリミング処理の詳細については後述する。ステップS1008において、画像選択部208は、画像を選択する。ステップ1009において、レイアウト処理部210は、選択された画像をアルバム用にレイアウトする。ステップS1010において、印刷処理部211は、レイアウトされた画像を印刷する。   In step S1007, the trimming unit 212 (FIG. 1) performs a trimming process. In the trimming process, an image whose point in the input image set is equal to or less than the threshold value is trimmed, and if there is an image that exceeds the threshold value, the original image is replaced with the trimmed image. Details of the trimming process will be described later. In step S1008, the image selection unit 208 selects an image. In step 1009, the layout processing unit 210 lays out the selected image for the album. In step S1010, the print processing unit 211 prints the laid out image.

<トリミング処理の概要>
第4実施形態のトリミング処理では、画像に対するポイントを算出した後、ポイントが閾値(ここでは、例えば95)未満の画像に対して、ポイントを下げる原因になる被写体が含まれているかどうかを判定する。ここで、ポイントを下げる原因になる被写体とは、図5(a)の被写体リストObj−List=(A、B、・・・、H)内に含まれていない被写体である。そして、ポイントを下げる原因になる被写体を除いた残りの被写体を求める。これらの残りの被写体を含む領域をトリミング画像とする。
<Overview of trimming process>
In the trimming process according to the fourth embodiment, after calculating a point for an image, it is determined whether or not a subject that causes the point to be lowered is included in an image whose point is less than a threshold (for example, 95). . Here, the subject that causes the point to be lowered is a subject that is not included in the subject list Obj-List = (A, B,..., H) in FIG. Then, the remaining subjects other than the subject that causes the point to be lowered are obtained. A region including these remaining subjects is set as a trimmed image.

例えば図19(b1)の画像Img9(90)には、被写体A、D、Xが含まれている。このとき、例えば図20のようなポイント算出規則を用いると、図19(b2)に示すように、被写体ポイントは=(20)+(−30)=(−10)である。また、図20のポイント算出規則によって、図19(b3)に示すように、構図ポイントは=(100)である。ここでは被写体Xの影響でポイントが(−20)となっている。そこで、被写体Xを除いた残りの被写体A,Dに関する、被写体ポイントを求めると、図19(c2)のように(20)となる。そこで、トリミング部212は、被写体A、Dのみを含むように、元の画像Img9から、図19(c1)のようなトリミング画像FrTr1を切り出す。そして新たなトリミング画像FrTr1に対して、トリミング部212は、画像ポイント=「図19(c2)の被写体ポイント(20)」+「図19(c3)の構図ポイント(100)」を算出する。すると、図19(d)に示すように、トリミング画像の画像ポイントはFrTr1(120)となる。画像ポイントが閾値(95)以上なので、トリミング部212は、トリミング画像FrTr1をImg9t(120)として入力画像集合のもとの画像と置き換える(図19(e))。   For example, the image Img9 (90) in FIG. 19B1 includes subjects A, D, and X. At this time, for example, when a point calculation rule as shown in FIG. 20 is used, the subject point is = (20) + (− 30) = (− 10) as shown in FIG. 19 (b2). Further, according to the point calculation rule of FIG. 20, the composition point is = (100) as shown in FIG. 19 (b3). Here, the point is (−20) due to the influence of the subject X. Therefore, when subject points regarding the remaining subjects A and D excluding the subject X are obtained, (20) is obtained as shown in FIG. Therefore, the trimming unit 212 cuts out the trimmed image FrTr1 as shown in FIG. 19C1 from the original image Img9 so as to include only the subjects A and D. Then, for the new trimmed image FrTr1, the trimming unit 212 calculates image point = “subject point (20) in FIG. 19 (c2)” + “composition point (100) in FIG. 19 (c3)”. Then, as shown in FIG. 19D, the image point of the trimmed image is FrTr1 (120). Since the image point is equal to or greater than the threshold (95), the trimming unit 212 replaces the trimmed image FrTr1 with Img9t (120) with the original image of the input image set (FIG. 19 (e)).

<トリミング処理のフローチャート>
第4実施形態によるトリミング処理を、図18のフローチャートを用いて詳細に説明する。まず、図17に示す流れ図(ステップS1001〜ステップS1006)の処理によって、読み込んだ画像には、図10(h1)〜(h10)のように画像ポイントが付与されている(図19(a))。次に、図18の流れ図(ステップS1101〜ステップS1112)によって、トリミング処理が行なわれる。
<Flowchart of trimming process>
The trimming process according to the fourth embodiment will be described in detail with reference to the flowchart of FIG. First, by the processing of the flowchart shown in FIG. 17 (steps S1001 to S1006), image points are given to the read images as shown in FIGS. 10 (h1) to (h10) (FIG. 19 (a)). . Next, trimming processing is performed according to the flowchart of FIG. 18 (steps S1101 to S1112).

まず、ステップS1101において、トリミング部212は、閾値(本例では「95」)を設定する。ステップS1102において、トリミング部212は、入力画像集合の最初の画像を選択する。ステップS1103において、トリミング部212は、画像ポイントを算出する。ここでは、図7の画像ポイント算出処理と同様の方法(画像ポイント=被写体ポイント+構図ポイント)で画像ポイントが算出される。なお、この処理は画像ポイント算出処理(ステップS1006)において算出済みであれば不要である。次に、ステップS1104において、トリミング部212は、選択されている画像の画像ポイントが閾値未満かどうか判定する。ステップS1104において画像ポイントが閾値未満と判定されたならば、処理はステップS1105に進む。また、ステップS1104において画像ポイントが閾値以上と判定されたならば、処理はステップS1111に移る。   First, in step S1101, the trimming unit 212 sets a threshold value (“95” in this example). In step S1102, the trimming unit 212 selects the first image in the input image set. In step S1103, the trimming unit 212 calculates image points. Here, the image points are calculated by the same method as the image point calculation process of FIG. 7 (image point = subject point + composition point). Note that this process is unnecessary if it has been calculated in the image point calculation process (step S1006). In step S1104, the trimming unit 212 determines whether the image point of the selected image is less than a threshold value. If it is determined in step S1104 that the image point is less than the threshold value, the process proceeds to step S1105. If it is determined in step S1104 that the image point is equal to or greater than the threshold value, the process proceeds to step S1111.

ステップS1105において、トリミング部212は、選択している画像から被写体を抽出する。例えば、図19(b1)に示す画像Img9が選択中ならば、被写体A、D、Xが抽出される。ステップS1106において、トリミング部212は、選択中の画像内にポイントを減らす原因の被写体があるかどうか判定する。ステップS1106においてYESならば処理はステップS1107に移り、NOならば処理はステップS1111に移る。例えば、図19(b2)に示すように、選択中の画像Img9内には、画像のポイントを減らす(−30)原因になる被写体Xが存在するため、処理はステップS1107へ進む。   In step S1105, the trimming unit 212 extracts a subject from the selected image. For example, if an image Img9 shown in FIG. 19 (b1) is being selected, subjects A, D, and X are extracted. In step S <b> 1106, the trimming unit 212 determines whether there is a subject that causes a reduction in points in the currently selected image. If YES in step S1106, the process moves to step S1107, and if NO, the process moves to step S1111. For example, as shown in FIG. 19 (b2), in the currently selected image Img9, there is a subject X that causes the image point to be reduced (−30), and therefore the process proceeds to step S1107.

ステップS1107において、トリミング部212は、トリミング画像FrTr1を求める。例えば、トリミング部212は、図19(c2)のように、被写体Xを取り除き、被写体AとDを残したトリミング画像を得る。領域FrTr1の位置と大きさを決めるには、条件AD=「被写体AとDの顔を含み、被写体Xの顔を含まない」を用いる。そして条件ADを満たす最少領域を求め、その構図ポイントを算出する。条件ADを満たす領域が条件ADを満たさなくなるまで段階的に大きくしてゆき、各大きさの領域に付いて構図ポイントを求め、最大の構図ポイントの領域をFrTr1とする。条件ADを満たす領域が1つもなかったときや、トリミング画像FrTr1が小さくなりすぎて解像度が(予めアルバムなどの商材によって指定される解像度より)劣化したときは、トリミング画像FrTr1は元の画像(ここではImg9)とする。また、画像を使用する商材あるいは配置する枠のサイズに対して、トリミング画像FrTr1の解像度が指定される解像度より劣化した時は、トリミング画像FrTr1は元の画像(ここではImg9)とする。   In step S1107, the trimming unit 212 obtains a trimmed image FrTr1. For example, the trimming unit 212 removes the subject X and obtains a trimmed image in which the subjects A and D are left, as shown in FIG. In order to determine the position and size of the region FrTr1, the condition AD = “including the faces of subjects A and D and not including the face of subject X” is used. Then, the minimum area satisfying the condition AD is obtained, and the composition point is calculated. The area satisfying the condition AD is gradually increased until the condition AD is not satisfied, the composition point is obtained for each size area, and the area of the maximum composition point is defined as FrTr1. When there is no region that satisfies the condition AD, or when the trimming image FrTr1 becomes too small and the resolution is deteriorated (from the resolution specified in advance by a product such as an album), the trimming image FrTr1 is the original image ( Here, Img9). Further, when the resolution of the trimmed image FrTr1 is deteriorated from the designated resolution with respect to the size of the product that uses the image or the frame to be arranged, the trimmed image FrTr1 is set to the original image (here, Img9).

ステップS1108において、トリミング部212は、図20のような規則を用いて、トリミング画像の画像ポイント(=被写体ポイント+構図ポイント)を算出する。例えば、図19(c1)のトリミング画像FrTr1に対しては、被写体ポイント(20:図19(c2))+構図ポイント(100:図19(c3))=画像ポイント(120)となる。ステップS1109において、トリミング部212は、トリミング画像FrTR1(120)の画像ポイントが閾値(95)以上かどうか判定する。ステップS1109においてYESならば処理はステップS1110に進み、NOならば処理はステップS1111に移る。ここでは、ステップS1109においてYESになるので、ステップS1110においてトリミング画像FrTR1(120)を新たにImg9t(120)(図19(d))として入力画像集合の元の画像と置き換える(図19(e))。ステップS1111において、トリミング部212は、入力画像集合の最後の画像かどうか判定する。ステップS1111において最後の画像であると判定されたならば、トリミング処理を終了する。ステップS1111において最後の画像ではないと判定されたならば、処理はステップS1112に移る。ステップS1112において、トリミング部212は、入力画像集合の次の画像を選択し、処理をステップS1103に戻す。   In step S1108, the trimming unit 212 calculates an image point (= subject point + composition point) of the trimmed image using a rule as shown in FIG. For example, the subject point (20: FIG. 19 (c2)) + composition point (100: FIG. 19 (c3)) = image point (120) for the trimmed image FrTr1 of FIG. 19 (c1). In step S1109, the trimming unit 212 determines whether the image point of the trimmed image FrTR1 (120) is greater than or equal to the threshold value (95). If YES in step S1109, the process proceeds to step S1110, and if NO, the process proceeds to step S1111. Here, since YES is obtained in step S1109, the trimmed image FrTR1 (120) is newly replaced with the original image of the input image set as Img9t (120) (FIG. 19D) in step S1110 (FIG. 19E). ). In step S1111, the trimming unit 212 determines whether it is the last image in the input image set. If it is determined in step S1111 that the image is the last image, the trimming process ends. If it is determined in step S1111 that the image is not the last image, the process proceeds to step S1112. In step S1112, the trimming unit 212 selects the next image in the input image set, and returns the process to step S1103.

なお、ステップS1107において、条件ADの代わりに次のような条件AD2を用いてもよい。条件AD2=「被写体AとDの顔を含み、被写体Xの顔を含まない。かつ、トリミング画像は元の画像と縦横比が同じである」。   In step S1107, the following condition AD2 may be used instead of condition AD. Condition AD2 = “includes faces of subjects A and D, does not include face of subject X. And the trimmed image has the same aspect ratio as the original image”.

このように、入力画像集合に対してトリミング処理を行なった後、画像選択処理を行う。すると、画像選択処理(図17、ステップS1008)においてポイント順に画像が表示される(図11のS701、図11のS801)。その結果、図19(e)のように画像が表示される。   As described above, after the trimming process is performed on the input image set, the image selection process is performed. Then, images are displayed in the order of points in the image selection process (FIG. 17, step S1008) (S701 in FIG. 11, S801 in FIG. 11). As a result, an image is displayed as shown in FIG.

なお、閾値を基に無条件に画像をトリミングするだけでは無く、アルバムに対して、選択すべき写真の枚数が少なくなってきた場合に、上記のようなトリミング処理を行うようにしてもよい。
また、本実施形態では、閾値以下の画像をトリミングしているが、トリミングの結果ポイントが向上する全ての画像をトリミングしても良い。
In addition to unconditionally trimming an image based on a threshold value, the trimming process as described above may be performed when the number of photos to be selected for an album has decreased.
Further, in the present embodiment, images that are equal to or smaller than the threshold value are trimmed, but all images that improve the points as a result of trimming may be trimmed.

また、本実施形態では、トリミング画像を入力画像集合の元の画像と置き換えているが、元の画像を残しておいてトリミング画像を入力画像集合に追加するようにしてもよい。この場合は、画像選択処理(図11、図13)の際に元画像あるいはトリミング画像が選択されると、他方の画像のポイントを下げることになる。
また、トリミング画像と元画像とは画像選択の際に識別できるように枠の色などを変えて表示しても良い。
また、入力画像集合表示領域を元画像用とトリミング画像用に分けても良い。
In this embodiment, the trimmed image is replaced with the original image of the input image set. However, the trimmed image may be added to the input image set while leaving the original image. In this case, when the original image or the trimmed image is selected during the image selection process (FIGS. 11 and 13), the point of the other image is lowered.
Further, the trimmed image and the original image may be displayed by changing the color of the frame so that they can be identified at the time of image selection.
Further, the input image set display area may be divided into an original image and a trimmed image.

また、被写体の組み合わせ、構図、被写体に対する合焦の有無、被写体が人間である場合の顔の向きや表情、撮影時刻、撮影場所のいずれかあるいは1つ以上の組み合わせによるポイントが高くなるように画像を加工してもよい。   In addition, the image is such that the point of the combination of the subject, composition, presence / absence of focusing on the subject, face orientation and expression when the subject is a person, photographing time, photographing location, or a combination of one or more is high. May be processed.

<第4実施形態の効果>
以上のように、第4実施形態によれば、画像のポイントに閾値を設け、ポイントが閾値未満であるか否かを判断し、閾値未満である画像を加工することにより、閾値以上の得点とする。これによって、面倒な画像加工を自動的に行い、自動的に適当な画像を増やすことができる。
<Effects of Fourth Embodiment>
As described above, according to the fourth embodiment, by setting a threshold value for a point of an image, determining whether the point is less than the threshold value, and processing an image that is less than the threshold value, To do. Thereby, troublesome image processing is automatically performed, and appropriate images can be automatically increased.

[第5実施形態]
上記各実施形態のアルバム作成システムでは、図21に示すような操作画面を提示し、ユーザが入力画像集合表示領域Imgs−inDに表示されている画像からアルバムに掲載すべき画像を選択することでアルバムが生成される。入力画像集合表示領域Imgs−inDにおける画像の表示順序は選択された画像に基づいて再計算された画像ポイントに応じて並べ変えられるため、ユーザがアルバムへの掲載する画像を選択する際に、似たような画像が偏って選択されることを防ぐことができる。しかしながら、このようなマニュアルによるアルバム作成システムではなく、再計算された画像ポイントの最も高い画像を順次取り出してアルバムに掲載していくことでアルバムを自動生成するよう構成してもよいことは言うまでもない。
[Fifth Embodiment]
In the album creation system of each of the embodiments described above, an operation screen as shown in FIG. 21 is presented, and the user selects an image to be included in the album from images displayed in the input image collection display area Imgs-inD. An album is generated. Since the display order of the images in the input image set display area Imgs-inD is rearranged according to the image points recalculated based on the selected image, the display order is similar when the user selects an image to be posted on the album. Such an image can be prevented from being biased. However, it is needless to say that the album may be automatically generated by sequentially taking out the images with the highest recalculated image points and placing them on the album instead of such a manual album creation system. .

自動的にアルバムを生成する構成とする場合は、たとえば、図11、図12の手順を以下のように変形すればよい。すなわち、ステップS701、S702(またはステップS801、S802)において、入力画像集合のうち最も高い画像ポイントを有する画像を選択してアルバムの形成に用いるようにする。このとき、選択された画像が入力画像集合から除外されて選択画像集合に加入される。そして、ステップS704〜S708(またはステップS804〜S809)により、選択された画像以外の画像について画像ポイントの再計算が行なわれる。以上の処理をアルバムに掲載する画像数だけ実行する(ステップS716、S818)。なお、入力画像集合表示領域Imgs−inDなどの画像の表示は省略可能となるので、ステップS714、S715(ステップS816、S817)は省略してよい。   When the album is automatically generated, for example, the procedures shown in FIGS. 11 and 12 may be modified as follows. That is, in steps S701 and S702 (or steps S801 and S802), an image having the highest image point is selected from the input image set and used for album formation. At this time, the selected image is excluded from the input image set and joined to the selected image set. Then, in steps S704 to S708 (or steps S804 to S809), image points are recalculated for images other than the selected image. The above processing is executed for the number of images to be posted on the album (steps S716 and S818). Note that the display of images such as the input image aggregate display area Imgs-inD can be omitted, and therefore steps S714 and S715 (steps S816 and S817) may be omitted.

このようなアルバムの自動生成によれば、被写体の組み合わせや構図、時間帯などに偏りのないように選択された画像が掲載されたアルバムが生成される。   According to such automatic generation of an album, an album on which images selected so that there is no bias in the combination, composition, and time zone of the subject is generated.

<その他の実施形態>
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
<Other embodiments>
Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (13)

画像の内容および属性情報の少なくとも何れかに基づいて、複数の画像を評価する評価手段と、
ユーザ指示に応じて選択できる選択候補として、前記評価に基づく順に前記複数の画像を表示部の表示領域に提示する提示手段と、
前記選択候補として前記表示領域に提示された前記複数の画像からユーザの指示に応じて選択された画像の内容および属性情報の少なくとも何れかに基づいて、前記複数の画像のうちの前記選択された画像以外の画像の評価を更新する更新手段と、を備え、
前記提示手段は、前記更新手段によって更新された画像の評価に基づいて、前記選択された画像以外の複数の画像を並べ替えて前記表示領域に提示することを特徴とする画像処理装置。
Evaluation means for evaluating a plurality of images based on at least one of image content and attribute information;
Presenting means for presenting the plurality of images in a display area of a display unit in order based on the evaluation as selection candidates that can be selected according to a user instruction;
The selected of the plurality of images based on at least one of content and attribute information of the image selected according to a user instruction from the plurality of images presented in the display area as the selection candidate Updating means for updating the evaluation of images other than images,
The presenting means rearranges and presents a plurality of images other than the selected image on the display area based on the evaluation of the image updated by the updating means.
画像の内容および属性情報の少なくとも何れかに基づいて、複数の画像を評価する評価手段と、
ユーザ指示に応じて選択できる選択候補として、前記評価に基づいて、前記複数の画像の少なくとも何れか1つを提示する提示手段と、
前記選択候補から選択された画像の内容および属性情報の少なくとも何れかに基づいて、前記複数の画像のうちの前記選択された画像以外の画像の評価を更新する更新手段と、を備え、
前記提示手段は、選択済みとなっている画像がユーザ指示に応じて非選択状態になった場合に、該非選択状態になった画像を前記選択候補に戻し、
前記更新手段は、前記選択候補に戻った画像の内容および属性情報の少なくとも何れかに基づいて、該選択候補に戻った画像以外の画像の評価を更新することを特徴とする画像処理装置。
Evaluation means for evaluating a plurality of images based on at least one of image content and attribute information;
Presenting means for presenting at least one of the plurality of images based on the evaluation as a selection candidate that can be selected according to a user instruction;
Updating means for updating an evaluation of an image other than the selected image of the plurality of images based on at least one of content and attribute information of the image selected from the selection candidates;
The presenting means returns the image in the non-selected state to the selection candidate when the selected image is in a non-selected state in response to a user instruction,
It said updating means, based on at least one of content and attribute information of the image back to the selected candidate, the image processing apparatus and updates the evaluation of the images other than the image returned to the selected candidate.
前記評価手段は、前記画像の評価を評価値として算出し、
前記更新手段は、前記選択された画像と前記選択された画像以外の画像との類似の度合いをそれら画像の内容および属性情報の少なくとも何れかに基づいて取得し、取得された類似の度合いにしたがって前記選択された画像以外の画像の評価値を減少させることを特徴とする請求項1または2に記載の画像処理装置。
The evaluation means calculates the evaluation of the image as an evaluation value,
The update means acquires the degree of similarity between the selected image and an image other than the selected image based on at least one of the contents of the images and attribute information, and according to the degree of similarity acquired The image processing apparatus according to claim 1, wherein an evaluation value of an image other than the selected image is decreased.
前記更新手段は、前記選択された画像以外の画像のそれぞれについて前記選択された画像と類似するか否かを判定し、類似すると判定された画像の評価値を所定値だけ減少させることを特徴とする請求項3に記載の画像処理装置。   The update means determines whether each of the images other than the selected image is similar to the selected image, and reduces the evaluation value of the image determined to be similar by a predetermined value. The image processing apparatus according to claim 3. 前記提示手段は、選択済みとなっている画像がユーザ指示に応じて非選択状態になった場合に、該非選択状態になった画像を前記選択候補に戻し、
前記更新手段は、前記選択候補に戻った画像の内容および属性情報の少なくとも何れかに基づいて、該選択候補に戻った画像以外の画像の評価値を更新することを特徴とする請求項3または4に記載の画像処理装置。
The presenting means returns the image in the non-selected state to the selection candidate when the selected image is in a non-selected state in response to a user instruction,
It said updating means, based on said at least one of the contents of an image back to the selected candidate and the attribute information, claim 3 or and updates the evaluation value of the image other than the image back to the selected candidate 5. The image processing apparatus according to 4 .
前記更新手段は、前記選択候補に戻った画像と前記選択候補に戻った画像以外の画像との類似の度合いをそれら画像の内容および属性情報の少なくとも何れかに基づいて取得し、取得された類似度の度合いにしたがって前記選択候補に戻った画像以外の画像の評価値を増加させることを特徴とする請求項5に記載の画像処理装置。 The update means acquires the degree of similarity between an image returned to the selection candidate and an image other than the image returned to the selection candidate based on at least one of the contents of the images and attribute information, and the acquired similarity The image processing apparatus according to claim 5 , wherein an evaluation value of an image other than the image returned to the selection candidate is increased according to a degree. 前記評価が向上するように画像を加工する加工手段を更に備えることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a processing unit that processes the image so that the evaluation is improved. 前記画像の内容は、画像内の被写体の識別情報、被写体の画像内における位置および大きさに基づく構図情報、画像内の被写体に対する合焦の有無に基づく合焦情報、画像内の被写体の顔の向きの情報、の少なくともいずれかを含むことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The content of the image includes identification information of the subject in the image, composition information based on the position and size of the subject in the image, focusing information based on whether or not the subject in the image is in focus, and the face of the subject in the image The image processing apparatus according to claim 1, comprising at least one of orientation information. 前記属性情報は、撮影時刻、撮影場所、の少なくともいずれかを含むことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the attribute information includes at least one of a photographing time and a photographing place. 画像の内容および属性情報の少なくとも何れかに基づいて、複数の画像を評価する評価手段と、
前記評価手段による評価に基づく順に前記複数の画像を表示部の表示領域に提示し、前記表示領域に提示された前記複数の画像からユーザの指示に応じてアルバムに掲載する画像を選択する第1の選択手段と、
前記選択された画像の内容および属性情報の少なくとも何れかに基づいて、前記複数の画像のうち、前記選択された画像以外の画像の評価を更新する更新手段と、
前記更新手段により更新された評価に基づいて、前記選択された画像以外の複数の画像を並べ替えて前記表示領域に提示し、前記表示領域に提示された前記選択された画像以外の複数の画像からユーザの指示に応じてアルバムに掲載する画像を選択する第2の選択手段と、
前記第1の選択手段と前記第2の選択手段により選択された画像を用いてアルバムを生成する生成手段と、を備えることを特徴とする画像処理装置。
Evaluation means for evaluating a plurality of images based on at least one of image content and attribute information;
The plurality of images are presented in the display area of the display unit in the order based on the evaluation by the evaluation unit, and the images to be posted on the album are selected from the plurality of images presented in the display area in accordance with a user instruction. And means for selecting
Updating means for updating an evaluation of an image other than the selected image among the plurality of images based on at least one of contents and attribute information of the selected image;
Based on the evaluation updated by the updating means, a plurality of images other than the selected image are rearranged and presented in the display area, and a plurality of images other than the selected image presented in the display area are displayed. A second selecting means for selecting an image to be posted on the album in accordance with a user instruction;
An image processing apparatus comprising: generation means for generating an album using the images selected by the first selection means and the second selection means.
画像処理装置の制御方法であって、
画像の内容および属性情報の少なくとも何れかに基づいて、複数の画像を評価する評価工程と、
ユーザ指示に応じて選択できる選択候補として、前記評価に基づく順に前記複数の画像を表示部の表示領域に提示する提示工程と、
前記選択候補として前記表示領域に提示された前記複数の画像からユーザの指示に応じて選択された画像の内容および属性情報の少なくとも何れかに基づいて、前記複数の画像のうち前記選択された画像以外の画像の評価を更新する更新工程と、を有し、
前記提示工程では、前記更新工程によって更新された画像の評価に基づいて、前記選択された画像以外の複数の画像を並べ替えて前記表示領域に提示することを特徴とする画像処理装置の制御方法。
A control method for an image processing apparatus, comprising:
An evaluation step of evaluating a plurality of images based on at least one of image content and attribute information;
As a selection candidate that can be selected according to a user instruction, a presentation step of presenting the plurality of images in a display area of the display unit in order based on the evaluation;
The selected image among the plurality of images based on at least one of content and attribute information of the image selected according to a user instruction from the plurality of images presented in the display area as the selection candidate An update process for updating the evaluation of images other than
In the presenting step, a plurality of images other than the selected image are rearranged and presented in the display area based on the evaluation of the image updated in the updating step. .
画像処理装置の制御方法であって、
画像の内容および属性情報の少なくとも何れかに基づいて、複数の画像を評価する評価工程と、
前記評価工程における評価に基づく順に前記複数の画像を表示部の表示領域に提示し、前記表示領域に提示された前記複数の画像からユーザの指示に応じてアルバムに掲載する画像を選択する第1の選択工程と、
前記選択された画像の内容および属性情報の少なくとも何れかに基づいて、前記複数の画像のうち前記選択された画像以外の画像の評価を更新する更新工程と、
前記更新工程において更新された評価に基づいて、前記選択された画像以外の複数の画像を並べ替えて前記表示領域に提示し、前記表示領域に提示された前記選択された画像以外の複数の画像からユーザの指示に応じてアルバムに掲載する画像を選択する第2の選択工程と、
前記第1の選択工程と前記第2の選択工程により選択された画像を用いてアルバムを生成する生成工程と、を有することを特徴とする画像処理装置の制御方法。
A control method for an image processing apparatus, comprising:
An evaluation step of evaluating a plurality of images based on at least one of image content and attribute information;
The plurality of images are presented in a display area of a display unit in the order based on the evaluation in the evaluation step, and a first image selected from the plurality of images presented in the display area is selected according to a user instruction. Selection process,
An update step of updating evaluation of an image other than the selected image among the plurality of images based on at least one of the content of the selected image and attribute information;
Based on the evaluation updated in the updating step, a plurality of images other than the selected image are rearranged and presented in the display area, and a plurality of images other than the selected image presented in the display area are displayed. A second selection step of selecting an image to be posted on the album in accordance with a user instruction;
A control method for an image processing apparatus, comprising: a generation step of generating an album using the images selected in the first selection step and the second selection step.
コンピュータに、請求項11または12に記載の画像処理装置の制御方法の各工程を実行させるためのプログラム。   A program for causing a computer to execute each step of a control method for an image processing apparatus according to claim 11 or 12.
JP2012093395A 2012-04-16 2012-04-16 Image processing apparatus, control method therefor, and program Active JP6004718B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012093395A JP6004718B2 (en) 2012-04-16 2012-04-16 Image processing apparatus, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012093395A JP6004718B2 (en) 2012-04-16 2012-04-16 Image processing apparatus, control method therefor, and program

Publications (3)

Publication Number Publication Date
JP2013222304A JP2013222304A (en) 2013-10-28
JP2013222304A5 JP2013222304A5 (en) 2015-06-11
JP6004718B2 true JP6004718B2 (en) 2016-10-12

Family

ID=49593220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012093395A Active JP6004718B2 (en) 2012-04-16 2012-04-16 Image processing apparatus, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP6004718B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6367169B2 (en) * 2015-09-28 2018-08-01 富士フイルム株式会社 Image processing apparatus, image processing method, program, and recording medium
JP6453194B2 (en) 2015-09-28 2019-01-16 富士フイルム株式会社 Image evaluation system, image evaluation method, image evaluation program, and recording medium storing the program
JP6723909B2 (en) * 2016-12-09 2020-07-15 キヤノン株式会社 Image processing method, image processing apparatus, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031310A (en) * 2004-07-15 2006-02-02 Seiko Epson Corp Image processor and image extraction method
JP4934380B2 (en) * 2006-09-27 2012-05-16 富士フイルム株式会社 Image evaluation apparatus and method, and program
JP2010176459A (en) * 2009-01-30 2010-08-12 Nikon Corp Electronic apparatus and ranking program

Also Published As

Publication number Publication date
JP2013222304A (en) 2013-10-28

Similar Documents

Publication Publication Date Title
JP6323465B2 (en) Album creating program, album creating method, and album creating apparatus
JP5802255B2 (en) Layout editing apparatus, layout editing method and program
JP7111632B2 (en) Image candidate determination device, image candidate determination method, program for controlling image candidate determination device, and recording medium storing the program
US9378189B2 (en) Layout apparatus, layout method, and computer-readable recording medium
JP7250567B2 (en) Apparatus, method and program
JP2020140577A (en) Device, method, and program
KR101953306B1 (en) The method and apparatus for creating 3d image based on user interaction
JP2020140567A (en) Device, method, and program
JP6028549B2 (en) Information processing apparatus, information processing system, control method thereof, and program
CN108377351A (en) Image processing apparatus and image processing method for the laying out images in template
WO2014156559A1 (en) Image retrieval device, operation control method therefor, and image retrieval server
JP2020140568A (en) Device, method, and program
JP2019067261A (en) Image processing apparatus, control method and program
JP6681192B2 (en) Image processing apparatus, image processing method, and computer program
JP6004718B2 (en) Image processing apparatus, control method therefor, and program
JP2020140557A (en) Image processing device, control method, and program
JP2022123209A (en) Image processing apparatus, image processing method, and program
WO2016125418A1 (en) Image display control device, image display control method, image display control program, and recording medium which stores program
JP2020140555A (en) Image processing device, control method, and program
JP6948787B2 (en) Information processing equipment, methods and programs
JP2014085814A (en) Information processing device, control method therefor, and program
CN104519218A (en) Image processing apparatus and method
JP2018055534A (en) Image extraction system, image extraction method and program therefor
EP2763391B1 (en) Image editing device, image editing method, program, and computer readable storage medium
JP7451242B2 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160906

R151 Written notification of patent or utility model registration

Ref document number: 6004718

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151