JP6797871B2 - program - Google Patents

program Download PDF

Info

Publication number
JP6797871B2
JP6797871B2 JP2018159682A JP2018159682A JP6797871B2 JP 6797871 B2 JP6797871 B2 JP 6797871B2 JP 2018159682 A JP2018159682 A JP 2018159682A JP 2018159682 A JP2018159682 A JP 2018159682A JP 6797871 B2 JP6797871 B2 JP 6797871B2
Authority
JP
Japan
Prior art keywords
image
person
layout
face
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018159682A
Other languages
Japanese (ja)
Other versions
JP2019009798A (en
Inventor
池田 徹
徹 池田
梅田 清
清 梅田
雄介 橋井
雄介 橋井
寛康 國枝
寛康 國枝
洋行 酒井
洋行 酒井
尚紀 鷲見
尚紀 鷲見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018159682A priority Critical patent/JP6797871B2/en
Publication of JP2019009798A publication Critical patent/JP2019009798A/en
Application granted granted Critical
Publication of JP6797871B2 publication Critical patent/JP6797871B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明はプログラムに関する。 The present invention relates to a program.

デジタルスチルカメラ(以下DSCとも記載)やカメラ機能が搭載された多機能携帯電話などにより、ユーザが撮影する多数のデジタル写真のデータは、ユーザが保有するPCや、インターネット上に存在するストレージサービスに保存される。 A large number of digital photo data taken by users using digital still cameras (hereinafter also referred to as DSCs) and multifunctional mobile phones equipped with camera functions can be used for PCs owned by users and storage services existing on the Internet. It will be saved.

保存された多数のデジタル写真のデータの中からユーザが、所望の画像がどこに保存されているのかを探す際に、膨大な画像閲覧操作を行う必要があった。これは、画像の閲覧性・検索性においてユーザビリティを大きく損なう要因となっている。 When the user searches for where the desired image is stored from among a large number of stored digital photo data, it is necessary to perform a huge amount of image browsing operations. This is a factor that greatly impairs usability in the viewability and searchability of images.

そこで、特許文献1では、レイアウトテーブルに格納された過去のレイアウトのパラメータを変化させることで1又は複数のレイアウト候補を作成する方法が提案されている。 Therefore, Patent Document 1 proposes a method of creating one or a plurality of layout candidates by changing the parameters of the past layout stored in the layout table.

特開2009−245071JP 2009-245071

ところで、ユーザが撮影した画像群にはブレ画像などのいわゆる失敗画像が多く存在するが、ユーザが消去せずに保管している場合がある。 By the way, there are many so-called failed images such as blur images in the image group taken by the user, but the user may store the images without erasing them.

特許文献1では、失敗画像を含む画像群から画像を選択してレイアウト画像を作成する場合、失敗画像が選択されると、ユーザにとって満足度の低いレイアウト画像が作成されてしまう。 In Patent Document 1, when an image is selected from an image group including a failed image to create a layout image, if the failed image is selected, a layout image with low satisfaction for the user is created.

発明は上述した事情に鑑み、レイアウト画像に対するユーザ満足度を高めた画像処理装置、画像処理方法、及びプログラムを提供することを課題とする。 In view of the above circumstances, it is an object of the present invention to provide an image processing device, an image processing method, and a program that enhance user satisfaction with a layout image.

上述のような課題を解決するための本発明のプログラムは、 所定のアプリケーションのプログラムであって、コンピュータに、第1の人物が含まれる画像と、前記第1の人物とは異なる第2の人物が含まれる画像と、を含む複数の画像を取得するステップと、前記取得された複数の画像を解析処理し、前記複数の画像に含まれる複数の人物の顔と人物の顔以外のオブジェクトとを認識し、前記認識された人物の顔を人物ごとに識別するステップと、前記解析処理に基づき識別された前記第1の人物の顔に対応する第1の顔画像を表示部に表示させるステップと、前記第1の顔画像が前記表示部に表示された状態で、前記第1の顔画像に関連する所定のユーザ指示を受け付けるステップと、前記所定のユーザ指示とは異なるユーザ入力に基づいて、レイアウトのテーマとして所定のイベントに関連するテーマを決定するステップと、前記所定のユーザ指示に基づいて、前記第1の人物を第1の主人公として設定するステップと、前記決定されたテーマに基づいて、前記第2の人物を第2の主人公として設定するステップと、テーマごとに保持されているテンプレートの中から、前記決定されたテーマに基づくテンプレートを選択するステップと、前記所定のユーザ指示に基づいて設定された前記第1の主人公と前記テーマに基づいて設定された前記第2の主人公の設定に基づいて、前記テーマに基づいて選択されたテンプレートに前記第1の人物が含まれる画像と前記第2の人物が含まれる画像が配置されたレイアウト画像を生成するステップと、を実行させることを特徴とする。 The program of the present invention for solving the above-mentioned problems is a program of a predetermined application, and is an image in which a first person is included in a computer and a second person different from the first person. A step of acquiring an image including, and a plurality of images including the image, and analyzing and processing the acquired plurality of images to obtain a plurality of person's faces and objects other than the person's face included in the plurality of images. It recognized, identifying the face of the recognized person per person, and a step to display the first facial image corresponding to the face of the identified first person on the basis of the analysis on a display unit Based on the step of receiving a predetermined user instruction related to the first face image while the first face image is displayed on the display unit and a user input different from the predetermined user instruction. Based on the steps of determining a theme related to a predetermined event as the layout theme, the step of setting the first person as the first main character based on the predetermined user instruction, and the determined theme. , and setting the second person as second hero from among the templates held by theme, selecting a template based on the determined theme, based on the predetermined user instruction based on the set second hero set based on the set first hero and the theme Te, the selected template based on the theme, the image including the first person It is characterized in that a step of generating a layout image in which an image including the second person is arranged is executed.

本発明では、レイアウト画像に対するユーザ満足度を高めることができるという効果を奏する。 In the present invention, an effect that can increase the user satisfaction with the layout image.

実施形態1に係る画像処理装置のハードウェア構成図である。It is a hardware block diagram of the image processing apparatus which concerns on Embodiment 1. FIG. 実施形態1に係るソフトウェアブロック図である。It is a software block diagram which concerns on Embodiment 1. 実施形態1に係る画像解析処理のフローチャートである。It is a flowchart of image analysis processing which concerns on Embodiment 1. 実施形態1に係る画像解析処理のフローチャートである。It is a flowchart of image analysis processing which concerns on Embodiment 1. 実施形態1に係る人物グループ生成処理のフローチャートである。It is a flowchart of the person group generation processing which concerns on Embodiment 1. 実施形態1に係る自動レイアウト提案処理のフローチャートである。It is a flowchart of the automatic layout proposal processing which concerns on Embodiment 1. 実施形態1の人物グループの表示例を示す図である。It is a figure which shows the display example of the person group of Embodiment 1. FIG. 実施形態1の画像群の表示例を示す図である。It is a figure which shows the display example of the image group of Embodiment 1. FIG. 画像解析結果の保存形式の例を示す図である。It is a figure which shows the example of the storage format of the image analysis result. 手動でお気に入り度を入力するためのUIの例及び手動でイベント情報を入力するためのUI例を示す図である。It is a figure which shows the example of the UI for manually inputting a favorite degree, and the example of the UI for manually inputting event information. 手動で人物属性情報を入力するためのUI例を示す図である。It is a figure which shows the UI example for manually inputting a person attribute information. 人物属性情報の保存形式の例を示す図である。It is a figure which shows the example of the storage format of the person attribute information. レイアウトテンプレートの一例を示す図である。It is a figure which shows an example of a layout template. 図13のレイアウトテンプレートの保持形式の例を示す図である。It is a figure which shows the example of the holding form of the layout template of FIG. レイアウトテンプレートの一例を示す図である。It is a figure which shows an example of a layout template. 図15のレイアウトテンプレートの保持形式の例を示す図である。It is a figure which shows the example of the holding form of the layout template of FIG. 実施形態1における自動レイアウト生成処理のフローチャートである。It is a flowchart of the automatic layout generation processing in Embodiment 1. 実施形態1における不要画像フィルタリング処理のフローチャートである。It is a flowchart of unnecessary image filtering processing in Embodiment 1. 自動トリミング処理の説明図、明るさ適正度の算出方法の説明図、及び彩度適正度の算出方法の説明図である。It is explanatory drawing of the automatic trimming process, the explanatory drawing of the calculation method of the brightness appropriateness, and the explanatory drawing of the calculation method of the saturation appropriateness. トリミング欠け判定処理の説明図である。It is explanatory drawing of the trimming chipping determination processing. 実施形態1に係る自動レイアウト生成結果の表示例を示す図である。It is a figure which shows the display example of the automatic layout generation result which concerns on Embodiment 1. 決定されたテーマと主人公情報の保持例を示す図である。It is a figure which shows the determined theme and the holding example of the hero information. 決定されたテーマと主人公情報の保持例を示す図である。It is a figure which shows the determined theme and the holding example of the hero information. 生成したレイアウト情報の保持例を示す図である。It is a figure which shows the holding example of the generated layout information.

以下では、入力画像群を用いて自動でレイアウト出力物を生成するために、本発明における実施形態1について説明する。これはあくまで実施の1つの形態を例として示したものであり、本発明は以下の実施形態に限定されるものではない。 Hereinafter, the first embodiment of the present invention will be described in order to automatically generate a layout output using the input image group. This is merely an example of one embodiment, and the present invention is not limited to the following embodiments.

図1は実施形態1の画像処理装置のハードウェア構成例を示すブロック図である。 FIG. 1 is a block diagram showing a hardware configuration example of the image processing device of the first embodiment.

図1において、画像処理装置115は、CPU100と、ROM101と、RAM102と、2次記憶装置103と、表示装置104と、入力装置105と、IF107と、IF108と、無線LAN109を備えている。さらに、内部撮像デバイス106を備えている。これらは、制御バス/データバス110により相互に接続されている。 In FIG. 1, the image processing device 115 includes a CPU 100, a ROM 101, a RAM 102, a secondary storage device 103, a display device 104, an input device 105, an IF 107, an IF 108, and a wireless LAN 109. Further, it includes an internal imaging device 106. These are connected to each other by a control bus / data bus 110.

画像処理装置115は、例えば、コンピュータである。CPU100(中央演算装置)は、実施形態1で説明する情報処理をプログラムに従って実行する。ROM101は、CPU100により実行される以下に示すアプリケーション等のプログラムが記憶されている。RAM102は、CPU100によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供している。2次記憶装置103は、ハードディスク等であり、画像ファイルや画像解析結果を保存するデータベース等を保存するための記憶媒体である。表示装置104は、例えば、ディスプレイであり、実施形態1の処理結果や以下に示すUI(User Interface)等をユーザに提示する装置である。表示装置104は、タッチパネル機能を備えても良い。入力装置105は、ユーザが画像補正の処理の指示等を入力するためのマウスやキーボード等である。 The image processing device 115 is, for example, a computer. The CPU 100 (central processing unit) executes the information processing described in the first embodiment according to a program. The ROM 101 stores programs such as the following applications executed by the CPU 100. The RAM 102 provides a memory for temporarily storing various information when the program is executed by the CPU 100. The secondary storage device 103 is a hard disk or the like, and is a storage medium for storing an image file, a database for storing an image analysis result, or the like. The display device 104 is, for example, a display, and is a device that presents the processing result of the first embodiment, the UI (User Interface) shown below, and the like to the user. The display device 104 may have a touch panel function. The input device 105 is a mouse, keyboard, or the like for the user to input an instruction or the like for image correction processing.

また、内部撮像デバイス106で撮像された画像は、所定の画像処理を経た後、2次記憶装置103に記憶される。また、画像処理装置115は、インターフェース(IF108)を介して接続された外部撮像デバイス111から画像データを読み込むこともできる。さらに、無線LAN(Local Area Network)108はインターネット113に接続されている。画像処理装置115は、インターネット113に接続された外部サーバー114より画像データを取得することもできる。 Further, the image captured by the internal imaging device 106 is stored in the secondary storage device 103 after undergoing predetermined image processing. The image processing device 115 can also read image data from an external imaging device 111 connected via an interface (IF108). Further, the wireless LAN (Local Area Network) 108 is connected to the Internet 113. The image processing device 115 can also acquire image data from an external server 114 connected to the Internet 113.

画像等を出力するためのプリンタ112は、IF107を介して画像処理装置115に接続されている。尚、プリンタ112はさらにインターネット上に接続されており、無線LAN109経由でプリントデータのやり取りをすることもできる。 The printer 112 for outputting an image or the like is connected to the image processing device 115 via the IF 107. The printer 112 is further connected to the Internet, and print data can be exchanged via the wireless LAN 109.

図2は本実施形態における上記アプリケーション等ソフトウェア構成のブロック図である。 FIG. 2 is a block diagram of the software configuration such as the application in the present embodiment.

まずハードウェアが取得した画像データは、通常JPEG(Joint Photography Expert Group)等の圧縮形式になっている。そのため、画像コーデック部200は、該圧縮形式を解凍していわゆるRGB点順次のビットマップデータ形式に変換する。変換されたビットマップデータは、表示・UI制御部201に伝達され、ディスプレイ等の表示装置104上に表示される。 First, the image data acquired by the hardware is usually in a compressed format such as JPEG (Joint Photography Expert Group). Therefore, the image codec unit 200 decompresses the compressed format and converts it into a so-called RGB point sequential bitmap data format. The converted bitmap data is transmitted to the display / UI control unit 201 and displayed on a display device 104 such as a display.

上記ビットマップデータは、さらに画像センシング部203(アプリケーション)に入力され、同部において、詳細は後述するが、画像の様々な解析処理が行われる。上記解析処理の結果得られた画像の様々な属性情報は、所定の形式に従ってデータベース部202において、上述した2次記憶装置103に保存される。なお、以降においては、画像解析処理とセンシング処理は同義で扱う。 The bitmap data is further input to the image sensing unit 203 (application), in which various analysis processes of the image are performed, which will be described in detail later. Various attribute information of the image obtained as a result of the above analysis process is stored in the above-mentioned secondary storage device 103 in the database unit 202 according to a predetermined format. In the following, image analysis processing and sensing processing will be treated as synonymous.

シナリオ生成部204(アプリケーション)では、ユーザが入力した様々な条件に応じて、自動で生成すべきレイアウトの条件を生成し、レイアウト生成部205(アプリケーション)では上記シナリオに従って、自動でレイアウトを生成する処理を行う。 The scenario generation unit 204 (application) generates layout conditions to be automatically generated according to various conditions input by the user, and the layout generation unit 205 (application) automatically generates layouts according to the above scenario. Perform processing.

生成したレイアウトは、レンダリング部206で表示用のビットマップデータを生成し、該ビットマップデータは表示・UI制御部201に送られ、結果がディスプレイ等の表示装置104に表示される。一方で、レンダリング結果はさらにプリントデータ生成部207に送られ、同部でプリンタ用コマンドデータに変換され、プリンタに送出される。 In the generated layout, the rendering unit 206 generates bitmap data for display, the bitmap data is sent to the display / UI control unit 201, and the result is displayed on a display device 104 such as a display. On the other hand, the rendering result is further sent to the print data generation unit 207, which is converted into printer command data and sent to the printer.

図3〜6は、本実施形態のアプリケーションの基本的な画像処理のフローチャートである。具体的には、図3及び4は、画像センシング部203のフローを示しており、複数の画像データ群を取得して、それぞれについて解析処理を施し、その結果をデータベースに格納するまでの処理の流れを示している。図5は、検出した顔位置情報に基づいて、同じ人物と思われる顔情報をグループ化するための処理の流れを示している。図6は、画像の解析情報およびユーザが入力した様々な情報に基づいて、レイアウト作成のためのシナリオを決定し、該シナリオに基づいて、自動でレイアウトを生成するための処理の流れを示している。 3 to 6 are flowcharts of basic image processing of the application of the present embodiment. Specifically, FIGS. 3 and 4 show the flow of the image sensing unit 203, which is a process of acquiring a plurality of image data groups, performing analysis processing on each of them, and storing the results in a database. It shows the flow. FIG. 5 shows a flow of processing for grouping face information that seems to be the same person based on the detected face position information. FIG. 6 shows a flow of processing for determining a scenario for creating a layout based on image analysis information and various information input by the user, and automatically generating a layout based on the scenario. There is.

図3のS301では、1以上の画像データを含む画像データ群の取得を行う。画像データ群は、例えば、ユーザが、撮影画像が格納された撮像装置やメモリカードを画像処理装置115に接続して、これらから撮像画像を読み込むことで取得する。また、内部撮像装置で撮影され、2次記憶装置に保存されていた画像データ群を取得してもよい。あるいは、無線LANを介して、インターネット上に接続された外部サーバー114等、画像処理装置115以外の場所から画像データ群を取得をしてもよい。 In S301 of FIG. 3, an image data group including one or more image data is acquired. The image data group is acquired, for example, by the user connecting an image pickup device or a memory card in which the captured image is stored to the image processing device 115 and reading the captured image from these. Further, the image data group taken by the internal imaging device and stored in the secondary storage device may be acquired. Alternatively, the image data group may be acquired from a location other than the image processing device 115, such as an external server 114 connected on the Internet via a wireless LAN.

画像データ群を取得すると、そのサムネイル群が図8(a)や図8(b)に示すようにUIに表示される。図8(a)の801に示すように2次記憶装置103内のフォルダ単位で画像のサムネイル802を表示してもよいし、図8(b)に示すようにカレンダーのようなUI901で日付ごとに画像データが管理されていてもよい。日付の部分902をクリックすることにより、同日に撮影された画像を、図8(a)のようなサムネイル一覧で表示する。 When the image data group is acquired, the thumbnail group is displayed on the UI as shown in FIGS. 8 (a) and 8 (b). As shown in 801 of FIG. 8A, thumbnails 802 of images may be displayed for each folder in the secondary storage device 103, or as shown in FIG. 8B, for each date in UI901 such as a calendar. Image data may be managed in. By clicking the date portion 902, the images taken on the same day are displayed in a thumbnail list as shown in FIG. 8A.

次に、S302において、各画像のデコードを行う。具体的には、アプリケーションが、新規で保存され未だセンシング処理が行われていない画像をサーチし、抽出された各画像について、画像コーデック部200が圧縮データからビットマップデータに変換する。 Next, in S302, each image is decoded. Specifically, the application searches for a newly saved image that has not yet been subjected to sensing processing, and the image codec unit 200 converts the compressed data into bitmap data for each extracted image.

次に、S303において、上記ビットマップデータに対して、各種センシング処理を実行する。ここでいうセンシング処理には、次の表1に示すような様々な処理が含まれる。本実施形態では、センシング処理の例として、顔検出、画像の特徴量解析、シーン解析を挙げており、それぞれ表1に示すようなデータ型の結果を算出する。 Next, in S303, various sensing processes are executed on the above-mentioned bitmap data. The sensing process referred to here includes various processes as shown in Table 1 below. In the present embodiment, face detection, image feature analysis, and scene analysis are given as examples of sensing processing, and the results of data types as shown in Table 1 are calculated for each.

Figure 0006797871
Figure 0006797871

以下、それぞれのセンシング処理について説明する。 Hereinafter, each sensing process will be described.

画像の基本的な特徴量である全体の平均輝度、平均彩度は、公知の方法で求めればよいため、詳細な説明は省略する。平均輝度は、画像の各画素について、RGB成分を公知の輝度色差成分(例えばYCbCr成分)に変換し(変換式省略)、Y成分の平均値を求めればよい。また、平均彩度は、上記CbCr成分について画素毎に以下を算出し、下記Sの平均値を求めればよい。 Since the overall average brightness and average saturation, which are the basic features of the image, may be obtained by a known method, detailed description thereof will be omitted. For the average brightness, the RGB component may be converted into a known luminance color difference component (for example, YCbCr component) for each pixel of the image (conversion formula omitted), and the average value of the Y component may be obtained. Further, the average saturation may be calculated as follows for each pixel for the CbCr component, and the average value of S below may be obtained.

Figure 0006797871
Figure 0006797871

また、画像内の平均色相(AveH)は、画像の色合いを評価するための特徴量である。各画素毎の色相は、公知のHIS変換式を用いて求めることができ、それらを画像全体で平均化することにより、AveHを求めることができる。 Further, the average hue (AveH) in the image is a feature amount for evaluating the hue of the image. The hue of each pixel can be obtained using a known HIS conversion formula, and AveH can be obtained by averaging them over the entire image.

また、これらの特徴量は、上述したように画像全体で算出してもよいし、例えば、画像を所定サイズの領域に分割し、各領域毎に算出してもよい。
次に、人物の顔検出処理について説明する。本実施形態で使用する人物の顔検出手法としては、公知の方法を用いることができる。
Further, these feature quantities may be calculated for the entire image as described above, or for example, the image may be divided into regions of a predetermined size and calculated for each region.
Next, the face detection process of a person will be described. As a method for detecting the face of a person used in the present embodiment, a known method can be used.

特開2002−183731号に記載されている方法では、入力画像から目領域を検出し、目領域周辺を顔候補領域とする。この顔候補領域に対して、画素毎の輝度勾配、および輝度勾配の重みを算出し、これらの値を、あらかじめ設定されている理想的な顔基準画像の勾配、および勾配の重みと比較する。そのときに、各勾配間の平均角度が所定の閾値以下であった場合、入力画像は顔領域を有すると判定する。 In the method described in JP-A-2002-183731, the eye region is detected from the input image, and the periphery of the eye region is set as the face candidate region. For this face candidate region, the brightness gradient for each pixel and the weight of the brightness gradient are calculated, and these values are compared with the preset ideal gradient of the face reference image and the weight of the gradient. At that time, if the average angle between the gradients is equal to or less than a predetermined threshold value, it is determined that the input image has a face region.

また、特開2003−30667号に記載されている方法では、まず画像中から肌色領域を検出し、同領域内において、人間の虹彩色画素を検出することにより、目の位置を検出することができる。 Further, in the method described in Japanese Patent Application Laid-Open No. 2003-30667, the position of the eye can be detected by first detecting the skin color region in the image and then detecting the human rainbow-colored pixel in the region. it can.

特開平8−63597号に記載されている方法では、まず、複数の顔の形状をしたテンプレートと画像とのマッチング度を計算する。そのマッチング度が最も高いテンプレートを選択し、最も高かったマッチング度があらかじめ定められた閾値以上であれば、選択されたテンプレート内の領域を顔候補領域とする。同テンプレートを用いることで、目の位置を検出することができる。 In the method described in JP-A-8-63597, first, the degree of matching between a template having a plurality of face shapes and an image is calculated. The template having the highest matching degree is selected, and if the matching degree having the highest matching degree is equal to or higher than a predetermined threshold value, the area in the selected template is set as the face candidate area. By using the same template, the position of the eyes can be detected.

さらに、特開2000−105829号に記載されている方法では、まず、鼻画像パターンをテンプレートとし、画像全体、あるいは画像中の指定された領域を走査し最もマッチする位置を鼻の位置として出力する。次に、画像の鼻の位置よりも上の領域を目が存在する領域と考え、目画像パターンをテンプレートとして目存在領域を走査してマッチングをとり、ある閾値よりもマッチ度が度置きい画素の集合である目存在候補位置集合を求める。そして、目存在候補位置集合に含まれる連続した領域をクラスタとして分割し、各クラスタと鼻位置との距離を算出する。その距離が最も短くなるクラスタを目が存在するクラスタと決定することで、器官位置の検出することができる。 Further, in the method described in Japanese Patent Application Laid-Open No. 2000-105829, first, the nose image pattern is used as a template, the entire image or a designated area in the image is scanned, and the most matching position is output as the nose position. .. Next, the area above the nose position of the image is considered to be the area where the eyes exist, and the eye image pattern is used as a template to scan the eye-existing area for matching, and the degree of matching is higher than a certain threshold. Find the eye existence candidate position set, which is a set of. Then, the continuous region included in the eye existence candidate position set is divided into clusters, and the distance between each cluster and the nose position is calculated. The organ position can be detected by determining the cluster with the shortest distance as the cluster in which the eyes exist.

その他の人物の顔検出方法としては、特開平8−77334、特開2001−216515、特開平5−197793、特開平11−53525、特開2000−132688、特開2000−235648、特開平11−250267に記載されるような顔および器官位置を検出する方法が挙げられる。また、人物の顔検出処理は、特許第2541688号に記載された方法でもよく、方法は特に限定されるものではない。 As other methods for detecting the face of a person, JP-A-8-7734, JP-A-2001-216515, JP-A-5-197793, JP-A-11-53525, JP-A-2000-132688, JP-A-2000-235648, JP-A-11- Methods of detecting face and organ positions as described in 250267 can be mentioned. Further, the face detection process of a person may be performed by the method described in Japanese Patent No. 2541688, and the method is not particularly limited.

人物の顔検出処理により、各入力画像について、人物顔の個数と各顔毎の座標位置を取得することができる。また、画像中の顔座標位置が分かることにより、顔領域の特徴量を解析することができる。例えば、顔領域毎に顔領域内に含まれる画素値の平均YCbCr値を求めることにより、顔領域の平均輝度および平均色差を得ることができる。 By the face detection process of a person, the number of human faces and the coordinate position of each face can be acquired for each input image. Further, by knowing the coordinate position of the face in the image, it is possible to analyze the feature amount of the face region. For example, by obtaining the average YCbCr value of the pixel values included in the face region for each face region, the average brightness and the average color difference of the face region can be obtained.

また、画像の特徴量を用いてシーン解析処理を行うことができる。シーン解析処理は、例えば、出願人が開示している特開2010−251999号や特開2010−273144号等で開示されている方法により行うことができる。シーン解析処理により、風景(Landscape)、夜景(Nightscape)、人物(Portrait)、露出不足(Underexposure)、その他(Others)、という撮影シーンを区別するためのIDを取得することができる。 In addition, scene analysis processing can be performed using the feature amount of the image. The scene analysis process can be performed by, for example, the methods disclosed in JP-A-2010-251999 and JP-A-2010-273144 disclosed by the applicant. By the scene analysis process, it is possible to acquire an ID for distinguishing a shooting scene such as a landscape (Landscape), a night view (Nightscape), a person (Portrait), an underexposure (Underexposure), and others (Others).

なお、本実施形態では、上記のセンシング処理によりセンシング情報を取得したが、その他のセンシング情報を利用してもよい。 In the present embodiment, the sensing information is acquired by the above sensing process, but other sensing information may be used.

上記のようにして取得したセンシング情報は、データベース部202に保存する。データベース部202への保存形式については、例えば、図9に示すような汎用的なフォーマット(例えば、XML:eXtensible Markup Language)で記述し、格納すればよい。 The sensing information acquired as described above is stored in the database unit 202. The storage format in the database unit 202 may be described and stored in, for example, a general-purpose format (for example, XML: eXtensible Markup Language) as shown in FIG.

図9においては、各画像毎の属性情報を、3つのカテゴリに分けて記述する例を示している。 FIG. 9 shows an example in which the attribute information for each image is described by dividing it into three categories.

1番目のBaseInfoタグは、画像サイズや撮影時情報として、あらかじめ取得した画像ファイルに付加されている情報を格納するためのタグである。ここには、画像毎の識別子ID、画像ファイルが格納されている保存場所、画像サイズ、撮影日時などが含まれる。 The first BaseInfo tag is a tag for storing information added to an image file acquired in advance as image size and shooting information. This includes an identifier ID for each image, a storage location where the image file is stored, an image size, a shooting date and time, and the like.

2番目のSensInfoタグは、上述した画像解析処理の結果を格納するためのタグである。画像全体の平均輝度、平均彩度、平均色相やシーン解析結果が格納され、さらに、画像中に存在する人物の顔位置や顔色に関する情報が格納される。 The second SensInfo tag is a tag for storing the result of the image analysis process described above. The average brightness, average saturation, average hue and scene analysis result of the entire image are stored, and information on the face position and complexion of a person existing in the image is stored.

3番目のUserInfoタグは、ユーザが画像毎に入力した情報を格納することができるタグであるが、詳細については後述する。 The third UserInfo tag is a tag that can store the information input by the user for each image, and the details will be described later.

なお、画像属性情報のデータベース格納方法については、上記に限定されるものではない。その他公知のどのような形式で格納してもよい。 The method of storing the image attribute information in the database is not limited to the above. It may be stored in any other known format.

図3のS305では、上述したS302及びS303の処理を行った画像が最後の画像か否かを判定する。最後の画像である場合は、S306へ進み、最後の画像ではない場合は、S302へ戻る。 In S305 of FIG. 3, it is determined whether or not the image subjected to the processing of S302 and S303 described above is the last image. If it is the last image, the process proceeds to S306, and if it is not the last image, the process returns to S302.

S306において、S303で検出された顔位置情報を用いて、人物毎のグループを生成する処理を行う。あらかじめ人物の顔を自動でグループ化しておくことにより、その後ユーザが各人物に対して名前を付ける作業を効率化することができる。 In S306, a process of generating a group for each person is performed using the face position information detected in S303. By automatically grouping the faces of people in advance, it is possible to streamline the work of the user naming each person afterwards.

ここでの人物グループ形成は、公知の個人認識方法を用いて、図5の処理フローにより実行する。 The person group formation here is executed by the processing flow of FIG. 5 using a known personal recognition method.

なお、個人認識処理は、主に、顔の中に存在する眼や口といった器官の特徴量抽出と、それらの関係性の類似度を比較することにより実行される。個人認識処理は、例えば、特許第3469031号等に開示されているので、ここでの詳細な説明は省略する。 The personal recognition process is mainly executed by extracting the feature amounts of organs such as eyes and mouth existing in the face and comparing the similarity of their relationships. Since the personal recognition process is disclosed in, for example, Japanese Patent No. 3469031, detailed description here will be omitted.

図5は人物グループ生成処理S306の基本的なフローチャートである。 FIG. 5 is a basic flowchart of the person group generation process S306.

まず、S501で、2次記憶装置に保存されている画像を順次読みだしてデコード処理を行う。さらにS502でデータベース部202にアクセスし、該画像中に含まれる顔の個数と顔の位置情報を取得する。次に、S504において、個人認識処理を行うための正規化顔画像を生成する。 First, in S501, the images stored in the secondary storage device are sequentially read out and decoded. Further, the database unit 202 is accessed by S502 to acquire the number of faces included in the image and the position information of the faces. Next, in S504, a normalized face image for performing personal recognition processing is generated.

ここで正規化顔画像とは、画像内に様々な大きさ、向き、解像度で存在する顔を切り出して、すべて所定の大きさと向きになるよう、変換して切り出した顔画像のことである。個人認識を行うためには、眼や口といった器官の位置が重要となるため、正規化顔画像のサイズは、上記器官が確実に認識できる程度であることが望ましい。このように正規化顔画像を生成することにより、特徴量検出処理において、様々な解像度の顔に対応する必要がなくなる。 Here, the normalized face image is a face image obtained by cutting out faces existing in various sizes, orientations, and resolutions in the image, and converting and cutting them so that all of them have a predetermined size and orientation. Since the positions of organs such as eyes and mouth are important for personal recognition, it is desirable that the size of the normalized facial image is such that the above organs can be reliably recognized. By generating the normalized face image in this way, it is not necessary to deal with faces having various resolutions in the feature amount detection process.

次に、S505で、正規化顔画像から顔特徴量を算出する。ここでの顔特徴量とは眼や口、鼻といった器官の位置、大きさや、さらには顔の輪郭などを含むことを特徴とする。 Next, in S505, the facial feature amount is calculated from the normalized face image. The facial feature amount here is characterized by including the position and size of organs such as eyes, mouth, and nose, as well as the contour of the face.

さらに、S506で、あらかじめ人物の識別子(辞書ID)毎に顔特徴量が格納されているデータベース(以降、顔辞書と呼ぶ)の顔特徴量と類似しているか否かの判定を行う。類似度は、例えば、辞書ID内部で管理されている特徴量と、新たに入力された特徴量を比較して算出する。ここで用いる特徴量は、保持されている目、鼻、口といった器官の位置や、器官間の距離等の情報である。類似度は、上記の特徴量が類似しているほど高く、類似してない場合には低い値を取るものとし、例えば0〜100の値を取り得るものとする。そして、類似しているか否かの判定は、算出した類似度を予め保持されている閾値と比較し、類似度が閾値よりも高い場合には辞書IDと同一人物であると判断する。一方、類似度が閾値よりも低い場合には、同一人物ではないものとして判定する。このような類似度判定のための閾値は、全ての辞書IDに対して固定の値を一つだけ保持するようにいてもよいし、各辞書ID毎に異なった閾値を保持するようにしてもよい。 Further, in S506, it is determined whether or not the face feature amount is similar to the face feature amount of the database (hereinafter referred to as the face dictionary) in which the face feature amount is stored in advance for each person's identifier (dictionary ID). The similarity is calculated by comparing, for example, the feature amount managed inside the dictionary ID with the newly input feature amount. The feature amount used here is information such as the position of the organs such as eyes, nose, and mouth that are held, and the distance between the organs. The degree of similarity is as high as the above-mentioned feature quantities are similar, and if they are not similar, a low value is taken, for example, a value of 0 to 100 can be taken. Then, in the determination of whether or not they are similar, the calculated similarity is compared with the threshold value held in advance, and if the similarity is higher than the threshold value, it is determined that the person is the same person as the dictionary ID. On the other hand, if the similarity is lower than the threshold value, it is determined that they are not the same person. As for the threshold value for such similarity determination, only one fixed value may be held for all dictionary IDs, or a different threshold value may be held for each dictionary ID. Good.

S506の判定がYesの場合S509に進み、同じ人物として同じ人物の辞書IDに該顔の特徴量を追加する。 If the determination in S506 is Yes, the process proceeds to S509, and the feature amount of the face is added to the dictionary ID of the same person as the same person.

S506の判定がNoの場合S508に進み、現在評価対象となっている顔は、これまで顔辞書に登録された人物とは異なる人物であると判断して、新規辞書IDを発行して顔辞書に追加する。S502〜S509までの処理を、入力画像群の中から検出した顔領域全てに適用して、登場した人物のグループ化を行う。 If the determination in S506 is No, the process proceeds to S508, and it is determined that the face currently being evaluated is a person different from the person registered in the face dictionary so far, a new dictionary ID is issued, and the face dictionary is issued. Add to. The processes S502 to S509 are applied to all the face areas detected from the input image group to group the appearing characters.

人物グループ生成処理の結果は、図12のXMLフォーマットで示すように、各顔毎にIDタグを用いて記述し、上述したデータベースに保存する。 As shown in the XML format of FIG. 12, the result of the person group generation process is described by using an ID tag for each face and stored in the above-mentioned database.

なお、上記実施形態においては、図3に示すように、全ての画像のセンシング処理が終了した後に人物グループ生成処理を実行したが、これ以外の方法としてもよい。例えば、図4に示すように、1つの画像に対してS403でセンシング処理を実行した後に、顔検出位置情報を利用してグループ化処理S405を行うという作業を繰り返したとしても、同様の結果を生成することができる。 In the above embodiment, as shown in FIG. 3, the person group generation process is executed after the sensing process of all the images is completed, but other methods may be used. For example, as shown in FIG. 4, even if the operation of executing the sensing process in S403 for one image and then performing the grouping process S405 using the face detection position information is repeated, the same result can be obtained. Can be generated.

また、人物グループ生成処理によって得られた各人物グループは、図7のようなUI701にて表示されることになる。同7において、702は人物グループの代表顔画像を表しており、その横には、該人物グループの名前を表示する領域703が存在する。自動の人物グループ化処理を終了した直後は、同図に示すように人物名は「No name1」「No name2」などと表示されている。これらの人物名を以下「人物ID」とする。また、704は該人物グループに含まれる複数の顔画像である。後述するが、図7のUI701においては、「No name X」の領域703を指定して人物名を入力したり、人物毎に誕生日や続柄等の情報を入力することができる。 In addition, each person group obtained by the person group generation process is displayed by UI701 as shown in FIG. In the same 7, 702 represents a representative face image of the person group, and next to it, there is an area 703 for displaying the name of the person group. Immediately after the automatic person grouping process is completed, the person names are displayed as "No name 1", "No name 2", etc., as shown in the figure. These person names will be referred to as "person IDs" below. Further, 704 is a plurality of facial images included in the person group. As will be described later, in the UI 701 of FIG. 7, a person name can be input by designating the area 703 of "No name X", and information such as a birthday and a relationship can be input for each person.

また、上記センシング処理は、オペレーティングシステムのバックグラウンドタスクを利用して実行してもよい。この場合、ユーザはコンピュータ上で別の作業を行っていたとしても、画像群のセンシング処理を継続させることができる。 Further, the above sensing process may be executed by utilizing a background task of the operating system. In this case, the user can continue the sensing process of the image group even if he / she is performing another work on the computer.

本実施形態においては、ユーザが手動で画像に関する様々な属性情報を入力することもできる。 In the present embodiment, the user can manually input various attribute information related to the image.

その属性情報(以降、手動登録情報)の例の一覧を、表2に記載する。手動登録情報は大きく、画像単位に設定するものと、上記処理によりグループ処理した人物に設定する情報に分かれる。 Table 2 shows a list of examples of the attribute information (hereinafter referred to as manual registration information). The manual registration information is largely divided into information set for each image and information set for the person group-processed by the above processing.

Figure 0006797871
Figure 0006797871

まず、画像毎に設定する属性情報として、ユーザのお気に入り度がある。お気に入り度は、その画像を気に入っているかどうかを、ユーザが手動で段階的に入力するものである。例えば、図10(a)に示すように、UI1301上で、所望のサムネイル画像1302をマウスポインタ1303で選択し、右クリックをすることでお気に入り度を入力できるダイアログを表示する。ユーザはメニューの中で自分の好みに応じて、★の数を選択することができる。本実施形態では、お気に入り度が高いほど★の数が多くなるよう設定する。 First, there is a user's favorite degree as attribute information to be set for each image. The favorite level is a manual step-by-step input by the user as to whether or not the image is liked. For example, as shown in FIG. 10A, a dialog is displayed in which the desired thumbnail image 1302 can be selected with the mouse pointer 1303 on the UI 1301 and the favorite degree can be input by right-clicking. The user can select the number of ★ in the menu according to his / her preference. In this embodiment, the higher the degree of favorite, the larger the number of ★.

また、上記お気に入り度については、ユーザが手動で設定せずに、自動で設定するようにしてもよい。例えば、ユーザが図8(a)に示す画像サムネイル一覧表示の状態から、所望の画像ファイルをクリックし、1画像表示画面に遷移したとする。その遷移した回数を計測して、回数に応じてお気に入り度を設定してもよい。例えば、閲覧した回数が多いほど、ユーザが該画像を気に入っていると判断する。 Further, the favorite degree may be set automatically without being manually set by the user. For example, suppose that the user clicks on a desired image file from the image thumbnail list display state shown in FIG. 8A to transition to the one image display screen. The number of transitions may be measured and the favorite degree may be set according to the number of transitions. For example, the more times the image is viewed, the more the user determines that he / she likes the image.

また、他の例として、プリント回数をお気に入り度に設定してもよい。例えば、プリント行為を行った場合、当然その画像を気に入っていると判断してお気に入り度が高いと設定すればよい。この場合は、プリント回数を計測して、プリント回数に応じてよりお気に入り度を設定する。 Further, as another example, the number of prints may be set to the favorite degree. For example, when a printing act is performed, it is naturally determined that the image is liked and the favorite degree is set to be high. In this case, the number of prints is measured, and the degree of favorite is set according to the number of prints.

以上説明したように、お気に入り度については、ユーザが手動で設定してもよく、閲覧回数に応じてお気に入り度を設定してもよく、プリント回数に応じてお気に入り度を設定してもよい。これらの設定及び計測した情報は、それぞれ個別に、図9で示すようなXMLフォーマットで、データベース部202のUserInfoタグ内に格納される。例えば、お気に入り度はFavoriteRateタグで、閲覧回数はViewingTimesタグで、プリント回数はPrintingTimesタグにそれぞれ格納される。 As described above, the favorite degree may be set manually by the user, the favorite degree may be set according to the number of views, or the favorite degree may be set according to the number of prints. Each of these settings and measured information is individually stored in the UserInfo tag of the database unit 202 in the XML format as shown in FIG. For example, the favorite degree is stored in the FavoriteRate tag, the number of views is stored in the ViewingTimes tag, and the number of prints is stored in the PrintingTimes tag.

また、画像毎に設定する別の情報として、イベント情報が挙げられる。イベント情報は、例えば、家族旅行“travel”、卒業式“graduation”、結婚式“wedding”が挙げられる。 Further, as another information to be set for each image, event information can be mentioned. The event information includes, for example, a family trip "travel", a graduation ceremony "graduation", and a wedding "wedding".

イベントの指定は、図10(b)に示すように、カレンダー上で所望の日付をマウスポインタ1402などで指定して、その日のイベント名を入力することにより行うことができるようにすればよい。指定されたイベント名は、画像の属性情報の一部として、図9に示すXMLフォーマットに含まれることになる。図9のフォーマットでは、UserInfoタグ内のEventタグを使って、イベント名と画像を紐付けている。なお、以下、「紐づけ」とは、関連付けることを指す。 As shown in FIG. 10B, the event may be specified by designating a desired date on the calendar with the mouse pointer 1402 or the like and inputting the event name of the day. The specified event name will be included in the XML format shown in FIG. 9 as a part of the attribute information of the image. In the format of FIG. 9, the event name and the image are associated with each other by using the Event tag in the UserInfo tag. In the following, "linking" refers to associating.

次に、人物の属性情報について説明する。 Next, the attribute information of the person will be described.

図11は、人物の属性情報を入力するためのUIを示している。図11において、1502は所定人物(この場合は“father”)の代表顔画像を示している。1503は、所定人物の人物名(人物ID)の表示領域である。また、1504は、他の画像の中から検出し、S506で顔特徴量が類似していると判断された画像(サムネイル)である。このように、図11では、人物ID1503の下に、S506で顔特徴量が類似していると判断された画像1504の一覧が表示される。 FIG. 11 shows a UI for inputting attribute information of a person. In FIG. 11, 1502 shows a representative face image of a predetermined person (in this case, “father”). Reference numeral 1503 is a display area for a person name (person ID) of a predetermined person. Further, 1504 is an image (thumbnail) detected from other images and determined in S506 to have similar facial features. As described above, in FIG. 11, under the person ID 1503, a list of images 1504 determined to have similar facial features in S506 is displayed.

センシング処理が終了した直後は、図7に示すように各人物グループには名前が入力されていないが、「No name」の部分702をマウスポインタで指示することにより、任意の人物名を入力することができる。 Immediately after the sensing process is completed, no name is input to each person group as shown in FIG. 7, but an arbitrary person name is input by pointing the mouse pointer to the "No name" part 702. be able to.

また、人物毎の属性情報として、それぞれの人物の誕生日やアプリを操作しているユーザから見た続柄を設定することもできる。図11の人物の代表顔1502をクリックすると、画面下部に図示するように、第1の入力部1505ではクリックした人物の誕生日を入力することができる。また、第2の入力部1506では、クリックした人物の続柄情報を入力することができる。 In addition, as attribute information for each person, it is possible to set the birthday of each person and the relationship seen by the user who is operating the application. When the representative face 1502 of the person in FIG. 11 is clicked, the birthday of the clicked person can be input in the first input unit 1505 as shown in the lower part of the screen. In addition, in the second input unit 1506, the relationship information of the clicked person can be input.

以上、入力された人物属性情報は、これまでの画像に関連付けられた属性情報とは異なり、図12のようなXMLフォーマットによって、画像属性情報とは別にデータベース部202内で管理される。 As described above, the input personal attribute information is managed in the database unit 202 separately from the image attribute information by the XML format as shown in FIG. 12, unlike the attribute information associated with the images so far.

本実施形態では、あらかじめ用意した様々なレイアウトテンプレートを用いてレイアウト生成処理を行う。レイアウトテンプレートとは図13や図15に示すようなものであり、レイアウトする用紙サイズ上に、複数の画像配置枠1702、1902、1903(以降、スロットと同義)を備えている。 In the present embodiment, layout generation processing is performed using various layout templates prepared in advance. The layout template is as shown in FIGS. 13 and 15, and includes a plurality of image arrangement frames 1702, 1902, and 1903 (hereinafter, synonymous with slots) on the paper size to be laid out.

このようなテンプレートは多数用意されており、あらかじめ本実施例を実行するためのソフトウェアが画像処理装置115にインストールされた時点で、2次記憶装置103に保存しておけばよい。また、その他の方法として、IF107や無線LAN109を介して接続されたインターネット上に存在する外部サーバー114から、任意のテンプレート群を取得してもよい。 A large number of such templates are prepared, and may be stored in the secondary storage device 103 when the software for executing the present embodiment is installed in the image processing device 115 in advance. Further, as another method, an arbitrary template group may be acquired from an external server 114 existing on the Internet connected via IF107 or wireless LAN 109.

これらのテンプレートは汎用性の高い構造化言語、例えば上述したセンシング結果の格納と同様にXMLで記載されているものとする。XMLデータの例を図14及び図16に示す。 It is assumed that these templates are described in XML in a highly versatile structured language, for example, as in the storage of sensing results described above. Examples of XML data are shown in FIGS. 14 and 16.

これらの例では、まずBASICタグに、レイアウトページの基本的な情報を記述する。基本的な情報とは、例えば該レイアウトのテーマやページサイズ、およびページの解像度(dpi)等が考えられる。同例Xにおいて、テンプレートの初期状態では、レイアウトテーマであるThemeタグはブランクとなっている。また、基本情報として、ページサイズはA4、解像度は300dpiを設定している。 In these examples, first, the basic information of the layout page is described in the BASIC tag. The basic information may be, for example, the layout theme, page size, page resolution (dpi), and the like. In Example X, the Theme tag, which is the layout theme, is blank in the initial state of the template. Further, as basic information, the page size is set to A4 and the resolution is set to 300 dpi.

また、ImageSlotタグは、上述した画像配置枠の情報を記述している。ImageSlotタグの中にはIDタグとPOSITIONタグの2つを保持し、画像配置枠のIDと位置を記述している。該位置情報については、図14や図16で図示するように、例えば左上を原点とするX−Y座標系において定義される。 Further, the ImageSlot tag describes the information of the image arrangement frame described above. Two ID tags and POSITION tags are held in the Image Slot tag, and the ID and position of the image arrangement frame are described. The position information is defined in, for example, an XY coordinate system with the upper left as the origin, as shown in FIGS. 14 and 16.

また、上記ImageSlotは、その他にそれぞれのスロットに対して、スロットの形状および配置すべき推奨人物グループ名を設定する。例えば、図13のテンプレートにおいては、図14のShapeタグで示すように、すべてのスロットは矩形“rectangle”形状で、人物グループ名はPersonGroupタグによって“MainGroup”を配置することを推奨している。 In addition, the Image Slot also sets the shape of the slot and the name of the recommended person group to be arranged for each slot. For example, in the template of FIG. 13, as shown by the Shape tag of FIG. 14, it is recommended that all the slots have a rectangular “rectangle” shape, and the person group name is “MainGroup” by the PersonGroup tag.

また、図15のテンプレートにおいては、図34に示すように、中央に配置しているID=0のスロットは矩形形状であることが記載されている。また、人物グループは“SubGroup”を配置し、その他のID=1,2と続くスロットは楕円“ellipse”形状で、人物グループは“MainGroup”を配置することを推奨している。 Further, in the template of FIG. 15, as shown in FIG. 34, it is described that the slot having ID = 0 arranged in the center has a rectangular shape. In addition, it is recommended that the person group arranges "SubGroup", the slots following the other IDs = 1 and 2 have an elliptical "ellipse" shape, and the person group arranges "MainGroup".

本実施形態においては、上述したようなテンプレートを多数保持する。 In this embodiment, a large number of templates as described above are retained.

本実施形態に係るアプリケーションは、入力された画像群に対して解析処理を実行し、人物を自動的にグループ化してUIで表示することができる。また、ユーザはその結果を見て、人物グループ毎に名前や誕生日などの属性情報を入力したり、画像毎にお気に入り度などを設定することができる。さらに、テーマごとに分類された多数のレイアウトテンプレートを保持することができる。 The application according to the present embodiment can execute analysis processing on the input image group, automatically group people, and display them on the UI. In addition, the user can see the result, input attribute information such as a name and birthday for each person group, and set a favorite degree for each image. In addition, you can have a large number of layout templates sorted by theme.

以上の条件を満たす本実施形態のアプリケーションは、ある所定のタイミングで、自動的にユーザに好まれそうなコラージュレイアウトを生成し、ユーザに提示する処理を行う(以下、レイアウトの提案処理という)。 The application of the present embodiment satisfying the above conditions automatically generates a collage layout that is likely to be liked by the user at a predetermined timing, and performs a process of presenting the collage layout to the user (hereinafter referred to as a layout proposal process).

以上の条件を満たすと、本実施形態のアプリケーションは、ある所定のタイミングに、自動的にユーザに好まれそうなコラージュレイアウトを生成し、ユーザに提示する処理を行う。これを、レイアウトの提案処理と呼ぶこととする。 When the above conditions are satisfied, the application of the present embodiment automatically generates a collage layout that is likely to be liked by the user at a predetermined timing, and performs a process of presenting the collage layout to the user. This is called layout proposal processing.

図6は、レイアウトの提案処理を行うための基本的なフローチャートを示している。 FIG. 6 shows a basic flowchart for performing layout proposal processing.

まず、S601において、レイアウトの提案処理のシナリオを決定する。シナリオには、提案するレイアウトのテーマ及びテンプレートの決定、レイアウト内で重視する人物(主人公)の設定、レイアウト生成に用いる画像群の選定情報などが含まれる。 First, in S601, a scenario for layout proposal processing is determined. The scenario includes determination of the theme and template of the proposed layout, setting of the person (hero) to be emphasized in the layout, selection information of the image group used for layout generation, and the like.

以下では、2つのシナリオを例示して、シナリオの決定方法について説明する。 In the following, two scenarios will be illustrated to explain how to determine the scenario.

例えば、2週間前に自動的に各人物に関する誕生日のレイアウトの提案処理を行う設定がされていたとする。図11で自動グループ化されている人物“son”の1歳の誕生日が近いとする。この場合には、提案するレイアウトのテーマは成長記録“growth”と決定する。次にテンプレートの選択を行うが、この場合には成長記録に適した図15のようなものを選択し、図22に示すように、XMLのThemeタグの部分に“growth”と記載する。次にレイアウトを行う際に注目する主人公“MainGroup”として、“son”を設定する。また、レイアウトを行う際に副次的に注目する“SubGroup”として“son”と“father”を設定する。次に、レイアウトに利用するための画像群を選定する。この例の場合には、データベースを参照し、上記人物“son”の誕生日からこれまでに撮影した画像群のうち、“son”を含む画像群を大量に抽出してリスト化する。以上が、成長記録レイアウトのためのシナリオ決定である。 For example, suppose that two weeks ago, it was set to automatically propose a birthday layout for each person. It is assumed that the first birthday of the person "son" who is automatically grouped in FIG. 11 is near. In this case, the theme of the proposed layout is determined to be the growth record “growth”. Next, a template is selected. In this case, a template such as FIG. 15 suitable for growth recording is selected, and as shown in FIG. 22, “growth” is described in the part of the XML Theme tag. Next, set "son" as the main character "MainGroup" to pay attention to when laying out. In addition, "son" and "father" are set as "SubGroup" which is secondarily noticed when laying out. Next, a group of images to be used for the layout is selected. In the case of this example, the database is referred to, and a large number of image groups including "son" are extracted and listed from the image groups taken so far from the birthday of the person "son". The above is the scenario determination for the growth record layout.

上記とは異なる例として、1カ月以内に所定のイベント情報が登録されていた場合、レイアウトの提案処理を実行する設定がされているとする。図10(b)で登録したイベント情報から、例えば数日前に家族旅行に行きその画像が大量に2次記憶装置に保存されていることがわかると、シナリオ決定部は、家族旅行のレイアウトを提案するためのシナリオを決定する。この場合には、提案するレイアウトのテーマは旅行“travel”と決定する。次にテンプレートの選択を行うが、この場合には図13のようなレイアウトを選択し、図36に示すように、XMLのThemeタグの部分に“travel”と記載する。次にレイアウトを行う際に注目する主人公“MainGroup”として、“son”、“mother”、“father”を設定する。このように、XMLの特性を活かせば、“MainGroup”として複数の人物を設定することができる。次に、レイアウトに利用するための画像群を選定する。この例の場合には、データベースを参照し、上記旅行イベントに紐付けられた画像群を大量に抽出してリスト化する。以上が、家族旅行レイアウトのためのシナリオ決定である。 As an example different from the above, it is assumed that if the predetermined event information is registered within one month, the layout proposal process is set to be executed. From the event information registered in FIG. 10B, for example, when it is found that a family trip was made several days ago and a large amount of the images were stored in the secondary storage device, the scenario determination department proposed a layout for the family trip. Determine the scenario to do. In this case, the theme of the proposed layout is determined to be travel "travel". Next, the template is selected. In this case, the layout as shown in FIG. 13 is selected, and as shown in FIG. 36, “travel” is described in the part of the XML Tag. Next, "son", "mother", and "father" are set as the main character "MotherGroup" to be noticed when laying out. In this way, by utilizing the characteristics of XML, a plurality of persons can be set as "MainGroup". Next, a group of images to be used for the layout is selected. In the case of this example, the database is referred to, and a large number of images associated with the above travel event are extracted and listed. The above is the scenario determination for the family travel layout.

次に、図6のS603において、上述したシナリオに基づくレイアウトの自動生成処理を実行する。図17はレイアウト処理部の詳細な処理フローを示している。以降は、同図に沿って、各処理ステップの説明を行う。 Next, in S603 of FIG. 6, the layout automatic generation process based on the above-mentioned scenario is executed. FIG. 17 shows a detailed processing flow of the layout processing unit. Hereinafter, each processing step will be described with reference to the figure.

まず、S2101で、上述したシナリオ生成処理で決定され、テーマと人物グループ情報が設定された後のテンプレート情報を取得する。 First, in S2101, the template information is acquired after the theme and the person group information are set, which is determined by the scenario generation process described above.

次に、S2103においては、上記シナリオで決定した画像リストに基づいて、各画像毎に該画像の特徴量をデータベースから取得し、画像群属性情報リストを生成する。ここでいう画像群情報リストとは、図9に示したIMAGEINFOタグが画像リスト分だけ並んだ構成となっている。 Next, in S2103, based on the image list determined in the above scenario, the feature amount of the image is acquired from the database for each image, and the image group attribute information list is generated. The image group information list referred to here has a structure in which the IMAGEINFO tags shown in FIG. 9 are arranged by the number of image lists.

このように、本実施形態の自動レイアウト生成処理では、このように画像データそのものを直接扱うのではなく、あらかじめ画像毎にセンシング処理を行ってデータベース保存しておいた属性情報を利用する。レイアウト生成処理を行う際に、画像データそのものを対象としてしまうと、画像群を記憶するために非常に巨大なメモリ領域を必要としてしまうことを避けるためである。すなわち、これにより、レイアウト生成処理で必要なメモリ量を低減させることができる。 As described above, in the automatic layout generation processing of the present embodiment, instead of directly handling the image data itself in this way, the attribute information that has been subjected to sensing processing for each image in advance and stored in the database is used. This is to avoid requiring a very large memory area for storing the image group if the image data itself is targeted when performing the layout generation process. That is, this makes it possible to reduce the amount of memory required for the layout generation process.

具体的には、まず、S2105において、入力された画像群の属性情報を用いて、入力された画像群の中から不要画像のフィルタリングを行う。フィルタリング処理は、図18のフローにて行う。図18では、各画像毎に、まずS2201で全体の平均輝度がある閾値(ThY_LowとThY_High)内に含まれているかの判定を行う。否の場合にはS2206に進み、注目画像はレイアウト対象から除去する。 Specifically, first, in S2105, unnecessary images are filtered from the input image group by using the attribute information of the input image group. The filtering process is performed according to the flow shown in FIG. In FIG. 18, for each image, first, it is determined in S2201 whether or not the overall average brightness is included in a certain threshold value (ThY_Low and ThY_High). If not, the process proceeds to S2206, and the image of interest is removed from the layout target.

同様に、S2202〜S2205では、注目画像に含まれる顔領域それぞれについて、平均輝度、平均色差成分が、良好な肌色領域を示す所定閾値に含まれているかの判定を行う。S2202〜S2205のすべての判定がYesとなる画像のみ、以降のレイアウト生成処理に適用される。具体的には、S2202では、ID=Nである顔領域のAveYが所定閾値(ThfY_LowとThfY_High)の範囲に含まれているか否かの判定を行う。S2203では、ID=Nである顔領域のAveChが所定閾値(ThfY_LowとThfY_High)の範囲に含まれているか否かの判定を行う。S2204では、ID=Nである顔領域のAveCrが所定閾値(ThfY_LowとThfY_High)の範囲に含まれているか否かの判定を行う。S2205では、最後の顔であるか否かを判定する。最後の顔ではない場合は、S2202へ戻り、最後の顔である場合は、処理を終了する。 Similarly, in S2202 to S2205, it is determined whether or not the average luminance and the average color difference component are included in the predetermined threshold value indicating a good skin color region for each of the face regions included in the attention image. Only the images for which all the determinations of S2202 to S2205 are Yes are applied to the subsequent layout generation processing. Specifically, in S2202, it is determined whether or not AveY of the face region having ID = N is included in the range of predetermined threshold values (ThfY_Low and ThfY_High). In S2203, it is determined whether or not AveCh of the face region having ID = N is included in the range of predetermined threshold values (ThfY_Low and ThfY_High). In S2204, it is determined whether or not AveCr in the face region having ID = N is included in the range of predetermined threshold values (ThfY_Low and ThfY_High). In S2205, it is determined whether or not it is the last face. If it is not the last face, the process returns to S2202, and if it is the last face, the process ends.

なお、このフィルタリング処理では、以降の一時レイアウト作成処理に明らかに不要と判断できる画像の除去を目的としているため、上記閾値は比較的湯緩やかに設定することが望ましい。例えばS2201の画像全体輝度の判定において、ThY_HighとThY_Lowの差が画像ダイナミックレンジに比して極端に小さいと、それだけYesと判定される画像が少なくなってしまう。本実施形態のフィルタリング処理ではそうならないよう、両者の差をできる限り広く設定し、かつ明らかに異常画像と判断されるものは除去できるような閾値に設定する。 Since the purpose of this filtering process is to remove images that are clearly unnecessary for the subsequent temporary layout creation process, it is desirable to set the above threshold value relatively gently. For example, in the determination of the overall image brightness of S2201, if the difference between ThY_High and ThY_Low is extremely small compared to the image dynamic range, the number of images determined to be Yes will decrease accordingly. In order to prevent this from happening in the filtering process of the present embodiment, the difference between the two is set as wide as possible, and the threshold value is set so that those clearly judged to be abnormal images can be removed.

次に図17のS2107において、上記処理でレイアウト対象となった画像群を用いて、大量(L個)の一時レイアウトを生成する。一時レイアウトの生成は、取得したテンプレートの画像配置枠に対して、入力画像を任意に当てはめる処理を繰り返す。このときに、例えば、以下のパラメータ(画像選択・配置・トリミング)をランダムで決定する。 Next, in S2107 of FIG. 17, a large number (L) of temporary layouts are generated using the image group that was the layout target in the above process. To generate the temporary layout, the process of arbitrarily applying the input image to the image arrangement frame of the acquired template is repeated. At this time, for example, the following parameters (image selection / arrangement / trimming) are randomly determined.

画像選択基準としては、例えば、レイアウト中の画像配置枠がN個の時、画像群の中からどの画像を選択するかが挙げられる。配置基準としては、例えば、選択した複数の画像を、どの配置枠に配置するかが挙げられる。トリミング基準としては、配置した際に、どの程度のトリミング処理を行うかというトリミング率が挙げられる。トリミング率は例えば0〜100%で表わされ、トリミングは、図19(a)に示すように、画像の中心を基準として所定のトリミング率で行われる。図19(a)では、2301は画像全体を示し、2302はトリミング率50%でトリミングした際の切り取り枠を示している。 As an image selection criterion, for example, when there are N image arrangement frames in the layout, which image is selected from the image group can be mentioned. As an arrangement criterion, for example, in which arrangement frame a plurality of selected images are arranged can be mentioned. As a trimming standard, there is a trimming rate of how much trimming processing is performed when the trimming is performed. The trimming rate is represented by, for example, 0 to 100%, and the trimming is performed at a predetermined trimming rate with reference to the center of the image as shown in FIG. 19A. In FIG. 19A, 2301 shows the entire image, and 2302 shows a cutting frame when trimmed at a trimming rate of 50%.

上述したような画像選択・配置・トリミング基準に基づいて、可能な限り数多くの一時レイアウトを生成する。生成した各一時レイアウトは、図37のXMLのように表わすことができる。各スロットに対して、選択され配置された画像のIDがImageIDタグに記述され、トリミング率がTrimingRatioタグに記述される。 Generate as many temporary layouts as possible based on the image selection, placement, and trimming criteria described above. Each generated temporary layout can be represented as XML in FIG. For each slot, the ID of the selected and arranged image is described in the ImageID tag, and the trimming rate is described in the TrimingRatio tag.

なお、ここで生成する一時レイアウトの数Lは、後述するレイアウト評価ステップでの評価処理の処理量と、それを処理する画像処理装置115の性能に応じて決定されるが、例えば、数十万通り以上の一時レイアウトを生成するのが好ましい。 The number L of the temporary layouts generated here is determined according to the processing amount of the evaluation processing in the layout evaluation step described later and the performance of the image processing device 115 that processes the evaluation processing. For example, hundreds of thousands of temporary layouts are generated. It is preferable to generate a temporary layout above the street.

レイアウト評価ステップでの評価処理の処理量は、作成するレイアウトテンプレートの複雑度合いに応じて増減する。例えば、テンプレート内で取り扱うスロット数が多いほど評価処理量は増加し、また、各スロットに指定されたレイアウト条件が複雑であるほど評価処理量は増加する。したがって、生成しようとしているテンプレートの複雑度合をあらかじめ見積もって、それにより動的にLを決定してもよい。 The amount of evaluation processing in the layout evaluation step increases or decreases depending on the degree of complexity of the layout template to be created. For example, the larger the number of slots handled in the template, the larger the evaluation processing amount, and the more complicated the layout conditions specified for each slot, the larger the evaluation processing amount. Therefore, the degree of complexity of the template to be generated may be estimated in advance, and L may be dynamically determined accordingly.

以上述べたように適切にLを設定することで、自動レイアウト作成時のレスポンスとレイアウト結果の品質を最適にコントロールできる。 By setting L appropriately as described above, the quality of the response and layout result at the time of automatic layout creation can be optimally controlled.

生成したレイアウトは、それぞれIDを付加して図24のXML形式で2次記憶装置103にファイル保存してもよいし、構造体など別のデータ構造を用いてRAM102上に記憶してもよい。 The generated layouts may be stored in the secondary storage device 103 in the XML format shown in FIG. 24 by adding an ID to each of them, or may be stored in the RAM 102 using another data structure such as a structure.

次に、図17のS2108において、大量に生成した一時レイアウトの定量評価を行う。具体的には、作成したL個の一時レイアウトに対して、それぞれ所定のレイアウト評価量を用いて評価を行う。本実施形態におけるレイアウト評価量の一覧を、表3に示す。表3に示すように、本実施形態で用いるレイアウト評価量は、主に3つのカテゴリに分けることができる。 Next, in S2108 of FIG. 17, a quantitative evaluation is performed on the temporary layout generated in large quantities. Specifically, each of the created L temporary layouts is evaluated using a predetermined layout evaluation amount. Table 3 shows a list of layout evaluation amounts in this embodiment. As shown in Table 3, the layout evaluation amount used in this embodiment can be mainly divided into three categories.

Figure 0006797871
Figure 0006797871

一つ目は、画像個別の評価量である。これは画像の明るさや彩度、ブレぼけ量等の状態を判断し、スコア化するものである。以下、本実施形態のスコア化の一例について説明する。明るさの適正度は、図19(b)に示すように、平均輝度がある所定レンジ範囲内においてはスコア値100とし、所定レンジ範囲から外れるとスコア値を下げるよう設定する。彩度の適正度は、図19(c)に示すように、画像全体の平均彩度がある所定の彩度値より大きい場合にはスコア値100とし、所定値より小さい場合にはスコア値を除々に下げるように設定する。なお、ブレぼけ量の状態の判断についての詳細は後述する。 The first is the evaluation amount of each image. This is to judge the state such as the brightness, saturation, and the amount of blurring of the image and score it. Hereinafter, an example of scoring the present embodiment will be described. As shown in FIG. 19B, the appropriateness of brightness is set so that the score value is 100 within a predetermined range with average brightness, and the score value is lowered when the average brightness is out of the predetermined range. As shown in FIG. 19 (c), the appropriateness of saturation is set to a score value of 100 when the average saturation of the entire image is larger than a predetermined saturation value, and a score value is set to a value smaller than the predetermined value. Set to gradually lower. The details of determining the state of the amount of blurring will be described later.

二つ目は、画像とスロットの適合度の評価である。画像とスロットの適合度の評価としては、例えば、人物適合度、トリミング欠け判定が挙げられる。人物適合度は、スロットに指定されている人物と、実際に該スロットに配置された画像内に存在する人物の適合率を表したものである。例を挙げると、あるスロットが、XMLで指定されているPersonGroupで、“father”、“son”が指定されているものとする。この時、該スロットに割り当てられた画像に該2人の人物が写っていたとすると、該スロットの人物適合度はスコア値100とする。片方の人物しか写っていなかったとすると、適合度はスコア値50とし、両者とも写っていなかった場合は、スコア値0とする。ページ内の適合度は、各スロット毎に算出した適合度の平均値とする。トリミング領域2702の欠け判定は、例えば、図20に示すように、画像中に存在する顔の位置2703が判明している場合、欠けた部分の面積に応じて、0から100までのスコア値を算出する。欠けた面積が0の場合、スコアは100とし、逆にすべての顔領域が欠けた場合、スコア値は0とする。 The second is the evaluation of the fit between the image and the slot. Examples of the evaluation of the fit between the image and the slot include the fit of a person and the determination of lack of trimming. The goodness of fit of a person represents the goodness of fit of a person designated in a slot and a person actually existing in the image arranged in the slot. For example, it is assumed that a certain slot is a Person Group specified in XML, and "father" and "son" are specified. At this time, assuming that the two persons are shown in the image assigned to the slot, the person suitability of the slot is set to a score value of 100. If only one person is shown, the goodness of fit is a score of 50, and if both are not shown, the score is 0. The goodness of fit on the page is the average value of the goodness of fit calculated for each slot. For the chipping determination of the trimming area 2702, for example, as shown in FIG. 20, when the position 2703 of the face existing in the image is known, a score value from 0 to 100 is set according to the area of the chipped portion. calculate. If the missing area is 0, the score is 100, and conversely, if all the face areas are missing, the score value is 0.

三つめは、レイアウトページ内のバランスを評価である。バランスを評価するための評価値としては、例えば、画像類似性、画素値分布のばらつき、オブジェクトのばらつきが挙げられる。 The third is the evaluation of the balance within the layout page. Examples of the evaluation value for evaluating the balance include image similarity, variation in pixel value distribution, and variation in objects.

レイアウト頁内のバランスを評価するための評価量として、画像類似性について説明する。画像の類似性は、大量に生成した一時レイアウト毎に算出されるレイアウト頁内のそれぞれの画像の類似性である。例えば、旅行テーマのレイアウトを作成したい場合、あまりに似通った類似度の高い画像ばかりが並んでいたとすると、それは良いレイアウトとは言えない場合がある。したがって、例えば、類似性は、撮影日時によって評価することができる。撮影日時が近い画像は、同じような場所で撮影された可能性が高いが、撮影日時が離れていれば、その分、場所もシーンも異なる可能性が高いからである。撮影日時は、図9で示したように、画像属性情報として、予めデータベース部202に保存されている、画像毎の属性情報から取得することができる。撮影日時から類似度を求めるには以下のような計算を行う。例えば、今注目している一時レイアウトに表4で示すような4つの画像がレイアウトされているものとする。 Image similarity will be described as an evaluation amount for evaluating the balance in the layout page. The image similarity is the similarity of each image in the layout page calculated for each temporary layout generated in large quantities. For example, if you want to create a layout for a travel theme, it may not be a good layout if all the images are too similar and have a high degree of similarity. Therefore, for example, the similarity can be evaluated by the shooting date and time. Images with similar shooting dates and times are likely to have been shot at similar locations, but if the shooting dates and times are far apart, the location and scene are likely to be different. As shown in FIG. 9, the shooting date and time can be acquired as image attribute information from the attribute information for each image stored in advance in the database unit 202. To find the similarity from the shooting date and time, perform the following calculation. For example, it is assumed that four images as shown in Table 4 are laid out in the temporary layout that is currently being focused on.

なお、画像IDで特定される画像には、それぞれ撮影日時情報が付加されている。具体的には、撮影日時として、年月日及び時間(西暦:YYYY、月:MM、日:DD、時:HH、分:MM、秒:SS)が付加されている。このとき、この4つの画像間で、撮影時間間隔が最も短くなる値を算出する。 The shooting date and time information is added to each image specified by the image ID. Specifically, the year, month, day and time (year: YYYY, month: MM, day: DD, hour: HH, minute: MM, second: SS) are added as the shooting date and time. At this time, the value at which the shooting time interval is the shortest among these four images is calculated.

Figure 0006797871
Figure 0006797871

この場合は、画像ID102と108間の30分が最も短い間隔である。この間隔をMinIntervalとし、秒単位で格納する。すなわち30分=1800秒である。このMinIntervalをL個の各一時レイアウト毎に算出して配列stMinInterval[l]に格納する。次に、該stMinInterval[l]の中で最大値MaxMinInterval値を求める。すると、l番目の一時レイアウトの類似度評価値Similarity[l]は以下のようにして求めることができる。
Similarity[l]=100×stMinInterval[l]/MaxMinInterval
すなわち、上記Similarity[l]は、最小撮影時間間隔が大きいほど100に近づき、小さいほど0に近づく値となっているため、画像類似度評価値として有効である。
In this case, 30 minutes between image IDs 102 and 108 is the shortest interval. This interval is set to MinInterval and is stored in seconds. That is, 30 minutes = 1800 seconds. This MinInterval is calculated for each of the L temporary layouts and stored in the array stMinInterval [l]. Next, the maximum value MaxMinInterval value is obtained in the stMinInterval [l]. Then, the similarity evaluation value [l] of the l-th temporary layout can be obtained as follows.
Similarity [l] = 100 × stMinInterval [l] / MaxMinInterval
That is, the Simularity [l] is effective as an image similarity evaluation value because the larger the minimum shooting time interval, the closer to 100, and the smaller the minimum shooting time interval, the closer to 0.

レイアウト頁内のバランスを評価するための評価量として、画素値分布のばらつきについて説明する。ここでは、画素値分布のばらつきとして、色合いのバラつきを例に挙げて説明する。例えば旅行テーマのレイアウトを作成したい場合、あまりに似通った色(例えば、青空の青、山の緑)の画像ばかりが並んでいたとすると、それは良いレイアウトとは言えない場合がある。この場合は、色のばらつきの大きいものを高い評価とする。注目しているl番目の一時レイアウト内に存在する画像の平均色相AveHの分散を算出して、それを色合いのバラつき度tmpColorVariance[l]として格納する。次に、tmpColorVariance[l]の中での最大値MaxColorVariance値を求める。すると、l番目の一時レイアウトの色合いバラつき度の評価値ColorVariance[l]は以下のようにして求めることができる。
ColorVariance[l]=100×tmpColorVariance[l]/MaxColorVariance
上記ColorVariance[l]は、ページ内に配置された画像の平均色相のバラつきが大きいほど100に近づき、小さいほど0に近づく値となる。したがって、色合いのばらつき度評価値として用いることができる。
The variation in the pixel value distribution will be described as an evaluation amount for evaluating the balance in the layout page. Here, as the variation of the pixel value distribution, the variation of the hue will be described as an example. For example, if you want to create a layout for a travel theme, and you have images of too similar colors (eg, blue in the blue sky, green in the mountains), it may not be a good layout. In this case, the one with large color variation is evaluated highly. The variance of the average hue AveH of the image existing in the l-th temporary layout of interest is calculated, and it is stored as the degree of hue variation tpColorVariance [l]. Next, the maximum value MaxColorVariety value in the tpColorVariety [l] is obtained. Then, the evaluation value ColorVariance [l] of the degree of color variation of the l-th temporary layout can be obtained as follows.
ColorVariance [l] = 100 × tpColorVariety [l] / MaxColorVariety
The ColorVariety [l] becomes a value closer to 100 as the variation in the average hue of the images arranged on the page is larger, and closer to 0 as the variation is smaller. Therefore, it can be used as an evaluation value of the degree of variation in hue.

画素値分布のばらつきは、上述したものに限定されるものではない。 The variation in the pixel value distribution is not limited to the above.

レイアウト頁内のバランスを評価するための評価量として、オブジェクトのバラつきについて説明する。ここでは、オブジェクトのバラつきとして、顔の大きさのバラつきを例に挙げて説明する。例えば、旅行テーマのレイアウトを作成したい場合、レイアウト結果を見て、あまりに似通った顔のサイズの画像ばかりが並んでいたとすると、それは良いレイアウトとは言えない場合がある。レイアウト後の紙面上における顔の大きさが、小さいものもあれば大きいものもあり、それらがバランスよく配置されていることが、良いレイアウトと考える。この場合は、顔のサイズのばらつきの大きいものを高い評価とする。注目しているl番目の一時レイアウト内に配置された後の顔の大きさ(顔位置の左上から右下までの対角線の距離)の分散値を、tmpFaceVariance[l]として格納する。次に、該tmpFaceVariance[l]の中での最大値MaxFaceVariance値を求める。すると、l番目の一時レイアウトの顔サイズバラつき度の評価値FaceVariance[l]は、以下のようにして求めることができる。
FaceVariance[l]=100×tmpFaceVariance[l]/MaxFaceVariance
上記FaceVariance[l]は、紙面上に配置された顔サイズのバラつきが大きいほど100に近づき、小さいほど0に近づく値となる。したがって、顔サイズのバラつき度評価値として用いることができる。
The variation of objects will be described as an evaluation amount for evaluating the balance in the layout page. Here, as the variation of the objects, the variation of the face size will be described as an example. For example, if you want to create a travel-themed layout, and you look at the layout results and see all the images with face sizes that are too similar, that may not be a good layout. The size of the face on the paper after layout may be small or large, and it is considered that a good layout is that they are arranged in a well-balanced manner. In this case, the one with a large variation in face size is evaluated highly. The variance value of the size of the face (diagonal distance from the upper left to the lower right of the face position) after being placed in the l-th temporary layout of interest is stored as tpFaceVariance [l]. Next, the maximum value MaxFaceVariance value in the mpFaceVariety [l] is obtained. Then, the evaluation value FaceVariance [l] of the degree of face size variation of the l-th temporary layout can be obtained as follows.
FaceVariance [l] = 100 × tpFaceVariance [l] / MaxFaceVariance
The FaceVariety [l] becomes a value closer to 100 as the variation of the face size arranged on the paper surface becomes larger, and closer to 0 as the variation is smaller. Therefore, it can be used as an evaluation value of the degree of variation in face size.

オブジェクトのバラつきは、上述したものに限定されるものではない。 The variation of objects is not limited to those described above.

またその他カテゴリとして、ユーザの嗜好性評価が挙げられる。 Another category is user preference evaluation.

例えば、上記に述べた各種の評価量による評価値が低いレイアウトであっても、ユーザが個人的に気に入った写真が含まれるレイアウトであれば、そのユーザにとっては良いレイアウトとなる場合もある。そのようなレイアウトの選択を阻害しないよう、ユーザ嗜好性を元にした評価量を用いて評価するのが好ましい。 For example, even if the layout has a low evaluation value based on the various evaluation amounts described above, it may be a good layout for the user as long as the layout includes a photograph that the user personally likes. It is preferable to evaluate using an evaluation amount based on user preference so as not to hinder the selection of such a layout.

上述したように、ユーザは各画像に対して事前にお気に入り度を設定することができるため、これに基づいて嗜好性を評価することができる。また、例えば、自動で閲覧回数や閲覧時間に基づいて嗜好性を評価することもできる。これらの評価に用いる情報は、FavorteRateタグ、ViewingTimesタグ、PrintingTimesタグで管理されている情報をもとにして算出できる。 As described above, since the user can set the favorite degree for each image in advance, the preference can be evaluated based on this. Further, for example, the preference can be automatically evaluated based on the number of browsing times and the browsing time. The information used for these evaluations can be calculated based on the information managed by the FavorteRate tag, the ViewingTimes tag, and the PrintingTimes tag.

1番目の一時レイアウトについて、各スロットに配置された画像のタグ情報の各々の数値について全ての画像の平均値FavorteRateAve[l]、ViewingTimesAve[l]、PrintingTimesAve[l]を求める。 For the first temporary layout, the average values of all images, FavoriteRateAve [l], ViewingTimesAve [l], and PrintingTimesAve [l] are obtained for each numerical value of the tag information of the images arranged in each slot.

次に、これらの総和を取ることで、ユーザの嗜好性評価値UserFavor[l]は、以下のようにして求めることができる。
UserFavor[l]=FavorteRateAve[l]+ViewingTimesAve[l]+PrintingTimesAve[l]
上記UserFavor[l]は、ユーザのお気に入り度が高い画像、閲覧回数が多い画像、印刷回数の多い画像を用いたレイアウトほど高い値を示す。したがって、本実施形態では、UserFavor[l]の値が高いほどレイアウトに対するユーザ嗜好性が高いと判断する。
Next, by taking the sum of these, the user's preference evaluation value UserFavor [l] can be obtained as follows.
UserFavor [l] = FavorteRateAve [l] + ViewingTimesAve [l] + PrintingTimesAve [l]
The UserFavor [l] shows a higher value as the layout uses an image with a high degree of user favorite, an image with a large number of views, and an image with a large number of prints. Therefore, in the present embodiment, it is determined that the higher the value of UserFavor [l], the higher the user preference for the layout.

以上説明したような、各一時レイアウト毎に算出した複数の評価値を、以下では統合化して、各一時レイアウト毎のレイアウト評価値とする。1番目の一時レイアウトの統合評価値を、EvalLayout[l]とし、上記で算出したN個の評価値(表3の評価値それぞれを含む)の値を、EvalValue[n]とする。このとき、統合評価値は以下で求めることができる。 The plurality of evaluation values calculated for each temporary layout as described above will be integrated below to obtain layout evaluation values for each temporary layout. The integrated evaluation value of the first temporary layout is set to EvalLayout [l], and the values of the N evaluation values (including each of the evaluation values in Table 3) calculated above are set to EvalValue [n]. At this time, the integrated evaluation value can be obtained as follows.

Figure 0006797871
Figure 0006797871

上式において、W[n]は、表3で示したシーン毎の各評価値の重みである。この重みはレイアウトのテーマ毎に異なる重みを設定する。例えば、表3に示すようにテーマを成長記録“growth”と旅行“travel”で比較した場合、旅行テーマの方は、できるだけ良質の写真をいろいろな場面で数多くレイアウトすることが望ましい場合が多い。このため、画像の個別評価値やページ内のバランス評価値を重視する傾向に設定する。一方、成長記録“growth”の場合、画像のバリエーションよりは、成長記録の対象となる主人公が確実にスロットに適合しているか否かが重要である場合が多い。このため、ページ内バランスや画像個別評価よりも、画像・スロット適合度評価を重視する傾向に設定する。なお、本実施形態におけるテーマ毎の重要度は表3に示すように設定した。このようにして算出したEvalLayout[l]を用いて、S2109では、レイアウト結果表示のためのレイアウトリストLayoutList[k]を生成する。レイアウトリストLayoutList[k]の作成方法については、詳細は後述する。このレイアウトリストLayoutList[k]は、図6のS605でレンダリング表示を行う際にレイアウト順番をk番目とした時に、評価が終了したレイアウトの順番lとの対応付けを行うのに用いられる。LayoutList[k]の中身は、レイアウト順番値lの値が、記載されている。このレイアウトリストLayoutList[k]のkが小さい方から、順に表示が行われる。 In the above equation, W [n] is the weight of each evaluation value for each scene shown in Table 3. This weight sets a different weight for each layout theme. For example, when the themes are compared between the growth record “growth” and the travel “travel” as shown in Table 3, it is often desirable for the travel theme to lay out as many high-quality photographs as possible in various situations. Therefore, the tendency is set to emphasize the individual evaluation value of the image and the balance evaluation value in the page. On the other hand, in the case of the growth record "growth", it is often more important whether or not the main character to be the target of the growth record is surely fitted to the slot rather than the variation of the image. For this reason, the tendency is set to emphasize the image / slot goodness-of-fit evaluation rather than the in-page balance and individual image evaluation. The importance of each theme in this embodiment is set as shown in Table 3. Using the EvalLayout [l] calculated in this way, S2109 generates a layout list LayoutList [k] for displaying the layout result. The method of creating the layout list LayoutList [k] will be described in detail later. This layout list LayoutList [k] is used to associate with the layout order l for which the evaluation has been completed, when the layout order is k-th when the rendering display is performed in S605 of FIG. In the contents of LayoutList [k], the value of the layout order value l is described. The layout list LayoutList [k] is displayed in order from the smallest k.

図6に戻って、上記処理によって得られたレイアウト結果を、図6のS605でレンダリングした結果を図21のように表示する。S605では、まずLayoutList[0]に格納されているレイアウト識別子を読み出し、識別子に相当する一時レイアウト結果を、2次記憶装置103あるいはRAM102上から読み出す。レイアウト結果には、上述したようにテンプレート情報とテンプレート内に存在するスロット毎に、割り当てられた画像名が設定されている。したがって、これらの情報に基づいて、画像処理装置115上で動作するOSの描画関数を用いて、該レイアウト結果をレンダリングし、図21の2902のように表示することになる。 Returning to FIG. 6, the layout result obtained by the above processing is rendered in S605 of FIG. 6, and the result is displayed as shown in FIG. In S605, first, the layout identifier stored in LayoutList [0] is read, and the temporary layout result corresponding to the identifier is read from the secondary storage device 103 or the RAM 102. In the layout result, as described above, the template information and the assigned image name are set for each slot existing in the template. Therefore, based on this information, the layout result is rendered by using the drawing function of the OS operating on the image processing device 115, and is displayed as shown in FIG. 21. 2902.

図21では、Nextボタン2904を押下することにより、評価結果が次に高いもの、すなわち、次点スコアであるLayoutList[1]の識別子を読み出し、上記と同様にレンダリング後、表示を行う。これにより、ユーザは様々なバリエーションの提案レイアウトを閲覧することができる。また、Previousボタン2903を押下することにより、前に表示したレイアウトを再表示することができる。さらに、表示されたレイアウトが気に入った場合には、プリントボタン2905を押下することで、画像処理装置115に接続されたプリンタ112からレイアウト結果2902をプリントアウトすることができる。 In FIG. 21, by pressing the Next button 2904, the identifier with the next highest evaluation result, that is, the identifier of LayoutList [1], which is the runner-up score, is read, rendered in the same manner as described above, and then displayed. This allows the user to browse various variations of the proposed layout. Also, by pressing the Preview button 2903, the previously displayed layout can be redisplayed. Further, if the displayed layout is liked, the layout result 2902 can be printed out from the printer 112 connected to the image processing device 115 by pressing the print button 2905.

ここで、図17に示すS2108の大量(L個)のレイアウトの定量評価の際のブレ量のスコア化について詳細に説明する。図17に示すブレ量のスコア化では、まず、ブレの大きさを評価する。ブレの大きさは、例えば、ブレの大きさ(ブレ量)及び方向が評価できるケプストラムを利用して評価する。ブレ量と方向を算出する方法としては、公知の方法を用いることができ、例えば、US7617826B2に開示される方法が挙げられる。この方法では、ブルアーカーネルにより、ブレの大きさと方向を得ることができる。なお、ブレ量と方向を算出する方法は、これに限定されるものではない。 Here, the scoring of the amount of blur in the quantitative evaluation of the large amount (L pieces) of S2108 shown in FIG. 17 will be described in detail. In scoring the amount of blur shown in FIG. 17, first, the magnitude of blur is evaluated. The magnitude of the blur is evaluated using, for example, a cepstrum that can evaluate the magnitude (amount of blur) and the direction of the blur. As a method for calculating the amount of blur and the direction, a known method can be used, and examples thereof include the method disclosed in US7617826B2. In this method, the blurr kernel allows the magnitude and direction of blurring to be obtained. The method of calculating the amount of blur and the direction is not limited to this.

ブレの大きさは、ブレ量及びブレ方向により評価されるものに限定されず、例えば、ブレ量及びブレ方向を算出することにより、被写界深度を利用した、ぼかし効果との差異を検出して評価してもよい。なお、ここでいうブレは、カメラの露光時間中にカメラと被写体の相対的な関係が変わることにより生じるものである。光学系を工夫して露出時間中の撮像素子と光軸の相対的な関係を保つことで、ブレの影響を低減させることもできるが、撮影系の振動を過検出してしまったり、露出時間が長いときにはブレを防ぎきれない。
ブレ量の評価は、対象画像の全体を一度に評価するようにしてもよいし、対象画像の領域を区切って個別に評価を行うようにしてもよい。また、領域毎の重み付けを変えて画像全体のブレ量を算出するようにしてもよい。対象画像の領域を区切る場合は、例えば、提案ストーリーの中心人物の顔領域や、付加されたフォーカスポイントの領域など属性に合わせたブレ量を評価するようにしてもよい。ブレ量の評価を対象画像の領域を区切って行うことにより、領域毎のブレ量が算出され被写界深度を利用したぼかし効果との差異を検出することもできる。
The amount of blur is not limited to that evaluated by the amount of blur and the direction of blur. For example, by calculating the amount of blur and the direction of blur, a difference from the blur effect using the depth of field is detected. May be evaluated. The blur referred to here is caused by a change in the relative relationship between the camera and the subject during the exposure time of the camera. It is possible to reduce the effect of blurring by maintaining the relative relationship between the image sensor and the optical axis during the exposure time by devising the optical system, but it may over-detect the vibration of the shooting system or the exposure time. When it is long, it cannot prevent blurring.
The amount of blur may be evaluated at once for the entire target image, or may be evaluated individually by dividing the area of the target image. Further, the weighting for each area may be changed to calculate the amount of blurring of the entire image. When dividing the area of the target image, for example, the amount of blurring according to the attribute such as the face area of the central person in the proposed story or the area of the added focus point may be evaluated. By evaluating the amount of blurring by dividing the area of the target image, the amount of blurring for each area can be calculated and the difference from the blurring effect using the depth of field can be detected.

また、上述したように、画像に含まれる全ての領域のブレ量を算出して画像全体のブレ量とせずに、所定の領域、言い換えれば、注目領域のブレ量を算出して画像全体のブレ量としてもよい。なお、注目領域のブレ量を評価することにより、ぼかし効果を狙った画像を誤ってブレ量と判断する頻度を低減することができる。次に、画像のブレの評価量を算出する。画像のブレの評価量は、例えば、ブレの大きさと、実際に画像をレイアウトする際の大きさ(サイズ)に基づいて算出する。すなわち、画像のブレ量をレイアウトする際の大きさに変換する。例えば、レイアウト後のサイズと元画像のサイズから拡大縮小率を算出し、ブレ量と算出した拡大縮小率との積を画像のブレの評価量とする。レイアウト後のサイズは、出力物(例えば、印刷物)を観察した時の観点で評価する。画像の出力サイズ、具体的には、指定紙サイズにより紙面上にプリントされた場合の印刷サイズに換算する。これにより、モニタ表示上で条件が変わらなくても、被記録媒体上にレイアウトされる画像を適切に評価することができる。 Further, as described above, instead of calculating the amount of blurring in all areas included in the image and using it as the amount of blurring in the entire image, the amount of blurring in a predetermined area, in other words, the area of interest is calculated and the amount of blurring in the entire image is calculated. It may be an amount. By evaluating the amount of blurring in the region of interest, it is possible to reduce the frequency of erroneously determining the amount of blurring in an image aimed at the blurring effect. Next, the evaluation amount of image blur is calculated. The evaluation amount of image blur is calculated based on, for example, the magnitude of blur and the size (size) when the image is actually laid out. That is, the amount of blurring of the image is converted into the size when laying out. For example, the enlargement / reduction ratio is calculated from the size after layout and the size of the original image, and the product of the blur amount and the calculated enlargement / reduction ratio is used as the evaluation amount of image blur. The size after layout is evaluated from the viewpoint of observing the output (for example, printed matter). The output size of the image, specifically, the print size when printed on the paper surface according to the specified paper size is converted. As a result, the image laid out on the recording medium can be appropriately evaluated even if the conditions on the monitor display do not change.

また、画像のブレの評価量は、元画像の一部をトリミングして使用する場合は、トリミング座標から求めたサイズとレイアウト後のサイズから拡大縮小率を算出し、ブレ量と算出した拡大縮小率との積としてもよい。また、顔検出が可能な程度のブレがある画像を含むレイアウト画像を提案したい場合は、S303で行う顔検出の座標位置から顔領域のブレ量を算出し、それに基づいて評価量を算出すればよい。具体的には、算出した顔領域のブレ量とレイアウト後のサイズから求めた変倍率(ここでは、拡大縮小率)の積を画像のブレの評価量とする。また、ブレ量と拡大縮小率との積を用いてブレの評価量としたが、レイアウトサイズにより観察距離が異なると仮定し、仮定した観察距離を用いてブレの評価量を算出するようにしてもよい。レイアウト画像が大きなサイズになるほど、離れた距離から観察されるものであると仮定すると、レイアウトサイズとブレ量の積より、相対的に低い評価値となる。 For the evaluation amount of image blur, when a part of the original image is trimmed and used, the enlargement / reduction ratio is calculated from the size obtained from the trimming coordinates and the size after layout, and the amount of blur is calculated as the enlargement / reduction. It may be the product of the rate. If you want to propose a layout image that includes an image with blurring that allows face detection, you can calculate the amount of blurring in the face area from the coordinate position of face detection performed in S303, and then calculate the evaluation amount based on that amount. Good. Specifically, the product of the calculated amount of blur in the face area and the variable magnification (here, the enlargement / reduction ratio) obtained from the size after layout is used as the evaluation amount of image blur. In addition, the product of the blur amount and the enlargement / reduction ratio was used as the blur evaluation amount, but assuming that the observation distance differs depending on the layout size, the blur evaluation amount is calculated using the assumed observation distance. May be good. Assuming that the larger the layout image is, the more it is observed from a distance, the evaluation value is relatively lower than the product of the layout size and the amount of blurring.

上述した方法により算出したブレの評価量を画像の個別評価量として正規化しスコア化する。なお、画像個別評価の際に、ブレの評価量と他の評価量と総合的にする場合、テーマ毎の重み付けの係数を乗じた上、加算することにより行うようにしてもよい。 The evaluation amount of blur calculated by the above method is normalized as an individual evaluation amount of an image and scored. In addition, in the case of individual image evaluation, when the evaluation amount of blur is combined with other evaluation amounts, it may be performed by multiplying by a weighting coefficient for each theme and then adding.

ブレの大きさを上述した方法により評価することにより、大きくレイアウトされる画像のブレ量は大きくなり、画像の個別評価は低くなる、すなわち、スコアが低くなる。一方、小さくレイアウトされる画像のブレ量は小さくなり、画像の個別評価は高くなる、すなわち、スコアも高くなる。 By evaluating the magnitude of the blur by the method described above, the amount of blur in the image laid out in a large size becomes large, and the individual evaluation of the image becomes low, that is, the score becomes low. On the other hand, the amount of blurring of an image laid out small is small, and the individual evaluation of the image is high, that is, the score is also high.

したがって、ブレの大きな画像を小さなサイズで配置したレイアウトは、ブレの大きな画像を大きなサイズで配置したレイアウトよりも評価が高くなり、レイアウトとして提案されやすくなる。また、ブレの少ない画像は大きなサイズで配置したレイアウトの評価が高くなり、レイアウトとして提案されやすくなる。本実施形態では、ブレ画像がレイアウト後の画像に与える影響を評価することにより、ユーザが所有する画像データの中から、ユーザにとってより好ましい提案を行うことができる。 Therefore, a layout in which an image with a large blur is arranged in a small size has a higher evaluation than a layout in which an image with a large blur is arranged in a large size, and is easily proposed as a layout. In addition, an image with less blur is highly evaluated for a layout arranged in a large size, and is easily proposed as a layout. In the present embodiment, by evaluating the influence of the blurred image on the image after layout, it is possible to make a more preferable proposal for the user from the image data owned by the user.

本実施形態では、ブレ画像がレイアウト候補から欠落するのを抑制しつつ、好適なレイアウト候補をユーザに提案することができる。 In the present embodiment, it is possible to propose a suitable layout candidate to the user while suppressing the blur image from being missing from the layout candidates.

(実施形態2)
実施形態1では、ブレ画像を有するレイアウト画像の評価について説明したが、本実施形態では、ノイズを含む画像を有するレイアウト画像の評価について説明する。なお、実施形態1と同様の構成については説明を省略する。
本実施形態では、画像個別評価として、ノイズの評価を行う場合について説明する。すなわち、本実施形態では、図17に示すS2108の大量(L個)のレイアウトの定量評価の際のノイズのスコア化について説明する。
(Embodiment 2)
In the first embodiment, the evaluation of the layout image having the blurred image has been described, but in the present embodiment, the evaluation of the layout image having the image including noise will be described. The description of the same configuration as that of the first embodiment will be omitted.
In the present embodiment, a case where noise is evaluated as an individual image evaluation will be described. That is, in the present embodiment, noise scoring at the time of quantitative evaluation of a large amount (L pieces) of layout of S2108 shown in FIG. 17 will be described.

ノイズは、例えば、カメラの露光量が少ない場合、撮像素子などの暗ノイズとして画像に現れる。 For example, when the exposure amount of the camera is small, the noise appears in the image as dark noise of the image sensor or the like.

ノイズのスコア化は、まず、ノイズ量を評価する。ノイズ量は、例えば、カメラの撮影時に記録された感度情報(例えば、ISO感度)を用いて算出することができる。 To score the noise, first, the amount of noise is evaluated. The amount of noise can be calculated using, for example, sensitivity information (for example, ISO sensitivity) recorded at the time of shooting by the camera.

また、例えば、各色フィルターでの低感度部分におけるノイズをフィルターにより算出して、ノイズ量としてもよい。具体的には、まず、ノイズ低減フィルター処理後の画像と元画像の差分を周波数解析することによりノイズの周波数を求める。そして、このノイズの周波数解析結果をノイズ量とする。 Further, for example, the noise in the low-sensitivity portion of each color filter may be calculated by the filter and used as the noise amount. Specifically, first, the frequency of noise is obtained by frequency analysis of the difference between the image after the noise reduction filter processing and the original image. Then, the frequency analysis result of this noise is used as the noise amount.

次に、画像のノイズの評価量を算出する。画像のノイズの評価量は、実施形態1で示したブレの評価量と同様の方法により算出することができる。例えば、ノイズ量と、実際に画像をレイアウトする際の大きさ(サイズ)に基づいて算出することができる。また、画像のノイズの評価量は、元画像の一部をトリミングして使用する場合は、トリミング座標から求めたサイズとレイアウト後のサイズから拡大縮小率を算出し、ノイズ量と算出した拡大縮小率との積としてもよい。 Next, the evaluation amount of noise in the image is calculated. The evaluation amount of noise in the image can be calculated by the same method as the evaluation amount of blur shown in the first embodiment. For example, it can be calculated based on the amount of noise and the size when the image is actually laid out. For the evaluation amount of noise in the image, when a part of the original image is trimmed and used, the enlargement / reduction ratio is calculated from the size obtained from the trimming coordinates and the size after layout, and the noise amount and the calculated enlargement / reduction are calculated. It may be the product of the rate.

上述した方法により算出したノイズの評価量を画像個別評価量として正規化しスコア化する。なお、画像個別評価の際に、ノイズの評価量と他の評価量と総合的にする場合、テーマ毎の重み付けの係数を乗じた上、加算することにより行うようにしてもよい。 The noise evaluation amount calculated by the above method is normalized as an image individual evaluation amount and scored. In the case of individual image evaluation, when the noise evaluation amount and other evaluation amounts are to be combined, the weighting coefficient for each theme may be multiplied and then added.

本実施形態では、高周波のノイズで視覚特性(VTF)上、感度の低かったノイズが、拡大することにより周波数が疑似的に下がり、目立つことを抑制することができる。すなわち、本実施形態では、レイアウトのサイズによって許容されるノイズの度合いが異なることを考慮して、ノイズを含む画像がレイアウト後の画像に与える影響を評価する。これにより、ユーザが所有する画像データの中から、ユーザにとってより好ましい提案を行うことができる。 In the present embodiment, it is possible to suppress that the noise, which has low sensitivity due to the visual characteristics (VTF) due to the high frequency noise, is expanded to pseudo-decrease the frequency and become conspicuous. That is, in the present embodiment, the influence of the image containing noise on the image after layout is evaluated in consideration of the fact that the degree of noise allowed differs depending on the size of the layout. As a result, it is possible to make a more preferable proposal for the user from the image data owned by the user.

本実施形態では、ノイズを含む画像がレイアウト候補から欠落するのを抑制しつつ、好適なレイアウト候補をユーザに提案することができる。 In the present embodiment, it is possible to propose a suitable layout candidate to the user while suppressing the image containing noise from being missing from the layout candidates.

(他の実施形態)
本発明の基本的構成は上述したものに限定されるものではない。上述した実施形態は、本発明の効果を得るための一手段であり、類似の別手法を用いたり、異なるパラメータを用いたとしても、本発明と同等の効果が得られる場合は、本発明の範疇に含まれる。
本実施形態では、ユーザが画像グループをマウスポインタによりドラッグ操作することで、人物グループの結合処理を実行する例を示したが、操作はマウスポインタによる操作に限定されるものでもない。
(Other embodiments)
The basic configuration of the present invention is not limited to those described above. The above-described embodiment is a means for obtaining the effect of the present invention, and if the same effect as that of the present invention can be obtained even if another similar method is used or different parameters are used, the present invention is used. Included in the category.
In the present embodiment, an example is shown in which a user drags an image group with a mouse pointer to execute a combination process of a person group, but the operation is not limited to the operation with the mouse pointer.

また、上述した実施形態では、オブジェクトとして人物を例に挙げて説明したが、オブジェクトは人物とは限らない。犬や猫などのペットの認識処理を行ってこれらを認識することにより、オブジェクトとしてペットを設定することができる。また、エッジ検出などの形を認識処理によれば、建物や小物なども認識できるため、オブジェクトとして、建物や小物などを設定することができる。 Further, in the above-described embodiment, a person is taken as an example as an object, but the object is not necessarily a person. By recognizing pets such as dogs and cats and recognizing them, pets can be set as objects. Further, according to the shape recognition process such as edge detection, a building or an accessory can be recognized, so that the building or the accessory can be set as an object.

上述した実施形態では、画像処理装置としてコンピュータを例に挙げて説明したが、これに限定されるものではない。例えば、プリンタ、複写機、ファクシミリ装置、携帯電話、PDA、画像ビューワー、デジタルカメラ、などの画像処理を行う装置において、本発明を適用可能である。 In the above-described embodiment, a computer has been described as an example of the image processing device, but the present invention is not limited thereto. For example, the present invention can be applied to devices that perform image processing such as printers, copiers, facsimile machines, mobile phones, PDAs, image viewers, and digital cameras.

また、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタ等)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、プリンタ、複写機、ファクシミリ装置等)に適用しても良い。 Further, even if the present invention is applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), the present invention is a device composed of one device (for example, a printer, a copying machine, a facsimile machine, etc.). Etc.) may be applied.

上述した実施形態は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(CPUやMPU等)がプログラムを読み出して実行する処理である。また、プログラムは、1つのコンピュータで実行させても、複数のコンピュータを連動させて実行させるようにしてもよい。また、上記した処理の全てをソフトウェアで実現する必要はなく、処理の一部または全部をASIC等のハードウェアで実現するようにしてもよい。また、CPUも1つのCPUで全ての処理を行うものに限らず、複数のCPUが適宜連携をしながら処理を行うものとしてもよい。 The above-described embodiment is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various storage media, and the computer (CPU, MPU, etc.) of the system or device reads and executes the program. It is a process to do. Further, the program may be executed by one computer or may be executed by interlocking a plurality of computers. Further, it is not necessary to realize all of the above-mentioned processes by software, and a part or all of the processes may be realized by hardware such as ASIC. Further, the CPU is not limited to one that performs all processing by one CPU, and a plurality of CPUs may perform processing while appropriately coordinating with each other.

Claims (15)

所定のアプリケーションのプログラムであって、
コンピュータに、
第1の人物が含まれる画像と、前記第1の人物とは異なる第2の人物が含まれる画像と、を含む複数の画像を取得するステップと、
前記取得された複数の画像を解析処理し、前記複数の画像に含まれる複数の人物の顔と人物の顔以外のオブジェクトとを認識し、前記認識された人物の顔を人物ごとに識別するステップと、
前記解析処理に基づき識別された前記第1の人物の顔に対応する第1の顔画像を表示部に表示させるステップと、
前記第1の顔画像が前記表示部に表示された状態で、前記第1の顔画像に関連する所定のユーザ指示を受け付けるステップと、
前記所定のユーザ指示とは異なるユーザ入力に基づいて、レイアウトのテーマとして所定のイベントに関連するテーマを決定するステップと、
前記所定のユーザ指示に基づいて、前記第1の人物を第1の主人公として設定するステップと、
前記決定されたテーマに基づいて、前記第2の人物を第2の主人公として設定するステップと、
テーマごとに保持されているテンプレートの中から、前記決定されたテーマに基づくテンプレートを選択するステップと、
前記所定のユーザ指示に基づいて設定された前記第1の主人公と前記テーマに基づいて設定された前記第2の主人公の設定に基づいて、前記テーマに基づいて選択されたテンプレートに前記第1の人物が含まれる画像と前記第2の人物が含まれる画像が配置されたレイアウト画像を生成するステップと、
を実行させるプログラム。
A program for a given application
On the computer
A step of acquiring a plurality of images including an image including a first person and an image including a second person different from the first person .
A step of analyzing a plurality of acquired images, recognizing a plurality of person's faces included in the plurality of images and objects other than the person's face, and identifying the recognized person's face for each person. When,
A step of displaying the first facial image corresponding to the face of the identified first person on the basis of the analysis on a display unit,
A step of receiving a predetermined user instruction related to the first face image while the first face image is displayed on the display unit, and
A step of determining a theme related to a predetermined event as a layout theme based on a user input different from the predetermined user instruction.
A step of setting the first person as the first hero based on the predetermined user instruction, and
Based on the determined theme, the step of setting the second person as the second hero, and
From the templates held for each theme, the step of selecting a template based on the determined theme, and
Based on the setting of the predetermined said set based on a user instruction first hero and the theme set on the basis of the second main character, the template selected based on the theme, the first A step of generating a layout image in which an image including the person and the image including the second person are arranged, and
A program that executes.
前記第1の人物の顔に対応する前記第1の顔画像と共に、前記解析処理に基づき識別された前記第2の人物の顔に対応する第2の顔画像を表示させることを特徴とする請求項1に記載のプログラム。 A claim characterized in that a second face image corresponding to the face of the second person identified based on the analysis process is displayed together with the first face image corresponding to the face of the first person. Item 1. The program according to item 1. 前記第1の顔画像と前記第2の顔画像とが前記表示部に表示された状態で、ユーザから前記第2の顔画像に関連する所定のユーザ指示を受け付けた場合、前記第2の顔画像に関連する所定のユーザ指示と前記決定されたテーマとに基づいて、前記第2の人物を前記第2の主人公として設定することを特徴とする請求項2に記載のプログラム。 When a predetermined user instruction related to the second face image is received from the user while the first face image and the second face image are displayed on the display unit, the second face The program according to claim 2, wherein the second person is set as the second main character based on a predetermined user instruction related to an image and the determined theme. 前記第1の主人公と前記第2の主人公の設定に基づいて、前記第1の人物と前記第2の人物が含まれる画像が優先的に配置されたレイアウト画像を生成することを特徴とする請求項1から3のいずれか1項に記載のプログラム。 A claim characterized in that a layout image in which an image including the first person and the second person is preferentially arranged is generated based on the settings of the first hero and the second hero. The program according to any one of items 1 to 3. 前記第1の主人公と前記第2の主人公の設定に基づいて、前記第1の人物と前記第2の人物とが含まれる画像が、前記第1の人物と前記第2の人物が含まれない画像よりも優先的に配置されたレイアウト画像を生成することを特徴とする請求項1から4のいずれか1項に記載のプログラム。 Based on the settings of the first hero and the second hero, the image including the first person and the second person does not include the first person and the second person. The program according to any one of claims 1 to 4, wherein a layout image is preferentially arranged over the image. 前記テンプレートに画像を配置する場合に、前記テンプレートが有する所定のスロットに対して、配置される画像の適合度を判定し、
前記第1の人物が含まれる画像は、前記所定のスロットに対して適合度が高いと判定されることにより、前記第1の人物が含まれる画像が優先的に配置されることを特徴とする請求項1から5のいずれか1項に記載のプログラム。
When arranging an image in the template, the goodness of fit of the image to be arranged is determined with respect to a predetermined slot of the template.
The image including the first person is characterized in that the image including the first person is preferentially arranged by determining that the fit is high with respect to the predetermined slot. The program according to any one of claims 1 to 5.
前記第1の人物が含まれる画像は、前記第1の人物が含まれない画像よりも、所定のスコア値が高く設定されることにより、前記第1の人物が含まれる画像が優先的に配置されることを特徴とする請求項1から6のいずれか1項に記載のプログラム。 In the image including the first person, the predetermined score value is set higher than the image not including the first person, so that the image including the first person is preferentially arranged. The program according to any one of claims 1 to 6, wherein the program is characterized by being performed. レイアウトに関する評価を行うステップをさらに備え、
前記テンプレート内の所定のスロットに所定の画像を拡大処理して配置する場合に、前記評価を行うステップでは、前記拡大処理に関連して変化する値に基づいて評価を行うことを特徴とする請求項1から7のいずれか1項に記載のプログラム。
With additional steps to evaluate the layout
When a predetermined image is enlarged and arranged in a predetermined slot in the template, the evaluation step is characterized in that the evaluation is performed based on a value that changes in connection with the enlargement processing. The program according to any one of Items 1 to 7.
前記テンプレート内の所定のスロットに所定の画像を拡大して配置する場合に、前記所定の画像が前記所定のスロットに対して採用されにくくするための特定処理が行なわれることを特徴とする請求項1から8のいずれか1項に記載のプログラム。 A claim characterized in that, when a predetermined image is enlarged and arranged in a predetermined slot in the template, a specific process is performed to make it difficult for the predetermined image to be adopted in the predetermined slot. The program according to any one of 1 to 8. 前記表示部には、日付に関連する指示をユーザからの受付可能な画面が表示されることを特徴とする請求項1から9のいずれか1項に記載のプログラム。 The program according to any one of claims 1 to 9, wherein a screen capable of receiving an instruction related to a date from a user is displayed on the display unit. 前記レイアウトに用いられるテンプレートは、インターネットを介して外部サーバーから取得されることを特徴とする請求項1から10のいずれか1項に記載のプログラム。 The program according to any one of claims 1 to 10, wherein the template used for the layout is acquired from an external server via the Internet. 前記複数の画像は、インターネットを介して外部サーバーから取得可能であることを特徴とする請求項1から11のいずれか1項に記載のプログラム。 The program according to any one of claims 1 to 11, wherein the plurality of images can be acquired from an external server via the Internet. 前記複数の画像のシーンを解析し、前記複数の画像の撮影シーンを区別することを特徴とする請求項1から12のいずれか1項に記載のプログラム。 The program according to any one of claims 1 to 12, wherein the scenes of the plurality of images are analyzed and the shooting scenes of the plurality of images are distinguished. 前記解析処理では、人物の顔と、人物の顔以外のオブジェクトとして犬又は猫を認識可能であることを特徴とする請求項1から13のいずれか1項に記載のプログラム。 The program according to any one of claims 1 to 13, wherein in the analysis process, a person's face and a dog or a cat can be recognized as an object other than the person's face. 前記生成されたレイアウト画像に基づくデータを、インターネット経由で外部装置に送信させるステップをさらに実行させることを特徴とする請求項1から14のいずれか1項に記載のプログラム。 The program according to any one of claims 1 to 14, further performing a step of transmitting data based on the generated layout image to an external device via the Internet.
JP2018159682A 2018-08-28 2018-08-28 program Active JP6797871B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018159682A JP6797871B2 (en) 2018-08-28 2018-08-28 program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018159682A JP6797871B2 (en) 2018-08-28 2018-08-28 program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013184045A Division JP2015053541A (en) 2013-09-05 2013-09-05 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2019009798A JP2019009798A (en) 2019-01-17
JP6797871B2 true JP6797871B2 (en) 2020-12-09

Family

ID=65029861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018159682A Active JP6797871B2 (en) 2018-08-28 2018-08-28 program

Country Status (1)

Country Link
JP (1) JP6797871B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100413308C (en) * 2003-12-25 2008-08-20 富士胶片株式会社 Apparatus, method and program for editing images
JP2006295890A (en) * 2005-03-15 2006-10-26 Fuji Photo Film Co Ltd Album creating apparatus, album creating method and program
JP4624933B2 (en) * 2005-03-16 2011-02-02 富士フイルム株式会社 IMAGING DEVICE, IMAGING METHOD, ALBUM CREATION DEVICE, ALBUM CREATION METHOD, ALBUM CREATION SYSTEM, AND PROGRAM
JP4510718B2 (en) * 2005-08-09 2010-07-28 キヤノン株式会社 Image output apparatus and control method thereof
JP2010072934A (en) * 2008-09-18 2010-04-02 Canon Inc Album creation device and album creation method
JP2012150626A (en) * 2011-01-19 2012-08-09 Dainippon Printing Co Ltd Image output reception terminal, method, and program
US20130022244A1 (en) * 2011-02-24 2013-01-24 Minehisa Nagata Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2019009798A (en) 2019-01-17

Similar Documents

Publication Publication Date Title
JP6045232B2 (en) Image processing apparatus, image processing method, and program
JP5993642B2 (en) Information processing apparatus, control method thereof, and program
US9436706B2 (en) Image processing apparatus, image processing method, and storage medium for laying out images
JP6012310B2 (en) Image processing apparatus, image processing method, and program
JP6039942B2 (en) Information processing apparatus, control method thereof, and program
JP7250567B2 (en) Apparatus, method and program
JP6071288B2 (en) Image processing apparatus, image processing method, and program
JP6071289B2 (en) Image processing apparatus, image processing method, and program
JP5981789B2 (en) Image processing apparatus, image processing method, and program
JP6031278B2 (en) Information processing apparatus, control method thereof, and program
JP6071287B2 (en) Image processing apparatus, image processing method, and program
JP6012309B2 (en) Information processing apparatus, information processing method, and program
JP6016489B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2020140577A (en) Device, method, and program
JP6282065B2 (en) Image processing apparatus, image processing method, and program
JP6222900B2 (en) Image processing apparatus, image processing method, and program
JP2020140567A (en) Device, method, and program
JP6261206B2 (en) Information processing apparatus, information processing method, and program
JP2020140568A (en) Device, method, and program
US9509870B2 (en) Image processing apparatus, image processing method, and storage medium enabling layout varations
JP6797871B2 (en) program
JP7263054B2 (en) Apparatus, method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180925

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200306

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200824

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200902

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201118

R151 Written notification of patent or utility model registration

Ref document number: 6797871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151