JP2017130109A - Program, information processor and control method - Google Patents

Program, information processor and control method Download PDF

Info

Publication number
JP2017130109A
JP2017130109A JP2016009982A JP2016009982A JP2017130109A JP 2017130109 A JP2017130109 A JP 2017130109A JP 2016009982 A JP2016009982 A JP 2016009982A JP 2016009982 A JP2016009982 A JP 2016009982A JP 2017130109 A JP2017130109 A JP 2017130109A
Authority
JP
Japan
Prior art keywords
scene
image data
evaluation
scenes
classify
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016009982A
Other languages
Japanese (ja)
Other versions
JP6700806B2 (en
Inventor
後藤 文孝
Fumitaka Goto
文孝 後藤
寛康 國枝
Hiroyasu Kunieda
寛康 國枝
正明 大林
Masaaki Obayashi
正明 大林
真耶 黒川
Maya Kurokawa
真耶 黒川
慶範 溝口
Yoshinori Mizoguchi
慶範 溝口
加藤 真夫
Masao Kato
真夫 加藤
池田 徹
Toru Ikeda
徹 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016009982A priority Critical patent/JP6700806B2/en
Publication of JP2017130109A publication Critical patent/JP2017130109A/en
Application granted granted Critical
Publication of JP6700806B2 publication Critical patent/JP6700806B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a program capable of ensuring satisfaction of a user.SOLUTION: The program is configured, with respect to a piece of image data, to acquire a first a scene which has a highest evaluation value from a plurality of scenes based on an evaluation relevant to the scene included in the plural scenes. The program is also configured to determine whether the image data should be classified in the first scene or in a scene other than the first scene in the plurality of scenes based on the acquired evaluation of the first scene.SELECTED DRAWING: Figure 16

Description

本発明は、プログラム、情報処理装置および制御方法に関する。   The present invention relates to a program, an information processing apparatus, and a control method.

画像データを、旅行や日常、セレモニー等の意味論的イベント(以下、シーンと呼ぶ)別に分類する技術が知られている。特許文献1では、画像データに対してシーン毎に点数を付し、画像データを得点の一番高いシーンに分類する装置が記載されている。   A technique for classifying image data into semantic events (hereinafter referred to as scenes) such as travel, daily life, and ceremony is known. Patent Document 1 describes an apparatus that assigns a score for each scene to image data and classifies the image data into a scene having the highest score.

特表2011−525012号公報Special table 2011-525012 gazette

しかし、画像データに対するシーン毎の評価において、画像データの特徴や評価方法によっては、ユーザーが意図するシーンの得点が一番高くなるように、常に正確な評価が行われるとは限らない。そのため、特許文献1のような、評価が一番高いシーンに画像データを分類する方法では、ユーザーの意図と異なるシーンに画像データが分類され、ユーザーの満足度が低下してしまう場合があるという課題がある。   However, in the evaluation of image data for each scene, accurate evaluation is not always performed so that the score of the scene intended by the user is the highest depending on the characteristics of the image data and the evaluation method. Therefore, in the method of classifying image data into a scene having the highest evaluation as in Patent Document 1, the image data is classified into a scene different from the user's intention, and the user's satisfaction may be lowered. There are challenges.

上述のような課題が生じることから、評価の結果によっては、評価が一番高いシーンでないシーンに画像データを分類することで、ユーザーの満足度が低下することを抑制できるケースもある。本発明は、ユーザーの満足度の低下を抑制できるプログラム、情報処理装置および制御方法を提供することを目的とする。   Since the above-described problems occur, depending on the evaluation result, it may be possible to suppress the user satisfaction from being lowered by classifying the image data into a scene that is not the highest evaluated scene. An object of this invention is to provide the program, information processing apparatus, and control method which can suppress the fall of a user's satisfaction.

上記課題を解決するため、本発明に係るプログラムは、画像データを、複数のシーンのうちいずれかのシーンに分類する情報処理装置を、前記画像データについて、前記複数のシーンに含まれるシーンに関する評価を行う評価手段、前記評価手段による評価に基づいて、前記複数のシーンのうち、評価が一番高い第1シーンを取得する取得手段、前記取得手段が取得した前記第1シーンの評価に基づいて、前記画像データを前記第1シーンに分類するか、前記画像データを前記複数のシーンのうちの前記第1シーンでないシーンに分類するかを決定する決定手段、として機能させることを特徴とする。   In order to solve the above problems, a program according to the present invention provides an information processing apparatus that classifies image data into one of a plurality of scenes, and evaluates scenes included in the plurality of scenes with respect to the image data. Based on the evaluation by the evaluation means, an acquisition means for acquiring the first scene having the highest evaluation among the plurality of scenes, and based on the evaluation of the first scene acquired by the acquisition means , And functioning as determining means for determining whether to classify the image data into the first scene or to classify the image data into a scene that is not the first scene of the plurality of scenes.

本発明によれば、画像データに対する正確な評価が行われていない場合、ユーザーの満足度が低下することを抑制できる。   ADVANTAGE OF THE INVENTION According to this invention, when exact evaluation with respect to image data is not performed, it can suppress that a user's satisfaction falls.

情報処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of information processing apparatus. アルバム作成アプリケーションのソフトウェア構成を示すブロック図である。It is a block diagram which shows the software structure of an album creation application. アルバム作成アプリケーションのユーザインタフェース画面を示す図である。It is a figure which shows the user interface screen of an album creation application. 自動レイアウト処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an automatic layout process. 画像データの解析情報を示す図である。It is a figure which shows the analysis information of image data. 画像データ群の分割を説明するための図である。It is a figure for demonstrating the division | segmentation of an image data group. シーンの分類分けを説明するための図である。It is a figure for demonstrating the classification of a scene. メインスロットとサブスロットについての得点化を説明するための図である。It is a figure for demonstrating scoring about a main slot and a subslot. 画像データの選択を説明するための図である。It is a figure for demonstrating selection of image data. 画像データのレイアウトを説明するための図である。It is a figure for demonstrating the layout of image data. フレーム抽出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a frame extraction process. 画像データ取得処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an image data acquisition process. シーン間のレイアウト相性を示す図である。It is a figure which shows the layout compatibility between scenes. 画像データの得点化を説明するための図である。It is a figure for demonstrating scoring of image data. シーンの分類分けを説明するための図である。It is a figure for demonstrating the classification of a scene. シーン分類処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a scene classification | category process. シーンの分類分けを説明するための図である。It is a figure for demonstrating the classification of a scene. シーン分類処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a scene classification | category process.

以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the present invention according to the claims, and all combinations of features described in the embodiments are not necessarily essential to the solution means of the present invention. . The same constituent elements are denoted by the same reference numerals, and the description thereof is omitted.

[第1実施形態]
本実施形態では、情報処理装置上で、アルバム作成アプリケーションを動作させ、自動レイアウトを生成するまでの手順について説明する。以下に説明する画像とは、特に断りが無い限り、静止画、動画、動画中のフレーム画像、また、SNS(ソーシャル・ネットワーキング・サービス)上の静止画と動画と動画中のフレーム画像を含む。
[First Embodiment]
In the present embodiment, a procedure until an album creation application is operated on an information processing apparatus and an automatic layout is generated will be described. Unless otherwise specified, the images described below include still images, moving images, frame images in moving images, and still images, moving images, and frame images in moving images on SNS (Social Networking Service).

<ハードウェア構成>
図1は、本実施形態における情報処理装置100のハードウェア構成を説明するブロック図である。なお、情報処理装置としては、例えば、PC、スマートフォン、タブレット端末、カメラ、プリンタ等が挙げられ、本実施形態ではPCとする。
<Hardware configuration>
FIG. 1 is a block diagram illustrating a hardware configuration of the information processing apparatus 100 according to the present embodiment. Examples of the information processing apparatus include a PC, a smartphone, a tablet terminal, a camera, and a printer. In this embodiment, the information processing apparatus is a PC.

図1において、CPU(中央演算装置/プロセッサー)101は、本実施形態で説明する制御方法をプログラムに従って実行する処理部である。図中のCPUは1つであるが、複数ある場合も本実施形態ではCPUの一部として表す。ROM102は、汎用的なROMであり、例えば、CPU101により実行されるプログラムが記憶されている。RAM103は、汎用的なRAMであり、例えば、CPU101によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供している。HDD(ハードディスク)104は、静止画ファイルや動画ファイルや画像解析などの処理結果を保持するデータベースなどを記憶するための記憶媒体である。ROM102、RAM103、HDD104は記憶部を構成する。   In FIG. 1, a CPU (central processing unit / processor) 101 is a processing unit that executes a control method described in the present embodiment in accordance with a program. Although the number of CPUs in the drawing is one, a plurality of CPUs are also represented as a part of the CPU in this embodiment. The ROM 102 is a general-purpose ROM, and stores programs executed by the CPU 101, for example. The RAM 103 is a general-purpose RAM, and provides a memory for temporarily storing various types of information when the CPU 101 executes a program, for example. An HDD (hard disk) 104 is a storage medium for storing a still image file, a moving image file, a database that holds processing results such as image analysis, and the like. The ROM 102, RAM 103, and HDD 104 constitute a storage unit.

ディスプレイ105は、本実施形態のUI(ユーザインタフェース)や画像のレイアウト結果をユーザーに提示する装置であり、表示部を構成する。ディスプレイ105はタッチセンサー機能を備えても良い。キーボード106は、ディスプレイ105に表示されたUI上に、作成したいアルバムの見開き数等の入力をユーザーから受け付ける。ポインティングデバイス107はディスプレイ105上の座標を指示するためのデバイスであり、例えば、ディスプレイ105に表示されたUI上のボタンをクリックするために使用される。キーボード106、ポインティングデバイス107は入力部であり、ディスプレイ105とあわせてユーザインタフェースを構成する。   The display 105 is a device that presents a user interface (UI) and image layout results of the present embodiment to the user, and constitutes a display unit. The display 105 may have a touch sensor function. The keyboard 106 receives input from the user such as the number of spreads of the album to be created on the UI displayed on the display 105. The pointing device 107 is a device for designating coordinates on the display 105, and is used, for example, to click a button on the UI displayed on the display 105. A keyboard 106 and a pointing device 107 are input units and constitute a user interface together with the display 105.

データ通信部108は、自動レイアウトの対象となるデータをPCに接続された不図示のプリンタやサーバーに送信する。また、データ通信部108は、不図示のサーバーやSNS上の静止画や動画を受信する。データバス109は上記の各部とCPU101とを相互に通信可能に接続する。本実施形態におけるアルバム作成アプリケーションはHDD104に保存され、後述するようにユーザーがディスプレイ105に表示されているアプリケーションのアイコンをポインティングデバイス107によりダブルクリックして起動する。   The data communication unit 108 transmits data to be automatically laid out to a printer or server (not shown) connected to the PC. Further, the data communication unit 108 receives a still image or a moving image on a server (not shown) or SNS. The data bus 109 connects the above-described units and the CPU 101 so that they can communicate with each other. The album creating application in the present embodiment is stored in the HDD 104, and the user double-clicks the application icon displayed on the display 105 as will be described later, and is activated.

<自動レイアウト処理部>
図2は、アルバム作成アプリケーションの自動レイアウト処理部216に関するソフトウェアブロック図である。アルバム作成アプリケーションは様々な機能を持つが、本実施形態では、自動レイアウト処理部216により提供される自動レイアウト機能に関して説明する。自動レイアウト機能は、撮影された静止画や動画をその内容や属性に基づいて分類及び選択した画像データを予め用意されたテンプレートにレイアウトし、ディスプレイ105に表示するための機能である。
<Automatic layout processing section>
FIG. 2 is a software block diagram related to the automatic layout processing unit 216 of the album creation application. The album creating application has various functions. In the present embodiment, an automatic layout function provided by the automatic layout processing unit 216 will be described. The automatic layout function is a function for laying out photographed still images and moving images based on the contents and attributes of the still images and moving images in a template prepared in advance and displaying them on the display 105.

図2において、条件指定部201は、入力部、例えばポインティングデバイス107による後述のUI操作に応じたアルバム作成条件の指定を受付け、自動レイアウト処理部216に出力する。指定される条件には、例えば処理の対象となる画像データや主人公のID、アルバムの見開き数、テンプレート情報、画像補正のON/OFF条件、動画使用のON/OFF条件等の指定が含まれる。画像データの指定は、例えば、撮影日時など個別の画像データの付随情報や属性情報による指定であってもよいし、デバイスやディレクトリ(フォルダ)の指定など、画像データを含むファイルシステムの構造に基づく指定であってもよい。なお、見開きとは、例えば表示においては一つの表示用ウィンドウに相当し、印刷においては、異なるシート(又はページ)に印刷された、互いに隣接する1対のページに相当する。   In FIG. 2, the condition designation unit 201 accepts designation of album creation conditions in accordance with a UI operation described later by an input unit, for example, the pointing device 107, and outputs it to the automatic layout processing unit 216. The designated conditions include, for example, designation of image data to be processed, main character ID, number of album spreads, template information, ON / OFF conditions for image correction, ON / OFF conditions for using moving images, and the like. The designation of image data may be, for example, designation by accompanying information or attribute information of individual image data such as shooting date and time, or based on the structure of a file system including image data, such as designation of a device or directory (folder). It may be specified. Note that the spread is equivalent to one display window in display, and corresponds to a pair of adjacent pages printed on different sheets (or pages) in printing.

画像取得部202は、条件指定部201から指定された画像データ群をHDD104またはデータ通信部108を介してネットワーク上のサーバーやSNSから取得する。画像変換部203は、以降の処理に使う画像データを所望の画素数や色情報に変換する。本実施形態では、短辺の画素数として420画素を持ち、sRGBの色情報の解析画像データ(以下、解析画像データと呼ぶ)に変換する。画像解析部204は、解析画像データから後述の特徴量取得、顔検出、表情認識、個人認識等の処理を実行する。また、画像解析部204は、HDD104またはデータ通信部108を介してサーバーから取得した画像データに付随したデータ、例えばExif情報から撮影日時を取得する。撮影日時として、Exif情報からの取得に限らず、画像データを作成または更新した日時が用いられてもよい。また、サーバーやSNSに画像データをアップロードまたはサーバーやSNSから画像データをダウンロードした日時が用いられてもよい。これらの日時も、以下では撮影日時情報として取り扱う。   The image acquisition unit 202 acquires the image data group designated by the condition designation unit 201 from a server or SNS on the network via the HDD 104 or the data communication unit 108. The image conversion unit 203 converts image data used for subsequent processing into a desired number of pixels and color information. In the present embodiment, the number of pixels on the short side is 420 pixels, and converted into analysis image data (hereinafter referred to as analysis image data) of sRGB color information. The image analysis unit 204 executes processing such as feature amount acquisition, face detection, facial expression recognition, and personal recognition described later from the analysis image data. Further, the image analysis unit 204 acquires the shooting date and time from data attached to the image data acquired from the server via the HDD 104 or the data communication unit 108, for example, Exif information. The shooting date / time is not limited to the acquisition from the Exif information, and the date / time when the image data is created or updated may be used. The date and time when image data is uploaded to the server or SNS or image data is downloaded from the server or SNS may be used. These dates are also treated as shooting date information below.

画像分類部205は、画像データ群に対して、撮影日時情報や枚数、検出した顔情報を使って後述のシーン分割、シーン分類を実行する。シーンとは、「旅行」や「日常」、「結婚式」等の撮影シーンのことである。シーンとは、例えば、一時期の撮影機会に撮影された画像データの集まりであるともいえる。画像得点部207は、各画像データに対して、レイアウトに適した画像データが高得点になるように得点付けをする。後述するが、得点付けの際は、画像解析部204からの情報と、画像分類部205からの情報とが用いられる。また、他の情報を付加的に或いは代替的に用いるようにしてもよい。   The image classification unit 205 executes scene division and scene classification, which will be described later, on the image data group using the shooting date / time information, the number of images, and the detected face information. A scene is a shooting scene such as “travel”, “daily life”, or “wedding”. A scene can be said to be a collection of image data shot at a shooting opportunity for a period of time, for example. The image scoring unit 207 scores each image data so that image data suitable for the layout has a high score. As will be described later, when scoring, information from the image analysis unit 204 and information from the image classification unit 205 are used. Further, other information may be used additionally or alternatively.

主人公情報入力部206は、条件指定部201から入力された主人公のID(識別情報)を画像得点部207に入力する。画像得点部207は、主人公情報入力部206から入力された主人公IDが含まれる画像データについてより高い得点を付加するように構成されている。   The main character information input unit 206 inputs the main character ID (identification information) input from the condition specifying unit 201 to the image scoring unit 207. The image score unit 207 is configured to add a higher score to image data including the main character ID input from the main character information input unit 206.

見開き割当部209は、画像データ群を分割(グルーピング)して各見開きに割り当てる。見開き数入力部208は、条件指定部201から入力されたアルバムの見開き数を見開き割当部209に入力する。見開き割当部209は、入力された見開き数に応じて画像データ群を分割して、各見開きに画像データ群の一部(分割分)を割り当てる。画像選択部210は、見開き割当部209で各見開きに割り当てられた画像データ群の一部から、画像得点部207で付与された得点に基づいて選択する。   The spread assignment unit 209 divides (groups) the image data group and assigns it to each spread. The spread number input unit 208 inputs the number of spreads of the album input from the condition specifying unit 201 to the spread allocation unit 209. The spread allocation unit 209 divides the image data group according to the input spread number and allocates a part (divided portion) of the image data group to each spread. The image selection unit 210 selects a part of the image data group assigned to each spread by the spread allocation unit 209 based on the score given by the image scoring unit 207.

画像レイアウト部212は、画像データのレイアウトを決定する。テンプレート入力部211は、条件指定部201から入力されたテンプレート情報に応じた複数のテンプレートを画像レイアウト部212に入力する。画像レイアウト部212は、画像選択部210で選択された画像データに適したテンプレートを、テンプレート入力部211から入力された複数のテンプレートから選択し、画像データのレイアウトを決定する。レイアウト情報出力部215は、画像レイアウト部212が決定した画像データのレイアウトに従って、ディスプレイ105に表示する為のレイアウト情報を出力する。レイアウト情報は、例えば、選択されたテンプレートに画像選択部210により選択された画像データをレイアウトしたビットマップデータである。   The image layout unit 212 determines the layout of image data. The template input unit 211 inputs a plurality of templates corresponding to the template information input from the condition specifying unit 201 to the image layout unit 212. The image layout unit 212 selects a template suitable for the image data selected by the image selection unit 210 from a plurality of templates input from the template input unit 211, and determines the layout of the image data. The layout information output unit 215 outputs layout information to be displayed on the display 105 in accordance with the image data layout determined by the image layout unit 212. The layout information is, for example, bitmap data obtained by laying out the image data selected by the image selection unit 210 on the selected template.

画像補正部214は、覆い焼き補正(輝度補正)、赤目補正、コントラスト補正等の各補正処理を実行する。補正条件入力部213は、条件指定部201から入力された画像補正のON/OFF条件を画像補正部214に入力する。画像補正のON/OFFは、補正処理の種類ごとに指定されてもよいし、全ての種類についてまとめて指定されてもよい。画像補正部214は、画像補正条件がONの場合は、画像データに対して補正処理を実行し、画像補正条件がOFFの場合は、補正処理を実行しない。尚、画像補正部214は、画像変換部203から入力された画像データに対して、画像補正のON/OFFに従って補正処理を実行する。画像変換部203から画像補正部214に入力する画像データの画素数は、画像レイアウト部212で決定したレイアウトのサイズに合わせて変更可能である。レイアウト情報出力部215から出力される画像データは、例えば図3に示すような形式でディスプレイ105に表示される設定画面により設定される。   The image correction unit 214 executes correction processes such as dodging correction (luminance correction), red-eye correction, and contrast correction. The correction condition input unit 213 inputs the image correction ON / OFF condition input from the condition specifying unit 201 to the image correction unit 214. Image correction ON / OFF may be specified for each type of correction processing, or all types may be specified collectively. The image correction unit 214 executes correction processing on the image data when the image correction condition is ON, and does not execute correction processing when the image correction condition is OFF. Note that the image correction unit 214 performs correction processing on the image data input from the image conversion unit 203 in accordance with ON / OFF of image correction. The number of pixels of the image data input from the image conversion unit 203 to the image correction unit 214 can be changed according to the layout size determined by the image layout unit 212. The image data output from the layout information output unit 215 is set on a setting screen displayed on the display 105 in a format as shown in FIG. 3, for example.

<ユーザー操作>
本実施形態のアルバム作成アプリケーションが情報処理装置100にインストールされると、情報処理装置100上で動作するOS(オペレーティングシステム)のトップ画面(デスクトップ)上に起動アイコンが表示される。ユーザーがディスプレイ105に表示されているデスクトップ上の起動アイコンをポインティングデバイス107でダブルクリックすると、HDD104に保存されているアルバム作成アプリケーションのプログラムがRAM103にロードされる。そして、RAM103のプログラムがCPU101によって実行されて、アルバム作成アプリケーションが起動する。なお、プログラムは、ROM102に記憶されていてもよい。
<User operation>
When the album creation application of the present embodiment is installed in the information processing apparatus 100, a start icon is displayed on a top screen (desktop) of an OS (operating system) that runs on the information processing apparatus 100. When the user double-clicks on the desktop startup icon displayed on the display 105 with the pointing device 107, the album creation application program stored in the HDD 104 is loaded into the RAM 103. Then, the program in the RAM 103 is executed by the CPU 101, and the album creation application is activated. Note that the program may be stored in the ROM 102.

<表示例>
図3は、起動したアルバム作成アプリケーションが提供するUI構成画面301の一例を示す図である。UI構成画面301は、ディスプレイ105に表示される。ユーザーがUI構成画面301を介して、後述するアルバムの作成条件を設定することで、条件指定部201は、ユーザからの設定内容を取得する。UI構成画面301上のパスボックス302は、アルバム作成の対象となる画像データ群のHDD104中の保存場所(パス)を示す。フォルダ選択ボタン303は、ユーザーからのポインティングデバイス107でのクリックにより、アルバム作成の対象とする画像データ群を含むフォルダをツリー構成でユーザーが選択可能に表示する。そして、ユーザーにより選択された画像データ群を含むフォルダパスがパスボックス302に表示される。
<Display example>
FIG. 3 is a diagram illustrating an example of a UI configuration screen 301 provided by the activated album creation application. The UI configuration screen 301 is displayed on the display 105. When the user sets an album creation condition to be described later via the UI configuration screen 301, the condition designating unit 201 acquires the setting content from the user. A path box 302 on the UI configuration screen 301 indicates a storage location (path) in the HDD 104 of an image data group to be created as an album. A folder selection button 303 displays, in a tree configuration, a user including a folder including image data groups that are targets of album creation when the user clicks on the pointing device 107. Then, a folder path including the image data group selected by the user is displayed in the path box 302.

主人公指定アイコン304は、ユーザーが主人公を指定するためのアイコンであり、人物の顔画像がアイコンとして表示される。主人公指定アイコン304には、複数の異なる顔画像のアイコンが並んで表示され、ユーザーがポインティングデバイス107によりクリックして選択可能である。なお、それぞれの顔画像は個人IDと関連付けられている。また、主人公指定アイコン304は、解析対象の画像データが表わす画像に写った人物から中心人物である主人公を特定するために用いられる。顔画像は、例えば、予め画像データから検出され、個人IDと関連付けて顔データベースに登録されている。主人公指定アイコン304は、例えば顔データベースに登録された人物の顔画像のうち、ユーザーによって選択された人物の顔画像や後述の方法で決定された人物の顔画像である。なお、主人公は図4に示す手順で自動設定されることもできる。   The hero designation icon 304 is an icon for the user to designate the hero, and a person's face image is displayed as an icon. A plurality of different face image icons are displayed side by side on the main character designation icon 304, and can be selected by the user by clicking with the pointing device 107. Each face image is associated with a personal ID. The hero designation icon 304 is used to specify the hero who is the central person from the person shown in the image represented by the image data to be analyzed. For example, the face image is detected in advance from the image data and registered in the face database in association with the personal ID. The protagonist designation icon 304 is, for example, a face image of a person selected by a user or a face image of a person determined by a method described later among face images registered in the face database. The main character can be automatically set by the procedure shown in FIG.

見開き数ボックス305は、ユーザーからのアルバムの見開き数の設定を受け付ける。ユーザーは、キーボード106を介して見開き数ボックス305に直接数字を入力するか、ポインティングデバイス107を用いてリストから見開き数ボックスに数字を入力する。テンプレート指定アイコン306は、テンプレートのテイスト(ポップ調やシック調等)別にイラスト画像を表示する。テンプレート指定アイコン306には、複数のテンプレートアイコンが並んで表示され、ユーザーがポインティングデバイス107によってクリックして選択可能である。画像補正チェックボックス307は、ユーザーからの画像補正のON/OFFの設定を受け付ける。画像補正チェックボックス307にチェックが入った状態は画像補正ONが指定された状態であり、チェックが入っていない状態は画像補正OFFが指定された状態である。なお、UI構成画面301は全ての補正処理についてまとめてON/OFFが設定される構成であるが、個別の補正処理ごとにON/OFFを設定可能とするようにしても良い。   A spread number box 305 receives the setting of the number of spreads of the album from the user. The user inputs a number directly into the spread number box 305 through the keyboard 106 or inputs a number from the list into the spread number box using the pointing device 107. The template designation icon 306 displays an illustration image for each template taste (pop style, chic style, etc.). A plurality of template icons are displayed side by side on the template designation icon 306, and can be selected by the user by clicking with the pointing device 107. The image correction check box 307 accepts an image correction ON / OFF setting from the user. A state in which the image correction check box 307 is checked is a state in which image correction ON is designated, and a state in which the image correction check box 307 is not checked is a state in which image correction OFF is designated. The UI configuration screen 301 has a configuration in which ON / OFF is set for all correction processes at once, but ON / OFF may be set for each individual correction process.

ユーザーによりOKボタン308がポインティングデバイス107でクリックされると、条件指定部201は、UI構成画面301上で設定されている内容を取得する。そして、条件指定部201は、自動レイアウト処理部216に取得した設定情報を出力する。その際、パスボックス302に入力されているパスは、画像取得部202に伝えられる。また、主人公指定アイコン304で選択されている主人公の個人IDは、主人公情報入力部206に伝えられる。また、見開き数ボックス305に入力されている見開き数は、見開き数入力部208に伝えられる。また、テンプレート指定アイコン306で選択されているテンプレート情報は、テンプレート入力部211に伝えられる。また、画像補正チェックボックス307の画像補正のON/OFF設定は、補正条件入力部213に伝えられる。リセットボタン309は、UI構成画面301上の各設定情報をリセットするためのボタンである。   When the user clicks the OK button 308 with the pointing device 107, the condition specifying unit 201 acquires the content set on the UI configuration screen 301. Then, the condition specifying unit 201 outputs the acquired setting information to the automatic layout processing unit 216. At this time, the path input in the path box 302 is transmitted to the image acquisition unit 202. The personal ID of the hero selected by the hero designation icon 304 is transmitted to the hero information input unit 206. Further, the spread number input in the spread number box 305 is transmitted to the spread number input unit 208. Further, the template information selected by the template designation icon 306 is transmitted to the template input unit 211. Also, the image correction ON / OFF setting of the image correction check box 307 is transmitted to the correction condition input unit 213. A reset button 309 is a button for resetting each setting information on the UI configuration screen 301.

次に、動画と、サーバーやSNS上の画像の指定について詳細に説明する。UI構成画面301のサーバー名ボックス310は、アルバム作成の対象となる画像データ群を含むサーバー名やSNS名を示す。また、サーバー選択ボタン311は、アルバム作成の対象となる画像群を含むサーバー名やSNS名を、リスト構成でユーザーが選択可能に表示する。そして、ユーザーにより選択されたサーバー名やSNS名がサーバー名ボックス310に表示される。サーバー名ボックス310にサーバー名やSNS名が表示された状態で、OKボタン308がポインティングデバイス107でクリックされると、指定されたサーバーやSNSへのログイン画面が表示される。表示されたログイン画面を介したユーザーの操作により、指定されたサーバーやSNSへのログインが完了すると、CPU101は、指定されたサーバーやSNSからの画像データの取得が可能となる。   Next, the designation of a moving image and an image on a server or SNS will be described in detail. A server name box 310 on the UI configuration screen 301 indicates a server name or SNS name including an image data group for which an album is to be created. The server selection button 311 displays a server name and an SNS name including an image group for which an album is to be created in a list configuration so that the user can select it. Then, the server name or SNS name selected by the user is displayed in the server name box 310. When the OK button 308 is clicked with the pointing device 107 while the server name or SNS name is displayed in the server name box 310, a login screen for the designated server or SNS is displayed. When the login to the designated server or SNS is completed by the user's operation via the displayed login screen, the CPU 101 can acquire image data from the designated server or SNS.

動画使用チェックボックス312は、パスボックス302に指定のフォルダや、サーバー名ボックス310に指定のサーバーやSNS上にある動画をアルバム作成の対象にするか否かの設定をユーザーから受け付ける。動画使用チェックボックス312にチェックが入った状態はアルバム作成の対象にすることが指定された状態であり、チェックが入っていない状態はアルバム作成の対象にしないことが指定された状態である。   The moving image use check box 312 receives from the user a setting as to whether or not a folder specified in the path box 302 or a moving image on the server or SNS specified in the server name box 310 is an object of album creation. A state in which the use check box 312 is checked is a state in which the album creation target is specified, and a state in which the movie use check box 312 is not checked is a state in which the album creation target is not specified.

対象期間ボックス313は、アルバム作成の対象となる画像の撮影日時期間の設定をユーザーから受け付ける。また、対象期間ボックス313は、指定された撮影日時期間を表示する。対象期間ボックス313に撮影日時期間が表示された状態で、OKボタン308がポインティングデバイス107でクリックされると、指定された撮影日時期間に対応する画像データ群がアルバム作成対象となって抽出される。   The target period box 313 accepts the setting of the shooting date / time period of the image that is the target of album creation from the user. The target period box 313 displays the designated shooting date and time period. When the OK button 308 is clicked with the pointing device 107 while the shooting date / time period is displayed in the target period box 313, an image data group corresponding to the specified shooting date / time period is extracted as an album creation target. .

<自動レイアウト処理>
図4は、本実施形態におけるアルバム作成アプリケーションの自動レイアウト処理部216における処理の手順を示すフローチャートである。図4に示すフローチャートは、例えば、CPU101がHDD104やROM102に格納されたプログラムをRAM103に読み出して実行することにより実現される。図4を参照しながら、自動レイアウトの処理を以下説明する。
<Automatic layout processing>
FIG. 4 is a flowchart showing a processing procedure in the automatic layout processing unit 216 of the album creating application in the present embodiment. The flowchart shown in FIG. 4 is realized, for example, when the CPU 101 reads out a program stored in the HDD 104 or the ROM 102 to the RAM 103 and executes it. The automatic layout process will be described below with reference to FIG.

S401では、CPU101は、画像取得部202によって取得された画像データを画像変換部203により順次変換し、解析画像データを生成する。ここで、画像取得部202における画像の取得について図12を参照しながら説明する。   In step S <b> 401, the CPU 101 sequentially converts the image data acquired by the image acquisition unit 202 by the image conversion unit 203 to generate analysis image data. Here, image acquisition in the image acquisition unit 202 will be described with reference to FIG.

図12は、CPU101が、画像取得部202により、パスボックス302とサーバー名ボックス310に指定されたフォルダやサーバーやSNSから静止画と動画を取得する処理の手順を示すフローチャートである。図12に示すフローチャートは、例えば、CPU101がHDD104やROM102に格納されたプログラムをRAM103に読み出して実行することにより実現される。   FIG. 12 is a flowchart illustrating a procedure of processing in which the CPU 101 acquires a still image and a moving image from the folder, server, or SNS specified in the path box 302 and the server name box 310 by the image acquisition unit 202. The flowchart shown in FIG. 12 is realized, for example, when the CPU 101 reads out a program stored in the HDD 104 or the ROM 102 to the RAM 103 and executes it.

ユーザーによりOKボタン308がポインティングデバイス107でクリックされると、CPU101は、画像データの取得を開始する。尚、以下では、サーバーやSNSへのログインが完了されており、CPU101が画像データを取得することが可能となった状態からの処理を説明する。   When the user clicks the OK button 308 with the pointing device 107, the CPU 101 starts acquiring image data. In the following, processing from a state in which login to the server or SNS has been completed and the CPU 101 can acquire image data will be described.

S1201では、CPU101は、パスボックス302に設定されたフォルダを参照する。ここで、パスボックス302にフォルダの設定が行われていない場合にはS1206に進む。S1202では、CPU101は、指定フォルダ内の全ての選択対象静止画データを取得しているかを判定する。ここでは、選択対象静止画データとは、指定フォルダ内の全ての静止画データである。なお、対象期間ボックス313が撮影日時期間の設定を受け付けている場合は、設定された期間に生成された静止画データを選択対象静止画データとする。CPU101は、全ての選択対象静止画データを取得していないと判定された場合は、S1203に移行し、全ての選択対象静止画データを取得していると判定された場合は、S1204に移行する。S1203では、CPU101は、指定フォルダ内の未取得の選択対象静止画データを1つ取得する。S1203の後、CPU101は、図12に示す画像取得処理を終了し、図4の処理に戻る。   In step S1201, the CPU 101 refers to the folder set in the path box 302. If no folder is set in the path box 302, the process advances to step S1206. In step S1202, the CPU 101 determines whether all selection target still image data in the designated folder has been acquired. Here, the selection target still image data is all the still image data in the designated folder. When the target period box 313 accepts the setting of the shooting date and time period, the still image data generated during the set period is set as the selection target still image data. If it is determined that all the selection target still image data has not been acquired, the CPU 101 proceeds to S1203, and if it is determined that all the selection target still image data has been acquired, the CPU 101 proceeds to S1204. . In step S1203, the CPU 101 acquires one unacquired selection target still image data in the designated folder. After S1203, the CPU 101 ends the image acquisition process shown in FIG. 12, and returns to the process in FIG.

S1204では、CPU101は、指定フォルダ内の全ての選択対象動画データを取得しているかを判定する。ここでは、選択対象動画データとは、指定フォルダ内の全ての動画データである。なお、対象期間ボックス313が撮影日時期間の設定を受け付けている場合は、設定された期間に生成された動画データを選択対象動画データとする。CPU101は、全ての選択対象動画データを取得していないと判定された場合は、S1205に移行し、全ての選択対象動画データを取得していると判定された場合は、S1206に移行する。S1205では、CPU101は、指定フォルダ内の未取得の選択対象動画データを1つ取得する。なお、CPU101は、動画使用チェックボックス312にチェックが入っていない場合は、動画の選択を行わない。S1205の後、CPU101は、図12に示す画像取得処理を終了し、図4の処理に戻る。   In step S1204, the CPU 101 determines whether all selection target moving image data in the designated folder has been acquired. Here, the selection target moving image data is all the moving image data in the designated folder. When the target period box 313 accepts the setting of the shooting date and time period, the moving image data generated during the set period is set as the selection target moving image data. If it is determined that not all selection target moving image data has been acquired, the CPU 101 proceeds to S1205. If it is determined that all selection target moving image data has been acquired, the CPU 101 proceeds to S1206. In step S1205, the CPU 101 acquires one unacquired selection target moving image data in the designated folder. Note that the CPU 101 does not select a moving image when the moving image use check box 312 is not checked. After S1205, the CPU 101 ends the image acquisition process shown in FIG. 12, and returns to the process in FIG.

S1206では、CPU101は、サーバー名ボックス310に指定されたサーバーまたはSNSを参照する。ここで、サーバー名ボックス310がサーバーまたはSNSの設定を受け付けていない場合には、CPU101は、図12の画像取得処理を終了し、図4の処理に戻る。   In step S1206, the CPU 101 refers to the server or SNS specified in the server name box 310. If the server name box 310 has not accepted the server or SNS setting, the CPU 101 ends the image acquisition process of FIG. 12 and returns to the process of FIG.

S1207では、CPU101は、指定サーバーやSNS内の全ての選択対象静止画データを取得しているか否かを判定する。ここで、選択対象静止画データとは、指定サーバーやSNS内の全ての静止画データである。なお、対象期間ボックス313が撮影日時期間の設定を受け付けている場合は、設定された期間に生成された静止画データを選択対象静止画データとする。CPU101は、全ての選択対象静止画データを取得していないと判定された場合は、S1208に移行し、全ての選択対象静止画データを取得していると判定された場合は、S1209に移行する。S1208では、CPU101は、指定サーバーやSNS内の未取得の対象静止画データを1つ取得する。S1208の後、CPU101は、図12に示す画像取得処理を終了し、図4の処理に戻る。   In step S <b> 1207, the CPU 101 determines whether all selection target still image data in the designated server or SNS has been acquired. Here, the selection target still image data is all the still image data in the designated server or SNS. When the target period box 313 accepts the setting of the shooting date and time period, the still image data generated during the set period is set as the selection target still image data. If it is determined that not all selection target still image data has been acquired, the CPU 101 proceeds to S1208. If it is determined that all selection target still image data has been acquired, the CPU 101 proceeds to S1209. . In step S1208, the CPU 101 acquires one target image data that has not been acquired in the designated server or SNS. After S1208, the CPU 101 ends the image acquisition process shown in FIG. 12, and returns to the process in FIG.

S1209では、CPU101は、指定サーバーやSNS内の全ての選択対象動画データを取得しているか否かを判定する。ここで、選択対象動画データとは、指定サーバーやSNS内の全ての動画データである。また、対象期間ボックス313が撮影日時期間の設定を受け付けている場合は、設定された期間に生成された動画データを選択対象動画データとする。CPU101は、全ての選択対象動画データを取得していないと判定された場合は、S1210に移行し、全ての選択対象動画データを取得していると判定された場合は、図12に示す画像取得処理を終了し、図4の処理に戻る。S1210では、CPU101は、指定サーバーやSNS内の未取得の選択対象動画データを1つ取得する。S1210の後、CPU101は、図12に示す画像取得処理を終了し、図4の処理に戻る。   In step S <b> 1209, the CPU 101 determines whether all selection target moving image data in the designated server or SNS has been acquired. Here, the selection target moving image data is all moving image data in the designated server or SNS. Further, when the target period box 313 accepts the setting of the shooting date and time period, the moving picture data generated during the set period is set as the selection target moving picture data. If it is determined that not all selection target moving image data has been acquired, the CPU 101 proceeds to S1210. If it is determined that all selection target moving image data has been acquired, the image acquisition illustrated in FIG. The process ends, and the process returns to the process of FIG. In S1210, the CPU 101 acquires one selection target moving image data that has not been acquired in the designated server or SNS. After S1210, the CPU 101 ends the image acquisition process shown in FIG. 12, and returns to the process in FIG.

次に、画像変換部203における画像データの解析処理について説明する。まず、CPU101は、取得された静止画データの画素数と色情報を所望の画素数と色情報に変換して解析画像データを生成する。本実施形態では、CPU101は、短辺420画素のサイズとsRGBの色情報とを持つ解析画像データを生成する。取得された動画データについては、動画データ内からフレームを抽出し、当該フレームに対応する画像データを上記の解析画像データに変換する。ここで、動画データからのフレーム抽出について図11を参照しながら説明する。図11は、動画データからのフレーム抽出処理の手順を示すフローチャートである。図11に示すフローチャートは、例えば、CPU101がHDD104やROM102に格納されたプログラムをRAM103に読み出して実行することにより実現される。   Next, image data analysis processing in the image conversion unit 203 will be described. First, the CPU 101 generates analysis image data by converting the number of pixels and color information of the acquired still image data into a desired number of pixels and color information. In the present embodiment, the CPU 101 generates analysis image data having a size of 420 pixels on the short side and sRGB color information. For the acquired moving image data, a frame is extracted from the moving image data, and image data corresponding to the frame is converted into the analysis image data. Here, frame extraction from moving image data will be described with reference to FIG. FIG. 11 is a flowchart showing a procedure of frame extraction processing from moving image data. The flowchart shown in FIG. 11 is realized, for example, when the CPU 101 reads out a program stored in the HDD 104 or the ROM 102 to the RAM 103 and executes it.

S1101では、CPU101は、取得した動画データからフレームを抽出するタイミングを設定する。例えばCPU101は、1秒や5秒等の所定の秒毎にフレームを抽出するようにタイミングを設定する。なお、固定の枚数のフレームを抽出するためのタイミングが設定されても良い。例えば、1分の動画から30枚のフレームを抽出する場合は、2秒毎がフレームを抽出するタイミングとして設定される。なお、動画の撮影時間に対して抽出タイミングが指定されたテーブルによってタイミングが設定され、動画の撮影時間に応じて抽出フレーム枚数が変わるようにしてもよい。   In step S1101, the CPU 101 sets a timing for extracting a frame from the acquired moving image data. For example, the CPU 101 sets the timing so as to extract a frame every predetermined second such as 1 second or 5 seconds. Note that a timing for extracting a fixed number of frames may be set. For example, when 30 frames are extracted from a one-minute video, every 2 seconds is set as the timing for extracting the frames. Note that the timing may be set by a table in which the extraction timing is specified for the moving image shooting time, and the number of extracted frames may be changed according to the moving image shooting time.

S1102では、CPU101は、設定したタイミングで動画データから複数のフレームを抽出する。   In S1102, the CPU 101 extracts a plurality of frames from the moving image data at the set timing.

S1103では、CPU101は、抽出したフレームに識別情報を付加する。識別情報とは、例えば、指定フォルダや指定サーバー、SNS等、いずれの記憶部から動画データを取得したかの情報である。また、識別情報は、動画の撮影日時情報や抽出したフレームのサイズ、動画の撮影時間等でも良い。S1103の後、CPU101は、図11に示す動画からのフレーム抽出処理を終了する。なお、抽出されたフレームは、順次、画像変換部203により上記の解析画像データに変換される。   In S1103, the CPU 101 adds identification information to the extracted frame. The identification information is information about which moving image data has been acquired from, for example, a specified folder, a specified server, or an SNS. The identification information may be moving image shooting date / time information, extracted frame size, moving image shooting time, and the like. After S1103, the CPU 101 ends the frame extraction process from the moving image shown in FIG. Note that the extracted frames are sequentially converted into the analysis image data by the image conversion unit 203.

再び、図4を参照する。S402では、CPU101は、画像解析部204により解析画像データ(S401で取得・解析した画像データ)の画像情報を取得する。例えば、CPU101は、各解析画像データに付随するExif情報から撮影日時を取得する。解析画像データに撮影日時情報が付随していない場合は、前述したように、解析前の画像データの作成日時や更新日時、解析前の画像データのアップロードやダウンロードの日時が用いられても良い。また、CPU101は、解析画像データから特徴量を取得する。特徴量としては、例えば、ピントが挙げられる。ピントの特徴量を取得するためのエッジの検出方法としては、例えば、一般的なソーベルフィルタが用いられる。   Reference is again made to FIG. In step S <b> 402, the CPU 101 acquires image information of analysis image data (image data acquired / analyzed in step S <b> 401) using the image analysis unit 204. For example, the CPU 101 acquires the shooting date and time from Exif information attached to each analysis image data. When the analysis date / time information is not attached to the analysis image data, as described above, the creation date / update date / time of image data before analysis, and the date / time of upload / download of image data before analysis may be used. In addition, the CPU 101 acquires a feature amount from the analysis image data. Examples of the feature amount include focus. For example, a general Sobel filter is used as an edge detection method for acquiring a focus feature amount.

ソーベルフィルタでエッジ検出して、エッジの始点と終点の輝度差を始点と終点の距離で割ればエッジの傾き、すなわち輝度勾配が算出可能である。画像中のエッジの平均傾きを算出した結果から、平均傾きが大きい画像は、平均傾きが小さい画像よりもピントが合っているとみなすことができる。そして、傾きに対して異なる値の複数の閾値を設定すれば、どの閾値以上かを判定することにより、ピント量の評価値を出力可能である。   If the edge is detected by a Sobel filter and the luminance difference between the start point and the end point of the edge is divided by the distance between the start point and the end point, the inclination of the edge, that is, the luminance gradient can be calculated. From the result of calculating the average inclination of the edges in the image, an image with a large average inclination can be considered to be in focus than an image with a small average inclination. If a plurality of threshold values having different values with respect to the inclination are set, it is possible to output an evaluation value of the focus amount by determining which threshold value or more.

本実施形態では、異なる2つの閾値を予め設定しておき、○△×の3段階により、ピント量を判定する。閾値については、アルバムに採用したいピントの傾きが「○」、許容できるピントの傾きが「△」、許容できない傾きが「×」となるようにして、実験等により予め設定される。なお、閾値の設定は、例えば、アルバム作成アプリケーションの作成元等により提供されても良いし、ユーザインタフェース上で設定可能としても良い。   In the present embodiment, two different threshold values are set in advance, and the focus amount is determined in three stages of ◯ Δ ×. The threshold is set in advance by experiment or the like so that the focus inclination to be adopted for the album is “◯”, the allowable focus inclination is “Δ”, and the unacceptable inclination is “X”. Note that the threshold setting may be provided by, for example, the creator of the album creation application, or may be set on the user interface.

また、ピント量の別の算出方法として、ソーベルフィルタで検出したエッジに対して周辺画素を参照し、ピークとなる輝度の最大値と最小値の画素を特定し、この2つの画素間幅をピント量としてもよい。その場合、画素間幅が狭いとピントが合っていると考えることができる。また、画素間幅に対して、複数の閾値を設定し、「○」「△」「×」の3段階としてピント量を判別してもよい。   As another method of calculating the focus amount, the peripheral pixels are referenced with respect to the edge detected by the Sobel filter, the maximum and minimum pixels of the peak luminance are specified, and the width between the two pixels is determined. It may be the amount of focus. In this case, it can be considered that the focus is achieved when the inter-pixel width is narrow. Further, a plurality of threshold values may be set for the inter-pixel width, and the focus amount may be determined in three stages of “◯”, “Δ”, and “×”.

S403では、CPU101は、画像解析部204により顔検出を実施する。ここでは、S401で生成された解析画像データから顔検出が行われる。顔検出の処理には、公知の方法を用いることができ、例えば、複数用意した弱識別器から強識別器を作成するAdaboostが用いられる。本実施形態では、Adaboostにより作成した強識別器により人物(オブジェクト)の顔画像が検出される。CPU101は、顔画像を抽出すると共に、検出した顔画像の位置の左上座標値と右下座標値を取得する。この2種類の座標を持つことにより、CPU101は、顔画像の位置と顔画像のサイズを取得することが可能となる。なお、顔に限らず、犬や猫等の動物、花、食べ物、建物、置物等のオブジェクトを顔の代わりの検出対象としてAdaboostによって強識別器を作成しても良い。これにより、CPU101は、顔以外のオブジェクトを検出することが可能となる。   In step S <b> 403, the CPU 101 performs face detection by the image analysis unit 204. Here, face detection is performed from the analysis image data generated in S401. A known method can be used for the face detection process. For example, Adaboost is used to create a strong classifier from a plurality of weak classifiers. In this embodiment, a face image of a person (object) is detected by a strong classifier created by Adaboost. The CPU 101 extracts a face image and obtains an upper left coordinate value and a lower right coordinate value of the detected face image position. By having these two types of coordinates, the CPU 101 can acquire the position of the face image and the size of the face image. It should be noted that a strong classifier may be created by Adaboost using not only the face but also animals such as dogs and cats, flowers, food, buildings, figurines and the like as detection targets instead of faces. As a result, the CPU 101 can detect an object other than the face.

S404では、CPU101は、画像解析部204により個人認識を実施する。具体的には、CPU101は、S403で抽出した顔画像と、顔辞書データベースに個人ID毎に保存されている代表顔画像との類似性を比較することで個人認識を実施する。CPU101は、各代表顔画像と抽出した顔画像との類似性を判定し、類似性が閾値以上で最も類似性が高い代表顔画像のIDを、抽出した顔画像のIDとする。尚、顔辞書データベースに頬損されている全ての代表顔画像との類似性が閾値未満の場合は、CPU101は、抽出した顔画像を新規の個人IDとして顔辞書データベースに登録する。   In step S <b> 404, the CPU 101 performs personal recognition using the image analysis unit 204. Specifically, the CPU 101 performs personal recognition by comparing the similarity between the face image extracted in S403 and the representative face image stored for each personal ID in the face dictionary database. The CPU 101 determines the similarity between each representative face image and the extracted face image, and sets the ID of the representative face image having the highest similarity with the similarity equal to or greater than a threshold as the ID of the extracted face image. If the similarity with all representative face images damaged in the face dictionary database is less than the threshold value, the CPU 101 registers the extracted face image in the face dictionary database as a new personal ID.

S402からS404で取得された画像解析情報500は、各画像を識別するID501毎に区別されてRAM103やHDD104等の記憶領域に記憶される。例えば、図5に示すように、S402で取得された撮影日時情報502とピント判別結果503、S403で検出された顔画像の数504と位置情報505がテーブル形式で記憶される。尚、顔画像の位置情報は、S404で取得された個人ID毎に区別して記憶される。   The image analysis information 500 acquired in S402 to S404 is distinguished for each ID 501 for identifying each image and stored in a storage area such as the RAM 103 or the HDD 104. For example, as shown in FIG. 5, the shooting date / time information 502 and the focus determination result 503 acquired in S402, the number of face images 504 detected in S403, and the position information 505 are stored in a table format. The face image position information is stored separately for each personal ID acquired in S404.

S405では、CPU101は、条件指定部201で指定された画像データ群の全画像データに対してS401からS404の処理が終了したか否かを判定する。ここで、CPU101は、終了していないと判定された場合(No)は、S401〜S404の処理を施していない画像データについてS401からの処理を繰り返す。また、CPU101は、終了していると判定された場合(Yes)は、S406に移行する。   In step S <b> 405, the CPU 101 determines whether the processing in steps S <b> 401 to S <b> 404 has been completed for all image data in the image data group designated by the condition designation unit 201. Here, when it is determined that the processing has not ended (No), the CPU 101 repeats the processing from S401 for the image data that has not been subjected to the processing of S401 to S404. If the CPU 101 determines that the process has ended (Yes), the process proceeds to S406.

S406では、CPU101は、画像分類部205によりシーン分割を実施する。シーン分割とは、条件指定部201で指定された画像群の全画像を、シーン毎に分割して、複数の画像群として管理することを指す。具体的には、CPU101は、S402で取得済みの撮影日時情報から算出した画像と画像との時間差に基づいて、画像データ群を複数のシーンに分割する。本実施形態では、例えば、以下に示す方法によって、シーン分割を行う。まず、撮像日時が古い順においてN番目の撮像画像データの撮像日時と(N+1)番目の撮像画像データの撮像日時との差が1日以下であれば、以下の通りである。撮像日時が古い順においてN番目の撮像画像データの撮像日時と(N+1)番目の撮像画像データの撮像日時との差が16時間以上であれば、N番目の撮像画像データと(N+1)番目の撮像画像データとの間にグループの境界を設定する。また、撮像日時が古い順において隣接する撮像画像データ間で撮像日時の差が、どの撮像画像データ間であっても16時間未満であるとする。この場合、1日で撮像した撮像画像データ群において最初に撮像した撮像画像データの撮像日時と最後に撮像した撮像画像データの撮像日時との差が4時間未満であれば、該1日の撮像画像データ群を1つのグループとする。一方、該1日で撮像した撮像画像データ群において最初に撮像した撮像画像データの撮像日時と最後に撮像した撮像画像データの撮像日時との差が4時間以上であったとする。この場合、該1日で撮像した撮像画像データの数が50枚未満(1日で撮像した撮像画像の数が50未満)であれば、該1日の撮像画像データ群を1つのグループとする。このような撮像画像データのグループ分けの一例を図6(A)に示す。図6(A)〜(C)において横軸は撮像日時(左側に向かうほど古く、右側に向かうほど新しい)、縦軸は撮像画像データの数を示す。図6(A)では、撮像画像データ群をグループ601〜608の8個のグループに分割している。図6(A)において矢印はグループの境界を示している。なお、上記のシーン分割方法の説明において使用した撮像日時の差に対する閾値や撮像画像データの数に対する閾値は一例であり、これらの値に限るものではない。なお、分割後の画像群を分割画像群と呼び、1つのシーン毎に1つの分割画像群が設定される。   In step S <b> 406, the CPU 101 performs scene division by the image classification unit 205. The scene division means that all images of the image group designated by the condition designation unit 201 are divided for each scene and managed as a plurality of image groups. Specifically, the CPU 101 divides the image data group into a plurality of scenes based on the time difference between the images calculated from the shooting date / time information acquired in S402. In the present embodiment, for example, scene division is performed by the following method. First, if the difference between the imaging date / time of the N-th captured image data and the imaging date / time of the (N + 1) -th captured image data in the order of the imaging date / time is one day or less, the following is performed. If the difference between the imaging date / time of the N-th captured image data and the imaging date / time of the (N + 1) -th captured image data in the order of the imaging date / time is 16 hours or more, the N-th captured image data and the (N + 1) -th image data A group boundary is set between the captured image data. In addition, it is assumed that the difference in the imaging date / time between adjacent captured image data in the order of the imaging date / time is less than 16 hours between any captured image data. In this case, if the difference between the imaging date / time of the first captured image data and the imaging date / time of the last captured image data in the captured image data group captured in one day is less than 4 hours, the imaging of the day is performed. A group of image data is defined as one group. On the other hand, it is assumed that the difference between the imaging date / time of the first captured image data and the imaging date / time of the last captured image data in the group of captured image data captured in one day is 4 hours or more. In this case, if the number of captured image data captured in the day is less than 50 (the number of captured images captured in the day is less than 50), the captured image data group of the day is set as one group. . An example of such grouping of captured image data is shown in FIG. 6A to 6C, the horizontal axis indicates the imaging date and time (older toward the left side and newer toward the right side), and the vertical axis indicates the number of captured image data. In FIG. 6A, the captured image data group is divided into eight groups 601 to 608. In FIG. 6A, an arrow indicates a group boundary. Note that the thresholds for the difference in imaging date and time and the threshold for the number of captured image data used in the description of the above scene division method are examples, and are not limited to these values. The divided image group is called a divided image group, and one divided image group is set for each scene.

S407では、CPU101は、画像分類部205によりシーン分類を実施する。具体的には、CPU101は、S406でシーン分割された分割画像群をシーンの種類毎に得点化して、後述するシーン分類の信頼性が低い場合を除いて、一番得点が高いシーンに、当該分割画像群を分類する。なお、以下の説明において、S407における得点化をシーン分類得点化という。本実施形態では、シーンの種類として、「旅行」、「日常」、「セレモニー」があるものとし、分割画像群をこれらのシーンのいずれかに分類する例を説明する。なお、シーン分類得点化には、シーンの各種類に対応する特徴量の情報が格納されたシーン分類テーブルが利用される。   In step S <b> 407, the CPU 101 performs scene classification by the image classification unit 205. Specifically, the CPU 101 scores the divided image group obtained by dividing the scene in S406 for each type of scene, and the scene with the highest score is assigned to the scene with the highest score except when the reliability of scene classification described later is low. Classify divided image groups. In the following description, scoring in S407 is referred to as scene classification scoring. In the present embodiment, an example in which “travel”, “daily life”, and “ceremony” are assumed as types of scenes, and the divided image group is classified into one of these scenes will be described. For scene classification scoring, a scene classification table in which information on feature amounts corresponding to each type of scene is stored is used.

ここで、プログラムに予め格納される、シーン分類テーブルの作成方法について説明する。まず、「旅行」、「日常」、「セレモニー」のシーンに分類されると予め判定された複数の画像データ群が集められ、集められた画像データ群について、特徴量が取得される。ここで取得される特徴量の例は、例えば撮影期間、撮影枚数、撮影人数である。撮影期間は、各画像データ群において最初に撮影された画像から最後に撮影された画像までの撮影時間差である。撮影枚数は、各画像データ群の枚数である。撮影人数は、各画像データ群のうち、顔が写っている画像データにおける顔の平均数である。その結果、例えば、旅行シーンであると予め判定された複数の画像データから成る1画像データ群について、撮影期間、撮影枚数、撮影人数の特徴量が取得される。なお、特徴量は撮影期間、撮影枚数、撮影人数に限定されず、他の特徴量が用いられても良いし、その中のいずれかのみが用いられても良い。   Here, a method for creating a scene classification table stored in advance in the program will be described. First, a plurality of image data groups determined in advance as being classified as “travel”, “daily life”, and “ceremony” scenes are collected, and feature quantities are acquired for the collected image data groups. Examples of the feature amount acquired here are, for example, a shooting period, the number of shots, and the number of shots. The photographing period is a difference in photographing time from the first photographed image to the last photographed image in each image data group. The number of shots is the number of each image data group. The number of photographers is the average number of faces in image data in which each face is captured in each image data group. As a result, for example, for one image data group made up of a plurality of image data determined in advance as a travel scene, the shooting period, the number of shots, and the feature quantity of the number of shots are acquired. Note that the feature amount is not limited to the shooting period, the number of shots, and the number of shots, and other feature amounts may be used, or only one of them may be used.

そして、上記のような撮影期間、撮影枚数、撮影人数の特徴量の取得が、予め集められた他の画像データ群についても行われる。次に、シーン毎に集められた複数の画像データ群から取得された特徴量に基づいて、撮影期間の平均値と標準偏差、撮影枚数の平均値と標準偏差、1画像あたりの撮影人数の平均値と標準偏差とが求められる。このようにして求められた値と、シーンの各種類とが対応付けられることで、シーンの種類ごとの各平均値と標準偏差を示すシーン分類テーブルが作成される。   Then, the acquisition of the feature amount of the shooting period, the number of shots, and the number of shots as described above is also performed for other image data groups collected in advance. Next, based on feature values acquired from a plurality of image data groups collected for each scene, the average value and standard deviation of the shooting period, the average value and standard deviation of the number of shots, and the average number of shots per image Values and standard deviations are determined. By associating the value obtained in this way with each type of scene, a scene classification table indicating each average value and standard deviation for each type of scene is created.

本実施形態では、シーン分類テーブルとして、図7に示すテーブル700が利用されるものとする。テーブル700では、シーンID701に対応付けて、撮影期間702、撮影枚数703、撮影人数704それぞれの平均値と標準偏差とが登録されている。CPU101は、テーブル700をROM102やHDD104等の記憶領域にシーン分類処理前に予め記憶しておく。なお、テーブル700は、アルバム作成アプリケーションのプログラムに予め組み込まれていても良いし、アルバム作成アプリケーション外のプログラムに組み込まれていても良い。   In the present embodiment, it is assumed that a table 700 shown in FIG. 7 is used as the scene classification table. In the table 700, the average value and the standard deviation of the shooting period 702, the number of shots 703, and the number of shots 704 are registered in association with the scene ID 701. The CPU 101 stores the table 700 in advance in a storage area such as the ROM 102 or the HDD 104 before scene classification processing. The table 700 may be incorporated in advance in the album creation application program, or may be incorporated in a program outside the album creation application.

ここで、シーン分類得点化について説明する。アルバム作成アプリケーションが起動された後、ユーザーがパスボックス302やサーバー名ボックス310で指定した画像データ群がS406でシーン分割された各分割分に対して、CPU101は、撮影期間、撮影枚数、撮影人数の各特徴量の得点を算出する。CPU101は、各分割分の撮影期間、撮影枚数、撮影人数の得点、及びそれらの平均得点を、図7に示すシーン毎の平均値と標準偏差を用いて式(1)及び(2)より算出する。なお、下式における、所定の種類のシーンに対応する所定の特徴量の平均値および所定の種類のシーンに対応する所定の特徴量の標準偏差は、テーブル700に登録されている。また、特徴量は、撮影期間と撮影枚数、撮影人数の3つの特徴項目について取得される。そのため、特徴項目数は本例では3となる。   Here, scene classification scoring will be described. After the album creation application is activated, the CPU 101 performs the shooting period, the number of shots, the number of shots for each of the divided image data groups designated by the user in the pass box 302 or the server name box 310 in S406. The score of each feature amount is calculated. The CPU 101 calculates the shooting period for each division, the number of shots, the score of the number of photographers, and the average score thereof from equations (1) and (2) using the average value and standard deviation for each scene shown in FIG. To do. The average value of the predetermined feature amounts corresponding to the predetermined type of scene and the standard deviation of the predetermined feature amounts corresponding to the predetermined type of scene in the following equation are registered in the table 700. Also, the feature amount is acquired for three feature items of the shooting period, the number of shots, and the number of shots. Therefore, the number of feature items is 3 in this example.

まず、CPU101は、式(1)により、分割画像データ群の、シーンの各種類および各特徴量毎の得点を取得する。   First, the CPU 101 acquires a score for each type of scene and each feature amount of the divided image data group according to the equation (1).

分割画像データ群の、所定の種類のシーンに対応する所定の特徴量の得点=50−|10×(所定の種類のシーンに対応する所定の特徴量の平均値−分割画像データ群の所定の特徴量)/所定の種類のシーンに対応する所定の特徴量の標準偏差| ・・・(1)
これにより、例えば、分割画像データ群において、「旅行」シーンに対応する撮影期間、撮影枚数、撮影人数それぞれの得点が取得される。なお、CPU101は、「旅行」シーンだけでなく、他の各種類のシーンについても得点を取得する。
Score of a predetermined feature amount corresponding to a predetermined type of scene of a divided image data group = 50− | 10 × (average value of predetermined feature amounts corresponding to a predetermined type of scene−predetermined value of a divided image data group Feature amount) / standard deviation of a predetermined feature amount corresponding to a predetermined type of scene | (1)
Thereby, for example, in the divided image data group, the scores for the shooting period, the number of shots, and the number of shots corresponding to the “travel” scene are acquired. Note that the CPU 101 acquires scores not only for the “travel” scene but also for each of the other types of scenes.

次に、CPU101は、式(1)により求めた各得点を式(2)により平均化して、分割画像データ群の、各種類のシーンに関する得点を取得する。   Next, the CPU 101 averages each score obtained by the equation (1) by the equation (2), and obtains a score regarding each type of scene of the divided image data group.

分割画像データ群の、所定の種類のシーンに関する得点=(分割画像データ群の、所定の種類のシーンに対応する撮影期間の得点+撮影枚数の得点+撮影人数の得点)/特徴項目数 ・・・(2)
これにより、例えば、分割画像データ群において、「旅行」、「日常」、「セレモニー」の各種類のシーンに関する得点が取得される。なお、CPU101は、シーン分類得点化を、各分割画像データ群について行う。
Score for a predetermined type of scene of the divided image data group = (Score for the shooting period corresponding to the predetermined type of scene of the divided image data group + Score for the number of shots + Score for the number of shots) / Number of feature items (2)
Thereby, for example, in the divided image data group, scores relating to each type of scene of “travel”, “daily life”, and “ceremony” are acquired. The CPU 101 performs scene classification scoring for each divided image data group.

以上によって、各分割画像データ群について「旅行」、「日常」、「セレモニー」毎の得点が算出される。そして、CPU101は、後述する例外を除いて、得点が1位であるシーンをその分割画像データ群のシーンであると分類する。例えば、図6(A)のシーン分割された後のシーン5に対応する分割画像データ群5は、撮影期間が36時間、撮影枚数が300枚、撮影人数が1.7人であったとする。すると、分割画像データ群5において、「旅行」に関する得点は45.32、「日常」に関する得点は18.38、「セレモニー」に関する得点は−29.92となり、分割画像データ群5は最高得点のシーンである「旅行」に分類される。なお、いずれの分割画像データ群がいずれのシーンに分類されているか、は識別ができるようにシーンIDで管理される。   As described above, the score for each “travel”, “daily life”, and “ceremony” is calculated for each divided image data group. Then, the CPU 101 classifies the scene with the first score as the scene of the divided image data group, with the exception described later. For example, in the divided image data group 5 corresponding to the scene 5 after the scene division of FIG. 6A, the shooting period is 36 hours, the number of shots is 300, and the number of shots is 1.7. Then, in the divided image data group 5, the score for “travel” is 45.32, the score for “daily” is 18.38, the score for “ceremony” is −29.92, and the divided image data group 5 has the highest score. It is classified as a “travel” scene. Note that which divided image data group is classified into which scene is managed by a scene ID so that it can be identified.

尚、シーン分類する為の特徴量として、ここでは撮影期間、撮影枚数、撮影人数に着目したが、これに限るものではない。画像の明るさや人物・画像枚数等の特徴量を加えて分類精度を上げてもよい。また、シーンの種類はここで説明した「旅行」、「日常」、「セレモニー」に限らず、パーティーやスポーツ等の他のシーンであってもよい。他のシーンを含めたシーン分類を行う場合は、テーブル700の作成において、上記説明したのと同様にして、当該他のシーンの画像データ群を複数集めて、シーン分類の為の特徴量について、平均値と標準偏差を求めればよい。   Note that, as the feature amount for classifying the scene, here, the shooting period, the number of shots, and the number of shots are focused, but the present invention is not limited to this. Classification accuracy may be increased by adding feature quantities such as image brightness, person, and number of images. The type of scene is not limited to “travel”, “daily life”, and “ceremony” described here, but may be other scenes such as parties and sports. When performing scene classification including other scenes, in the creation of the table 700, a plurality of image data groups of the other scenes are collected in the same manner as described above, and feature quantities for scene classification are collected. What is necessary is just to obtain an average value and a standard deviation.

S408では、CPU101は、S406で分割された全分割画像データ群(本説明においては、図6(A)の分割されたそれぞれのシーンに対応した分割画像データ群)に対してS407のシーン分類が終了したか否かを判定する。CPU101は、終了していないと判定された場合(No)は、処理が済んでいない新たな分割画像データ群に着目してS407に戻る。また、CPU101は、終了していると判定された場合(Yes)は、S409に移行する。   In S408, the CPU 101 performs the scene classification in S407 on the entire divided image data group divided in S406 (in this description, the divided image data group corresponding to each divided scene in FIG. 6A). It is determined whether or not it has been completed. If it is determined that the processing has not ended (No), the CPU 101 pays attention to a new divided image data group that has not been processed, and returns to S407. If the CPU 101 determines that the process has ended (Yes), the process proceeds to S409.

S409では、CPU101は、画像得点部207により主人公設定を実行する。主人公設定はユーザーが指定した画像群に対して実行され、自動と手動の2種類の設定方法のいずれかにより行われる。CPU101は、S404で実行された個人認識の結果と、S406で実行されたシーン分割の結果とから、画像データ群に登場する各個人IDの回数、各シーンに登場する各個人IDの回数、各個人IDが登場するシーンの回数等を取得可能である。CPU101は、これらの情報に基づいて、ユーザー指定によらず自動で主人公を設定する。本実施形態では、CPU101は、ユーザーが指定した画像データ群がシーン毎に複数の分割画像データ群に分割されている場合は、複数のシーンでの登場回数が多い個人IDを主人公IDと設定する。また、CPU101は、画像データ群が単一シーンである場合は、単一シーンでの登場回数が多い個人IDを主人公IDと設定する。また、CPU101は、主人公指定アイコン304がユーザーによって指定されている場合は、主人公情報入力部206を介して指定されている個人IDを画像得点部207に伝える。ユーザーにより個人IDが指定されている場合は、上記のようにして自動設定された主人公IDは無視され、ユーザーにより指定された個人IDを主人公IDとして設定する。なお、この設定を手動設定と呼ぶ。   In step S <b> 409, the CPU 101 performs hero setting by the image score unit 207. The main character setting is executed for an image group designated by the user, and is performed by one of two types of setting methods, automatic and manual. The CPU 101 determines the number of individual IDs appearing in the image data group, the number of individual IDs appearing in each scene, and the number of individual IDs appearing in each scene from the result of the personal recognition executed in S404 and the result of the scene division executed in S406. The number of scenes in which the personal ID appears can be acquired. Based on these pieces of information, the CPU 101 automatically sets the main character regardless of user designation. In the present embodiment, when the image data group designated by the user is divided into a plurality of divided image data groups for each scene, the CPU 101 sets a personal ID having a large number of appearances in a plurality of scenes as the main character ID. . Further, when the image data group is a single scene, the CPU 101 sets a personal ID having a large number of appearances in a single scene as the main character ID. When the hero designation icon 304 is designated by the user, the CPU 101 notifies the image scoring unit 207 of the personal ID designated via the hero information input unit 206. When the personal ID is specified by the user, the main character ID automatically set as described above is ignored, and the personal ID specified by the user is set as the main character ID. This setting is called manual setting.

S410では、CPU101は、画像得点部207により画像得点化を実施する。S410における画像得点化とは、画像データ毎に後述の観点で評価した得点を付与する(スコアリング)ことであり、後述の、レイアウトに用いられる画像データの選択時に参照される。図10は、画像データのレイアウトに使うテンプレート群を示している。テンプレート群に含まれている複数のテンプレートのそれぞれが、各見開きに対応している。テンプレート1001は、1枚のテンプレートであり、メインスロット1002はメインスロットを示し、サブスロット1003と1004とはサブスロットを示す。メインスロット1002とは、テンプレート1001内でメインとなるスロット(画像をレイアウト(配置)する枠)であり、サブスロット1003と1004よりもサイズが大きい。なお、1枚のテンプレートには、それぞれ同一の種類のシーンに分類された画像データがレイアウトされても良いし、それぞれ異なる種類のシーンに分類された画像データがレイアウトされても良い。S410では、CPU101は、画像データが属する種類のシーンに対応するメインスロット用の得点とサブスロット用の得点の両方を画像データに付与する処理である、画像得点化を行う。   In S <b> 410, the CPU 101 performs image scoring by the image scoring unit 207. The image scoring in S410 is to assign a score evaluated from the viewpoint described later for each image data (scoring), and is referred to when selecting image data used for layout described later. FIG. 10 shows a group of templates used for image data layout. Each of the plurality of templates included in the template group corresponds to each spread. The template 1001 is a single template, the main slot 1002 indicates a main slot, and the sub slots 1003 and 1004 indicate sub slots. The main slot 1002 is a main slot (a frame for laying out (arranging) images) in the template 1001 and is larger in size than the sub slots 1003 and 1004. Note that image data classified into the same type of scene may be laid out in one template, or image data classified into different types of scenes may be laid out in one template. In S410, the CPU 101 performs image scoring, which is a process of assigning to the image data both the main slot score and the subslot score corresponding to the type of scene to which the image data belongs.

画像得点化においては、メインスロットとサブスロットとに採用されるべき画像の特徴量の情報がシーンの種類毎に格納されたスロット特徴テーブルが利用される。   In image scoring, a slot feature table is used in which information about image feature amounts to be used in main slots and sub slots is stored for each type of scene.

ここで、スロット特徴テーブルの作成方法について説明する。図8(A)は、メインスロットとサブスロットとに採用される画像データの特徴が、「旅行」、「日常」、「セレモニー」の各種類のシーン毎に纏められたテーブルである。まず、各種類のシーンに分類された画像データにおいて、メインスロットに採用されるべき画像特徴に適合すると判定された複数の画像データが集められる。また、サブスロットに採用されるべき画像特徴に適合すると判定された複数の画像データが集められる。すなわち、図8(A)に示す特徴に適合する画像データが集められる。そして、画像解析部204により、集められた各画像データにおける顔画像の数、顔画像の位置、顔画像のサイズ等の特徴量が抽出される。そして、抽出された特徴量の平均値と標準偏差とを、各シーン種類および各スロット種類(メインスロットとサブスロット)に対して求めることで、スロット特徴テーブルが作成される。なお、スロット特徴テーブルは、ROM102やHDD104等の記憶領域に、画像得点化前に予め記憶される。なお、スロット特徴テーブルは、アルバム作成アプリケーションのプログラムに予め組み込まれていても良いし、アルバム作成アプリケーション外のプログラムに組み込まれていても良い。   Here, a method for creating the slot feature table will be described. FIG. 8A is a table in which the characteristics of the image data employed in the main slot and subslot are summarized for each type of scene of “travel”, “daily life”, and “ceremony”. First, in the image data classified into each type of scene, a plurality of image data determined to be suitable for the image feature to be employed in the main slot is collected. In addition, a plurality of image data determined to match the image features to be employed in the subslot are collected. That is, image data matching the features shown in FIG. 8A is collected. Then, the image analysis unit 204 extracts feature quantities such as the number of face images, the position of the face image, and the size of the face image in each collected image data. Then, the slot feature table is created by obtaining the average value and standard deviation of the extracted feature values for each scene type and each slot type (main slot and subslot). The slot feature table is stored in advance in a storage area such as the ROM 102 or the HDD 104 before scoring an image. The slot feature table may be incorporated in advance in the album creation application program, or may be incorporated in a program outside the album creation application.

画像得点化においては、CPU101は、画像データを、下式を用いて、当該画像データが属する種類のシーンに対応するテンプレートのスロット毎に得点化する。なお、ユーザーが指定した画像データ群の各画像データがどの種類のシーンに属すかはS407のシーン分類の結果から知ることができる。また、下式における、所定の種類のシーン及び所定のスロットに対応する所定の特徴量の平均値および所定の種類のシーン及び所定のスロットに対応する所定の特徴量の標準偏差は、スロット特徴テーブルに登録されている。また、特徴量は、主人公IDの顔画像数、顔画像の位置、顔画像のサイズの3つの特徴項目について取得される。そのため、特徴項目数は本例では3となる。   In image scoring, the CPU 101 scores image data for each template slot corresponding to the type of scene to which the image data belongs, using the following equation. Note that the type of scene to which each image data of the image data group designated by the user belongs can be known from the result of the scene classification in S407. The average value of the predetermined feature amounts corresponding to the predetermined type scene and the predetermined slot and the standard deviation of the predetermined feature amount corresponding to the predetermined type scene and the predetermined slot in the following equation are the slot characteristic table. It is registered in. In addition, the feature amount is acquired for three feature items of the number of face images of the main character ID, the position of the face image, and the size of the face image. Therefore, the number of feature items is 3 in this example.

画像データの、所定のスロットに対応する所定の特徴量に関する得点=50−|10×(画像データが属する種類のシーン及び所定のスロットに対応する所定の特徴量の平均値−画像データの所定の特徴量)/画像データが属する種類のシーン及び所定のスロットに対応する所定の特徴量の標準偏差| ・・・(3)
これにより、例えば、「旅行」シーンに分類される画像データの、メインスロットに対応する「主人公IDの顔数」の得点が取得される。なお、CPU101は、メインスロットだけでなく、サブスロットに対応する特徴量についても得点を取得する。また、CPU101は、「主人公IDの顔画像数」だけでなく、「顔画像の位置」、「顔画像のサイズ」に対応する特徴量についても得点を取得する。
Score for a predetermined feature amount corresponding to a predetermined slot of image data = 50− | 10 × (average value of predetermined feature amounts corresponding to a kind of scene to which image data belongs and a predetermined slot−predetermined image data Feature amount) / standard deviation of a predetermined feature amount corresponding to a scene of a type to which image data belongs and a predetermined slot | (3)
Thereby, for example, the score of “the number of faces of the main character ID” corresponding to the main slot of the image data classified as the “travel” scene is acquired. Note that the CPU 101 acquires scores not only for the main slot but also for the feature amount corresponding to the subslot. Further, the CPU 101 acquires scores not only for “the number of face images of the main character ID” but also for the feature amounts corresponding to “the position of the face image” and “the size of the face image”.

次に、CPU101は、式(1)により求めた各得点を式(2)により平均化して、画像データの、所定のスロットに関する得点を取得する。   Next, the CPU 101 averages each score obtained by the equation (1) by the equation (2), and obtains a score relating to a predetermined slot of the image data.

画像データの所定のスロットに関する得点=(画像データが属する種類のシーン及び所定のスロットに対応する顔数の得点+顔位置の得点+顔サイズの得点)/特徴項目数・・・(4)
これにより、メインスロット用とサブスロット用の両方に関する得点化が画像データについて実行される。なお、CPU101は、画像得点化を、ユーザーが指定した画像データ群における各画像データについて行う。画像得点化によって付加された得点が後段のS417での画像選択処理における選択基準となる。上述のように、同じ画像データであっても、分類されるシーンによって選択基準は異なることになる。なお、アルバムに使う画像はピントが合っている方が好ましいので、図5に示すテーブルにおいてピントの特徴量が「○」である画像IDの画像に対しては所定の得点を加えるようにしてもよい。また、画素数が高い画像は、アルバムにレイアウトした際にジャギーが少ないので、画素数が高い画像に対しては所定の得点を加えるようにしてもよい。なお、図8(B)は、レイアウト得点化による得点結果の一例を示している。表800は、各画像ID801の画像に対して、メインスロットとサブスロットのそれぞれについて得点化がされた結果を示しており、各画像ID801の画像に対して得点802が登録されている。例えば、図8(B)では、画像ID1は、メインスロット用として20点が付与され、画像ID2は、メインスロット用として45点が付与されている。これは、つまり、メインスロット用としては、画像ID2の方がユーザーの判断基準により近いということを表している。
Score for a predetermined slot of image data = (Score of the type to which the image data belongs and the score for the number of faces corresponding to the predetermined slot + the score for the face position + the score for the face size) / number of feature items (4)
Thus, scoring for both the main slot and the subslot is performed on the image data. The CPU 101 performs image scoring on each image data in the image data group designated by the user. The score added by the image scoring becomes a selection criterion in the image selection process in S417 in the subsequent stage. As described above, even with the same image data, the selection criteria differ depending on the scene to be classified. Since it is preferable that the images used for the album are in focus, a predetermined score may be added to an image with an image ID whose focus feature is “◯” in the table shown in FIG. Good. In addition, since an image with a large number of pixels has less jaggy when laid out in an album, a predetermined score may be added to an image with a large number of pixels. FIG. 8B shows an example of a score result by layout scoring. The table 800 shows the result of scoring each of the main slot and subslot for each image ID 801, and a score 802 is registered for each image ID 801 image. For example, in FIG. 8B, image ID 1 is assigned 20 points for the main slot, and image ID 2 is assigned 45 points for the main slot. This means that for the main slot, the image ID 2 is closer to the user's criterion.

S411では、CPU101は、画像得点部207によりユーザー指定の画像データ群の全画像データに対してレイアウト得点化が終了したか否かを判定する。CPU101は、終了していないと判定された場合(No)は、未処理の次の画像について着目し、S410に戻る。CPU101は、終了していると判定された場合(Yes)は、S412に移行する。   In step S <b> 411, the CPU 101 determines whether layout scoring has been completed for all image data in the user-specified image data group by the image scoring unit 207. If it is determined that the processing has not ended (No), the CPU 101 focuses on the next unprocessed image and returns to S410. If the CPU 101 determines that the process has been completed (Yes), the process proceeds to S412.

本実施形態では、CPU101は、画像レイアウト部212により、複数のシーンのそれぞれに含まれる画像データを、複数のテンプレート(複数の見開き)のそれぞれにレイアウトする。そのため、複数のシーンの数と、複数のテンプレートの数(所定数の見開き数)が一致する必要がある。   In the present embodiment, the CPU 101 causes the image layout unit 212 to lay out image data included in each of a plurality of scenes in each of a plurality of templates (a plurality of spreads). For this reason, the number of scenes and the number of templates (a predetermined number of spreads) need to match.

そこで、S412では、CPU101は、見開き割当部209により、画像分類部205によるS406でのシーン分割の分割数が、見開き数入力部208から入力されるアルバムの見開き数と同じか否かを判定する。CPU101は、同じでないと判定された場合(No)は、S413に移行し、同じであると判定された場合(Yes)は、S416に移行する。例えば、CPU101は、図6(A)に示すようにシーン分割数が8であり、見開き数入力部208の入力数が8であればS416に移行する。   Therefore, in S412, the CPU 101 causes the spread allocation unit 209 to determine whether the number of scene divisions in S406 by the image classification unit 205 is the same as the number of spreads of the album input from the spread number input unit 208. . If the CPU 101 determines that they are not the same (No), it proceeds to S413, and if it is determined that they are the same (Yes), it proceeds to S416. For example, if the number of scene divisions is 8 and the number of inputs of the spread number input unit 208 is 8 as shown in FIG. 6A, the CPU 101 proceeds to S416.

S413では、CPU101は、見開き割当部209により、画像分類部205によるS406でのシーン分割の分割数が、見開き数入力部208から入力されるアルバムの見開き数より少ないか否かを判定する。CPU101は、少なくない(多い)と判定された場合(No)は、S415に移行し、少ないと判定された場合(Yes)は、S414に移行する。例えば、CPU101は、図6(A)に示すようにシーン分割数が8であり、見開き数入力部208の入力数が10であればS414に移行する。   In S <b> 413, the CPU 101 determines whether the spread allocation unit 209 determines that the number of scene divisions in S <b> 406 by the image classification unit 205 is smaller than the number of spreads of the album input from the spread number input unit 208. If the CPU 101 determines that the number is not small (large) (No), the process proceeds to S415. If the CPU 101 determines that the number is small (Yes), the process proceeds to S414. For example, if the number of scene divisions is 8 and the number of inputs of the spread number input unit 208 is 10 as shown in FIG. 6A, the CPU 101 proceeds to S414.

S414では、CPU101は、見開き割当部209によりサブシーン分割を実行する。サブシーン分割とは、シーン分割数<アルバムの見開き数の場合に、分割されたシーンを更に細分化することをいう。ここでは、図6(A)のようにシーン分割数が8であり、それに対して指定見開き数が10である場合について説明する。図6(B)は、図6(A)をサブシーン分割した結果である。ここでは、分割の間隔をより細かく設定し、分割画像群番号が2と3の間の矢印と、6と7の間の矢印の箇所で分割したことで、分割数を10にしている。   In S <b> 414, the CPU 101 executes sub-scene division by the spread allocation unit 209. The sub-scene division is to further subdivide the divided scene when the number of scene divisions <the number of album spreads. Here, a case where the number of scene divisions is 8 as shown in FIG. 6A and the designated spread number is 10 will be described. FIG. 6B shows the result of dividing the sub-scene of FIG. Here, the division interval is set more finely, and the number of divisions is set to 10 by dividing the divided image group number at an arrow between 2 and 3 and an arrow between 6 and 7.

分割の基準について説明する。図6(A)の分割の中で画像データ数が多い分割箇所を探す。ここでは、分割数を8から10に2箇所増やす為、画像データ数が多い2箇所を決める。即ち、再分割すべきシーンを、最も多くの画像データを含む分割画像データ群に対応するシーンから順に指定する。画像データ数が同数の分割画像データ群に対応するシーンについては、対応する分割画像データ群に含まれる画像データ間の撮影日時の差の最大値が大きい方のシーンを選択する。それでも選択できない場合には、例えばより早い時間に生成された画像データを含む分割画像データ群に対応するシーンを優先的に再分割してもよい。   The criteria for division will be described. In the division shown in FIG. 6A, a division portion having a large number of image data is searched. Here, in order to increase the number of divisions from 8 to 10, two locations with a large number of image data are determined. That is, the scene to be subdivided is specified in order from the scene corresponding to the divided image data group including the most image data. For the scenes corresponding to the divided image data groups having the same number of image data, the scene having the larger maximum value of the photographing date / time difference between the image data included in the corresponding divided image data group is selected. If selection is still not possible, for example, a scene corresponding to a divided image data group including image data generated at an earlier time may be pre-divided.

図6(A)では、対応する分割画像データ群に含まれる画像データの数が多いシーンは、多い方から順にシーン5、シーン1、シーン2である。シーン1と2は同じデータ数だが、シーン2の方が、対応する分割画像データ群において最初に生成された画像データから最後に生成された画像データの時間差が大きい為、シーン2を分割対象とする。即ち、図6(A)では、シーン5とシーン2をそれぞれ分割する。   In FIG. 6A, the scenes with the largest number of image data included in the corresponding divided image data group are scene 5, scene 1, and scene 2 in order from the largest. Although scenes 1 and 2 have the same number of data, scene 2 has a larger time difference between image data generated last from image data generated first in the corresponding divided image data group. To do. That is, in FIG. 6A, scene 5 and scene 2 are each divided.

まずシーン2の分割を説明する。シーン2には画像データ数の山が2つあり、この2つの山に含まれる画像データは、山ごとに撮影日が違う。そこで撮影日が切り替わる部分に対応する図6(B)の分割画像群番号2と3の間の太矢印の箇所で分割する。次にシーン5の分割を説明する。シーン5には画像データ数の山が3つあり、シーン2と同様に、この3つの山に含まれる画像データは、山ごとに撮影日が違う。シーン5では、撮影日が変わる箇所が2箇所あるが、この場合、分割後のデータ数差が小さくなるように、撮影日単位で分割する。即ち、ここでは図6(B)の分割画像群番号6と7の間の太矢印の箇所で分割する。   First, scene 2 division will be described. Scene 2 has two peaks of image data, and image data included in these two peaks has different shooting dates for each mountain. Therefore, the image is divided at the location indicated by the thick arrow between the divided image group numbers 2 and 3 in FIG. Next, the division of the scene 5 will be described. In scene 5, there are three peaks of image data. Like scene 2, the image data included in these three peaks has a different shooting date for each mountain. In scene 5, there are two places where the shooting date changes. In this case, the shooting date is divided in units of shooting days so that the difference in the number of data after division becomes small. That is, here, the image is divided at the location of the thick arrow between the divided image group numbers 6 and 7 in FIG.

以上により分割数すなわちシーン数を8から10にする。具体的にいえば、シーンの再分割では、選択したシーンに撮影日の異なる画像データが含まれていれば、撮影日の相違するそれぞれの画像データ群を新たなシーンとするよう分割される。そして、撮影日が3日以上にわたるならば、分割された各シーンに含まれる画像データの数の差が最小になり、且つ同一撮影日の画像が同一シーンに含まれるよう分割される。なお、ここでは撮影日の違う箇所で分割する例を説明したが、分割対象のシーンにおける画像データの撮影日が単一日であった場合は、単一日の中で撮影時刻の時間差が最大となる箇所で分割する。以上の手順によって見開き数にシーン数を一致させる。なお、分割により生成されたシーンについては、改めて分類してもよいし、分割前のシーンの分類を引き継いでもよい。   Thus, the number of divisions, that is, the number of scenes is changed from 8 to 10. Specifically, in the re-division of the scene, if the selected scene includes image data having different shooting dates, the image data groups having different shooting dates are divided into new scenes. If the shooting date exceeds three days, the difference in the number of image data included in each divided scene is minimized, and the images on the same shooting date are included in the same scene. Although an example of dividing at different locations on the shooting date has been described here, if the shooting date of the image data in the scene to be split is a single day, the time difference between shooting times is the largest within the single day. Divide at the point. The number of scenes is matched with the number of spreads by the above procedure. The scene generated by the division may be classified again, or the scene classification before the division may be taken over.

S415では、CPU101は、シーン統合を行う。シーン統合とは、シーン分割数>アルバムの見開き数の場合、分割されたシーンを統合することを表す。ここでは、図6(A)のようにシーン分割数が8であり、それに対して指定見開き数が6の場合を例として説明する。図6(C)は図6(A)をシーン統合した結果である。図6(c)の破線矢印の箇所の前後のシーンを統合したことで、分割数を6にしている。   In S415, the CPU 101 performs scene integration. The scene integration means that the divided scenes are integrated when the number of scene divisions> the number of album spreads. Here, a case where the number of scene divisions is 8 as shown in FIG. 6A and the designated spread number is 6 will be described as an example. FIG. 6C shows the result of scene integration of FIG. The number of divisions is set to 6 by integrating the scenes before and after the broken-line arrow in FIG.

統合の基準について説明する。まず、CPU101は、分割された各シーンの中で画像データ数が少ないシーンを検出する。ここでは、シーン数を8から6に減らす為、画像データ数が少ない2つのシーンを検出する。図6(A)では、対応する分割画像データ群に含まれる画像データの数が多いシーンは、少ない方から順にシーン8、3、7である。なお、シーン3と7は同じデータ数である。   Explain the integration criteria. First, the CPU 101 detects a scene with a small number of image data among the divided scenes. Here, in order to reduce the number of scenes from 8 to 6, two scenes with a small number of image data are detected. In FIG. 6A, scenes with the largest number of image data included in the corresponding divided image data group are scenes 8, 3, and 7 in order from the smallest. Scenes 3 and 7 have the same number of data.

次に、CPU101は、対応する分割画像データ群に含まれる画像データ数が最も少ないシーン8を統合対象とする。次に、シーン3とシーン7は、対応する分割画像データ群に含まれる画像データ数は同じであるので、いずれを統合対象とするか選択する。ここでは、シーン7に隣接するシーン8が統合対象であるので(シーン7とシーン8は統合されるため)、シーン3を統合対象とする。   Next, the CPU 101 sets the scene 8 having the smallest number of image data included in the corresponding divided image data group as an integration target. Next, since the scene 3 and the scene 7 have the same number of image data included in the corresponding divided image data group, which one is to be integrated is selected. Here, since the scene 8 adjacent to the scene 7 is the integration target (since the scene 7 and the scene 8 are integrated), the scene 3 is the integration target.

次に、CPU101は、統合対象のサブ画像データ群を、対応する分割画像データ群に含まれる画像データの撮影日時が前のシーンに統合するか、撮影日時が後のシーンに統合するかを決定する。このとき、CPU101は、統合対象のシーンと隣接する2つのシーンのうち、対応する分割画像データ群に含まれる画像データの撮影日時の時間差が小さい方のシーンを統合の相手とする。そのため、図6(A)では、シーン3について、それに隣接するシーン2、4のいずれかを統合の相手とする。ここで、シーン3とその前後のシーン2と4それぞれとの、対応する分割画像データ群に含まれる画像の撮影日時の時間差を比較すると、シーン3とシーン4との時間差の方が小さい。そのため、CPU101は、シーン3をシーン4に統合すると決定する。即ち、ここでは図6(C)の分割画像群番号3の破線矢印の箇所で統合する。   Next, the CPU 101 determines whether to integrate the sub image data group to be integrated into the previous scene with the shooting date and time of the image data included in the corresponding divided image data group or with the later scene. To do. At this time, the CPU 101 sets a scene having a smaller time difference in shooting date / time of image data included in the corresponding divided image data group as a partner of integration among two scenes adjacent to the scene to be integrated. Therefore, in FIG. 6A, for scene 3, any of scenes 2 and 4 adjacent to it is set as the integration partner. Here, when the time difference between the shooting dates and times of the images included in the corresponding divided image data group between the scene 3 and the preceding and following scenes 2 and 4 is compared, the time difference between the scene 3 and the scene 4 is smaller. Therefore, the CPU 101 determines that the scene 3 is integrated into the scene 4. That is, here, integration is performed at the location of the broken line arrow of the divided image group number 3 in FIG.

CPU101は、シーン8のように隣接するシーンが1つしかない場合には、唯一の隣接シーンを統合の相手とする。   When there is only one adjacent scene such as the scene 8, the CPU 101 sets the only adjacent scene as the integration partner.

こうして図6(C)の破線矢印の箇所の前後のシーンでシーン統合する。なお、シーン統合は、例えばシーンに含まれる画像ファイルを示す情報を、統合後のシーンに応じて更新することを含む。   In this way, the scenes are integrated in the scenes before and after the dotted arrow in FIG. The scene integration includes, for example, updating information indicating an image file included in the scene according to the integrated scene.

S416では、CPU101は、見開き割当部209により見開き割当を実行する。S412〜S415によって、シーン分割数と指定見開き数は同じになっている。CPU101は、撮影日時的に先頭の分割画像データ群から、見開きの先頭に順に割り当てる。   In S <b> 416, the CPU 101 executes spread allocation by the spread allocation unit 209. By S412 to S415, the number of scene divisions and the number of specified spreads are the same. The CPU 101 assigns in order from the top divided image data group in the shooting date and time to the top of the spread.

S417では、CPU101は、画像選択部210により画像選択を実行する。ここでは、ある見開きに割り当てられた分割画像データ群から画像データを4枚選択する例を、図9を参照しながら説明する。   In S <b> 417, the CPU 101 performs image selection by the image selection unit 210. Here, an example in which four pieces of image data are selected from a divided image data group assigned to a certain spread will be described with reference to FIG.

図9(A)は見開きに割り当てられた分割画像データ群のうち、撮影日時が一番早い画像データと一番遅い画像データとの撮影日時の時間差(分割撮影期間)を示している。なお、ここでは、画像データの選択を、メインスロット、サブスロットの順で行う。ここでは、見開きに対応するテンプレートには1枚のメインスロット1002が含まれるものとする。そのため、1枚目に選択される画像データは、メインスロット用の画像データである。CPU101は、メインスロット用の画像データとして、図9(B)に示す分割撮影期間に対応する画像データのうち、S410で付加したメインスロット用の得点が最高点の画像データ(1)を選択する。   FIG. 9A shows the time difference (divided shooting period) between the shooting date and time of the image data having the earliest shooting date and the image data having the latest shooting date among the divided image data groups assigned to the spread. Here, selection of image data is performed in the order of the main slot and the subslot. Here, it is assumed that one main slot 1002 is included in the template corresponding to the spread. Therefore, the image data selected for the first sheet is image data for the main slot. The CPU 101 selects the image data (1) having the highest score for the main slot added in S410 from the image data corresponding to the divided shooting period shown in FIG. 9B as the image data for the main slot. .

2枚目以降に選択される画像データは、サブスロット用の画像データである。2枚目以降の画像データの選択は分割撮影期間の一部に集中しないように、以下説明するような方法により行われる。まず、CPU101は、図9(C)に示すように、分割撮影期間を2分割する。次にCPU101は、図9(D)に示すように、1枚目の画像データが選ばれていない分割撮影期間(図中、実線で示している期間)に生成された画像データから2枚目の画像データを選択する。なお、2枚目の画像データとしては、1枚目の画像データが選ばれていない分割撮影期間に生成された画像データのうちサブスロット用の得点が最高点の画像データ(2)を選択する。次にCPU101は、図9(E)に示すように図9(D)に示す各分割撮影期間を2分割する。そして、CPU101は、図9(F)に示すように1枚目の画像データと2枚目の画像データがいずれも選ばれていない分割撮影期間(図中、実線で示している期間)に生成された画像データから3枚目の画像データを選択する。なお、3枚目の画像データとしては、1枚目の画像データと2枚目の画像データがいずれも選ばれていない分割撮影期間に生成された画像データのうちサブスロット用の得点が最高点の画像データ(3)を選択する。   The image data selected after the second image is image data for the subslot. The selection of the second and subsequent image data is performed by the method described below so as not to concentrate on a part of the divided shooting period. First, as shown in FIG. 9C, the CPU 101 divides the divided shooting period into two. Next, as shown in FIG. 9D, the CPU 101 selects the second image from the image data generated during the divided shooting period in which the first image data is not selected (the period indicated by the solid line in the figure). Select the image data. As the second image data, the image data (2) having the highest score for the subslot is selected from the image data generated during the divided shooting period in which the first image data is not selected. . Next, as shown in FIG. 9E, the CPU 101 divides each divided shooting period shown in FIG. 9D into two. Then, as shown in FIG. 9F, the CPU 101 generates the divided image capturing period (period shown by a solid line in the figure) in which neither the first image data nor the second image data is selected. The third image data is selected from the obtained image data. As the third image data, the score for the subslot is the highest among the image data generated during the divided shooting period in which neither the first image data nor the second image data is selected. Image data (3) is selected.

次に、画像データの選択対象の分割撮影期間に生成された画像が存在せず、当該分割撮影期間に生成された画像データからデータを選択できない例を4枚目の画像データの選択を例に説明する。ここで、図9(G)に示すように、まだ画像データが選ばれていない分割撮影期間(図中、斜線で示している期間)に生成された画像データは存在しないものとする。その場合、CPU101は、図9(H)に示すように各分割撮影期間を2分割する。次にCPU101は、図9(I)に示すように、期間内に生成された画像データがないと認識された分割撮影期間以外で、且つ未だ画像データが選ばれていない分割撮影期間(図中、実線で示している期間)に生成された画像から4枚目の画像データを選択する。なお、CPU101は、4枚目の画像データとしては、当該分割撮影期間に生成された画像データのうちサブスロット用の最高点の画像データ(4)を選択する。   Next, an example in which there is no image generated during the divided shooting period as the selection target of image data and data cannot be selected from the image data generated during the divided shooting period is taken as an example of selecting the fourth image data. explain. Here, as shown in FIG. 9G, it is assumed that there is no image data generated in a divided shooting period (period indicated by hatching in the figure) in which image data is not yet selected. In that case, the CPU 101 divides each divided shooting period into two as shown in FIG. Next, as shown in FIG. 9 (I), the CPU 101 divides the divided shooting period other than the divided shooting period in which it is recognized that there is no image data generated within the period and the image data is not yet selected (in the drawing). The fourth image data is selected from the images generated during the period indicated by the solid line. The CPU 101 selects the highest point image data (4) for the subslot from the image data generated during the divided photographing period as the fourth image data.

S418では、CPU101は、画像レイアウト部212により画像レイアウトを決定する。画像レイアウトの決定のために、選択した画像を基にしてテンプレートを選択する。   In S <b> 418, the CPU 101 determines the image layout by the image layout unit 212. In order to determine the image layout, a template is selected based on the selected image.

画像レイアウトの方法について説明する。まず、CPU101は、テンプレート入力部211に入力されたテンプレート群を、選択の候補として取得する。次に、CPU101は、その候補から、テンプレート内のメインスロットの位置が、S417で選択された画像データ群におけるメインスロット用画像データの位置に対応しているテンプレートを選択する。この判定は、例えば、テンプレート内のスロットの位置が、左上から右下へと時系列に沿って配置されることを前提として行われる。しかしながら、各スロットの位置と画像とを個別に対応付けるのは煩雑なので、例えば、テンプレートをメインスロットとサブスロットの位置に応じてグループ分けしておく。このとき、さらに画像の向きの方向(縦長、横長)に応じてさらにグループ分けしておいてもよい。そしてメインスロット用画像の時系列上の位置及び方向に応じてテンプレートを絞り込み、さらにサブスロットについても同様に絞り込む。このようにして、テンプレートの候補を絞り込み、最終的に採用するテンプレートを決定する。   An image layout method will be described. First, the CPU 101 acquires a template group input to the template input unit 211 as a selection candidate. Next, the CPU 101 selects, from the candidates, a template in which the position of the main slot in the template corresponds to the position of the main slot image data in the image data group selected in S417. For example, this determination is made on the assumption that the positions of the slots in the template are arranged in time series from the upper left to the lower right. However, since it is complicated to individually associate the position of each slot and the image, for example, the templates are grouped according to the positions of the main slot and the subslot. At this time, further grouping may be performed in accordance with the direction of the image orientation (vertically long or horizontally long). The template is narrowed down according to the position and direction of the main slot image in time series, and the subslots are similarly narrowed down. In this way, template candidates are narrowed down, and a template to be finally adopted is determined.

画像レイアウトの方法について詳しく説明する。ここでは、テンプレート入力部211に、指定のテンプレート情報に従って、ある見開きに対して図10の(A)〜(P)が入力された例を説明する。ここでは、入力されたテンプレートのスロット数は3と指定されているものとする。画像は、例えば図9の説明で選択した4枚の画像データのうち、最初に選択された3枚を用いる。選択されている画像データ3枚の画像の向きが縦方向か横方向かを撮影日時に対して並べると図9(J)のようであったとする。ここでは、画像データ1005がメインスロット用であり、画像データ1006と画像データ1007がサブスロット用である。すなわち、メインスロット用の画像データ1005は、撮影日時が一番新しく、且つ向きが縦方向である。本実施形態では、テンプレートの左上に撮影日時のより古い画像データがレイアウトされ、右下に撮影日時のより新しい画像データがレイアウトされる。そのため、選択されている画像データが図9(J)に示すような形態であった場合は、向きが縦方向であるスロットが一番右に位置するテンプレート、すなわち図10の(I)〜(L)のテンプレートが候補となる。そして、サブスロット用の古い方の画像データ1006の向きが縦方向で、新しい方の画像データ1007の向きが横方向であるので、テンプレート(J)が、選択された画像に最も適したテンプレートとして決定され、レイアウトが決まる。このように、S418では、どの画像をどのテンプレートのどのスロットにレイアウトするかが決定される。   The image layout method will be described in detail. Here, an example will be described in which (A) to (P) in FIG. 10 are input to the template input unit 211 for a certain spread according to the specified template information. Here, it is assumed that the number of slots of the input template is designated as 3. For example, the first three images selected from the four image data selected in the description of FIG. 9 are used as the images. Assume that the orientation of the three selected image data images is arranged in the vertical direction or the horizontal direction with respect to the shooting date and time as shown in FIG. Here, the image data 1005 is for the main slot, and the image data 1006 and the image data 1007 are for the subslot. That is, the image data 1005 for the main slot has the latest shooting date and time and the orientation is the vertical direction. In this embodiment, image data with an older shooting date and time is laid out in the upper left of the template, and image data with a newer shooting date and time is laid out in the lower right. Therefore, if the selected image data has a form as shown in FIG. 9J, the template whose orientation is vertical is located on the rightmost, that is, (I) to (I) in FIG. The template of L) is a candidate. Since the orientation of the old image data 1006 for the subslot is vertical and the orientation of the new image data 1007 is horizontal, the template (J) is the most suitable template for the selected image. The layout is determined. Thus, in S418, which image is laid out in which slot of which template is determined.

S419では、CPU101は、画像補正部214により画像補正を実行する。なお、CPU101は、補正条件入力部213から画像補正がONであることの設定が入力された場合に、画像補正を実行する。画像補正として、例えば、輝度補正、赤目補正、コントラスト補正が実行される。また、CPU101は、補正条件入力部213から画像補正がOFFであることの設定が入力された場合は、画像補正を実行しない。画像補正は、例えば、短辺1200画素で、sRGBの色空間に変換された画像データに対しても実行可能である。   In step S <b> 419, the CPU 101 performs image correction by the image correction unit 214. Note that the CPU 101 executes image correction when the setting that the image correction is ON is input from the correction condition input unit 213. As the image correction, for example, brightness correction, red-eye correction, and contrast correction are executed. The CPU 101 does not perform image correction when the setting that the image correction is OFF is input from the correction condition input unit 213. The image correction can be executed, for example, on image data converted into an sRGB color space with a short side of 1200 pixels.

S420では、CPU101は、レイアウト情報出力部215によりレイアウト情報を作成する。CPU101は、S418で決定されたテンプレートの各スロットに、S419の画像補正が実行された、各スロットに対応する画像データをレイアウトする。このとき、CPU101は、スロットのサイズ情報に合わせてレイアウトする画像を変倍又は等倍してレイアウトする。そして、CPU101は、テンプレートに画像をレイアウトしたビットマップデータを生成する。   In S <b> 420, the CPU 101 creates layout information by the layout information output unit 215. The CPU 101 lays out the image data corresponding to each slot for which the image correction of S419 has been executed in each slot of the template determined in S418. At this time, the CPU 101 lays out an image to be laid out according to the size information of the slot by scaling or equal magnification. Then, the CPU 101 generates bitmap data in which an image is laid out on a template.

S421では、CPU101は、S417〜S420が全ての見開きに対して終了したか否かを判定する。CPU101は、終了していないと判定された場合(No)は、S417に戻り、終了していると判定された場合(Yes)は、図4の自動レイアウト処理を終了する。   In S421, the CPU 101 determines whether or not S417 to S420 have been completed for all spreads. If the CPU 101 determines that it has not ended (No), it returns to S417, and if it is determined that it has ended (Yes), it ends the automatic layout processing of FIG.

上述のようにすることで、各シーンの画像データ群から自動で画像データを選択し、選択した画像データを見開きにレイアウトしてアルバムを自動作成することができる。   By doing as described above, it is possible to automatically select image data from the image data group of each scene, and automatically create an album by laying out the selected image data in a spread.

また、以上の手順では、1枚目の画像データの選択をメインスロット用の得点を使って行い、2枚目以降の画像データの選択をサブスロット用の得点を使って行う例で説明したが、これに限るものではない。メインスロットを複数持つテンプレートが予め用意されている場合は、メインスロット用の得点を使って複数枚の画像データの選択を行うようにしてもよい。   In the above procedure, the selection of the first image data is performed using the score for the main slot, and the selection of the second and subsequent image data is performed using the score for the subslot. However, it is not limited to this. When a template having a plurality of main slots is prepared in advance, a plurality of pieces of image data may be selected using a score for the main slot.

また、選択する画像データの枚数が4枚である形態を説明したが、これに限るものではない。異なるスロット数を持つ複数のテンプレートが予め用意されている場合には、4枚以外の枚数の画像データを選択してもよい。なお、S417で説明した分割撮影期間の分割数は、選択される画像データの枚数に応じて増減すればよい。   Further, although the mode in which the number of image data to be selected is four has been described, the present invention is not limited to this. When a plurality of templates having different numbers of slots are prepared in advance, image data of a number other than four may be selected. Note that the number of divisions in the divided shooting period described in S417 may be increased or decreased according to the number of selected image data.

また、テンプレートにレイアウトする画像データが3枚である形態を説明したが、これに限るものではない。異なるスロット数を持つ複数のテンプレートが予め用意されている場合には、3枚以外の枚数の画像データをレイアウトしてもよい。   Further, although the mode in which the image data to be laid out on the template is three has been described, the present invention is not limited to this. When a plurality of templates having different numbers of slots are prepared in advance, a number of image data other than three may be laid out.

上述では、シーン分類において、分割画像データ群毎に各種類のシーンに関する得点を算出し、得点が1番高いシーンに分割画像データ群を分類する形態を説明した。ここでは、シーン分類の例外処理について説明する。   In the above description, in the scene classification, the score for each type of scene is calculated for each divided image data group, and the divided image data group is classified into the scene with the highest score. Here, the scene classification exception process will be described.

本実施形態では、シーン分類後、分類されたシーン毎に異なる採点基準(図8(A))で画像データに得点を付与し、付与された得点に応じて画像データをメインスロットやサブスロットにレイアウトする。しかしながら、シーン分類において、分割画像データ群が、ユーザーの意図と異なるシーンに分類されることがある。その場合、上述したように画像データの採点基準はシーン毎に異なるため、分割画像データ群が適切なシーンに分類された場合のレイアウト結果と異なるレイアウト結果が出力される。結果として、ユーザーの満足度が低いレイアウト結果が出力される。そこで、本実施形態では、ユーザーの満足度が低いレイアウト結果が出力されることを抑制するための制御を実行する。なお、以下の説明において、分割画像データ群が適切なシーンに分類された場合のレイアウトと、分割画像データ群が上述の方法によるシーン分類により分類された場合のレイアウトとのユーザー満足度の近さを、レイアウト相性(親和性)と呼ぶ。   In the present embodiment, after the scene classification, a score is assigned to the image data with a different scoring standard (FIG. 8A) for each classified scene, and the image data is assigned to the main slot and subslot according to the given score. Layout. However, in the scene classification, the divided image data group may be classified into a scene different from the user's intention. In that case, as described above, the scoring criteria of the image data are different for each scene, so that a layout result different from the layout result when the divided image data group is classified into an appropriate scene is output. As a result, a layout result with low user satisfaction is output. Therefore, in the present embodiment, control for suppressing the output of a layout result with low user satisfaction is executed. In the following description, the degree of user satisfaction between the layout when the divided image data group is classified into an appropriate scene and the layout when the divided image data group is classified by scene classification according to the above-described method. Is called layout compatibility (affinity).

図13は、レイアウト相性を示すテーブル(以下、レイアウト相性テーブル)である。レイアウト相性テーブルにおいて、分割画像データ群が適切なシーンに分類された場合は、当然ユーザーの満足度が高いレイアウト結果が得られる為、レイアウト相性を「○」で示す。分割画像データ群が適切なシーンでないシーンに分類された(誤判定が生じた)場合、ユーザーの満足度が高いレイアウト結果が得られない。そのため、誤判定が生じた場合で且つ誤判定が生じた場合に得られるレイアウト結果のユーザー満足度が大きく落ちる場合は、レイアウト相性テーブルにおいて、レイアウト相性を「×」で示す。誤判定が生じてもユーザー満足度が大きく落ちない場合は、レイアウト相性を「△」で示す。   FIG. 13 is a table showing layout compatibility (hereinafter, layout compatibility table). In the layout compatibility table, when the divided image data group is classified into an appropriate scene, naturally, a layout result with high user satisfaction can be obtained. Therefore, the layout compatibility is indicated by “◯”. When the divided image data group is classified into a scene that is not an appropriate scene (an erroneous determination occurs), a layout result with high user satisfaction cannot be obtained. For this reason, in the case where an erroneous determination occurs and the user satisfaction of the layout result obtained when an erroneous determination occurs significantly, the layout compatibility is indicated by “x” in the layout compatibility table. If the user satisfaction does not decrease greatly even if an erroneous determination occurs, the layout compatibility is indicated by “Δ”.

例えば、実際のシーンは「旅行」である分割画像データ群が、シーン分類において「日常」と誤判定された場合を考える。実際のシーンが「旅行」の場合、人物と風景が一緒に写った画像データがメインスロットにレイアウトされるとユーザーの満足度が高くなる。しかしながら、上述のような誤判定が生じた場合は、図8(A)から分かるようにメインスロットとサブスロットの採点基準が逆になり、顔がアップで映っている画像データに高得点が付されてしまう。つまり、シーン分類の誤判定によって、実際のシーンは「旅行」であるのにかかわらず、風景があまり映っていない画像データがメインスロットにレイアウトされる可能性が高くなる。このような場合、ユーザーの満足度は大きく落ちることになる。そのため、レイアウト相性テーブルにおいて、実際のシーンが「旅行」である分割画像データ群のシーン分類結果が「日常」である場合のレイアウト相性は「×」で示されている。   For example, consider a case where a divided image data group in which the actual scene is “travel” is erroneously determined as “daily” in the scene classification. When the actual scene is “travel”, the user's satisfaction increases when the image data in which the person and the landscape are photographed are laid out in the main slot. However, if an erroneous determination such as that described above occurs, the scoring criteria for the main slot and subslot are reversed as can be seen from FIG. Will be. That is, due to an erroneous determination of the scene classification, there is a high possibility that image data that does not show much scenery is laid out in the main slot regardless of whether the actual scene is “travel”. In such a case, user satisfaction is greatly reduced. Therefore, in the layout compatibility table, the layout compatibility when the scene classification result of the divided image data group whose actual scene is “travel” is “daily” is indicated by “x”.

次に、実際のシーンは「日常」である分割画像データ群が、シーン分類において「旅行」と誤判定された場合を考える。実際のシーンが「日常」の場合、子供のアップや人の何気ない横顔が写っている画像データがメインスロットにレイアウトされるとユーザーの満足度が高くなる。しかしながら、上述のような誤判定が生じた場合も図8(A)から分かるようにメインスロットとサブスロットの採点基準が逆になり、人が小さく映っている画像データに高得点が付されてしまう。つまり、シーン分類の誤判定によって、実際のシーンは「日常」であるのにかかわらず、「日常」のシーンにおけるメインスロットの条件を満たさない画像データがメインスロットにレイアウトされる可能性が高くなる。このような場合、ユーザーの満足度は落ちることになる。しかしながら、「日常」のシーンで生成された画像データの中には、「日常」シーンでなく、「旅行」シーンにおけるメインスロットの条件を満たしているにもかかわらず、メインスロットにレイアウトされてもユーザーの満足度があまり低くならないものがある。例えば、公園や家の中の風景と共に子供が何気なく遊んでいる画像データがメインスロットにレイアウトされても、ユーザーの満足度が大きく低下するとは限らない。このようなことから、レイアウト相性テーブルにおいて、実際のシーンが「日常」である分割画像データ群のシーン分類結果が「旅行」である場合のレイアウト相性は「△」で示されている。   Next, consider a case where a divided image data group whose actual scene is “daily” is erroneously determined as “travel” in the scene classification. When the actual scene is “everyday”, the satisfaction of the user increases when image data showing an upside view of a child or a casual profile of a person is laid out in the main slot. However, even when an erroneous determination as described above occurs, as can be seen from FIG. 8A, the scoring criteria for the main slot and subslot are reversed, and a high score is assigned to image data in which a small person appears. End up. In other words, due to an erroneous determination of the scene classification, there is a high possibility that image data that does not satisfy the conditions of the main slot in the “daily” scene will be laid out in the main slot, even though the actual scene is “daily”. . In such a case, user satisfaction is reduced. However, some of the image data generated in the “daily” scene may be laid out in the main slot even though it satisfies the conditions of the main slot in the “travel” scene instead of the “daily” scene. Some users do n’t get much less satisfied. For example, even if image data that a child is playing casually with a landscape in a park or house is laid out in the main slot, the satisfaction level of the user is not necessarily greatly reduced. For this reason, in the layout compatibility table, the layout compatibility when the scene classification result of the divided image data group whose actual scene is “daily” is “travel” is indicated by “Δ”.

次にシーン分類結果の例を説明する。図14(A)は、実際のシーンが「旅行」であり、特徴量が、撮影期間が20時間、撮影枚数が75枚、撮影人数が1.7人である分割画像データ群の各種類のシーンに関する得点を示している。上述のような特徴量を持つ画像データ群のシーン種類別の得点は、「旅行」が36.13点、「日常」が36.69点、「セレモニー」が6.97点となる。よって、得点差は0.56点と小さいが、「日常」の得点が1位、「旅行」の得点が2位となってしまうため、最高点のシーンに分割画像データ群を分類すると、誤判定が生じることになる。   Next, an example of the scene classification result will be described. In FIG. 14A, the actual scene is “travel”, the feature amount is 20 hours for the shooting period, the number of shots is 75, and the number of shots is 1.7. Shows the score for the scene. The score for each scene type of the image data group having the above-described feature amount is 36.13 points for “travel”, 36.69 points for “daily”, and 6.97 points for “ceremony”. Therefore, although the score difference is as small as 0.56 points, the score for “daily life” is 1st and the score for “travel” is 2nd. Judgment will occur.

また、図14(B)は、実際のシーンが「旅行」であり、特徴量が、撮影期間が20時間、撮影枚数が120枚、撮影人数が1.7人である分割画像データ群の各種類のシーンに関する得点を示している。上述のような特徴量を持つ画像データ群のシーン種類別の得点は、「旅行」が36.77点、「日常」が34.39点、「セレモニー」が10.48点となる。よって、「旅行」の得点が1位、「日常」の得点が2位となり、最高点のシーンに分割画像データ群を分類すると、正確にシーン分類が行われる。ただし、本例では1位と2位の得点差は2.38であり、本例のように正確にシーン分類が行われる場合であっても、得点差が小さくなる場合もある。   Further, FIG. 14B shows each of the divided image data groups in which the actual scene is “travel”, the feature amount is 20 hours for the shooting period, the number of shots is 120, and the number of shots is 1.7. Shows the score for each type of scene. The score for each scene type of the image data group having the above-described feature amount is 36.77 points for “travel”, 34.39 points for “daily life”, and 10.48 points for “ceremony”. Therefore, the score of “travel” is 1st and the score of “daily” is 2nd. If the divided image data group is classified into the highest score scene, the scene classification is performed accurately. However, in this example, the score difference between the first place and the second place is 2.38, and even when scene classification is performed accurately as in this example, the score difference may be small.

なお、分割画像データ群において、それぞれの特徴量が、実際のシーンに対応する数値と大きく乖離することは少ないため、誤判定が生じている場合でも、実際のシーン(誤判定が生じている場合の得点が2位のシーン)の得点はある程度高くなる。すなわち、得点が1位のシーンと得点が2位のシーンの得点差が大きい場合に誤判定が起こることは少ない。そこで、本実施形態では、CPU101は、得点が1位のシーンと得点が2位のシーンの得点差が大きい場合には、シーン分類が適切に行われていると判定し、得点が1位のシーンに分割画像データ群を分類する。   It should be noted that in the divided image data group, each feature quantity is unlikely to greatly deviate from the numerical value corresponding to the actual scene, so even if an erroneous determination occurs, the actual scene (if an erroneous determination occurs) The score of the second scene is higher to some extent. That is, there is little possibility of erroneous determination when there is a large score difference between the scene with the highest score and the scene with the second highest score. Therefore, in the present embodiment, the CPU 101 determines that the scene classification is appropriately performed when the score difference between the scene with the first score and the scene with the second score is large, and the score is the first. The divided image data group is classified into scenes.

なお、上述とは逆に、得点が1位のシーンと2位のシーンとの得点差が小さい場合、誤判定の可能性が高くなる。つまり、シーン分類得点化の結果の信頼性が低くなる。また、得点が2位のシーンに対して1位のシーンのレイアウト相性が「×」である場合は、誤判定が生じているならば、ユーザーの満足度が大きく低下してしまう。そのため、シーン分類得点化の結果の信頼性が低く、且つ得点が2位のシーンに対して1位のシーンのレイアウト相性が「×」である場合は、ユーザーの満足度が大きく低下してしまう可能性が高いと言える。   Contrary to the above, if the score difference between the first-ranked scene and the second-ranked scene is small, the possibility of erroneous determination increases. That is, the reliability of the result of scene classification scoring is lowered. In addition, when the layout compatibility of the first-ranked scene is “x” with respect to the second-ranked scene, if a misjudgment occurs, the user's satisfaction level is greatly reduced. For this reason, if the reliability of the result of scene classification scoring is low and the layout compatibility of the first scene is “x” with respect to the second scene, the user's satisfaction is greatly reduced. It is highly possible.

そのため、本実施形態では、CPU101は、シーン分類得点化の結果の信頼性が低い場合は、得点が1位のシーンと2位のシーンとのレイアウト相性をそれぞれ判定する。そして、得点が2位のシーンに対して1位のシーンのレイアウト相性が「×」であり、得点が1位のシーンに対して2位のシーンのレイアウト相性が「△」である場合は、得点が2位のシーンに分割画像データ群を分類する。これにより、画像データの評価が間違っている可能性が高い場合に、レイアウト相性が「×」となることを回避することができるシーンに画像データを分類することができる。   For this reason, in this embodiment, when the reliability of the result of scene classification scoring is low, the CPU 101 determines the layout compatibility between the first-ranked scene and the second-ranked scene. If the layout compatibility of the first scene is “x” with respect to the scene with the second highest score, and the layout compatibility of the second scene with respect to the first score is “△”, The divided image data group is classified into a scene with the second highest score. Thereby, when there is a high possibility that the evaluation of the image data is wrong, it is possible to classify the image data into scenes that can avoid the layout compatibility from being “x”.

なお、得点が1位のシーンと得点が2位のシーンの得点差が大きいか否かの判定は、具体的には、例えば、得点が1位のシーンと得点が2位のシーンの得点差を閾値と比較することで行われる。なお、この閾値は、レイアウト結果に対するユーザーの満足度が高くなるように設定すればよく、任意に設定可能である。また、閾値を固定とするのではなく、例えば、得点が1位のシーンと得点が2位のシーンの組み合わせに応じて、閾値を変えてもよい。   It should be noted that the determination of whether or not there is a large score difference between the scene with the highest score and the scene with the second highest score is, for example, the difference in scores between the scene with the highest score and the scene with the second highest score. Is compared with a threshold. The threshold value may be set arbitrarily so that the user's satisfaction with the layout result is high. In addition, the threshold value may not be fixed, but the threshold value may be changed according to, for example, a combination of a scene with the highest score and a scene with the second highest score.

図15は、各ケースにおけるシーン分類結果を示すテーブルである。シーン分類結果を示すテーブルでは、各ケースにおける、シーン分類結果が設定されている。本実施形態では、CPU101は、シーン分類結果を示すテーブルに基づいて、シーン分類を行う。具体的には、まず、CPU101は、得点が1位のシーンと得点が2位のシーンの組み合わせとレイアウト得点化の信頼性から、分類対象の分割画像データ群がいずれのケースであるかを判定する。そして、CPU101は、当該判定したケースに対応するテーブル列に示されるシーン分類結果を参照して、分割画像データ群をシーン分類する。なお、各ケースにおけるシーン分類結果を示すテーブルは、CPU101は、テーブル700をROM102等の記憶領域にシーン分類処理前に予め記憶しておく。なお、テーブル700は、アルバム作成アプリケーションのプログラムに予め組み込まれていても良いし、アルバム作成アプリケーション外のプログラムに組み込まれていても良い。   FIG. 15 is a table showing scene classification results in each case. In the table showing the scene classification result, the scene classification result in each case is set. In the present embodiment, the CPU 101 performs scene classification based on a table indicating scene classification results. Specifically, first, the CPU 101 determines which case the divided image data group to be classified is based on the combination of the scene with the highest score and the scene with the second highest score and the reliability of the layout scoring. To do. Then, the CPU 101 refers to the scene classification result shown in the table row corresponding to the determined case, and classifies the divided image data group. It should be noted that the CPU 101 stores the table 700 indicating the scene classification result in each case in advance in the storage area such as the ROM 102 before the scene classification process. The table 700 may be incorporated in advance in the album creation application program, or may be incorporated in a program outside the album creation application.

CPU101は、得点が1位のシーンと2位のシーンとの得点差が大きい場合には、「得点差の評価結果」において「○」が設定されている列におけるシーン分類結果を参照する。また、CPU101は、得点が1位のシーンと2位のシーンとの得点差が小さい場合には、「得点差の評価結果」において「×」が設定されている列におけるシーン分類結果を参照する。   When the score difference between the first-ranked scene and the second-ranked scene is large, the CPU 101 refers to the scene classification result in the column where “◯” is set in the “score difference evaluation result”. Further, when the score difference between the first-ranked scene and the second-ranked scene is small, the CPU 101 refers to the scene classification result in the column where “x” is set in the “score difference evaluation result”. .

得点が1位のシーンとは異なるシーンに分割画像データ群を分類するケースを、ケースNo.4を例にして説明する。   The case where the divided image data group is classified into a scene different from the scene with the highest score is Case No. 4 will be described as an example.

ケースNo.4は、得点が1位のシーンが「旅行」であり、得点が2位のシーンが「セレモニー」であり、得点が1位のシーンと得点が2位のシーンとの得点差が小さいと評価されているケースである。また、分割画像データ群の実際のシーンが得点2位の「セレモニー」である場合、得点1位の「旅行」にシーン分類されると、レイアウト相性は「×」となる。よって、誤判定が生じていたことによりレイアウト相性が「×」となることを回避するために、ケースNo.4では、得点が1位のシーンとは別のシーンに分割画像データ群を分類することが望ましい。ここで、図13を参照すると、実際のシーンが「セレモニー」である場合に「セレモニー」に分類するとレイアウト相性は「○」であり、実際のシーンが「旅行」である場合に「セレモニー」に分類するとレイアウト相性は「△」である。すなわち、「セレモニー」に分類すれば、実際のシーンが「日常」でない限り、誤判定が生じていても、レイアウト相性が「×」となることを回避することができる。なお、ケースNo.4では、「日常」のシーンの得点が一番低いため、実際のシーンが「日常」である可能性は低い。よって、CPU101は、ケースNo.4では分割画像データ群を「セレモニー」に分類する。その結果、仮に誤判定が生じた場合でも、レイアウト相性「○」若しくは「△」となる可能性(レイアウト相性「×」となることを避けることができる可能性)が高くなり、最低限のユーザー満足度を確保することができる。   Case No. No.4, the scene with the highest score is "Travel", the scene with the second highest score is "Ceremony", and the score difference between the scene with the highest score and the scene with the second highest score is small This is the case. In addition, when the actual scene of the divided image data group is the “ceremony” with the second highest score, when the scene is classified into “travel” with the first highest score, the layout compatibility is “x”. Therefore, in order to avoid that the layout compatibility becomes “x” due to the erroneous determination, case no. 4, it is desirable to classify the divided image data group into a scene different from the scene with the highest score. Here, referring to FIG. 13, when the actual scene is “ceremony”, the layout compatibility is “◯” when it is classified as “ceremony”, and when the actual scene is “travel”, it is changed to “ceremony”. When classified, the layout compatibility is “Δ”. That is, by classifying as “ceremony”, it is possible to prevent the layout compatibility from being “x” even if an erroneous determination occurs, unless the actual scene is “daily”. Case No. In No. 4, since the score of the “daily” scene is the lowest, the possibility that the actual scene is “daily” is low. Therefore, the CPU 101 determines the case number. In 4, the divided image data group is classified as “ceremony”. As a result, even if a misjudgment occurs, the possibility of layout compatibility “○” or “△” (possibility of avoiding layout compatibility “x”) increases, and the minimum number of users Satisfaction can be ensured.

ケースNo.6もケースNo.4と同様に、得点2位のシーンに分類すれば、誤判定した場合でもレイアウト相性は「○」若しくは「△」となる。よって、ケースNo.6も、得点2位のシーンに分類する。   Case No. No. 6 is case no. As in the case of No. 4, if the scene is classified into the second highest score, the layout compatibility is “◯” or “Δ” even if it is erroneously determined. Therefore, Case No. 6 is also classified into a scene with the second highest score.

次に、得点が1位のシーンに分割画像データ群を分類するケースを、ケースNo.2を用いて説明する。   Next, the case where the divided image data group is classified into the scene with the highest score is Case No. 2 will be described.

ケースNo.2は、得点が1位のシーンは「旅行」であり、得点が2位のシーンは「日常」であり、得点が1位のシーンと得点が2位のシーンとの得点差が小さいと評価されているケースである。また、分割画像データ群の実際のシーンが「旅行」である場合、得点1位の「旅行」にシーン分類されると、レイアウト相性は「○」となる。実際のシーンが得点2位の「日常」である場合に得点1位の「旅行」にシーン分類すると、レイアウト相性テーブルが示すようにレイアウト相性は「△」である。すなわち、「旅行」に分類すれば、実際のシーンが「セレモニー」でない限り、誤判定が生じていても、レイアウト相性が「×」となることを回避することができる。なお、ケースNo.2では、「セレモニー」のシーンの得点が一番低いため、実際のシーンが「セレモニー」である可能性は低い。よって、CPU101は、ケースNo.2では分割画像データ群を「旅行」に分類する。その結果、仮に誤判定が生じた場合でも、レイアウト相性「○」若しくは「△」となる可能性(レイアウト相性「×」となることを避けることができる可能性)が高くなり、最低限のユーザー満足度を確保することができる。   Case No. 2, the scene with the highest score is “Travel”, the scene with the second highest score is “Daily”, and the score difference between the scene with the highest score and the scene with the second highest score is small This is the case. When the actual scene of the divided image data group is “travel”, the layout compatibility is “◯” when the scene is classified as “travel” with the highest score. If the actual scene is “daily” with a score of 2nd and the scene is classified as “travel” with the score of 1st, the layout compatibility is “Δ” as shown in the layout compatibility table. That is, by classifying as “travel”, it is possible to avoid the layout compatibility from being “x” even if an erroneous determination occurs unless the actual scene is “ceremony”. Case No. In 2, the score of the “ceremony” scene is the lowest, so the possibility that the actual scene is “ceremony” is low. Therefore, the CPU 101 determines the case number. In 2, the divided image data group is classified as “travel”. As a result, even if a misjudgment occurs, the possibility of layout compatibility “○” or “△” (possibility of avoiding layout compatibility “x”) increases, and the minimum number of users Satisfaction can be ensured.

ケースNo.8、10、12もケースNo.2と同様に、得点1位のシーンに分類すれば、誤判定した場合でもレイアウト相性は「○」若しくは「△」となる。よって、ケースNo.8、10、12も、得点1位のシーンに分類する。   Case No. 8, 10 and 12 are also case no. As in the case of No. 2, if the scene is classified into the scene with the highest score, the layout compatibility is “◯” or “Δ” even if it is erroneously determined. Therefore, Case No. 8, 10, and 12 are also classified into the scene with the highest score.

なお、図13に示すように、実際のシーンが何れであっても「セレモニー」に分類した場合、レイアウト相性は「△」または「○」である。そこで、「得点差の評価結果」が「×」(シーン分類得点化の結果の信頼性が低い)のケースであるケースNo.2、4、6、8、10、12に対して、シーン分類結果を全て「セレモニー」にしてもよい。   As shown in FIG. 13, when the actual scene is classified as “ceremony”, the layout compatibility is “Δ” or “◯”. Therefore, Case No. in which the “score difference evaluation result” is “×” (the reliability of the result of scene classification scoring is low). For 2, 4, 6, 8, 10, 12, all the scene classification results may be “ceremony”.

図16は、本実施形態におけるシーン分類処理の手順を示すフローチャートである。図16に示すフローチャートは、例えば、CPU101がHDD104やROM102に格納されたプログラムをRAM103に読み出して実行することにより実現される。なお、このフローチャートが示す処理は、図4のS407に対応する。   FIG. 16 is a flowchart showing the procedure of the scene classification process in this embodiment. The flowchart shown in FIG. 16 is realized, for example, when the CPU 101 reads out a program stored in the HDD 104 or the ROM 102 to the RAM 103 and executes it. Note that the processing shown in this flowchart corresponds to S407 in FIG.

S1601では、CPU101は、S406でシーン分割された画像データ群(分割画像データ群)のうち、シーン分類が完了していない画像データ群を取得する。   In S1601, the CPU 101 acquires an image data group in which scene classification is not completed from the image data group (divided image data group) divided in S406.

S1602では、CPU101は、シーン分類に用いる特徴項目を決定する。特徴項目とは、例えば、撮影期間、撮影枚数、撮影人数である。   In step S1602, the CPU 101 determines feature items used for scene classification. The feature items are, for example, a shooting period, the number of shots, and the number of shots.

S1603では、CPU101は、S1601で取得した画像データから、まだ取得していない特徴量を取得する。   In step S1603, the CPU 101 acquires a feature amount that has not yet been acquired from the image data acquired in step S1601.

S1604では、CPU101は、S1601で取得した画像データ群から、S1602で決定した全ての特徴量を取得したか否かを判定する。取得したと判定された場合は、S1605に移行し、取得していないと判定された場合は、S1603に戻ってまだ取得していない特徴量の取得を行う。S1605では、CPU101は、分類するシーンの種類を決定する。シーンの種類とは、例えば、「旅行」、「日常」、「セレモニー」である。   In step S1604, the CPU 101 determines whether all the feature values determined in step S1602 have been acquired from the image data group acquired in step S1601. If it is determined that it has been acquired, the process proceeds to S1605. If it is determined that it has not been acquired, the process returns to S1603 to acquire a feature quantity that has not yet been acquired. In step S1605, the CPU 101 determines the type of scene to be classified. Examples of the scene type include “travel”, “daily life”, and “ceremony”.

S1606では、CPU101は、S1601で取得した画像データ群について、S1604で取得した特徴量に基づき、まだ得点化を行っていない特徴項目の得点化を行う。   In S <b> 1606, the CPU 101 scores the feature items that have not yet been scored for the image data group acquired in S <b> 1601 based on the feature values acquired in S <b> 1604.

S1607では、CPU101は、S1601で取得した画像データ群について、1つの種類のシーンに対してS1602で決定した全ての特徴項目の得点化が終了したか否かを判定する。ここでは、例えば、撮影期間の得点、撮影枚数の得点、撮影人数の得点化が終了したか否かが判定される。終了したと判定された場合は、S1608に移行し、終了していないと判定された場合は、S1606に戻って、まだ得点化を行っていない特徴量に関して得点化を行う。   In step S1607, the CPU 101 determines whether scoring of all the feature items determined in step S1602 is completed for one type of scene for the image data group acquired in step S1601. Here, for example, it is determined whether scoring of the shooting period, scoring of the number of shots, and scoring of the number of shots have been completed. If it is determined that the process has been completed, the process proceeds to S1608. If it is determined that the process has not been completed, the process returns to S1606 to score the feature quantity that has not been scored yet.

S1608では、CPU101は、1つの種類のシーンに対して算出した特徴量の得点の平均得点を算出する。   In step S <b> 1608, the CPU 101 calculates an average score of feature amount scores calculated for one type of scene.

S1609では、CPU101は、S1605で決定した全ての種類のシーンに対して、特徴量の得点の平均得点の算出が終了したか否かを判定する。ここでは、例えば、「旅行」、「日常」、「セレモニー」の全種類のシーンに対して特徴量の得点の平均得点の算出が終了したか否かが判定される。CPU101は、終了したと判定された場合は、S1610に移行し、終了していないと判定された場合は、S1606に戻って、まだ得点化を行っていないシーンにおける得点化を行う。   In step S <b> 1609, the CPU 101 determines whether the calculation of the average score of feature amount scores has been completed for all types of scenes determined in step S <b> 1605. Here, for example, it is determined whether or not the calculation of the average score of the feature amount scores has been completed for all types of scenes of “travel”, “daily life”, and “ceremony”. If it is determined that the processing has ended, the CPU 101 proceeds to S1610. If it is determined that the processing has not ended, the CPU 101 returns to S1606 and performs scoring in a scene that has not yet been scored.

なお、CPU101は、上記の得点化を、S407の説明で示した方法と同様にして、シーン分類テーブルを用いて行う。   Note that the CPU 101 performs the above scoring using the scene classification table in the same manner as the method described in the description of S407.

S1610では、CPU101は、得点が1位と2位のシーンの種類(シーン分類の候補)を取得する。   In step S <b> 1610, the CPU 101 acquires the scene types (scene classification candidates) having the first and second highest scores.

S1611では、CPU101は、得点が1位と2位のシーンの種類の得点差と比較する閾値を設定する。ここで取得される閾値は、ROM102等に予め保存されている。なお、CPU101は、得点が1位と2位のシーンの種類に応じて取得する閾値を変えるようにしても良い。   In step S <b> 1611, the CPU 101 sets a threshold value to be compared with the score difference between the first and second scene types. The threshold value acquired here is stored in advance in the ROM 102 or the like. Note that the CPU 101 may change the threshold value to be acquired according to the types of scenes with the first and second scores.

S1612では、CPU101は、得点が1位と2位のシーンの種類の得点差を算出する。   In step S <b> 1612, the CPU 101 calculates a score difference between the first and second scene types.

S1613では、CPU101は、得点が1位と2位のシーンの種類の得点差とS1611で取得した閾値とを比較する。CPU101は、比較の結果、得点差が閾値以上であると判定された場合、S1614に移行し、得点差が閾値未満と判定された場合、S1615に移行する。   In S1613, the CPU 101 compares the score difference between the first and second scene types with the threshold value acquired in S1611. As a result of the comparison, the CPU 101 proceeds to S1614 when it is determined that the score difference is greater than or equal to the threshold value, and proceeds to S1615 when it is determined that the score difference is less than the threshold value.

S1614では、CPU101は、S1601で取得した分割画像データ群を得点が1位のシーンに分類する。S1614の後、CPU101は、S408に移行する。   In S <b> 1614, the CPU 101 classifies the divided image data group acquired in S <b> 1601 into the scene with the highest score. After S1614, the CPU 101 proceeds to S408.

S1615では、CPU101は、レイアウト相性テーブルを参照して、得点が1位と2位のシーンのレイアウト相性を判定する。CPU101は、実際のシーンが得点2位のシーンである分割画像データ群のシーン分類結果が得点1位のシーンである場合のレイアウト相性が「○」若しくは「△」となる場合は、S1614に移行する。一方、CPU101は、実際のシーンが得点2位のシーンである分割画像データ群のシーン分類結果が得点1位のシーンである場合のレイアウト相性が「×」となる場合は、S1616に移行する。   In step S <b> 1615, the CPU 101 refers to the layout compatibility table to determine the layout compatibility of the scenes with the first and second scores. If the layout compatibility when the scene classification result of the divided image data group in which the actual scene is the second highest score scene is the first highest score is “◯” or “Δ”, the CPU 101 proceeds to S1614. To do. On the other hand, if the layout compatibility when the scene classification result of the divided image data group in which the actual scene is the second highest score scene is the first highest score is “x”, the CPU 101 proceeds to S1616.

S1616では、CPU101は、S1601で取得した分割画像データ群を、得点が1位のシーンと異なるシーンの種類に分類する。このとき、分割画像データ群がどのシーンの種類に分類されるかは、分割画像データ群がいずれのケースに該当するかが判定されて、各ケースにおけるシーン分類結果を示すテーブルが参照されることにより決定される。   In S <b> 1616, the CPU 101 classifies the divided image data group acquired in S <b> 1601 into a different scene type from the scene with the highest score. At this time, the type of scene into which the divided image data group is classified is determined to which case the divided image data group corresponds, and a table indicating the scene classification result in each case is referred to Determined by.

以上のように、本実施形態によれば、シーン分類処理において、ユーザー満足度が低いレイアウト結果が出力されるようにシーン分類されてしまうことを抑制することができる。   As described above, according to the present embodiment, in the scene classification process, it is possible to suppress scene classification so that a layout result with low user satisfaction is output.

[第2の実施形態]
第1の実施形態では、シーン分類得点化の結果の信頼性が低い場合に、得点1位のシーンと得点2位のシーンの組み合わせに応じて決定されるシーンに分割画像データ群を分類する例を説明した。本実施形態では、シーン分類得点化の結果の信頼性が低い場合に、「共通」のシーンに分割画像データ群を分類する例を説明する。なお、第1実施形態と同様の構成については、説明を省略する。
[Second Embodiment]
In the first embodiment, when the reliability of the result of scene classification scoring is low, an example of classifying divided image data groups into scenes determined according to the combination of the scene with the first score and the scene with the second score Explained. In the present embodiment, an example will be described in which divided image data groups are classified into “common” scenes when the reliability of the result of scene classification scoring is low. The description of the same configuration as that of the first embodiment is omitted.

図17(A)は、本実施形態において利用される、各種類のシーンに対応したテンプレートのメインスロットとサブスロットとに採用される画像データの特徴を纏めたテーブルである。「旅行」、「日常」、「セレモニー」の何れのシーンにおいても、複数の人が一緒にいる状態が記念に撮影されるケースは多い。こうして撮影された画像データ(記念撮影画像データ)は、記念として残したいというユーザーの意図のもと撮影されることが多いため、何れのシーンに対応したテンプレートのメインスロットにレイアウトされてもユーザーの満足度が大きく低下することはない。また、記念撮影画像データは、周辺の状況も含めて撮影されることが多い為、人がアップとなる画像データであるケースは少ない。そこで、本実施形態では、シーンの種類として「共通」シーンを追加する。そして、複数の人が含まれ、且つ人がアップではないことを、「共通」シーンのメインスロットに採用される画像データの特徴とする。また、「旅行」、「日常」、「セレモニー」の何れのシーンにおいても人がアップとなる画像データや人の横顔の画像データが撮影されるケースがある。このとき、1つのテンプレートに記念撮影データの画像特徴を有する画像データばかりをレイアウトすると、変化のない単調なレイアウト結果となってしまう。そこで、「共通」シーンのサブスロットに採用される画像データの特徴を、人がアップとなっていることや人の横顔が映っていることとする。なお、「共通」のメインスロットとサブスロットとに採用される画像データの特徴は上述の例に限られず、何れのシーンにおいてもユーザーの満足度が大きく低下することがない任意の特徴を設定しても良い。   FIG. 17A is a table that summarizes the characteristics of the image data employed in the main slot and subslot of the template corresponding to each type of scene, which is used in the present embodiment. In any of the “travel”, “daily”, and “ceremony” scenes, there are many cases where a state where a plurality of people are together is photographed in commemoration. The image data (commemorative image data) taken in this way is often taken with the user's intention to leave it as a memorial. Therefore, even if the image data is laid out in the main slot of the template corresponding to any scene, Satisfaction is not greatly reduced. In addition, since commemorative photographed image data is often photographed including the surrounding situation, there are few cases where the photographed image data is a human image. Therefore, in this embodiment, a “common” scene is added as a scene type. The feature of the image data employed in the main slot of the “common” scene is that a plurality of people are included and the people are not up. Further, in any of the “travel”, “daily”, and “ceremony” scenes, there are cases in which image data of a person up or image data of a person's profile is captured. At this time, if only the image data having the image feature of the commemorative photograph data is laid out in one template, a monotonous layout result without change is obtained. Therefore, the characteristics of the image data adopted for the sub-slot of the “common” scene are that the person is up and that the person's profile is reflected. Note that the characteristics of the image data adopted for the “common” main slot and sub-slot are not limited to the above example, and arbitrary characteristics that do not greatly reduce the user satisfaction in any scene are set. May be.

本実施形態では、各ケースにおけるシーン分類結果を示すテーブルとして、図17(B)に示すテーブルが利用される。CPU101は、図17(B)に示すテーブルをROM102等の記憶領域にシーン分類処理前に予め記憶しておく。なお、図17(B)に示すテーブルは、アルバム作成アプリケーションのプログラムに予め組み込まれていても良いし、アルバム作成アプリケーション外のプログラムに組み込まれていても良い。   In the present embodiment, the table shown in FIG. 17B is used as a table indicating the scene classification result in each case. The CPU 101 stores the table shown in FIG. 17B in advance in a storage area such as the ROM 102 before scene classification processing. Note that the table shown in FIG. 17B may be incorporated in advance in the album creation application program, or may be incorporated in a program outside the album creation application.

次に、本実施形態において実行されるシーン分類処理について説明する。本実施形態においては、図18に示すフローチャートが実行される。また、図18に示すフローチャートは、例えば、CPU101がHDD104やROM102に格納されたプログラムをRAM103に読み出して実行することにより実現される。なお、このフローチャートが示す処理は、図4のS407に対応する。図4のS407以前の処理は、第1実施形態と同様である。また、S1801〜S1815の処理については、S1601〜S1615の処理と同様のため説明を省略する。また、S1806における、分割画像データ群の得点化は、第1の実施形態と同様に、「旅行」、「日常」、「セレモニー」に対して行われる。但し、「共通」のシーンに対する得点は算出されない。   Next, the scene classification process executed in this embodiment will be described. In the present embodiment, the flowchart shown in FIG. 18 is executed. The flowchart shown in FIG. 18 is realized, for example, when the CPU 101 reads out a program stored in the HDD 104 or the ROM 102 to the RAM 103 and executes it. Note that the processing shown in this flowchart corresponds to S407 in FIG. The processes before S407 in FIG. 4 are the same as those in the first embodiment. Further, the processing of S1801 to S1815 is the same as the processing of S1601 to S1615, and thus the description thereof is omitted. Further, in S1806, the score of the divided image data group is assigned to “travel”, “daily life”, and “ceremony” as in the first embodiment. However, the score for the “common” scene is not calculated.

S1813では、CPU101は、得点が1位と2位のシーンの種類の得点差とS1811で取得した閾値とを比較する。CPU101は、比較の結果、得点差が閾値以上であると判定された場合、S1814に移行し、S1801で取得した分割画像データ群を得点が1位のシーンに分類する。また、CPU101は、得点差が閾値未満と判定された場合、S1815に移行する。   In S1813, the CPU 101 compares the score difference between the first and second scene types with the threshold acquired in S1811. If the CPU 101 determines that the score difference is equal to or greater than the threshold value as a result of the comparison, the CPU 101 proceeds to S1814 and classifies the divided image data group acquired in S1801 into the scene with the highest score. If the CPU 101 determines that the score difference is less than the threshold value, the CPU 101 proceeds to S1815.

S1815では、CPU101は、S1801で取得した分割画像データ群を、「共通」シーンに分類する。シーン分類結果が「共通」となったシーンに対しては、図4のS410において、図17(A)に示す画像特徴の画像の得点が高くなるように得点化する。なお、スロット特徴テーブルに設定される、「共通」シーンに対応するテンプレートの各スロットの特徴量の平均値と標準偏差は、「旅行」、「日常」、「セレモニー」と同様にして行われる。すなわち、まず、各種類のシーンに分類された画像データのうち、メインスロットに採用されるべき画像データの特徴に適合すると判定された複数の画像データが集められる。また、サブスロットに採用されるべき画像特徴に適合すると判定された複数の画像データが集められる。すなわち、図17(A)に示す特徴に適合する画像データが集められる。そして、画像解析部204により、集められた各画像データにおける顔画像の数、顔画像の位置、顔画像のサイズの特徴量が抽出される。そして、それらの特徴量の平均値と標準偏差とが、「共通」シーンおよび各スロット種類(メインスロットとサブスロット)に対して求められ、アルバム作成アプリケーションのプログラムと共に記憶される。   In step S1815, the CPU 101 classifies the divided image data group acquired in step S1801 into “common” scenes. For a scene whose scene classification result is “common”, in S410 of FIG. 4, scoring is performed so that the score of the image feature image shown in FIG. Note that the average value and the standard deviation of the feature values of each slot of the template corresponding to the “common” scene set in the slot feature table are performed in the same manner as “travel”, “daily life”, and “ceremony”. That is, first, among the image data classified into each type of scene, a plurality of image data determined to match the characteristics of the image data to be employed in the main slot are collected. In addition, a plurality of image data determined to match the image features to be employed in the subslot are collected. That is, image data matching the features shown in FIG. Then, the image analysis unit 204 extracts the feature quantity of the number of face images, the position of the face image, and the size of the face image in each collected image data. Then, an average value and a standard deviation of these feature values are obtained for the “common” scene and each slot type (main slot and subslot), and stored together with the album creation application program.

図4のS408以降は、第1の実施形態における説明と同じである。以上のように、本実施形態によれば、シーン分類処理において、ユーザー満足度が低いレイアウト結果が出力されるように、シーン分類されてしまうことを抑制することができる。   The steps after S408 in FIG. 4 are the same as those described in the first embodiment. As described above, according to the present embodiment, in the scene classification process, it is possible to suppress scene classification so that a layout result with low user satisfaction is output.

[その他の実施形態]
上述の各実施形態では、シーン分類得点化の結果の信頼性が低い場合に、得点1位のシーンとは異なるシーンに分類する形態ついて説明したが、この形態に限定されない。すなわち、シーン分類得点化の結果の信頼性が低い場合に、分類するシーンを変更するのではなく、画像データの得点化において利用するスロット特徴テーブルの設定値を変更する形態としても良い。このとき、画像の得点化において利用される特徴量の平均値と標準偏差は、ユーザーの満足度が大きく下がらない画像特徴を有する画像データに基づいて算出されればよい。この平均値と標準偏差は、例えば、図15と図17に示すシーン分類結果のシーン毎にそれぞれ設定される。このようにすれば、ユーザーの満足度が大きく下がらない画像特徴を持つ画像データの得点が高くなるため、ユーザーの満足度が低いレイアウト結果が出力されることを抑制できる。
[Other Embodiments]
In each of the above-described embodiments, a case has been described in which the scene classification scoring result has a low reliability, but the scene is classified into a different scene from the scene with the highest score. However, the present invention is not limited to this. That is, when the reliability of the result of scoring the scene classification is low, the setting value of the slot feature table used for scoring the image data may be changed instead of changing the scene to be classified. At this time, the average value and the standard deviation of the feature values used in scoring the image may be calculated based on image data having image features that do not greatly reduce the user satisfaction. The average value and the standard deviation are set for each scene of the scene classification results shown in FIGS. 15 and 17, for example. In this way, the score of image data having an image feature that does not significantly lower the user's satisfaction level is increased, so that it is possible to suppress the output of a layout result having a low user satisfaction level.

また、シーン分類得点化の結果の信頼性が低い場合には、誤判定が生じていてもユーザーの満足度が大きく下がらない(レイアウト相性が「×」とならない)シーンの得点を参照してS417の画像選択を行う形態であってもよい。この場合、CPU101は、画像データに対し、分類されたシーンに対応する得点だけでなく、各シーンに対応する得点を算出しておく。   If the reliability of the result of scene classification scoring is low, the user's satisfaction is not greatly reduced even if an erroneous determination occurs (the layout compatibility does not become “x”). The image selection may be performed. In this case, the CPU 101 calculates not only the score corresponding to the classified scene but also the score corresponding to each scene for the image data.

また、上述の各実施形態では、レイアウト相性を、各シーンに対応するメインスロットにレイアウトされる画像データを比較することで評価する例で説明したが、サブスロットにレイアウトされる画像データを比較することで評価してもよい。若しくは、その両方によって評価してもよい。   In each of the above-described embodiments, the layout compatibility has been described with an example in which the image data laid out in the main slot corresponding to each scene is compared. However, the image data laid out in the subslot is compared. You may evaluate by. Or you may evaluate by both.

また、シーン分類得点化の信頼性を、得点が1位のシーンと2位のシーンとの得点差を参照することで判定する例を上述したが、これに限るものではない。例えば、得点が1位のシーンの得点の絶対値を参照することで判定しても良い。この場合、CPU101は、例えば、1位のシーンの得点と、予めプログラム等に設定されている閾値とを比較する。そして、CPU101は、1位の得点が閾値以上であれば、シーン分類得点化の信頼性が高いと判定し、閾値未満であれば、シーン分類得点化の信頼性が低いと判定する。これは、得点が1位のシーンと2位のシーンとの得点差がいずれであっても、得点が1位のシーンの得点が著しく低い場合には、誤判定が生じている可能性が高いためである。この方法によって、シーン分類得点化の信頼性が低いと判定された場合には、上述の実施形態と同様に、得点が上位のシーンの間のレイアウト相性によって、分類するシーンを決めても良いし、「共通」シーンに分類してもよい。なお、得点が1位のシーンと2位のシーンとの得点差を参照する判定方法と、得点が1位のシーンの得点の絶対値を参照する判定方法とを組み合わせて利用しても良い。   Moreover, although the example which determines the reliability of scene classification scoring by referring to the score difference between the first-ranked scene and the second-ranked scene has been described above, the present invention is not limited to this. For example, the determination may be made by referring to the absolute value of the score of the scene with the highest score. In this case, for example, the CPU 101 compares the score of the first scene with a threshold value set in advance in a program or the like. Then, the CPU 101 determines that the reliability of scene classification scoring is high if the first-ranked score is equal to or greater than the threshold value, and determines that the reliability of scene classification scoring is low if it is less than the threshold value. This is because there is a high possibility that a misjudgment has occurred if the score of the first-ranked scene is extremely low, regardless of the difference between the first-ranked scene and the second-ranked scene. Because. If it is determined that the reliability of scene classification scoring is low by this method, the scene to be classified may be determined according to the layout compatibility between scenes with higher scores as in the above-described embodiment. , May be classified as “common” scenes. It should be noted that a determination method that refers to the difference between the score of the first-ranked scene and the second-ranked scene may be combined with a determination method that refers to the absolute value of the score of the first-ranked scene.

上述の実施形態では、本発明にかかるシーン分類処理を、分割画像データ群毎に行う例を示したが、この形態に限定されず、例えば、1つの画像データ毎に行う形態であっても良い。この場合、シーン分類された個々の画像データがシーン毎に集められた後、レイアウトが実行される。   In the above-described embodiment, the example in which the scene classification processing according to the present invention is performed for each divided image data group has been described. However, the present invention is not limited to this mode. For example, the mode may be performed for each piece of image data. . In this case, after the individual image data classified into scenes are collected for each scene, the layout is executed.

上述の実施形態では、本発明にかかるシーン分類処理を、自動レイアウト機能に適用する例を示したが、この形態に限定されない。例えば、本発明にかかるシーン分類処理を、シーン分類された画像データを各シーンに対応したフォルダに自動で振り分ける機能等に適用しても良い。   In the above-described embodiment, an example in which the scene classification process according to the present invention is applied to the automatic layout function has been described, but the present invention is not limited to this form. For example, the scene classification processing according to the present invention may be applied to a function or the like that automatically distributes scene classified image data to folders corresponding to each scene.

上述の実施形態では、シーン分類得点化や画像得点化等の評価において、点数を付すことで評価を行っていたが、この形態に限定されない。すなわち、得点を用いずに評価を行っても良く、例えば、評価が高い順に「◎」、「○」、「△」、「×」の評価を付し、付された評価によってシーン分類や画像選択、等が行われるような形態であっても良い。   In the above-described embodiment, evaluation is performed by assigning points in evaluations such as scene classification scoring and image scoring. However, the present invention is not limited to this form. That is, the evaluation may be performed without using the score. For example, the evaluations “◎”, “○”, “△”, and “×” are given in the descending order of the evaluation, and the scene classification or image is given by the attached evaluation. It may be a form in which selection or the like is performed.

上述の実施形態では、自動レイアウトによってアルバムを作成する例について説明したが、単葉の印刷物を作成する形態に対しても本発明を適用することができる。この場合、CPU101は、例えば、上述の実施形態における1つの見開きを1枚の単葉の印刷物とみなして、処理を行えばよい。また、単葉の印刷物には、一般に、1枚の画像データしかレイアウトされないため、単葉の印刷物用のテンプレートには、スロットが1つのみあるものとする。このスロットは、メインスロットとみなしてもサブスロットとみなしても良い。なお、シーン毎の印刷物の枚数を設定可能な構成であれば、CPU101は、上述の実施形態における1つの見開きを設定された枚数の単葉の印刷物とみなして、処理を行っても良い。この場合、例えば1枚目の単葉の印刷物のテンプレートにあるスロットをメインスロット、2枚目以降の単葉の印刷物のテンプレートにあるスロットをサブスロットとしてみなしても良い。   In the above-described embodiment, an example of creating an album by automatic layout has been described. However, the present invention can also be applied to a form of creating a single-leaf printed matter. In this case, for example, the CPU 101 may perform processing by regarding one spread in the above-described embodiment as one single-leaf printed matter. In addition, since a single-leaf printed material generally has only one image data layout, it is assumed that a single-leaf printed material template has only one slot. This slot may be regarded as a main slot or a subslot. As long as the number of printed materials for each scene can be set, the CPU 101 may perform processing by regarding one spread in the above-described embodiment as a set number of single-sheet printed materials. In this case, for example, the slot in the template of the first single-sheet printed material may be regarded as the main slot, and the slot in the template of the first single-sheet printed material as the sub-slot.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101 CPU: 102 ROM: 103 RAM: 216 自動レイアウト処理部   101 CPU: 102 ROM: 103 RAM: 216 Automatic layout processing unit

Claims (25)

画像データを、複数のシーンのうちいずれかのシーンに分類する情報処理装置を、
前記画像データについて、前記複数のシーンに含まれるシーンに関する評価を行う評価手段、
前記評価手段による評価に基づいて、前記複数のシーンのうち、評価が一番高い第1シーンを取得する取得手段、
前記取得手段が取得した前記第1シーンの評価に基づいて、前記画像データを前記第1シーンに分類するか、前記画像データを前記複数のシーンのうちの前記第1シーンでないシーンに分類するかを決定する決定手段、
として機能させるためのプログラム。
An information processing device that classifies image data into one of a plurality of scenes,
Evaluation means for evaluating the scene included in the plurality of scenes with respect to the image data,
An acquisition unit that acquires a first scene having the highest evaluation among the plurality of scenes based on the evaluation by the evaluation unit;
Whether to classify the image data into the first scene or classify the image data into a scene that is not the first scene among the plurality of scenes based on the evaluation of the first scene acquired by the acquisition unit Determining means to determine,
Program to function as.
前記決定手段は、前記第1シーンの評価と、前記複数のシーンのうち前記第1シーンの次に評価が高い第2シーンの評価との差が所定の閾値より大きい場合に、前記画像データを前記第1シーンに分類することを決定し、前記第1シーンの評価と前記第2シーンの評価との差が前記所定の閾値以下の場合に、前記画像データを前記第1シーンでないシーンに分類することを決定する、
ことを特徴とする請求項1に記載のプログラム。
The determining means determines the image data when the difference between the evaluation of the first scene and the evaluation of the second scene having the second highest evaluation among the plurality of scenes is greater than a predetermined threshold. If the difference between the evaluation of the first scene and the evaluation of the second scene is equal to or less than the predetermined threshold, the image data is classified as a scene that is not the first scene. Decide to do,
The program according to claim 1.
前記決定手段は、前記第1シーンの評価が所定の閾値より大きい場合に、前記画像データを前記第1シーンに分類することを決定し、前記第1シーンの評価が前記所定の閾値以下の場合に、前記画像データを前記第1シーンでないシーンに分類することを決定する、
ことを特徴とする請求項1に記載のプログラム。
The determining unit determines to classify the image data into the first scene when the evaluation of the first scene is larger than a predetermined threshold, and when the evaluation of the first scene is equal to or lower than the predetermined threshold. Determining to classify the image data into a scene that is not the first scene;
The program according to claim 1.
前記決定手段は、前記取得手段が取得した前記第1シーンの評価、及び、前記第1シーンと前記複数のシーンのうち前記第1シーンの次に評価が高い第2シーンとの組み合わせに基づいて、前記画像データを前記第1シーンに分類するか、前記画像データを前記複数のシーンのうちの前記第1シーンでないシーンに分類するかを決定する、
ことを特徴とする請求項1に記載のプログラム。
The determining means is based on the evaluation of the first scene acquired by the acquiring means and the combination of the first scene and the second scene having the second highest evaluation among the plurality of scenes. Determining whether to classify the image data into the first scene or to classify the image data into a scene that is not the first scene of the plurality of scenes;
The program according to claim 1.
前記決定手段は、前記第1シーンの評価と、前記複数のシーンのうち前記第1シーンの次に評価が高い第2シーンの評価との差が所定の閾値より大きい場合に、前記画像データを前記第1シーンに分類することを決定し、
前記第1シーンの評価と前記第2シーンの評価との差が前記所定の閾値以下の場合に、前記第1シーンと前記第2シーンの組み合わせに基づいて、前記画像データを前記第1シーンに分類するか、前記画像データを前記複数のシーンのうちの前記第1シーンでないシーンに分類するかを決定する、
ことを特徴とする請求項4に記載のプログラム。
The determining means determines the image data when the difference between the evaluation of the first scene and the evaluation of the second scene having the second highest evaluation among the plurality of scenes is greater than a predetermined threshold. Deciding to classify into the first scene,
When the difference between the evaluation of the first scene and the evaluation of the second scene is equal to or less than the predetermined threshold, the image data is converted into the first scene based on a combination of the first scene and the second scene. Determining whether to classify or classify the image data into a scene that is not the first scene of the plurality of scenes;
The program according to claim 4.
前記決定手段は、前記第1シーンの評価が所定の閾値より大きい場合に、前記画像データを前記第1シーンに分類することを決定し、前記第1シーンの評価が前記所定の閾値以下の場合に、前記第1シーンと前記第2シーンの組み合わせに基づいて、前記画像データを前記第1シーンに分類するか、前記画像データを前記複数のシーンのうちの前記第1シーンでないシーンに分類するかを決定する、
ことを特徴とする請求項4に記載のプログラム。
The determining unit determines to classify the image data into the first scene when the evaluation of the first scene is larger than a predetermined threshold, and when the evaluation of the first scene is equal to or lower than the predetermined threshold. Further, based on a combination of the first scene and the second scene, the image data is classified into the first scene, or the image data is classified into a scene that is not the first scene among the plurality of scenes. To decide,
The program according to claim 4.
前記第1シーンでないシーンは、前記複数のシーンのうち前記第1シーンの次に評価が高い第2シーン、又は、前記評価手段による評価が行われず且つ前記第2シーンでない第3シーンである、
ことを特徴とする請求項1乃至6のいずれか1項に記載のプログラム。
The scene that is not the first scene is a second scene having the second highest evaluation after the first scene among the plurality of scenes, or a third scene that is not evaluated by the evaluation unit and is not the second scene.
The program according to any one of claims 1 to 6, wherein:
前記画像データの特徴量を解析する解析手段を更に有し、
前記評価手段は、前記解析手段により解析された前記特徴量に基づいて、前記画像データについて、前記複数のシーンに含まれるシーンに関する評価を行う、
ことを特徴とする請求項1乃至7のいずれか1項に記載のプログラム。
An analysis means for analyzing the feature amount of the image data;
The evaluation means evaluates a scene included in the plurality of scenes with respect to the image data based on the feature amount analyzed by the analysis means.
The program according to any one of claims 1 to 7, characterized in that:
前記特徴量は、前記画像データの撮影期間、前記画像データに含まれる撮影人数のうち少なくとも1つを含む、ことを特徴とする請求項8に記載のプログラム。   The program according to claim 8, wherein the feature amount includes at least one of a photographing period of the image data and a number of photographers included in the image data. 前記評価手段は、前記画像データについて、前記複数のシーンに含まれる各シーンに関する得点を付することで評価を行い、
前記取得手段は、複数のシーンのうち前記評価手段によって付された得点が一番高い第1シーンを取得する、
ことを特徴とする請求項1乃至9のいずれか1項に記載のプログラム。
The evaluation means evaluates the image data by assigning a score for each scene included in the plurality of scenes,
The acquisition unit acquires a first scene having the highest score assigned by the evaluation unit among a plurality of scenes.
The program according to any one of claims 1 to 9.
前記評価手段は、複数の画像データを含む画像データ群について、前記複数のシーンに含まれるシーンに関する評価を行い、
前記決定手段は、前記取得手段が取得した前記第1シーンの評価に基づいて、前記画像データ群を前記第1シーンに分類するか、前記画像データ群を前記複数のシーンのうちの前記第1シーンでないシーンに分類するかを決定する、
ことを特徴とする請求項1乃至10のいずれか1項に記載のプログラム。
The evaluation means performs an evaluation on scenes included in the plurality of scenes for an image data group including a plurality of image data,
The determining unit classifies the image data group into the first scene based on the evaluation of the first scene acquired by the acquiring unit, or classifies the image data group into the first scene of the plurality of scenes. Decide whether to classify into a non-scene,
The program according to any one of claims 1 to 10, wherein:
前記決定手段による決定に従って前記複数のシーンのうちいずれかのシーンに分類された複数の画像データから、当該複数の画像データが分類されたシーンに基づいて、選択された画像データをテンプレートにレイアウトするレイアウト手段、
として更に前記情報処理装置を機能させることを特徴とする請求項1乃至11のいずれか1項に記載のプログラム。
From the plurality of image data classified into any one of the plurality of scenes according to the determination by the determining means, the selected image data is laid out in a template based on the scene into which the plurality of image data is classified. Layout means,
The program according to claim 1, further causing the information processing apparatus to function.
画像データを、複数のシーンのうちいずれかのシーンに分類する情報処理装置であって、
前記画像データについて、前記複数のシーンに含まれるシーンに関する評価を行う評価手段と、
前記評価手段による評価に基づいて、前記複数のシーンのうち、評価が一番高い第1シーンを取得する取得手段と、
前記取得手段が取得した前記第1シーンの評価に基づいて、前記画像データを前記第1シーンに分類するか、前記画像データを前記複数のシーンのうちの前記第1シーンでないシーンに分類するかを決定する決定手段と、
を有することを特徴とする情報処理装置。
An information processing apparatus for classifying image data into one of a plurality of scenes,
Evaluation means for evaluating the scene included in the plurality of scenes for the image data;
Based on the evaluation by the evaluation means, an acquisition means for acquiring a first scene having the highest evaluation among the plurality of scenes;
Whether to classify the image data into the first scene or classify the image data into a scene that is not the first scene among the plurality of scenes based on the evaluation of the first scene acquired by the acquisition unit A determination means for determining
An information processing apparatus comprising:
前記決定手段は、前記第1シーンの評価と、前記複数のシーンのうち前記第1シーンの次に評価が高い第2シーンの評価との差が所定の閾値より大きい場合に、前記画像データを前記第1シーンに分類することを決定し、前記第1シーンの評価と前記第2シーンの評価との差が前記所定の閾値以下の場合に、前記画像データを前記第1シーンでないシーンに分類することを決定する、
ことを特徴とする請求項13に記載の情報処理装置。
The determining means determines the image data when the difference between the evaluation of the first scene and the evaluation of the second scene having the second highest evaluation among the plurality of scenes is greater than a predetermined threshold. If the difference between the evaluation of the first scene and the evaluation of the second scene is equal to or less than the predetermined threshold, the image data is classified as a scene that is not the first scene. Decide to do,
The information processing apparatus according to claim 13.
前記決定手段は、前記第1シーンの評価が所定の閾値より大きい場合に、前記画像データを前記第1シーンに分類することを決定し、前記第1シーンの評価が前記所定の閾値以下の場合に、前記画像データを前記第1シーンでないシーンに分類することを決定する、
ことを特徴とする請求項13に記載の情報処理装置。
The determining unit determines to classify the image data into the first scene when the evaluation of the first scene is larger than a predetermined threshold, and when the evaluation of the first scene is equal to or lower than the predetermined threshold. Determining to classify the image data into a scene that is not the first scene;
The information processing apparatus according to claim 13.
前記決定手段は、前記取得手段が取得した前記第1シーンの評価、及び、前記第1シーンと前記複数のシーンのうち前記第1シーンの次に評価が高い第2シーンとの組み合わせに基づいて、前記画像データを前記第1シーンに分類するか、前記画像データを前記複数のシーンのうちの前記第1シーンでないシーンに分類するかを決定する、
ことを特徴とする請求項13に記載の情報処理装置。
The determining means is based on the evaluation of the first scene acquired by the acquiring means and the combination of the first scene and the second scene having the second highest evaluation among the plurality of scenes. Determining whether to classify the image data into the first scene or to classify the image data into a scene that is not the first scene of the plurality of scenes;
The information processing apparatus according to claim 13.
前記決定手段は、前記第1シーンの評価と、前記複数のシーンのうち前記第1シーンの次に評価が高い第2シーンの評価との差が所定の閾値より大きい場合に、前記画像データを前記第1シーンに分類することを決定し、
前記第1シーンの評価と前記第2シーンの評価との差が前記所定の閾値以下の場合に、前記第1シーンと前記第2シーンの組み合わせに基づいて、前記画像データを前記第1シーンに分類するか、前記画像データを前記複数のシーンのうちの前記第1シーンでないシーンに分類するかを決定する、
ことを特徴とする請求項16に記載の情報処理装置。
The determining means determines the image data when the difference between the evaluation of the first scene and the evaluation of the second scene having the second highest evaluation among the plurality of scenes is greater than a predetermined threshold. Deciding to classify into the first scene,
When the difference between the evaluation of the first scene and the evaluation of the second scene is equal to or less than the predetermined threshold, the image data is converted into the first scene based on a combination of the first scene and the second scene. Determining whether to classify or classify the image data into a scene that is not the first scene of the plurality of scenes;
The information processing apparatus according to claim 16.
前記決定手段は、前記第1シーンの評価が所定の閾値より大きい場合に、前記画像データを前記第1シーンに分類することを決定し、前記第1シーンの評価が前記所定の閾値以下の場合に、前記第1シーンと前記第2シーンの組み合わせに基づいて、前記画像データを前記第1シーンに分類するか、前記画像データを前記複数のシーンのうちの前記第1シーンでないシーンに分類するかを決定する、
ことを特徴とする請求項16に記載の情報処理装置。
The determining unit determines to classify the image data into the first scene when the evaluation of the first scene is larger than a predetermined threshold, and when the evaluation of the first scene is equal to or lower than the predetermined threshold. Further, based on a combination of the first scene and the second scene, the image data is classified into the first scene, or the image data is classified into a scene that is not the first scene among the plurality of scenes. To decide,
The information processing apparatus according to claim 16.
前記第1シーンでないシーンは、前記複数のシーンのうち前記第1シーンの次に評価が高い第2シーン、又は、前記評価手段による評価が行われず且つ前記第2シーンでない第3シーンである、
ことを特徴とする請求項13乃至18のいずれか1項に記載の情報処理装置。
The scene that is not the first scene is a second scene having the second highest evaluation after the first scene among the plurality of scenes, or a third scene that is not evaluated by the evaluation unit and is not the second scene.
The information processing apparatus according to claim 13, wherein the information processing apparatus is an information processing apparatus.
前記画像データの特徴量を解析する解析手段を更に有し、
前記評価手段は、前記解析手段により解析された前記特徴量に基づいて、前記画像データについて、前記複数のシーンに含まれるシーンに関する評価を行う、
ことを特徴とする請求項13乃至19のいずれか1項に記載の情報処理装置。
An analysis means for analyzing the feature amount of the image data;
The evaluation means evaluates a scene included in the plurality of scenes with respect to the image data based on the feature amount analyzed by the analysis means.
The information processing apparatus according to claim 13, wherein the information processing apparatus is an information processing apparatus.
前記特徴量は、前記画像データの撮影期間、前記画像データに含まれる撮影人数のうち少なくとも1つを含む、ことを特徴とする請求項20に記載の情報処理装置。   The information processing apparatus according to claim 20, wherein the feature amount includes at least one of a photographing period of the image data and a number of photographers included in the image data. 前記評価手段は、前記画像データについて、前記複数のシーンに含まれる各シーンに関する得点を付することで評価を行い、
前記取得手段は、複数のシーンのうち前記評価手段によって付された得点が一番高い第1シーンを取得する、
ことを特徴とする請求項13乃至21のいずれか1項に記載の情報処理装置。
The evaluation means evaluates the image data by assigning a score for each scene included in the plurality of scenes,
The acquisition unit acquires a first scene having the highest score assigned by the evaluation unit among a plurality of scenes.
The information processing apparatus according to any one of claims 13 to 21.
前記評価手段は、複数の画像データを含む画像データ群について、前記複数のシーンに含まれるシーンに関する評価を行い、
前記決定手段は、前記取得手段が取得した前記第1シーンの評価に基づいて、前記画像データ群を前記第1シーンに分類するか、前記画像データ群を前記複数のシーンのうちの前記第1シーンでないシーンに分類するかを決定する、
ことを特徴とする請求項13乃至22のいずれか1項に記載の情報処理装置。
The evaluation means performs an evaluation on scenes included in the plurality of scenes for an image data group including a plurality of image data,
The determining unit classifies the image data group into the first scene based on the evaluation of the first scene acquired by the acquiring unit, or classifies the image data group into the first scene of the plurality of scenes. Decide whether to classify into a non-scene,
The information processing apparatus according to claim 13, wherein the information processing apparatus is an information processing apparatus.
前記決定手段による決定に従って前記複数のシーンのうちいずれかのシーンに分類された複数の画像データから、当該複数の画像データが分類されたシーンに基づいて、選択された画像データをテンプレートにレイアウトするレイアウト手段、
を更に有することを特徴とする請求項13乃至23のいずれか1項に記載の情報処理装置。
From the plurality of image data classified into any one of the plurality of scenes according to the determination by the determining means, the selected image data is laid out in a template based on the scene into which the plurality of image data is classified. Layout means,
The information processing apparatus according to claim 13, further comprising:
画像データを、複数のシーンのうちいずれかのシーンに分類する情報処理装置において実行される制御方法であって、
前記画像データについて、前記複数のシーンに含まれるシーンに関する評価を行う評価工程と、
前記評価工程における評価に基づいて、前記複数のシーンのうち、評価が一番高い第1シーンを取得する取得工程と、
前記取得工程において取得した前記第1シーンの評価に基づいて、前記画像データを前記第1シーンに分類するか、前記画像データを前記複数のシーンのうちの前記第1シーンでないシーンに分類するかを決定する決定工程と、
を有することを特徴とする制御方法。
A control method executed in an information processing apparatus for classifying image data into one of a plurality of scenes,
An evaluation step for evaluating the scene included in the plurality of scenes with respect to the image data;
Based on the evaluation in the evaluation step, an acquisition step of acquiring a first scene having the highest evaluation among the plurality of scenes;
Whether to classify the image data into the first scene or classify the image data into a scene that is not the first of the plurality of scenes based on the evaluation of the first scene acquired in the acquiring step A determination step for determining
A control method characterized by comprising:
JP2016009982A 2016-01-21 2016-01-21 Program, information processing apparatus, and control method Active JP6700806B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016009982A JP6700806B2 (en) 2016-01-21 2016-01-21 Program, information processing apparatus, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016009982A JP6700806B2 (en) 2016-01-21 2016-01-21 Program, information processing apparatus, and control method

Publications (2)

Publication Number Publication Date
JP2017130109A true JP2017130109A (en) 2017-07-27
JP6700806B2 JP6700806B2 (en) 2020-05-27

Family

ID=59394863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016009982A Active JP6700806B2 (en) 2016-01-21 2016-01-21 Program, information processing apparatus, and control method

Country Status (1)

Country Link
JP (1) JP6700806B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020066659A1 (en) * 2018-09-28 2020-04-02 ヤマハ株式会社 Information processing method, information processing device, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020066659A1 (en) * 2018-09-28 2020-04-02 ヤマハ株式会社 Information processing method, information processing device, and program
JP2020053936A (en) * 2018-09-28 2020-04-02 ヤマハ株式会社 Information processing method and information processing device
JP7167602B2 (en) 2018-09-28 2022-11-09 ヤマハ株式会社 Information processing method and information processing device

Also Published As

Publication number Publication date
JP6700806B2 (en) 2020-05-27

Similar Documents

Publication Publication Date Title
JP6711937B2 (en) Image processing device, image processing method, and program
CN108230262B (en) Image processing method, image processing apparatus, and storage medium
JP6494504B2 (en) Information processing apparatus, control method, and program
JP6719206B2 (en) Image processing apparatus, image processing method, and program
KR102157494B1 (en) Control method and storage medium
JP7350495B2 (en) Apparatus, method, and program
JP7286392B2 (en) Image processing device, image processing method, and program
JP6723937B2 (en) Program, image processing apparatus, and image processing method
JP6862164B2 (en) Programs, image processing equipment, and image processing methods
JP6873678B2 (en) Image processing equipment, control methods, and programs
JP2018097491A (en) Image processing device, image processing method and program
JP6532398B2 (en) Image processing apparatus, image processing method and program
JP7286393B2 (en) Image processing device, image processing method, and program
JP7336211B2 (en) Image processing device, control method, and program
JP6904692B2 (en) Image processing equipment, control methods, and programs
JP7336209B2 (en) Image processing device, control method, and program
JP6606374B2 (en) Image processing apparatus and method, and program
JP6700806B2 (en) Program, information processing apparatus, and control method
JP7451242B2 (en) Image processing device, image processing method, and program
JP2021149195A (en) Program, image processing method, and image processing apparatus
JP7350496B2 (en) Apparatus, method, and program
JP7336212B2 (en) Image processing device, control method, and program
JP7336210B2 (en) Image processing device, control method, and program
JP7263054B2 (en) Apparatus, method and program
JP6700686B2 (en) Image processing apparatus, album creating method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R151 Written notification of patent or utility model registration

Ref document number: 6700806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151