JP7286393B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP7286393B2
JP7286393B2 JP2019078785A JP2019078785A JP7286393B2 JP 7286393 B2 JP7286393 B2 JP 7286393B2 JP 2019078785 A JP2019078785 A JP 2019078785A JP 2019078785 A JP2019078785 A JP 2019078785A JP 7286393 B2 JP7286393 B2 JP 7286393B2
Authority
JP
Japan
Prior art keywords
image
images
spread
additional
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019078785A
Other languages
Japanese (ja)
Other versions
JP2020177420A (en
Inventor
寛康 國枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019078785A priority Critical patent/JP7286393B2/en
Priority to US16/851,134 priority patent/US11627227B2/en
Publication of JP2020177420A publication Critical patent/JP2020177420A/en
Application granted granted Critical
Publication of JP7286393B2 publication Critical patent/JP7286393B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00185Image output
    • H04N1/00196Creation of a photo-montage, e.g. photoalbum

Description

本開示の技術は、アルバム作成をする画像処理装置、画像処理方法、及びプログラムに関する。 The technology of the present disclosure relates to an image processing device, an image processing method, and a program for creating an album.

デジタルカメラの普及に加え、近年ではスマートデバイスの普及及びスマートデバイスのカメラ性能向上により、ユーザの写真撮影枚数が急激に増加している。写真をまとめる方法として、写真をデジタル的に加工して配置するフォトブックが提案されている。デジタル的に加工するため、パソコンなどで編集することができる。 In addition to the spread of digital cameras, the spread of smart devices and the improvement in camera performance of smart devices in recent years have led to a rapid increase in the number of photographs taken by users. As a method of collecting photographs, a photobook has been proposed in which photographs are digitally processed and arranged. Since it is processed digitally, it can be edited on a computer.

特許文献1では、画像の付帯情報に基づいてグルーピングし、重要度の高いグループのみ解析を行って画像評価し、評価値が一定以上の画像を使って電子アルバムを作成する方法が提案されている。 Patent Document 1 proposes a method of grouping images based on incidental information of the images, analyzing only the groups with high importance to evaluate the images, and creating an electronic album using the images with evaluation values above a certain level. .

特開2015-114920号公報JP 2015-114920 A

しかしながら、特許文献1において画像をグループに分割して重要なグループのみ評価して高得点の画像を利用するだけでは、ユーザが手動で後からページを追加した場合、追加ページ以外の既存ページを調整できないおそれがある。その結果、ユーザの所望とするレイアウト結果が得られなくなるおそれがある。 However, in Patent Document 1, if images are divided into groups, only important groups are evaluated, and high-scoring images are used, existing pages other than the added pages will be adjusted if the user manually adds pages later. It may not be possible. As a result, the layout result desired by the user may not be obtained.

本開示の技術は、複数の画像が配置された既存ページを含むアルバムデータを表示する表示制御手段と、前記アルバムデータに追加ページを追加する追加手段と、前記追加ページに対してユーザにより選択された画像データを含む複数の画像データをレイアウトするレイアウト手段と、前記追加ページに対する複数の画像データのレイアウト結果と、前記既存ページにおける複数の画像データのレイアウト結果に基づいて、前記既存ページにおける前記複数の画像データの配置を変更する変更手段を備える画像処理装置である。 The technology of the present disclosure includes display control means for displaying album data including an existing page in which a plurality of images are arranged, addition means for adding an additional page to the album data, and selection by the user for the additional page. layout means for laying out a plurality of image data including the image data added to the existing page; and a layout result of the plurality of image data on the additional page and a layout result of the plurality of image data on the existing page. The image processing apparatus includes a changing means for changing the arrangement of the image data.

本開示の技術によれば、ユーザが所望とするレイアウト結果を得ることが可能となる。 According to the technique of the present disclosure, it is possible to obtain a layout result desired by the user.

本発明に係るアプリケーションを実行可能なハードウェアブロック図である。1 is a block diagram of hardware capable of executing an application according to the present invention; FIG. 本発明に係るアプリケーションのソフトウェアブロック図である。1 is a software block diagram of an application according to the present invention; FIG. 本発明に係るアプリケーションが表示する表示画面の図である。FIG. 4 is a diagram of a display screen displayed by an application according to the present invention; 本発明に係る自動レイアウトの処理フロー図である。FIG. 4 is a processing flow diagram of automatic layout according to the present invention; 本発明に係る画像解析情報を説明する図である。It is a figure explaining the image-analysis information which concerns on this invention. 本発明に係る画像群分割を説明する図である。FIG. 4 is a diagram for explaining image group division according to the present invention; 本発明に係るシーン分類を説明する図である。FIG. 4 is a diagram for explaining scene classification according to the present invention; 本発明に係る画像得点を説明する図である。It is a figure explaining the image score which concerns on this invention. 本発明に係る画像選択を説明する図である。FIG. 4 is a diagram for explaining image selection according to the present invention; 本発明に係る画像レイアウトを説明する図である。It is a figure explaining the image layout which concerns on this invention. 本発明に係る詳細な画像選択を説明する図である。FIG. 5 is a diagram for explaining detailed image selection according to the present invention; 本発明に係る画像選択の詳細なフローを説明する図である。FIG. 5 is a diagram illustrating a detailed flow of image selection according to the present invention; 本発明に係る詳細な画像選択を説明する図である。FIG. 5 is a diagram for explaining detailed image selection according to the present invention; 本発明に係る画像選択の詳細なフローを説明する図である。FIG. 5 is a diagram illustrating a detailed flow of image selection according to the present invention; 本発明に係る追加ページ及び既存ページの自動レイアウトを説明する図である。FIG. 4 is a diagram illustrating automatic layout of additional pages and existing pages according to the present invention; 本発明に係る追加ページ及び既存ページの自動レイアウトのフローを説明する図である。FIG. 4 is a diagram illustrating the flow of automatic layout of additional pages and existing pages according to the present invention; 本発明に係る追加ページ及び既存ページの自動レイアウトを説明する図である。FIG. 4 is a diagram illustrating automatic layout of additional pages and existing pages according to the present invention; 本発明に係る追加ページ及び既存ページの自動レイアウトのフローを説明する図である。FIG. 4 is a diagram illustrating the flow of automatic layout of additional pages and existing pages according to the present invention; 本発明に係る追加ページ及び既存ページの自動レイアウトを説明する図である。FIG. 4 is a diagram illustrating automatic layout of additional pages and existing pages according to the present invention; 本発明に係る追加ページ及び既存ページの自動レイアウトのフローを説明する図である。FIG. 4 is a diagram illustrating the flow of automatic layout of additional pages and existing pages according to the present invention; 本発明に係る追加ページの指定方法を説明する図である。It is a figure explaining the specification method of the additional page which concerns on this invention. 本発明に係る追加ページに使用する画像の指定方法を説明する図である。FIG. 10 is a diagram illustrating a method of specifying an image to be used for an additional page according to the present invention; 本発明に係るレイアウト結果を説明する図である。It is a figure explaining the layout result based on this invention. 本発明に係るレイアウト結果を説明する図である。It is a figure explaining the layout result based on this invention.

(実施形態1)
以下、本発明の実施形態について図面を用いて詳細に説明する。
(Embodiment 1)
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本実施形態では、画像処理装置において、アルバム作成のためのアプリケーション(以下、「アプリ」ともいう)を動作させ、自動でレイアウトを生成する方法を例に挙げて説明する。 In the present embodiment, an example of a method for automatically generating a layout by operating an application for creating an album (hereinafter also referred to as an "application") in an image processing apparatus will be described.

図1は、本発明に係る画像処理装置のハードウェアの構成を説明するブロック図である。画像処理装置としては、例えば、PC、スマートフォン等が挙げられ、本実施形態ではPCとする。 FIG. 1 is a block diagram for explaining the hardware configuration of an image processing apparatus according to the present invention. Examples of the image processing device include a PC, a smart phone, etc. In this embodiment, a PC is used.

図1において、画像処理装置100は、CPU101と、ROM102と、RAM103と、記憶装置104と、ディスプレイ105と、キーボード106と、マウス107と、データ通信装置108と、を備えている。これらは、データバス109により相互に接続されている。 1, image processing apparatus 100 includes CPU 101, ROM 102, RAM 103, storage device 104, display 105, keyboard 106, mouse 107, and data communication device . These are interconnected by a data bus 109 .

CPU(中央演算装置/プロセッサ)101は、システム制御部であり、画像処理装置100全体を制御する。また、CPU101は、本実施形態で説明する画像処理方法をプログラムに従って実行する。なお、図中のCPUは1つとしたが、これに限定されず、複数備えていてもよい。 A CPU (central processing unit/processor) 101 is a system control unit and controls the entire image processing apparatus 100 . Further, the CPU 101 executes the image processing method described in this embodiment according to a program. In addition, although the number of CPUs in the figure is one, it is not limited to this, and a plurality of CPUs may be provided.

ROM102は、CPU101により実行されるプログラムが記憶されている。RAM103は、CPU101によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供している。記憶装置(SSDやHDDなど)104は、画像ファイルや画像解析などの処理結果を保持するデータベースなどを記憶するための記憶媒体である。本実施形態では、記憶装置104は、詳細は後述するアルバム作成のためのアプリケーションプログラムを記憶する。 The ROM 102 stores programs executed by the CPU 101 . The RAM 103 provides memory for temporarily storing various information when the CPU 101 executes the program. A storage device (SSD, HDD, etc.) 104 is a storage medium for storing a database that holds image files and processing results such as image analysis. In this embodiment, the storage device 104 stores an application program for creating an album, the details of which will be described later.

ディスプレイ105は、本実施形態のUI(ユーザインターフェイス)や画像のレイアウト結果をユーザに提示する装置である。ディスプレイ105は、タッチセンサー機能を備えても良い。キーボード106は、入力装置の1つであり、例えば、ディスプレイ105に表示されたUI上に任意の情報を入力するのに用いられる。本実施形態では、キーボード106を介してアルバムの見開き数を入力する。マウス107は、入力装置の1つであり、例えば、ディスプレイ105に表示されたUI上のボタンを選択したり、クリックしたりするのに用いられる。 The display 105 is a device that presents the UI (user interface) and image layout results of the present embodiment to the user. The display 105 may have a touch sensor function. The keyboard 106 is one of input devices, and is used to input arbitrary information on the UI displayed on the display 105, for example. In this embodiment, the number of double-page spreads of the album is input via the keyboard 106 . A mouse 107 is one of input devices, and is used, for example, to select or click buttons on the UI displayed on the display 105 .

データ通信装置108は、プリンタやサーバなどの外部装置と通信するための装置である。例えば、後述する処理によりアルバムデータが生成された後、ユーザがアルバム作成アプリケーションを使ってアルバムの印刷を指示することができる。その結果、アルバム作成アプリケーションにより生成されたアルバムデータは、データ通信装置108を介してPCに接続されたプリンタやサーバに送信される。そして、画像処理装置100に接続されたプリンタを使ってアルバムデータに基づくアルバムが印刷される。また、サーバに送信されたアルバムデータが、サーバに接続されたプリンタを使って印刷されても良い。 A data communication device 108 is a device for communicating with an external device such as a printer or a server. For example, after the album data is generated by the process described later, the user can use the album creation application to instruct the printing of the album. As a result, the album data generated by the album creation application is transmitted to the printer or server connected to the PC via the data communication device 108 . A printer connected to the image processing apparatus 100 is used to print an album based on the album data. Also, the album data sent to the server may be printed using a printer connected to the server.

データバス109は、上述した各部(102~108)とCPU101とを接続する。 A data bus 109 connects each unit (102 to 108) and the CPU 101 described above.

図2は、本発明に係るアルバム作成アプリケーションのソフトウェアの構成を説明するブロック図である。本実施形態では、記憶装置104に保存されたアルバム作成アプリケーションは、ディスプレイ105に表示されているアプリケーションのアイコンがユーザによりマウス107を使ってダブルクリックされることにより起動される。アルバム作成アプリケーションは様々な機能を持つが、本実施形態では、特に自動レイアウト処理部219により提供される自動レイアウト機能に関して説明する。 FIG. 2 is a block diagram for explaining the software configuration of the album creation application according to the present invention. In this embodiment, the album creation application stored in the storage device 104 is activated when the user double-clicks the application icon displayed on the display 105 using the mouse 107 . The album creation application has various functions, but in this embodiment, the automatic layout function provided by the automatic layout processing section 219 will be described.

図2に示すように、アプリケーションは、アルバム作成条件設定部201と、自動レイアウト処理部219と、アルバム表示部220とを含む。自動レイアウト機能は、撮影された写真をその内容や属性に基づいて分類し、あるいは選択して写真をレイアウトし、ディスプレイ105に表示するアルバムデータを生成するための機能である。 As shown in FIG. 2, the application includes an album creation condition setting section 201 , an automatic layout processing section 219 and an album display section 220 . The automatic layout function is a function for classifying or selecting photographed photographs based on their contents and attributes, laying out the photographs, and generating album data to be displayed on the display 105 .

アルバム作成条件設定部201は、マウス107などを用いたユーザによるUI操作に応じてアルバム作成条件を自動レイアウト処理部219に指定する。本実施形態では、アルバム作成条件として以下のものを設定可能とする。設定可能なアルバム作成条件は、主人公、見開き数、テンプレートの種類、アルバム作成のモード、画像補正をするか否か、アルバムの見開きあたりに配置する画像枚数を調整する見開き写真枚数、アルバムを作成する商材を指定する商材指定である。画像・動画の指定は、例えば撮影日時など個別の画像データの付随情報や属性情報による指定であってもよいし、デバイスやディレクトリの指定など、画像・動画データを含むファイルシステムの構造に基づく指定であってもよい。なお見開きとは、例えば表示においてはひとつの表示用ウィンドウに相当し、印刷においては、異なるシートに印刷された、互いに隣接する1対のページに相当する。 The album creation condition setting unit 201 designates album creation conditions to the automatic layout processing unit 219 according to the user's UI operation using the mouse 107 or the like. In this embodiment, the following items can be set as album creation conditions. The album creation conditions that can be set include the main character, the number of spreads, the type of template, the album creation mode, whether or not to perform image correction, the number of spread photos to adjust the number of images placed per spread of the album, and the creation of the album. It is a product specification that specifies a product. The image/moving image can be specified by attribute information or associated information of individual image data such as the date and time of shooting, or based on the structure of the file system containing the image/moving image data, such as device or directory designation. may be A double-page spread corresponds to, for example, one display window in the case of display, and a pair of adjacent pages printed on different sheets in the case of printing.

動画取得部202は、アルバム作成条件設定部201により指定された動画群(動画データ群)を記憶装置104から取得する。ここでいう動画群とは、後述する図3の303で指定されたフォルダに保存される動画データ群を指す。取得された動画データは、解析できるようにOSに標準搭載されている動画のデコーダなどを使って圧縮された状態から展開しておく。 The moving image acquisition unit 202 acquires the moving image group (moving image data group) specified by the album creation condition setting unit 201 from the storage device 104 . The moving image group here refers to a moving image data group saved in a folder designated by 303 in FIG. 3, which will be described later. The acquired moving image data is decompressed from a compressed state using a moving image decoder or the like that is standardly installed in the OS so that it can be analyzed.

動画解析部203は、動画取得部202で取得された動画データを解析する。動画解析部203は、動画から連続するフレームを切り出し、注目するフレームとその前後のフレームとの差分量を算出する。差分量が多い場合は、注目するフレームとその前後のフレームとが類似していないので動き量が多いフレームと判断される。差分量が少ない場合は、それら一連のフレームが似ているので動き量が少ないフレームと判断される。動き量に関しては、前述したフレーム間の差分以外にも動画フォーマットで利用している動きベクトルを利用してもよい。 The moving image analysis unit 203 analyzes the moving image data acquired by the moving image acquisition unit 202 . The moving image analysis unit 203 cuts out consecutive frames from the moving image, and calculates the amount of difference between the frame of interest and the frames before and after it. If the amount of difference is large, the frame of interest is not similar to the frames before and after it, so it is determined that the frame has a large amount of motion. If the amount of difference is small, it is determined that the series of frames are similar and the amount of motion is small. As for the amount of motion, a motion vector used in the moving image format may be used in addition to the difference between frames described above.

そして動画解析部203は、この判定された動き量から解析対象とするフレームを選定する。動き量の多さに基づいて、動いている区間と止まっている区間に分けることができる。動き量が多いと判定された区間は解析対象とするフレーム間隔を短くし、動き量が少ないと判定された区間は解析対象とするフレーム間隔を長くする。例えば、動き量が多い区間は5フレーム間隔で解析対象とし、動き量が少ない区間は区間の最初と最後及び中間のフレームを解析対象とする。 Then, the moving image analysis unit 203 selects frames to be analyzed from the determined amount of motion. Based on the amount of movement, it can be divided into a moving section and a stationary section. The interval between frames to be analyzed is shortened in a section determined to have a large amount of motion, and the interval of frames to be analyzed is lengthened in a section determined to have a small amount of motion. For example, a section with a large amount of motion is analyzed at intervals of 5 frames, and a section with a small amount of motion is analyzed with the first, last, and intermediate frames of the section.

さらに動画解析部203は、解析対象となったフレームに解析処理を行う。解析する項目は、顔や動物などのレイアウトに利用するオブジェクト検出、オブジェクトのサイズ判定、顔に関しては笑顔判定、目瞑り判定、ブレボケ判定、画像全体の明るさ判定を行う。そして次のように各判定項目の結果に応じてフレームの得点を算出し、得点化する。 Furthermore, the moving image analysis unit 203 performs analysis processing on the frame that is the analysis target. Items to be analyzed include detection of objects used in layouts such as faces and animals, determination of object sizes, determination of smiles, closed eyes, blurred blur, and brightness of the entire image. Then, the score of the frame is calculated according to the result of each determination item as follows, and scored.

ここで動画解析部203が行うオブジェクト検出について説明する。動画解析部203は、例えば、アルバム作成条件で設定された主人公に該当するオブジェクト(つまり、主人公の顔)がフレーム内に含まれる場合は、主人公に該当するオブジェクトが含まれない画像よりも高い得点を設定する。続いて動画解析部203が行うサイズ判定について説明する。動画解析部203は、オブジェクトのサイズ判定として検出されたオブジェクトのサイズが大きければ高得点とする。また動画解析部203は、笑顔判定で笑顔と判定された顔の数、及び目瞑り判定で目瞑りしていないと判定された顔の数が多いフレームに高い得点を設定する。また動画解析部203は、ブレボケ判定では画像のエッジ量をラプラシアンフィルタにより算出してエッジ量が多いフレームほど、高い得点を設定する。また動画解析部203は、画像全体の明るさに関して画像の平均輝度が所定値以上であるフレームに対して高得点を設定する。 Here, object detection performed by the moving image analysis unit 203 will be described. For example, if an object corresponding to the main character set in the album creation condition (that is, the face of the main character) is included in the frame, the moving image analysis unit 203 gives a higher score than an image that does not include the object corresponding to the main character. set. Next, size determination performed by the moving image analysis unit 203 will be described. The moving image analysis unit 203 gives a high score if the size of the object detected in the object size determination is large. In addition, the moving image analysis unit 203 sets a high score to a frame having a large number of faces determined to be smiling in smile determination and a large number of faces determined not to close their eyes in eyes closed determination. In addition, the moving image analysis unit 203 calculates the edge amount of the image using a Laplacian filter in blurring/bokeh determination, and sets a higher score for a frame with a larger edge amount. In addition, the moving image analysis unit 203 sets a high score to a frame in which the average brightness of the image is equal to or higher than a predetermined value with respect to the brightness of the entire image.

動画解析部203は、最終的にはこれら項目ごとの得点の総和となる総合得点を算出する。他にも、判定した動き量に応じてブレボケを判定する領域が変更されてもよい。例えば、動画撮影時に動いている被写体を追尾した場合、被写体はくっきり写るが背景はぼけるため、画像全体としてはぼけてしまう。そのため、動き量が多い場合は顔などの被写体領域のみでボケ量を判定する方法も考えられる。 The moving image analysis unit 203 finally calculates a total score, which is the sum of the scores for each item. In addition, the region for determining blurring may be changed according to the determined amount of motion. For example, when a moving subject is tracked during video shooting, the subject is clearly captured, but the background is blurred, resulting in a blurry image as a whole. Therefore, when there is a large amount of motion, a method of determining the amount of blur using only a subject area such as a face is also conceivable.

このように動画解析部203は、分割され、動いている/止まっている各区間から算出した総合得点が所定値以上のフレームをベストショットと判定する。 In this way, the moving image analysis unit 203 determines a frame having a total score equal to or higher than a predetermined value calculated from each divided moving/still section as the best shot.

フレーム取得部204は、動画解析部203で解析された結果に基づいて、動画からベストショットと判定されたフレームを切り出して画像データとして記憶装置104に保存する。その際、切り出された画像データと関連付けて、動画解析部で判定された動き量、カメラワーク、得点を保存する。フレーム取得部204は、判定された得点からアルバムに利用する画像、アルバム作成後にユーザが差し替え利用するための候補画像というように用途を画像データに関連付けて保存してもよい。 The frame acquisition unit 204 cuts out a frame determined to be the best shot from the moving image based on the analysis result of the moving image analysis unit 203, and stores it in the storage device 104 as image data. At that time, the motion amount, camera work, and score determined by the moving image analysis unit are stored in association with the clipped image data. The frame acquisition unit 204 may store the image data in association with the use, such as an image to be used in the album based on the determined score, or a candidate image for the user to use as a replacement after the album is created.

画像取得部205は、アルバム作成条件設定部201により指定された画像群(画像データ群)を記憶装置104から取得する。ここでいう画像群とは、1つのアルバム作成の際にレイアウトされる候補画像群を指す。例えば、アルバム作成条件設定部201において撮影日としてXX年1月1日~XX年12月31日が指定された場合は、XX年1月1日~XX年12月31日に撮影された画像全てが指定された画像群に該当する。画像取得部205は、指定された画像群における各画像の幅及び高さ情報も取得する。 The image acquisition unit 205 acquires the image group (image data group) specified by the album creation condition setting unit 201 from the storage device 104 . The group of images here refers to a group of candidate images laid out when creating one album. For example, if Jan. 1, XX to Dec. 31, XX are designated as shooting dates in the album creation condition setting unit 201, images shot from Jan. 1, XX to Dec. 31, XX All correspond to the designated image group. The image acquisition unit 205 also acquires width and height information of each image in the designated image group.

記憶装置104に保存されている画像としては、静止画像や、動画から切り出された切り出し画像を含む。静止画像や切り出し画像は、デジタルカメラやスマートデバイス等の撮像デバイスから取得したものである。撮像デバイスは、画像処理装置100が備えていてもよいし、外部装置が備えるものであってもよい。なお、撮像デバイスが外部装置である場合は、画像はデータ通信装置108を介して取得される。また、静止画像や切り出し画像は、データ通信装置108を介してネットワーク上のサーバやストレージなどから取得された画像であってもよい。ネットワーク上のサーバから取得された画像としては、ソーシャルネットワーキングサービスを介して提供される画像(以下、「SNS画像」という)が挙げられる。CPU101によって実行されるプログラムは、各画像に対して、画像に付随したデータを解析して保存元を判定する。SNS画像は、アプリケーションを介してSNSから画像を取得できるようにアプリケーション内で取得先を管理してもよい。なお、記憶装置104に保存される画像は、上述した画像に限定されるものではなく、他の種類の画像であってもよい。 The images stored in the storage device 104 include still images and clipped images clipped from moving images. A still image or a clipped image is obtained from an imaging device such as a digital camera or a smart device. The imaging device may be included in the image processing apparatus 100 or may be included in an external device. Note that if the imaging device is an external device, the image is acquired via the data communication device 108 . Still images and cutout images may be images obtained from a server, storage, or the like on a network via the data communication device 108 . Images obtained from servers on a network include images provided via social networking services (hereinafter referred to as “SNS images”). A program executed by the CPU 101 analyzes data attached to each image to determine the storage source. The SNS image may manage the acquisition destination within the application so that the image can be acquired from the SNS via the application. Note that the images stored in the storage device 104 are not limited to the images described above, and may be images of other types.

画像変換部206は、記憶装置104に保存された画像データの画素数や色情報を変換する。本実施形態では、画像データを画素数が短辺420画素とし、色情報がsRGBの画像データに変換する。 An image conversion unit 206 converts the number of pixels and color information of image data stored in the storage device 104 . In this embodiment, the image data is converted into image data having 420 pixels on the short side and color information of sRGB.

画像解析部207は、画像データの解析処理をする。本実施形態では、画像変換部206で変換済みの画像データの解析処理をする。具体的には、画像データから特徴量を取得し、画像データにおけるオブジェクト判定、顔検出、検出した顔の表情認識、検出した顔の個人認識を実行する。さらに、記憶装置104から取得した画像に付随したデータ(例えば、Exif情報)から、撮影日時の取得を行う。これら得られた情報からなる解析情報は、画像データごとにバイナリファイルで保存してもよい。レイアウト処理を行う際に、この解析結果のバイナリファイルを利用することにより解析時間を短縮することができる。 The image analysis unit 207 analyzes image data. In this embodiment, the image conversion unit 206 analyzes the converted image data. Specifically, a feature amount is acquired from the image data, and object determination, face detection, expression recognition of the detected face, and individual recognition of the detected face are performed in the image data. Further, the shooting date and time is acquired from data (eg, Exif information) attached to the image acquired from the storage device 104 . Analysis information composed of the obtained information may be saved as a binary file for each image data. Analysis time can be shortened by using the binary file of the analysis result when performing layout processing.

画像分類部208は、取得した画像群、すなわち、アルバム作成条件設定部201により指定された画像群をサブ画像群(サブ画像データ群)に分割(画像群分割)する。画像群分割は、画像枚数情報、画像解析部207から取得した解析情報に含まれる撮影日時情報、及び検出した顔情報を使って実施する。シーンとは、旅行、日常、結婚式等の所定の撮影シーンのことである。シーンとは、例えば、1つの撮影対象について一時期の撮影機会に撮影された画像の集まりであるということもできる。 The image classification unit 208 divides (image group division) the obtained image group, that is, the image group designated by the album creation condition setting unit 201 into sub-image groups (sub-image data groups). Image group division is performed using image number information, shooting date/time information included in analysis information acquired from the image analysis unit 207, and detected face information. A scene is a predetermined shooting scene such as travel, daily life, wedding ceremony, or the like. A scene can also be said to be, for example, a collection of images of a single subject taken at one shooting opportunity for a certain period of time.

主人公情報入力部209は、アルバム作成条件設定部201から指定された主人公の顔辞書データベースに登録されている個人ID(識別情報)を画像得点部210に入力する。 The main character information input unit 209 inputs the personal ID (identification information) registered in the face dictionary database of the main character specified by the album creation condition setting unit 201 to the image score unit 210 .

画像得点部210は、各画像に対して得点付けをする。本実施形態では、レイアウトに適した画像が高得点になるように各画像に対して得点付けをする。レイアウトに適した画像が高得点になるように得点付けする際は、画像データの解析情報、画像分類結果、主人公情報、画像情報、アルバム作成条件を用いる。また、他の情報を付加的に或いは代替的に用いてもよい。算出した画像得点結果は画像ごとにバイナリファイルで保存してもよい。なお、画像得点部210は、後述するように動画から切り出された画像データに対しては動画解析部203での解析結果を加味して得点を付ける。 The image scorer 210 scores each image. In this embodiment, each image is scored so that an image suitable for the layout has a high score. Image data analysis information, image classification results, main character information, image information, and album creation conditions are used when scoring images so that images suitable for layout receive high scores. Also, other information may be used additionally or alternatively. The calculated image score result may be saved as a binary file for each image. Note that the image scoring unit 210 scores the image data cut out from the moving image, taking into consideration the analysis result of the moving image analyzing unit 203, as will be described later.

見開き数入力部211は、アルバム作成条件設定部201から指定されたアルバムの見開き数を見開き割当部212に入力する。 The page spread number input unit 211 inputs the number of page spreads of the album specified by the album creation condition setting unit 201 to the page spread assignment unit 212 .

見開き割当部212は、画像群を分割して各見開きに割り当てる。ここでいう見開きとは、例えば、アルバムを作成した際の見開き2ページである。ここでは見開きで説明するが単一ページでもよい。見開き割当部212は、入力された見開き数に応じて画像群を分割して各見開きに画像群の一部を割り当てる。例えば、見開き数が5である場合、取得した画像群を5つに分割してサブ画像群を生成し、各見開きに1つのサブ画像群を割当てる。 The double-page spread allocation unit 212 divides the image group and allocates it to each double-page spread. The two-page spread referred to here is, for example, a two-page spread when an album is created. A double-page spread is used here, but a single page may also be used. The double-page spread allocation unit 212 divides the image group according to the input number of double-page spreads, and allocates part of the image group to each double-page spread. For example, when the number of spreads is 5, the acquired image group is divided into 5 sub-image groups, and one sub-image group is assigned to each spread.

画像選択部213は、見開き割当部212で各見開きに割り当てられたサブ画像群から画像得点部210で付けた得点に基づいて、高得点の画像から順に選択する。 The image selection unit 213 sequentially selects the images with the highest score from the group of sub-images assigned to each spread by the spread assignment unit 212 based on the scores given by the image scoring unit 210 .

テンプレート設定部214は、アルバム作成条件設定部201から指定されたテンプレート情報に応じた複数のテンプレートを記憶装置104から読み込み、画像レイアウト部215に入力する。 The template setting unit 214 reads a plurality of templates from the storage device 104 according to the template information specified by the album creation condition setting unit 201 and inputs them to the image layout unit 215 .

画像レイアウト部215は、画像の見開き又はページにおけるレイアウトを決定し、レイアウト情報を出力する。具体的には、画像レイアウト部215は、テンプレート設定部214により入力された複数のテンプレートから画像選択部213で選択した画像に適したテンプレートを選択する。そして、画像レイアウト部215は、ページ又は見開きごとに選択されたテンプレートにおける画像の配置位置を決定することで各ページ又は見開きのレイアウト情報(アルバムデータとも呼ばれる)を作成する。 The image layout unit 215 determines the layout of an image spread or page, and outputs layout information. Specifically, image layout section 215 selects a template suitable for the image selected by image selection section 213 from a plurality of templates input by template setting section 214 . Then, the image layout unit 215 creates layout information (also called album data) for each page or spread by determining the layout positions of the images in the selected template for each page or spread.

レイアウト情報出力部218は、画像レイアウト部215が作成したページ又は見開きのレイアウト情報を決められた順番に並べることでアルバム全体のレイアウト情報を出力する。レイアウト情報は、例えば、選択したテンプレートに選択した画像が配置されたビットマップデータである。また、どの画像がテンプレートのどの座標に配置されるかを示す情報であっても良い。 The layout information output unit 218 outputs the layout information of the entire album by arranging the page or spread layout information created by the image layout unit 215 in a predetermined order. The layout information is, for example, bitmap data in which the selected image is laid out in the selected template. Alternatively, the information may be information indicating which image is arranged at which coordinate of the template.

画像補正部217は、覆い焼き補正、赤目補正、コントラスト補正をする。画像補正条件入力部216は、アルバム作成条件設定部201から指定された画像補正のON/OFF条件を画像補正部217に入力する。画像補正のオンまたはオフは、補正の種類ごとに指定されてもよいし、全ての種類についてまとめて指定されてもよい。画像補正部217は、画像補正条件がONの場合は、画像に対してONとなっている補正を実施する。画像補正条件がOFFの場合は、OFFとなっている補正を実施しない。画像変換部206から画像補正部217に入力する画像の画素数は、画像レイアウト部215で決定したレイアウト画像のサイズに合わせて変えることができる。本実施形態では、レイアウト画像を生成した後に、各画像に画像補正を行うものとしたが、これに限定されず、見開き又はページにレイアウト(配置)する前に、各画像の補正を行うようにしてもよい。 An image correction unit 217 performs dodging correction, red-eye correction, and contrast correction. The image correction condition input unit 216 inputs to the image correction unit 217 ON/OFF conditions for image correction specified by the album creation condition setting unit 201 . ON or OFF of image correction may be designated for each type of correction, or may be collectively designated for all types. When the image correction condition is ON, the image correction unit 217 performs the ON correction on the image. When the image correction condition is OFF, the OFF correction is not performed. The number of pixels of the image input from the image conversion unit 206 to the image correction unit 217 can be changed according to the layout image size determined by the image layout unit 215 . In the present embodiment, image correction is performed on each image after generating a layout image. However, the present invention is not limited to this, and correction of each image may be performed before layout (arrangement) on a double-page spread or page. may

アルバム表示部220は、レイアウト情報出力部218が出力したレイアウト情報に基づいて、作成したアルバムデータを使って表示制御を行う。その結果、アルバムデータの画像がディスプレイ105に表示される。 The album display section 220 performs display control using the created album data based on the layout information output by the layout information output section 218 . As a result, an image of album data is displayed on display 105 .

本実施形態に係るアルバム作成アプリケーションは、画像処理装置100にインストールされ、ユーザ操作により起動されると、記憶装置104に保存されているアルバム作成アプリケーションのプログラムがRAM103にロードされる。RAM103のプログラムがCPU101によって実行されて、アルバム作成アプリケーションが起動する。 An album creation application according to the present embodiment is installed in the image processing apparatus 100 , and when activated by a user operation, the album creation application program stored in the storage device 104 is loaded into the RAM 103 . A program in RAM 103 is executed by CPU 101 to start an album creation application.

図3は、起動したアルバム作成アプリケーションが提供する表示画面301であり、ディスプレイ105に表示される。ユーザは、表示画面301を介して、アルバムの作成条件を設定することができる。ユーザは、表示画面301上のUI画面を介して、後述するアルバムの作成条件を設定することができる。 FIG. 3 shows a display screen 301 provided by the activated album creation application, which is displayed on the display 105. As shown in FIG. The user can set album creation conditions via the display screen 301 . The user can set album creation conditions, which will be described later, via the UI screen on the display screen 301 .

表示画面301は、入力画像・動画群の指定部として、パスボックス302及びフォルダ選択ボタン303を有する。ユーザは、作成するアルバムのレイアウト候補となる画像・動画群を含むフォルダの保存場所(パス)をパスボックス302に入力する。またユーザは、フォルダ選択ボタン303をマウス107でクリックして表示されるツリー構成からそのフォルダを選択することができる。ユーザがフォルダ選択ボタン303から画像・動画群を含むフォルダを選択すると、選択したフォルダパスがパスボックス302に表示されてもよい。 The display screen 301 has a pass box 302 and a folder selection button 303 as input image/moving image group designation units. The user inputs in the path box 302 the storage location (path) of the folder containing the group of images and moving images that are layout candidates for the album to be created. The user can also select the folder from the tree structure displayed by clicking the folder selection button 303 with the mouse 107 . When the user selects a folder containing an image/moving image group from the folder selection button 303 , the selected folder path may be displayed in the path box 302 .

主人公指定部304には、人物の顔画像がアイコンとして複数表示され、ユーザがアイコンを選択することにより主人公を指定することができる。なお、主人公指定部304には、人物毎に顔画像が表示される。言い換えれば、主人公指定部304には、1人に対して1つの顔画像が表示され、それぞれの顔画像は個人IDと関連付けられている。 A plurality of face images of persons are displayed as icons in the hero specifying portion 304, and the user can specify the hero by selecting an icon. A face image is displayed for each person in the main character designation portion 304 . In other words, one face image is displayed for each person in the main character designation section 304, and each face image is associated with an individual ID.

なお、この主人公指定部304は、解析対象の画像すなわち写真に写った人物から中心人物である主人公を特定するために用いられる。顔画像は、例えば予め画像から検出され、個人IDと関連付けて顔辞書データベースに登録されている。主人公指定部304に表示されるアイコンは、例えば顔辞書データベースに登録された人物の顔画像のうち、ユーザが選択した人物の顔画像や後述の方法で決めた人物の顔画像である。主人公指定部304には、異なる人物の顔画像のアイコンが複数並び、マウス107によってクリックして選択できる。主人公は図4の手順で自動設定することもできるが、主人公指定部304でユーザが手動設定することもできる。主人公指定部304に表示されたアイコンのうちユーザにより選択されたアイコンの人物が主人公として指定される。 The main character specifying section 304 is used to specify the main character, who is the main character, from the person appearing in the analysis target image, that is, the photograph. A face image is detected in advance from an image, for example, and registered in a face dictionary database in association with a personal ID. The icons displayed in the hero designation section 304 are, for example, the face images of persons selected by the user from among the face images of persons registered in the face dictionary database, or the face images of persons determined by a method described later. A plurality of icons of face images of different persons are arranged in the main character designation portion 304 and can be selected by clicking with the mouse 107 . The hero can be automatically set by the procedure shown in FIG. The person whose icon is selected by the user from among the icons displayed in the hero designation portion 304 is designated as the hero.

見開き数ボックス305は、アルバムにおける見開き数を指定するボックスである。ユーザは、キーボード106を使って見開き数ボックス305に直接数字を入力したり、マウス107を使ってリストから見開き数ボックス305に数字を入力したりすることができる。 A double-page spread box 305 is a box for designating the number of double-page spreads in the album. The user can use the keyboard 106 to directly enter a number into the spread number box 305 or use the mouse 107 to enter a number from a list into the spread number box 305 .

テンプレート指定部306は、テンプレートのテイスト(ポップ調やシック調等)が分かるイラスト画像がアイコンとして複数表示され、テンプレートを指定することができる。本実施形態では、テンプレートとは、画像を配置するための画像配置枠(スロット)を有する。テンプレート指定部306では、複数のテンプレートのアイコンが並び、マウス107によってクリックすることにより、テンプレートを選択することができる。 A template designating section 306 displays a plurality of illustration images as icons showing the taste of the template (pop style, chic style, etc.), and can designate a template. In this embodiment, a template has an image layout frame (slot) for arranging an image. In the template designation section 306, icons of a plurality of templates are arranged, and a template can be selected by clicking with the mouse 107. FIG.

モード指定部307は、アルバムを作成する際に考慮するオブジェクトが分かるイラスト画像がアイコンとして複数表示され、オブジェクトを指定することができる。本実施形態では、「人」、「動物」、「料理」の3つをオブジェクト例として説明する。これ以外のオブジェクトで、3つ以上のオブジェクトから選択してもよい。また、同時に複数のオブジェクトを指定することも可能だが、ここでは説明の簡略化のためにオブジェクトが1つ選択された場合について説明する。マウス107によってモード指定部307内のオブジェクト毎に設けられたアイコンをクリックすることにより、考慮するオブジェクトを指定することができる。 A mode designation portion 307 displays a plurality of illustration images as icons showing objects to be considered when creating an album, and can designate objects. In the present embodiment, three objects, ie, "people", "animals", and "cooking" will be described as object examples. Other objects may be selected from three or more objects. Also, it is possible to designate a plurality of objects at the same time, but here, for the sake of simplicity of explanation, the case where one object is selected will be explained. An object to be considered can be specified by clicking an icon provided for each object in the mode specifying section 307 with the mouse 107 .

チェックボックス308は、画像補正のON/OFFを指定することができる。マウス107でチェックを入れると上述した画像補正がONとなり、チェックを入れないと画像補正がOFFとなる。本実施形態では、全ての画像補正が1つのボタンでON/OFFされるものとしたが、これに限定されず、画像補正の種類毎にチェックボックスを備えるようにしてもよい。 A check box 308 can specify ON/OFF of image correction. When a check is put in with the mouse 107, the image correction described above is turned on, and when a check is not put in, the image correction is turned off. In the present embodiment, all image corrections are turned ON/OFF by one button, but the present invention is not limited to this, and a check box may be provided for each type of image correction.

見開き写真枚数指定バー309は、作成するアルバムの各見開きに配置する画像枚数をスライダーバーで設定することができる。スライダーバーがユーザにより「多」側に設定されると、各見開きに配置する画像枚数を増やす。また、スライダーバーがユーザにより「少」側に設定されると、各見開きに配置する画像枚数を減らす。 A double-page spread photo count designation bar 309 allows the user to set the number of images to be arranged in each double-page spread of the album to be created using a slider bar. When the user sets the slider bar to the "many" side, the number of images arranged in each spread is increased. Also, when the user sets the slider bar to the "small" side, the number of images arranged in each spread is reduced.

商材指定部310は、作成するアルバムの商材を設定する。商材は、アルバムのサイズ、アルバムの用紙種類を設定することができる。個別に表紙種類や綴じ部の種類を設定してもよい。 The merchandise designation unit 310 sets the merchandise of the album to be created. The size of the album and the paper type of the album can be set for the product. The cover type and binding type may be set individually.

OKボタン311は、表示画面301上で選択された条件をアルバム作成条件として決定するボタンである。ユーザがOKボタン311をマウス107でクリックして選択すると、アルバム作成条件が確定し、アルバム作成条件設定部201を介して、自動レイアウト処理部219にアルバム作成条件が伝えられる。具体的には、パスボックス302に入力されているパスは画像取得部205に伝えられる。主人公指定部304に含まれる複数のアイコンから選択されたアイコンに対応する個人IDは主人公情報入力部209に伝えられる。見開き数ボックス305に入力されている見開き数は見開き数入力部211に伝えられる。テンプレート指定部306に含まれる複数のアイコンから選択されたアイコンのテンプレート情報はテンプレート設定部214に伝えられる。画像補正チェックボックスの画像補正のON/OFFは画像補正条件入力部216に伝えられる。 The OK button 311 is a button for determining the conditions selected on the display screen 301 as album creation conditions. When the user selects the OK button 311 by clicking it with the mouse 107 , the album creation conditions are determined and transmitted to the automatic layout processing section 219 via the album creation condition setting section 201 . Specifically, the path input in the path box 302 is transmitted to the image acquisition unit 205 . A personal ID corresponding to an icon selected from a plurality of icons included in hero designation section 304 is transmitted to hero information input section 209 . The number of spreads entered in the number of spreads box 305 is transmitted to the number of spreads input unit 211 . The template information of the icon selected from the plurality of icons included in template specifying section 306 is transmitted to template setting section 214 . ON/OFF of image correction in the image correction check box is transmitted to the image correction condition input unit 216 .

リセットボタン312は、表示画面上の各設定情報をリセットするためのボタンである。 A reset button 312 is a button for resetting each setting information on the display screen.

図4は、本実施形態に係るアルバム作成アプリケーションの自動レイアウトを実行する処理フロー図である。図4に示すフローチャートは、例えば、CPU101が記憶装置104に格納されたプログラムをROM102やRAM103に読み出して実行することにより実現される。図4を使って、自動レイアウトの処理フローを以下説明する。以下に示す通り、本実施形態では、アルバムを作成する際に、アルバムを作成するための画像群を撮影時間に応じてサブ画像群に分割し、分割した各サブ画像群(以下、「区間」ともいう)からページ又は見開きに配置する画像を選択する。 FIG. 4 is a processing flowchart for executing automatic layout of the album creating application according to this embodiment. The flowchart shown in FIG. 4 is realized, for example, by the CPU 101 reading a program stored in the storage device 104 to the ROM 102 or the RAM 103 and executing the program. The processing flow of automatic layout will be described below with reference to FIG. As described below, in this embodiment, when creating an album, a group of images for creating an album is divided into sub-image groups according to shooting time, and each divided sub-image group (hereinafter referred to as a “section”) is divided into sub-image groups. ) to be placed on a page or spread.

S401では、アルバム作成条件設定部201がアルバム作成条件を設定する。ここで、アルバムを作成する動画・画像群、主人公、見開き数、テンプレート、モード、画像補正に関して設定された情報が設定される。 In S401, the album creation condition setting unit 201 sets album creation conditions. Here, information set regarding a moving image/image group for creating an album, a main character, the number of double-page spreads, a template, a mode, and image correction is set.

S402では、動画取得部202が指定されたフォルダから動画データを取得する。 In S402, the moving image acquisition unit 202 acquires moving image data from the designated folder.

S403では、動画解析部203が、取得した動画データの解析を行う。動画解析部203は、動き量、カメラワーク、ブレボケや表情などの結果を組み合わせた総合スコア値を算出する。更に、動画解析部203は、算出した総合スコア値に基づいて自動レイアウト候補用と、ユーザが編集作業時に差し替える編集候補用とに分けてもよい。例えば、算出した総合スコア値が所定の閾値以上であれば自動レイアウト候補用としてもよい。 In S403, the moving image analysis unit 203 analyzes the acquired moving image data. The moving image analysis unit 203 calculates a total score value by combining the results of motion amount, camerawork, blurring, facial expression, and the like. Furthermore, the moving image analysis unit 203 may be divided into automatic layout candidates and editing candidates that the user replaces during editing work based on the calculated total score value. For example, if the calculated total score value is equal to or greater than a predetermined threshold value, it may be used as an automatic layout candidate.

S404では、フレーム取得部204が、解析した動画データから所定の閾値以上の総合スコア値を有するフレームを切り出して画像データとして記憶装置104に保存する。保存されたフレームに対応する解析結果(動き量、カメラワーク、総合スコア値)が関連付けて記憶装置104に保存されても良い。 In S404, the frame acquisition unit 204 cuts out frames having a total score value equal to or greater than a predetermined threshold value from the analyzed moving image data, and stores the frames as image data in the storage device 104. FIG. The analysis results (movement amount, camerawork, total score value) corresponding to the saved frames may be associated and saved in the storage device 104 .

S405では、アルバム作成条件設定部201で指定された記憶装置104の動画群の全動画に対して、S402からS404が終了したか否かを動画解析部203が判定する。終了していない場合(S405でNo)、S402に戻る。終了している場合(S405でYes)はS406に移行する。 In S405, the moving image analysis unit 203 determines whether or not S402 to S404 have been completed for all moving images in the moving image group in the storage device 104 specified by the album creation condition setting unit 201. FIG. If not finished (No in S405), the process returns to S402. If completed (Yes in S405), the process proceeds to S406.

S406では、画像取得部205が、指定された画像群に含まれる画像を記憶装置104から読み込み、RAM103に展開する。 In S<b>406 , the image acquisition unit 205 reads images included in the specified image group from the storage device 104 and develops them in the RAM 103 .

S407では、画像変換部206がRAM103に展開された画像データから解析画像データを生成する。画像変換部206は、アルバム作成条件設定部201で指定された条件に対応する画像群を記憶装置104から取得し、取得された画像群の各画像を所望の画素数と色情報に変換する。なお、ここで変換後の画素数及び色情報は、予め決められており、プログラム又はプログラムが用いるパラメータファイルに保存されている。本実施形態では、入力された画像データを短辺420画素のサイズとsRGBの色空間とを持つ解析画像データに変換する。 In S<b>407 , the image conversion unit 206 generates analysis image data from the image data developed in the RAM 103 . The image conversion unit 206 acquires from the storage device 104 an image group corresponding to the conditions specified by the album creation condition setting unit 201, and converts each image of the acquired image group into desired pixel count and color information. Note that the number of pixels and color information after conversion are determined in advance and stored in a program or a parameter file used by the program. In this embodiment, input image data is converted into analysis image data having a size of 420 pixels on the short side and an sRGB color space.

S408では、画像解析部207が画像データに付随する情報および解析画像データの画質の特徴量を取得する。画像解析部207は、記憶装置104から取得した画像群に含まれる各画像データに付随する情報から撮影日時を取得する。本実施形態では、各画像データに付随するExif情報から撮影日時を取得する。また、画像解析部207は、S407で生成された解析画像データから画質の特徴量を取得する。画質の特徴量としては、例えば、ピントが挙げられる。エッジの検出方法として、公知のソーベルフィルタを用いることができる。ソーベルフィルタで画像のエッジを検出し、エッジの始点と終点の輝度差を、始点と終点の距離で割ることによりエッジの傾き、すなわち輝度勾配を算出する。画像中のエッジの平均傾きを算出して、平均傾きが大きい画像は、平均傾きが小さい画像よりもピントが合っていると判定される。本実施形態では、複数の傾き閾値を設定し、いずれの傾き閾値以上かを判別することでピント量が許容できるか判定する。本実施形態では、異なる2つの傾き閾値を設定し、○△×の3段階でピント量を判別する。画像中のエッジの平均傾きが第1の閾値以上であれば、ピントの傾きを○(好適)、第1の閾値よりも低い第2の閾値以上であれば、ピントの傾きを△(許容できる)、第2の閾値未満であればピントの傾きを×(許容できない)とする。 In S408, the image analysis unit 207 acquires information associated with the image data and the image quality feature amount of the analysis image data. The image analysis unit 207 acquires the shooting date and time from information attached to each image data included in the image group acquired from the storage device 104 . In this embodiment, the shooting date and time is acquired from the Exif information attached to each image data. Further, the image analysis unit 207 acquires the feature amount of image quality from the analysis image data generated in S407. For example, the feature amount of image quality includes focus. A known Sobel filter can be used as an edge detection method. An edge of an image is detected by a Sobel filter, and the gradient of the edge, that is, the luminance gradient is calculated by dividing the luminance difference between the start point and the end point of the edge by the distance between the start point and the end point. An average slope of edges in the image is calculated, and an image with a large average slope is determined to be more in focus than an image with a small average slope. In this embodiment, a plurality of tilt thresholds are set, and it is determined whether or not the focus amount is acceptable by determining which tilt threshold is greater than or equal to. In this embodiment, two different tilt thresholds are set, and the focus amount is determined in three stages of ◯Δ×. If the average slope of the edges in the image is greater than or equal to the first threshold, the tilt of the focus is ◯ (preferred). ), and if it is less than the second threshold, the tilt of focus is set to x (unacceptable).

S409では、画像解析部207が各解析画像データにおいてオブジェクトの検出と認識とを実行する。S407で生成された解析画像データから顔を検出する。顔の検出は、公知の方法を用いることができる。公知の方法としては、例えば、複数用意した弱識別器から強識別器を作成するAdaboostが挙げられる。本実施形態では、画像解析部207が、Adaboostにより作成した強識別器により人物(オブジェクト)の顔を検出する。S409では、画像解析部207が、顔画像を検出(抽出)すると共に、画像における検出した顔画像の位置の左上座標値と右下座標値を取得する。なお、ここでいう「画像」とはS407で生成された解析画像データにより表される画像である。
この2種の座標を特定することにより、人物の顔の位置と顔のサイズを特定することができる。更に、画像解析部207が、顔の検出と同様に、犬や猫等の動物と、料理をそれぞれ検出するAdaBoostも併せて実行する。その結果、画像解析部207が、人物、動物、料理のオブジェクトを検出すると同時にオブジェクトが何であるかを分類し、認識することができる。なお、上記に限らず、花、建物、置物等が認識されてもよい。ここでは、AdaBoostを用いたオブジェクト分類で説明したが、ディープニューラルネットワークによる画像認識を用いてもよい。画像解析部207は、このようにして認識した顔画像に個人IDを割り振って顔辞書データベースを作成する。
In S409, the image analysis unit 207 executes object detection and recognition in each analysis image data. A face is detected from the analysis image data generated in S407. A known method can be used for face detection. As a known method, for example, there is Adaboost, which creates a strong classifier from a plurality of prepared weak classifiers. In this embodiment, the image analysis unit 207 detects the face of a person (object) using a strong classifier created by Adaboost. In S409, the image analysis unit 207 detects (extracts) the face image and obtains the upper left coordinate value and the lower right coordinate value of the position of the detected face image in the image. Note that the “image” referred to here is an image represented by the analysis image data generated in S407.
By specifying these two types of coordinates, the position and size of the person's face can be specified. Furthermore, the image analysis unit 207 also performs AdaBoost for detecting animals such as dogs and cats and food, as well as face detection. As a result, the image analysis unit 207 can detect objects such as people, animals, and food, and at the same time classify and recognize what the objects are. In addition, flowers, buildings, ornaments, etc. may be recognized without being limited to the above. Although object classification using AdaBoost has been described here, image recognition using a deep neural network may also be used. The image analysis unit 207 creates a face dictionary database by assigning personal IDs to the face images thus recognized.

S410では、画像解析部207が個人認識をする。まず、S409で抽出した顔画像と、顔辞書データベースに個人ID毎に保存されている代表顔画像との類似性を比較する。そして、類似性が閾値以上であり且つ最も類似性が高い個人IDを、抽出した顔画像の個人IDに決定する。すなわち、画像解析部207は、類似性が閾値以上であり且つ最も類似性が高い個人IDに対応する人物を、抽出した顔画像の人物として特定する。なお、類似性が閾値未満の場合は、抽出した顔画像に新規の人物として新規の個人IDを割り振って、顔辞書データベースに登録する。 In S410, the image analysis unit 207 performs individual recognition. First, the similarity between the face image extracted in S409 and the representative face image stored for each individual ID in the face dictionary database is compared. Then, the personal ID whose similarity is equal to or higher than the threshold and which has the highest similarity is determined as the personal ID of the extracted face image. That is, the image analysis unit 207 identifies the person whose similarity is equal to or greater than the threshold and who corresponds to the personal ID with the highest similarity as the person of the extracted face image. If the similarity is less than the threshold, a new personal ID is assigned to the extracted face image as a new person and registered in the face dictionary database.

S408からS410で取得した各解析画像データの画像解析情報は、図5に示すように、画像を識別するID毎に区別して記憶装置104に記憶する。画像解析部207は、S408で取得した撮影日時情報及びピント判別結果、S409で検出した顔の数と位置情報を各解析画像データの画像解析情報として保存する。なお、1つの解析画像データに基づく画像には、複数の顔画像が含まれる場合があるが、顔の位置情報は、S410で取得した個人ID毎に区別して記憶する。なお、画像データにおいて顔が検出されない場合は、S408で取得した撮影日時情報及びピント判別結果が保存される。また、画像解析部207は、画像内に含まれる主要オブジェクトをAdaboost実行時の信頼度が高いものから保存する。ここでは、オブジェクトが検出されなかった場合は、オブジェクトに関する情報は格納されない。顔以外のオブジェクトに関しても、同様に格納する。AdaBoostはパターンを判別する弱判別器を連続で接続し、1つの強判別器を形成する。そのため、信頼度はAdaboostで予め学習したパターンと一致する弱判別器が多いほど高くなる。ここでは、AdaBoostを例にオブジェクト判定を説明したが、DeepNeuralNetworkをはじめとするConvolutionalNeuralNetworkを用いた判別器であってもよい。 The image analysis information of each analysis image data acquired in steps S408 to S410 is stored in the storage device 104 by distinguishing the IDs for identifying images, as shown in FIG. The image analysis unit 207 saves the photographing date/time information and focus determination result acquired in S408, and the number and position information of faces detected in S409 as image analysis information of each analysis image data. An image based on one piece of analysis image data may include a plurality of face images, but the position information of the face is stored separately for each individual ID acquired in S410. Note that if no face is detected in the image data, the shooting date/time information and the focus determination result acquired in S408 are saved. Further, the image analysis unit 207 stores the main objects included in the image in descending order of reliability when Adaboost is executed. Here, if no object is detected, no information about the object is stored. Objects other than faces are stored in the same way. AdaBoost continuously connects weak classifiers that discriminate patterns to form one strong classifier. Therefore, the reliability increases as the number of weak classifiers that match patterns learned in advance by Adaboost increases. Here, object determination has been described using AdaBoost as an example, but a discriminator using a Convolutional Neural Network such as a Deep Neural Network may also be used.

S411では、画像解析部207は、アルバム作成条件設定部201が指定された記憶装置104の画像群の全画像に対してS407からS410が終了したか否かを判定する。終了していない場合(S411でNo)、S406に戻る。終了している場合(S411でYes)はS412に移行する。 In S411, the image analysis unit 207 determines whether or not S407 to S410 have been completed for all images in the image group of the storage device 104 for which the album creation condition setting unit 201 has been designated. If not finished (No in S411), the process returns to S406. If completed (Yes in S411), the process proceeds to S412.

S412では、画像分類部208が解析画像群に対して画像群分割を行う。画像群分割とは、取得した解析画像群のうち撮影日時が近い画像同士をまとめてサブ画像群として、複数のサブ画像群に分割することを指す。具体的には、S408で取得済みの撮影日時情報に基づいて、解析画像間の時間差を頼りに解析画像群を複数のサブ画像群に分割する。分割の基準の例は以下のとおりである。解析画像群のうち、例えば最も撮影日時が古い(或いは新しい)画像データに最初に着目し、その次に古い(新しい)画像データとの時間差を参照する。これを、着目画像を順次撮影日時が新しい(或いは古い)ものに置き換えつつ以下のいずれの条件に該当するか判定を行う。なお以下の説明で分割するとは、2つの画像データ間を境に撮影日時の新しいサブ画像群と古いサブ画像群とに分割するという意味である。 In S412, the image classification unit 208 performs image group division on the analysis image group. Image group division refers to dividing into a plurality of sub-image groups by grouping images having close photographing dates and times in the obtained analysis image group as a sub-image group. Specifically, the analysis image group is divided into a plurality of sub-image groups based on the photographing date and time information already acquired in S408, relying on the time difference between the analysis images. Examples of division criteria are as follows. In the analysis image group, for example, the image data with the oldest (or newest) shooting date and time is first focused on, and the time difference with the next oldest (newest) image data is referenced. While sequentially replacing the images of interest with those having newer (or older) shooting dates and times, it is determined which of the following conditions is met. Note that dividing in the following description means dividing two image data into a group of sub-images with a new shooting date and a group of sub-images with an old shooting date on the boundary between two pieces of image data.

まず、撮影日が連続していない場合、すなわち、画像間に撮影していない日が存在する場合は、そこで分割する。次に、撮影日が連続する場合について説明する。本実施形態では、画像と画像の撮影時間の差が16時間以上空いている場合はそこで分割する。画像と画像の撮影時間の差が16時間未満の場合は、連続する各日の最初の撮影から最後の撮影までの時間差が4時間未満なら撮影日ごとに分割する。本実施形態では、4時間以上の場合は、連続する各日の撮影枚数が50枚未満なら撮影日ごとに分割し、50枚以上であれば分割しないものとする。なお、分割の際の時間差の閾値や枚数の閾値は、これに限定されるものではない。図6(A)は、上述した画像群分割方法で分割した結果を示しており、8個のサブ画像群に分割されている。 First, if the shooting dates are not consecutive, that is, if there are days on which no shooting is performed between the images, the images are divided there. Next, a case where shooting dates are consecutive will be described. In this embodiment, when the difference between the photographing times of the images is 16 hours or more, the images are divided at that point. If the difference between the capture times of images is less than 16 hours, split by capture date if the time difference from the first capture to the last capture on each consecutive day is less than 4 hours. In the present embodiment, if the number of shots for each consecutive day is less than 50 for four hours or longer, it is divided by shooting day, and if it is 50 or more, it is not split. Note that the threshold for the time difference and the threshold for the number of sheets in division are not limited to these. FIG. 6A shows the result of division by the image group division method described above, and is divided into eight sub-image groups.

S413では、画像分類部208がシーン分類を行う。本実施形態では、各サブ画像群を旅行、日常、セレモニーの3つのシーンに分類する場合を例に挙げて説明するが、分類するシーンはこれに限定されるものではない。 In S413, the image classification unit 208 performs scene classification. In the present embodiment, an example of classifying each sub-image group into three scenes of travel, daily life, and ceremony will be described, but the scenes to be classified are not limited to these.

まず、画像分類部208は、旅行、日常、セレモニーのうちいずれのシーンに分類されるかが予め判定されたサブ画像群を複数取得する。そして画像分類部208は、各シーンのサブ画像群について、撮影の特徴量を取得する。本実施形態で取得する特徴量は、例えば、撮影期間、撮影枚数、撮影人数である。撮影期間は、サブ画像群の最初の撮影から最後の撮影までの時間差である。撮影枚数は、サブ画像群に含まれる画像の数(写真の枚数)である。撮影人数は、顔が写っている画像における顔の数である。すなわち、1つの画像に含まれる顔の数である。そして、各シーンのサブ画像群に対して、撮影期間の平均値と標準偏差、撮影枚数の平均値と標準偏差、1画像あたりの人数の平均値と標準偏差を求める。なお、本実施形態では、1画像あたりの顔の数が、1画像あたりの人数とする。図7は、撮影期間(時間)、撮影枚数(枚)、撮影人数(人)各平均値と標準偏差の一例を示す。これらの求めた値は、アルバム作成アプリケーションのプログラムに予め組み込んでおく。すなわち、予め集めたサンプル画像(教師画像)群を使って設計段階で学習によってシーンを特徴付けるパラメータを作成して、そのパラメータをプログラムに予め組み込んでおく、又はプログラムが参照可能な状態で格納しておく。 First, the image classification unit 208 acquires a plurality of sub-image groups for which it has been determined in advance which of the travel, daily life, and ceremony scenes the images should be classified into. Then, the image classification unit 208 acquires the photographing feature amount for the sub-image group of each scene. The feature values acquired in this embodiment are, for example, the shooting period, the number of shots, and the number of shots. The shooting period is the time difference from the first shooting to the last shooting of the sub-image group. The number of shots is the number of images (the number of photographs) included in the sub-image group. The number of people photographed is the number of faces in images containing faces. That is, it is the number of faces included in one image. Then, the average value and standard deviation of the shooting period, the average value and standard deviation of the number of shots, and the average value and standard deviation of the number of people per image are obtained for the group of sub-images of each scene. Note that in the present embodiment, the number of faces per image is the number of people per image. FIG. 7 shows an example of average values and standard deviations of the shooting period (time), the number of shots (pictures), and the number of shots (persons). These obtained values are incorporated in the album creation application program in advance. That is, a group of sample images (teacher images) collected in advance is used to create parameters that characterize the scene through learning at the design stage, and the parameters are incorporated in the program in advance or stored in a state that the program can refer to. back.

アルバム作成アプリケーションが起動された後、ユーザがパスボックス302で指定した画像群がS406で画像取得部205により取得され、S407で画像変換部206が取得した画像群を解析画像に変換する。その解析画像群は、S412で画像分類部208によりサブ画像群に分割される。そして画像分類部208は、各サブ画像群の撮影期間、撮影枚数、及び撮影人数のそれぞれの平均値である特徴量を算出する。そして、画像分類部208は、算出したサブ画像群の特徴量と、予め求めたシーン及び特徴量毎の平均値及び標準偏差とに基づいて、以下の式により各サブ画像群のシーン毎の得点を求める。 After the album creation application is started, the image group specified by the user in the pass box 302 is acquired by the image acquiring unit 205 in S406, and the acquired image group is converted into the analysis image by the image converting unit 206 in S407. The analysis image group is divided into sub-image groups by the image classification unit 208 in S412. Then, the image classification unit 208 calculates a feature amount that is the average value of the shooting period, the number of shots, and the number of shots of each sub-image group. Then, the image classification unit 208 calculates the score of each scene of each sub-image group using the following formula based on the calculated feature amount of the sub-image group and the average value and standard deviation for each scene and feature amount obtained in advance. Ask for

シーン及び特徴量毎の得点=50-|10×(シーン及び特徴量毎の平均値-サブ画像群の特徴量)/シーン及び特徴量毎の標準偏差| 式(1) Score for each scene and feature amount=50−|10×(Average value for each scene and feature amount−Feature amount for sub-image group)/Standard deviation for each scene and feature amount|Equation (1)

シーン毎の平均得点=(シーン毎の撮影期間の得点+シーン毎の撮影枚数の得点+シーン毎の撮影人数の得点)/特徴量項目数 式(2) Average score for each scene = (Score for the shooting period for each scene + Score for the number of shots for each scene + Score for the number of shots for each scene)/feature item formula (2)

なお、式(2)の特徴量項目数はこの場合3である。これら式(1)及び式(2)により、着目サブ画像群の、各シーンについての得点が求められる。例えば、図7に記載の平均値と標準偏差および式(1)により、旅行シーンの撮影期間、撮影枚数、撮影人数それぞれの得点が求められる。すなわち、旅行シーンの撮影期間の得点は、50-|10×(33.221-サブ画像群の撮影期間)/4.778|となる。旅行シーンの撮影枚数の得点は、50-|10×(3.336-サブ画像群の撮影枚数)/4.671|となる。旅行シーンの撮影人数の得点は、50-|10×(4.634-サブ画像群の撮影人数)/1.532|となる。これら式(1)で求めた旅行シーンの特徴量毎の得点を式(2)により平均化して、旅行シーンに関する得点とする。同様に、日常、セレモニーという他のシーンについても得点が得られる。 Note that the number of feature amount items in Equation (2) is 3 in this case. A score for each scene of the group of sub-images of interest is obtained by these equations (1) and (2). For example, the average value and standard deviation shown in FIG. 7 and the formula (1) can be used to obtain scores for the shooting period, the number of shots, and the number of shots of the travel scene. That is, the score for the travel scene shooting period is 50−|10×(33.221−sub image group shooting period)/4.778|. The score for the number of shots of the travel scene is 50−|10×(3.336−the number of shots of the sub-image group)/4.671|. The score for the number of people who took the travel scene is 50−|10×(4.634−the number of people who took the sub-image group)/1.532|. The score for each feature amount of the travel scene obtained by the formula (1) is averaged by the formula (2) to obtain the score for the travel scene. Similarly, scores can be obtained for other scenes such as daily life and ceremonies.

以上により、S412で分割されたサブ画像群毎に、旅行、日常、セレモニーのシーン毎の平均得点が算出される。このようにして画像分類部208は、算出した各サブ画像群のシーン毎の平均得点のうち最高点のシーンにそのサブ画像群を分類する。2以上のシーンが同点の場合は、予め定めたシーンの優先順位に従ってシーンを分類する。例えば、本実施形態では、日常>セレモニー>旅行の順に優先することが予め決められており、日常の優先度を最も高くしている。なお、優先度の順番はこれに限定されるものではなく、また、ユーザが優先度の順番を設定できるようにしてもよい。 As described above, the average score for each scene of travel, daily life, and ceremony is calculated for each sub-image group divided in S412. In this manner, the image classification unit 208 classifies the sub-image group into the scene with the highest score among the calculated average scores for each scene of each sub-image group. If two or more scenes are tied, the scenes are sorted according to a predetermined scene priority. For example, in the present embodiment, it is predetermined that priority is given in the order of daily life>ceremony>travel, and the highest priority is given to daily life. Note that the order of priority is not limited to this, and the order of priority may be set by the user.

図6(a)のシーン分割された後のサブ画像群(5)は、撮影期間が36時間、撮影枚数が300枚、撮影人数が1.7人であった。旅行の平均得点は45.32、日常の平均得点は18.38、セレモニーの平均得点は-29.92となり、サブ画像群(5)のシーンは旅行に分類される。サブ画像群は、シーン識別ができるようにシーンIDを関連付けて管理する。 In the sub-image group (5) after scene division in FIG. 6A, the shooting period was 36 hours, the number of shots was 300, and the number of shots was 1.7. The average score for travel is 45.32, the average score for daily life is 18.38, and the average score for ceremony is -29.92, and the scene of sub-image group (5) is classified as travel. The sub-image group is managed by associating it with a scene ID so that the scene can be identified.

S414では、画像分類部208は、S412で分割された全サブ画像群に対してS413のシーン分類が終了したか否かを判定する。終了していない場合(S414でNo)、S413に戻る。終了している場合(S414でYes)、S415に移行する。 In S414, the image classification unit 208 determines whether or not the scene classification in S413 has been completed for all sub-image groups divided in S412. If not finished (No in S414), the process returns to S413. If completed (Yes in S414), the process proceeds to S415.

S415では、画像得点部210が主人公設定を行う。主人公設定は、ユーザが指定した画像群に対して実施され、自動と手動の2種類がある。自動で主人公を設定する場合、画像得点部210は、S410の個人認識の結果と、S412の画像群分割の結果に基づいて設定する。S410で取得した結果から、サブ画像群に登場する各個人IDの出現数、各シーンに登場する各個人IDの出現数、各個人IDが登場するシーンの出現数等を特定し、これらの情報から自動で主人公を設定する。本実施形態では、サブ画像群が複数シーンに分類されている場合は複数のシーンに登場する個人IDを主人公IDと設定し、全サブ画像群が単一シーンに分類されている場合は全サブ画像群での出現数が最も多い個人IDを主人公IDと設定する。主人公指定部304でユーザが特定のアイコンを指定している場合は、主人公情報入力部209を介して選択されたアイコンに対応する個人IDが画像得点部210に伝えられる。ユーザ指定の個人IDがある場合は、上述した自動設定の主人公IDは無視して、ユーザ指定の個人IDを主人公IDと設定する。このように、主人公指定部304でのユーザ指定に基づく設定を手動設定とする。 In S415, the image scoring unit 210 sets the hero. The main character setting is performed on a group of images specified by the user, and there are two types of setting: automatic and manual. When setting the main character automatically, the image scoring unit 210 sets based on the result of personal recognition in S410 and the result of image group division in S412. From the results obtained in S410, the number of appearances of each individual ID appearing in the sub-image group, the number of appearances of each individual ID appearing in each scene, the number of appearances of scenes in which each individual ID appears, etc. are specified, and these information are obtained. Automatically set the hero from. In this embodiment, when sub-image groups are classified into a plurality of scenes, a person ID appearing in a plurality of scenes is set as the main character ID, and when all sub-image groups are classified into a single scene, all sub-images are classified into a single scene. The personal ID that appears the most in the image group is set as the main character ID. When the user designates a specific icon in the hero designation section 304 , the personal ID corresponding to the icon selected via the hero information input section 209 is transmitted to the image scoring section 210 . If there is a user-designated personal ID, the user-designated personal ID is set as the main character ID, ignoring the above-described automatically set main character ID. In this way, the setting based on the user's designation by the main character designation unit 304 is the manual setting.

S416では、画像得点部210が得点化を行う。得点化とは、後述する画像選択時に参照する値であり、画像データ毎に後述する観点で評価した得点を付ける。更に、動画から切り出された画像データに対しては動画解析部203で解析された結果も加味して得点を付ける。ここで、図8及び図10を用いて、得点化方法について説明する。 In S416, the image scoring unit 210 performs scoring. Scoring is a value that is referred to when selecting an image, which will be described later, and a score is given to each image data based on a viewpoint that will be described later. Furthermore, the image data clipped from the moving image is scored in consideration of the result of analysis by the moving image analysis unit 203 . Here, the scoring method will be described with reference to FIGS. 8 and 10. FIG.

図10は、3枚の画像を配置するためのテンプレート群を示している。図10の(1-1)に示すテンプレート1001は、1つのテンプレートであり、メインスロット1002と、サブスロット1003と、サブスロット1004を有する。メインスロット1002とは、テンプレート1001で主要なスロット(画像を配置する位置)であり、サブスロット1003、1004よりもサイズが大きい。すなわち、メインスロットとは、各テンプレートにおいて、最もサイズが大きいスロットである。また、サブスロットとは、各テンプレートにおいて、メインスロット以外のスロットである。本実施形態では、各画像データにメインスロット用の得点とサブスロット用の得点との両方が設定する。 FIG. 10 shows a template group for arranging three images. A template 1001 shown in (1-1) of FIG. 10 is one template and has a main slot 1002, a sub-slot 1003, and a sub-slot 1004. FIG. A main slot 1002 is a main slot (position where an image is arranged) in the template 1001 and is larger in size than the sub-slots 1003 and 1004 . That is, the main slot is the slot with the largest size in each template. A sub-slot is a slot other than the main slot in each template. In this embodiment, both the score for the main slot and the score for the sub-slot are set for each piece of image data.

次に、図8(a)に画像データの得点化の基準を示す。より具体的には、図8(a)は、旅行、日常、セレモニーのシーン毎に得点が高くなる画像の特徴をまとめた表である。なお、図8(a)に示すように、スロットの種類に応じて、得点が高くなる特徴が異なる。例えば、サブ画像群のシーン分類が旅行である場合、人物と風景が入った引きの画像は、メインスロットとしての得点が高くなり、顔のアップや横顔の画像は、サブスロットとしての得点が高くなる。一方、サブ画像群のシーン分類が日常である場合、顔のアップや横顔の画像は、メインスロットとしての得点が高くなり、人物と風景が入ったひいた画像は、サブスロットとしての得点が高くなる。また、サブ画像群のシーン分類がセレモニーである場合、2人の距離が近い画像は、メインスロットとしての得点が高くなり、大人数の画像は、サブスロットとしての得点が高くなる。このように、シーン及びスロットの種類に応じて、得点が高くなる特徴、言い換えれば、評価基準が異なる。本実施形態では、シーン及びスロットの種類に応じた得点が高くなる特徴又は評価基準は、アプリケーションにおいて予め設定しておき、プログラムに含むものとする。 Next, FIG. 8A shows criteria for scoring image data. More specifically, FIG. 8(a) is a table summarizing the features of images with high scores for travel, daily life, and ceremony scenes. Note that, as shown in FIG. 8(a), the feature of increasing the score differs depending on the slot type. For example, if the scene classification of the sub-image group is travel, the score for the main slot is high for the close-up image containing people and scenery, and the score for the close-up and profile images is high as the sub-slot. Become. On the other hand, when the scene classification of the sub-image group is everyday, close-up and side-face images score high as the main slot, and images with portraits and landscapes score high as the sub-slot. Become. Further, when the scene classification of the sub-image group is Ceremony, an image in which two people are close to each other has a high score as the main slot, and an image with a large number of people has a high score as a sub-slot. In this way, the features that give a higher score, in other words, the evaluation criteria, differ depending on the type of scene and slot. In this embodiment, the features or evaluation criteria that increase the score according to the type of scene and slot are set in advance in the application and included in the program.

なお、得点が高くなる特徴は、上述したものに限定されるものではない。図8(a)に示す各シーンのメインスロットとサブスロットとのそれぞれの評価基準に基づいて、各サブ画像群に含まれる各画像データに得点を付ける。 Note that the features that increase the score are not limited to those described above. Each image data included in each sub-image group is scored based on the respective evaluation criteria for the main slot and sub-slot of each scene shown in FIG. 8(a).

予め集めたサンプル画像群の各画像における顔の数、各画像における顔の位置、各画像における顔のサイズなどの各特徴量を取得する。そして、それら特徴量毎の平均値と標準偏差をシーン及びスロット種類(メインスロットとサブスロット)毎に求めて、アルバム作成アプリケーションのプログラムに予め組み込んでおく。 Each feature amount, such as the number of faces in each image of a sample image group collected in advance, the position of the face in each image, and the size of the face in each image, is acquired. Then, the average value and standard deviation for each feature amount are obtained for each scene and each slot type (main slot and sub-slot), and incorporated in the album creation application program in advance.

ユーザが指定した画像群のシーン分類が終わると、画像群の各画像に対して、主人公IDの顔の数、顔の位置、顔サイズの各特徴量を算出する。また、S413のシーン分類の結果から各画像が属する(分類される)シーンを取得する。そして、注目画像における主人公IDの顔の数、顔の位置、顔サイズの各特徴量と、予め求めたシーン及びスロット種類毎の各特徴量の平均値及び標準偏差とに基づいて以下の式により注目画像のシーン及びスロット種類毎の得点を求める。下式において得点、平均値、標準偏差は、シーン分類、スロット種類及び特徴量ごとに求められる。 After the scene classification of the image group designated by the user is completed, each feature amount of the number of faces of the main character ID, the position of the face, and the face size is calculated for each image of the image group. Also, the scene to which each image belongs (classified) is acquired from the scene classification result of S413. Then, based on the number of faces, the position of the face, and the size of the face of the main character ID in the image of interest, and the average value and standard deviation of each feature value for each scene and slot type obtained in advance, the following formula is used: A score is obtained for each scene of the image of interest and each slot type. In the following formulas, the score, average value, and standard deviation are obtained for each scene classification, slot type, and feature amount.

シーン及びスロット種類毎の各特徴量の得点=50-|10×(シーン及びスロット種類毎の各特徴量の平均値-注目画像の各特徴量)/シーン及びスロット種類毎の各特徴量の標準偏差| 式(3) Score of each feature amount for each scene and slot type=50−|10×(average value of each feature amount for each scene and slot type−each feature amount for target image)/standard for each feature amount for each scene and slot type Deviation | Equation (3)

シーン及びスロット種類毎の平均得点=(シーン及びスロット種類毎の顔数の得点+シーン及びスロット種類毎の顔位置の得点+シーン及びスロット種類毎の顔サイズの得点)/特徴量項目数 式(4) Average score for each scene and slot type = (Score for number of faces for each scene and slot type + Score for face position for each scene and slot type + Score for face size for each scene and slot type) / Feature item formula ( 4)

なお、式(4)の特徴量項目数はこの場合3である。このように各画像に対する得点として、メインスロットの得点とサブスロットの得点とを付ける。 Note that the number of feature quantity items in Equation (4) is 3 in this case. In this way, the main slot score and the sub-slot score are given as scores for each image.

更に、上記算出された得点に対して、アルバム作成条件設定部201で指定されたモードに基づいて、得点に加算する。モードで人物と設定された場合には、図5の画像解析情報に格納されたオブジェクト分類でTOP1からTOP3の中でカテゴリが人の画像が含まれていれば得点を加算する。オブジェクト分類結果の信頼度が高いほど加算する得点を高くする。他にも、加算する得点はオブジェクト分類結果の順位に応じて変更してもよい。ここでは説明のために、モードで人物が選択された場合を説明したが、モードに動物や料理などが設定された場合は同様の条件で得点を加算する。また、モードの選択する個数は1つだけでなく、2つ以上を選択できるようにしてもよい。その場合は、選択されたオブジェクトが含まれている分だけ得点を加算すればよい。 Furthermore, the calculated score is added to the score based on the mode designated by the album creation condition setting section 201 . When the mode is set to person, if the object classification in the image analysis information of FIG. The higher the reliability of the object classification result, the higher the score to be added. Besides, the score to be added may be changed according to the ranking of the object classification results. Here, for the sake of explanation, a case where a person is selected in the mode has been explained, but points are added under similar conditions when an animal or food is set in the mode. Also, the number of modes to be selected may be not only one, but two or more may be selected. In that case, it is sufficient to add the score by the amount that the selected object is included.

また、図5の画像解析情報に含まれるピントの特徴量が○である画像IDの画像の得点に対して、さらに得点を加算してもよい。これにより、ピントが合っている画像の得点を高くすることができる。 Further, a score may be added to the score of the image of the image ID whose focus feature amount is ◯ included in the image analysis information of FIG. 5 . This makes it possible to increase the score of an image that is in focus.

図8(b)は、各画像の得点結果の一例を示しており、各画像IDに対して、メインスロットとサブスロットの得点が付けられている。各画像に対して、メインスロット及びサブスロットの両得点が設定された後、図5の画像解析情報に含まれる画像の種類が動画の場合は、動画解析部203で解析され算出されたスコア値をメインスロット及びサブスロットの両得点に加算する。ここでは、動画解析部203で算出されたスコア値を利用する方法を記載したが、動き量の多さに応じて加算するスコア値を多くしてもよい。または、カメラワークでズームした後のフレームやパン又はチルトした後のフレームに所定のスコア値を加算してもよい。そうすることで、動画撮影時のユーザの意図を反映させることができる。 FIG. 8(b) shows an example of the score result of each image, in which each image ID is scored for the main slot and sub-slots. After both the main slot and sub-slot scores are set for each image, if the type of image included in the image analysis information in FIG. is added to both the main slot and subslot scores. Although the method of using the score value calculated by the moving image analysis unit 203 has been described here, the score value to be added may be increased according to the amount of motion. Alternatively, a predetermined score value may be added to a frame after zooming by camerawork or a frame after panning or tilting. By doing so, it is possible to reflect the intention of the user at the time of video shooting.

動画撮影時のスコア値を加算するだけでは、動画から切り出された画像が静止画よりも得点が高くなる場合がある。その場合は、動画解析部203で算出された各切り出し画像のスコア値の平均値を算出し、それを全静止画像のスコア値に加算する、もしくは切り出し画像のスコア値から減算してもよい。 An image clipped from a moving image may have a higher score than a still image only by adding the score value at the time of shooting the moving image. In that case, the average value of the score values of the clipped images calculated by the moving image analysis unit 203 may be calculated and added to the score values of all still images or subtracted from the score values of the clipped images.

S417では、画像得点部210がユーザ指定の画像群の全画像に対してS416の画像得点化が終了したか否かを判定する。終了していない場合(S417でNo)、S416に戻る。終了している場合(S417でYes)、S418に移行する。 In S417, the image scoring unit 210 determines whether the image scoring in S416 has been completed for all images in the user-specified image group. If not finished (No in S417), the process returns to S416. If completed (Yes in S417), the process proceeds to S418.

S418では、見開き割当部212が、画像分類部208の画像群分割により得られたサブ画像群数が見開き数入力部211により入力される見開き数と同じか否かを判定する。同じでない場合(S418でNo)、S419に移行する。同じ場合(S418でYes)、S422に移行する。例えば、図6(a)のサブ画像群数が8であり、見開き数入力部211の入力数が8であればS418でYesとなり、S422に移行する。 In S<b>418 , the spread allocation unit 212 determines whether the number of sub-image groups obtained by the image group division of the image classification unit 208 is the same as the number of spreads input by the spread number input unit 211 . If not the same (No in S418), the process proceeds to S419. If they are the same (Yes in S418), the process proceeds to S422. For example, if the number of sub-image groups in FIG. 6A is 8 and the input number of the spread number input unit 211 is 8, S418 returns Yes, and the process proceeds to S422.

S419では、見開き割当部212が画像分類部208の画像群分割により得られたサブ画像群数が見開き数入力部211により入力される見開き数より少ないか否かを判定する。サブ画像群数が見開き数以上の場合(S419でNo)、S421に移行する。サブ画像群数が見開き数未満の場合(S419でYes)はS420に移行する。例えば、図6(a)の分割されたサブ画像群数が8であり、見開き数入力部211の入力数が10であれば、サブ画像群数が見開き数以上のためS419でNoとなり、S421に移行する。 In step S<b>419 , the spread allocation unit 212 determines whether the number of sub-image groups obtained by the image group division of the image classification unit 208 is less than the number of spreads input by the spread number input unit 211 . If the number of sub-image groups is greater than or equal to the number of spreads (No in S419), the process proceeds to S421. If the number of sub-image groups is less than the number of spreads (Yes in S419), the process proceeds to S420. For example, if the number of divided sub-image groups in FIG. 6A is 8 and the number of input to the spread number input unit 211 is 10, the number of sub-image groups is equal to or greater than the number of spreads, so S419 is No, and S421. transition to

S420では、見開き割当部212がサブ画像群再分割を行う。サブ画像群再分割とは、サブ画像群数<見開き数の場合に、分割されたサブ画像群を更に細分割することを指す。 In S420, the spread allocation unit 212 performs sub-image group re-division. Sub-image group re-division refers to sub-dividing the divided sub-image group when the number of sub-image groups<the number of spreads.

図6(a)の分割されたサブ画像群数8に対して指定見開き数が10である場合を例に挙げて説明する。図6(b)では、図6(a)のサブ画像群の一部をサブ画像群再分割してサブ画像群数を10とした結果である。図6(b)の破線矢印の箇所でサブ画像群をさらに分割したことで、サブ画像群数を10にしている。なお、図6(b)では、サブ画像群(2)と(3)の間と、(6)と(7)の間に破線矢印が存在する。分割するサブ画像群の決定基準は、サブ画像群の画像枚数および撮影日時である。まず、図6(a)のサブ画像群の中で画像枚数が多いサブ画像群を特定する。ここでは、サブ画像群数を8から10に2つ増やしたいため、画像枚数が多い2つのサブ画像群を特定する。すなわち、再分割すべき数のサブ画像群を、最も多くの画像を含むサブ画像群から順に指定する。画像数が同数のサブ画像群については、画像間の撮影日時の差の最大値が大きい方のサブ画像群を選択する。それでも決定できない場合には、例えば時間的に早いサブ画像群を優先的に再分割するなど、適宜決めておけばよい。 A case in which the number of designated spreads is 10 for the number of divided sub-image groups of 8 in FIG. 6A will be described as an example. FIG. 6B shows the result of re-dividing a part of the sub-image group of FIG. 6A into sub-image groups and setting the number of sub-image groups to ten. The number of sub-image groups is set to 10 by further dividing the sub-image groups at the locations indicated by the dashed arrows in FIG. 6B. In FIG. 6B, there are dashed arrows between sub-image groups (2) and (3) and between (6) and (7). The criteria for determining the sub-image group to be divided are the number of images in the sub-image group and the shooting date and time. First, a sub-image group having a large number of images is specified among the sub-image groups in FIG. 6(a). Here, since it is desired to increase the number of sub-image groups from 8 to 10 by 2, two sub-image groups having a large number of images are specified. That is, the number of sub-image groups to be re-divided is designated in order from the sub-image group containing the largest number of images. For sub-image groups having the same number of images, the sub-image group having a larger maximum value of the difference in photographing date and time between the images is selected. If it still cannot be determined, it may be determined as appropriate, for example, by preferentially re-dividing the group of sub-images that are earlier in time.

図6(a)において画像枚数が多いサブ画像群は、多い方からサブ画像群(5)、次にサブ画像群(1)とサブ画像群(2)である。本実施形態では、サブ画像群に含まれる画像枚数が同じである場合は、サブ画像群に含まれる画像の間の時間差の最大値が大きい方のサブ画像群を分割する。サブ画像群(1)とサブ画像群(2)は、含まれる画像枚数が同じだが、サブ画像群(2)の方が含まれる画像の間の時間差の最大値が大きいため、サブ画像群(2)を分割対象とする。すなわち、図6(a)では、サブ画像群(5)とサブ画像群(2)をそれぞれさらに分割する。 In FIG. 6A, the sub-image group having the largest number of images is sub-image group (5), followed by sub-image group (1) and sub-image group (2). In this embodiment, when the number of images included in the sub-image group is the same, the sub-image group having the larger maximum time difference between the images included in the sub-image group is divided. Sub-image group (1) and sub-image group (2) contain the same number of images, but sub-image group (2) has a larger maximum time difference between the images. 2) is to be divided. That is, in FIG. 6A, sub-image group (5) and sub-image group (2) are further divided.

まず、サブ画像群(2)の再分割方法について説明する。サブ画像群(2)には、画像枚数の山が2つあり、この2つの山の画像群は撮影日が違う。このような場合は、撮影日が変わる箇所(図6(b)のサブ画像群(2)とサブ画像群(3)との間の破線矢印の箇所)で分割する。 First, a method for re-dividing the sub-image group (2) will be described. The sub-image group (2) has two peaks of the number of images, and the image groups of these two peaks were taken on different dates. In such a case, the image is divided at the place where the photographing date changes (the dashed arrow between sub-image group (2) and sub-image group (3) in FIG. 6B).

次に、サブ画像群(5)の再分割を説明する。サブ画像群(5)には画像枚数の山が3つあり、この3つの山の画像群は撮影日がそれぞれ違う。このような場合も、撮影日が変わる箇所で分割する。このとき、撮影日が変わる箇所が2箇所あるが、分割後の各画像群の枚数差が小さくなるように分割する。図6(b)では、サブ画像群(5)では、2日目と3日目の境目で分割した方が、1日目と2日目の境目で分割するよりも再分割後の各画像群の画像枚数差が小さくなるので、2日目と3日目の境目で分割する。すなわち、図6(b)のサブ画像群(6)とサブ画像群(7)との間の破線矢印の箇所で分割する。 Next, sub-image group (5) subdivision will be described. The sub-image group (5) has three peaks of the number of images, and the image groups of these three peaks are taken on different dates. In such a case as well, division is made at locations where the photographing date changes. At this time, although there are two places where the photographing date changes, the division is performed so that the difference in the number of images in each group after division becomes small. In FIG. 6B, in the sub-image group (5), splitting at the boundary between the second day and the third day is better than splitting at the boundary between the first day and the second day. Since the difference in the number of images in the group becomes small, the group is divided at the boundary between the second day and the third day. That is, the sub-image group (6) and the sub-image group (7) in FIG. 6B are divided at the dashed arrow.

以上により、サブ画像群数を8から10にする。ここでは撮影日の違う箇所で分割したが、画像枚数が多いサブ画像群が単一日で撮影されたものである場合は、単一日の中で時間差が最大の箇所で分割する。 As described above, the number of sub-image groups is changed from eight to ten. Here, the sub-images are divided at locations with different shooting dates, but if a group of sub-images with a large number of images were shot on a single day, they are split at locations with the largest time difference within a single day.

S421では、見開き割当部212がサブ画像群を統合する。サブ画像群の統合とは、サブ画像群数が見開き数よりも多い場合、分割されたサブ画像群を統合する。具体的には、サブ画像群数と見開き数が一致するように、サブ画像群を統合する。 In S421, the spread allocation unit 212 integrates the sub-image groups. Integrating sub-image groups means integrating divided sub-image groups when the number of sub-image groups is greater than the number of spreads. Specifically, the sub-image groups are integrated so that the number of sub-image groups and the number of spreads match.

図6(a)のサブ画像群数8に対して指定見開き数が6である場合を例に挙げて説明する。図6(c)は、図6(a)をサブ画像群統合してサブ画像群数を6とした結果である。図6(c)の破線の箇所の両側のサブ画像群を統合、言い換えれば、破線の箇所での分割をしないことで、サブ画像群数を6にする。まず、図6(a)のサブ画像群の中で画像枚数が少ないサブ画像群を特定する。ここでは、分割数を8から6に2つ減らしたいため、画像枚数が少ない2つのサブ画像群を特定する。図6(a)において画像枚数が少ないサブ画像群は、少ない方からサブ画像群(8)、次にサブ画像群(3)とサブ画像群(7)である。したがって、まず、サブ画像群(8)を統合対象とする。サブ画像群(3)とサブ画像群(7)は、含まれる画像枚数は同じであるが、サブ画像群(7)に隣接するサブ画像群(8)が統合対象であるため、サブ画像群(3)を統合対象とする。 A case in which the number of designated spreads is 6 for the number of sub-image groups of 8 in FIG. 6A will be described as an example. FIG. 6(c) shows the result of integrating the sub-image groups of FIG. 6(a) and setting the number of sub-image groups to six. The number of sub-image groups is set to 6 by integrating the sub-image groups on both sides of the dashed line in FIG. 6C, in other words, by not dividing the dashed line. First, a sub-image group having a small number of images is specified among the sub-image groups in FIG. 6(a). Here, since the number of divisions is to be reduced from 8 to 6 by 2, two sub-image groups with a small number of images are specified. In FIG. 6(a), the sub-image group having the smallest number of images is the sub-image group (8), followed by the sub-image group (3) and the sub-image group (7). Therefore, first, the sub-image group (8) is to be integrated. Sub-image group (3) and sub-image group (7) contain the same number of images, but since sub-image group (8) adjacent to sub-image group (7) is to be integrated, sub-image group (3) is to be integrated.

次に、統合対象のサブ画像群を、撮影日時が前のサブ画像群に統合するか、撮影日時が後のサブ画像群に統合するかを決定する。まず、サブ画像群(3)の統合を説明する。まず、サブ画像群(3)の前後のサブ画像群(2)とサブ画像群(4)との時間差を比較する。サブ画像群(3)の最後の画像とサブ画像群(4)の最初の画像との撮影時間の差は、サブ画像群(3)の最初の画像とサブ画像群(2)の最後の画像との撮影時間の差よりも小さい。したがって、サブ画像群(3)は、サブ画像群(4)に統合すると決定する。すなわち、図6(c)の(3)の破線の箇所でサブ画像群が統合される。 Next, it is determined whether the group of sub-images to be integrated should be integrated with the group of sub-images captured earlier or with the group of sub-images captured later. First, the integration of sub-image group (3) will be described. First, the time difference between sub-image group (2) and sub-image group (4) before and after sub-image group (3) is compared. The difference in shooting time between the last image of sub-image group (3) and the first image of sub-image group (4) is the first image of sub-image group (3) and the last image of sub-image group (2). smaller than the difference in shooting time between Therefore, sub-image group (3) is determined to be merged into sub-image group (4). That is, the sub-image group is integrated at the broken line (3) in FIG. 6(c).

次に、サブ画像群(8)の統合を説明する。サブ画像群(8)は、後のサブ画像群がない為、前のサブ画像群(7)と統合する。すなわち、図6(c)の(6)の破線の箇所で統合する。なお、本実施形態では、撮影時間の差が小さいサブ画像群同士を統合することにしたが、これに限定されるものではない。例えば、統合対象のサブ画像群を撮影枚数が少ないサブ画像群に統合するようにしてもよい。 Next, the integration of sub-image group (8) will be described. Sub-image group (8) is integrated with previous sub-image group (7) because there is no subsequent sub-image group. That is, they are integrated at the broken line (6) in FIG. 6(c). Note that in the present embodiment, groups of sub-images having small differences in photographing time are integrated, but the present invention is not limited to this. For example, a group of sub-images to be integrated may be integrated into a group of sub-images of which the number of captured images is small.

S422では、見開き割当部212が見開き割当を行う。S418~S421によって、サブ画像群の数と指定見開き数は同じになっている。本実施形態では、撮影日時が先頭のサブ画像群から見開きの先頭に割り当てる。すなわち、撮影日時順にサブ画像群をアルバムの各見開きのページに割当てる。これにより、撮影日時順にサブ画像群が並んだアルバムを作成することができる。なお、後述する通り、1つの見開きのページ内では、画像は撮影日時に並んでいなくてもよい。 In S422, the spread allocation unit 212 performs spread allocation. Through S418 to S421, the number of sub-image groups and the number of specified spreads are the same. In this embodiment, the group of sub-images with the shooting date and time at the top is assigned to the top of the double-page spread. That is, the sub-image groups are assigned to each spread page of the album in order of shooting date and time. As a result, it is possible to create an album in which sub-image groups are arranged in order of shooting date and time. It should be noted that, as will be described later, the images in one spread page do not have to be arranged according to the shooting date and time.

S423では、画像選択部213が各サブ画像群から所定枚数の画像を選択する。図9を用いて、ある見開きに割り当てられたサブ画像群から画像を4枚選択する場合を例に挙げて説明する。なお、ここでは、見開きのページ数は1又は2ページとし、最初の見開き及び最後の見開き以外の見開きは、開いたときに向かい合う2ページ、最初の見開き及び最後の見開きは、1ページとする。 In S423, the image selection unit 213 selects a predetermined number of images from each sub-image group. An example of selecting four images from a group of sub-images assigned to a spread will be described with reference to FIG. Here, the number of pages of the spread is 1 or 2, the spreads other than the first spread and the last spread are two pages facing each other when opened, and the first spread and the last spread are one page.

図9(a)は、見開きに割り当てられたサブ画像群に含まれる最初の画像から最後の画像のまでの撮影日時の時間差、言い換えれば、サブ画像群の撮影期間を示す。図9(b)を使って、4枚選択する際の1枚目を選択する方法を説明する。図10に示すテンプレート1001には、1つのメインスロット1002がある。1枚目は、メインスロット用の画像を選択する。画像選択部213は、図9(b)に示すサブ画像群の撮影期間に撮影された全ての画像のうちS416で付けたメインスロット用の得点が最高点の画像を選択する。 FIG. 9A shows the time difference between the shooting dates and times from the first image to the last image included in the group of sub-images assigned to the spread, in other words, the shooting period of the group of sub-images. A method of selecting the first sheet when selecting four sheets will be described with reference to FIG. 9(b). A template 1001 shown in FIG. 10 has one main slot 1002 . For the first sheet, an image for the main slot is selected. The image selection unit 213 selects the image with the highest score for the main slot assigned in S416 from all the images shot during the shooting period of the sub-image group shown in FIG. 9B.

そして、2枚目以降はサブスロット用の画像を選択する。本実施形態では、サブ画像群の撮影期間を細分化して画像を選択することにより、選択される画像がサブ画像群の撮影期間の一部に集中しないようにする。まず、画像選択部213は、図9(c)のようにサブ画像群の撮影期間を2分割して、2つの撮影時間区間とする。すなわち、サブ分割撮影期間を2等分して2つの撮影時間区間にする(グループ分けする)。次に、画像選択部213は、図9(d)のように1枚目が選ばれていない撮影時間区間(実線の区間)からサブスロット用の得点が最高点の画像を2枚目として選択する。次に、画像選択部213は、図9(e)のように、図9(d)の各撮影時間区間をそれぞれ2等分する。画像選択部213は、図9(f)の実線で示す撮影時間区間、すなわち、1枚目と2枚目の画像が選ばれていない2つの撮影時間区間に撮影された画像(2つの撮影時間区間に対応する画像)のうちサブスロット用の得点が最高点の画像を3枚目として選択する。 Then, for the second and subsequent sheets, images for sub-slots are selected. In the present embodiment, images are selected by subdividing the shooting period of the sub-image group so that the selected images are not concentrated in part of the shooting period of the sub-image group. First, the image selection unit 213 divides the imaging period of the sub-image group into two imaging time intervals as shown in FIG. 9C. That is, the sub-divided imaging period is divided into two equal imaging time intervals (grouped). Next, the image selection unit 213 selects, as the second image, the image with the highest sub-slot score from the shooting time interval (the solid line interval) in which the first image is not selected as shown in FIG. 9(d). do. Next, as shown in FIG. 9E, the image selection unit 213 divides each shooting time interval shown in FIG. 9D into two equal parts. The image selection unit 213 selects images (two imaging time The image with the highest score for the sub-slot is selected as the third image.

次に、画像を選択する撮影時間区間に画像が存在せず、画像選択できない例を4枚目の画像の選択を例に挙げて説明する。本実施形態では、サブ画像群から見開きに配置する画像を選択する際、画像の枚数に関わらず、時間に応じてサブ画像群の撮影時間期間を分割している。したがって、分割して得られた撮影時間区間に画像が存在しない場合がある。例えば、図9(g)のように、まだ画像が選ばれていない撮影時間区間(斜線の撮影時間区間)から4枚目を選択したいが、この斜線で示す撮影時間区間には画像が存在しないとする。この場合は、画像選択部213は、図9(h)のように、画像を選択済みの各撮影時間区間をそれぞれ2分割する。次に、画像選択部213は、図9(i)のように、1~3枚目が選ばれていない実線の撮影時間区間に撮影された画像のうちサブスロット用の最高点の画像を4枚目として選択する。 Next, an example in which an image cannot be selected because there is no image in the shooting time interval for selecting an image will be described by taking the selection of the fourth image as an example. In this embodiment, when selecting images to be laid out in a double-page spread from the sub-image group, the shooting time period of the sub-image group is divided according to time regardless of the number of images. Therefore, there is a case where an image does not exist in the imaging time interval obtained by division. For example, as shown in FIG. 9G, it is desired to select the fourth image from the imaging time interval (shaded imaging time interval) for which no image has been selected yet, but no image exists in this hatched imaging time interval. and In this case, the image selection unit 213 divides each shooting time interval in which the image has been selected into two, as shown in FIG. 9(h). Next, as shown in FIG. 9(i), the image selection unit 213 selects 4 images with the highest points for the sub-slots among the images captured in the solid-line capturing time interval in which the first to third frames are not selected. Select as second.

図11は、図2で示した画像選択部213をより詳細に説明する図である。画像選択部213は、ある見開きに割り当てられたサブ画像群から画像を選択する。 FIG. 11 is a diagram explaining in more detail the image selection unit 213 shown in FIG. The image selection unit 213 selects an image from a group of sub-images assigned to a spread.

枚数設定部1101は、処理対象の見開きに割り当てられたサブ画像群から選択する総画像枚数を設定する。言い換えれば、各見開きに配置する画像の総数を設定する。 A number setting unit 1101 sets the total number of images to be selected from the group of sub-images assigned to the spread to be processed. In other words, the total number of images to be laid out in each spread is set.

画像群取得部1102は、画像取得部205が取得した画像群及び画像分類部208が作成したシーンIDから見開きに割り当てられたサブ画像群を取得する。画像群取得部205は、画像群を取得する際には、各画像の撮影日時情報、画像種類、オブジェクト情報、メインスロット用得点、及びサブスロット用得点を取得する。画像種類は、本実施形態では静止画像、動画切り出し画像、SNS画像の3つに分類するものとしたが、これに限定されるものではない。上述した3つ以外の画像種類を区別するものとしてもよいし、デジタルカメラで撮影した静止画像と、スマートデバイスで撮影した静止画像などのように静止画像をさらに詳細に区別してもよい。 The image group acquisition unit 1102 acquires the sub-image group assigned to the spread from the image group acquired by the image acquisition unit 205 and the scene ID created by the image classification unit 208 . When acquiring an image group, the image group acquisition unit 205 acquires shooting date/time information, image type, object information, main slot score, and sub-slot score for each image. In this embodiment, the image types are classified into still images, moving image clipped images, and SNS images, but are not limited to these. Image types other than the three described above may be distinguished, and still images may be distinguished in more detail, such as still images taken with a digital camera and still images taken with a smart device.

ループカウンタ1103は、サブ画像群から見開きに配置する画像を選択する処理を実行した回数を管理する。なお、この画像を選択する処理は、図9で説明した方法により実行される。管理された回数は、利用する得点軸の判定、及び処理対象の見開きに割り当てられたサブ画像群の撮影期間をいくつの撮影時間区間に分割するかを設定する際に利用する。 A loop counter 1103 manages the number of times the process of selecting an image to be laid out in a double-page spread from the group of sub-images has been executed. Note that the process of selecting this image is executed by the method described with reference to FIG. The managed number of times is used to determine the score axis to be used and to set how many shooting time intervals the shooting period of the sub-image group assigned to the spread to be processed is divided into.

得点軸設定部1104は、ループカウンタ1103でカウントされた処理回数に応じて、利用する得点軸を設定する。「利用する得点軸を設定する」とは、「画像の評価基準を設定する」ことを指し、ここでは、S416で行う得点化において使用するメインスロット用得点軸(メインスロット用評価基準)及びサブスロット用得点軸(サブスロット用評価基準)を設定する。本実施形態では、これら複数の評価基準を切り替えることによりスロット種類毎に評価基準を設定する。ここでは、例えば、1回目はメインスロット用得点軸を設定して、メインスロット用画像を選択する処理を実行するように設定し、2回目以降はサブスロット用得点を設定して、サブスロット用画像を選択する処理を実行するように設定する。 A score axis setting unit 1104 sets a score axis to be used according to the number of times of processing counted by the loop counter 1103 . "Set the score axis to be used" means "set the image evaluation criteria". Here, the main slot score axis (main slot evaluation criteria) and the sub Set the score axis for slots (evaluation criteria for sub-slots). In this embodiment, the evaluation criteria are set for each slot type by switching between these multiple evaluation criteria. Here, for example, for the first time, the score axis for the main slot is set, and the processing for selecting the image for the main slot is set to be executed. Set to execute the process of selecting an image.

本実施形態では、利用する得点軸として、メインスロット用得点軸、サブスロット用得点軸を例に挙げて説明したが、別の得点軸を用いてもよい。例えば、メインスロット用得点軸、サブスロット用得点軸に加えて、さらに、人物関連度用得点軸を用いるようにしてもよい。なお、人物関連度は、例えば、人物の出現数や一緒に写った回数に基づいて得点化することができる。具体的には、出現数が多い人物は、評価を行ったサブ画像群との関連度が高いと判定することができ、一緒に写った回数が多い人物同士は互いの関連度が高いと判定することができる。また、各得点軸を切り替えて得点化を行うようにしたが、メインスロット用得点軸、サブスロット用得点軸、人物関連度用得点軸などを組み合わせた統合得点軸を用いてもよい。このとき、統合得点を算出する際の各得点軸の重みを変更してもよい。また、処理する回数によって利用する得点軸をランダムに変更してもよいし、予め用意したテーブルを参照して得点軸を切り替えるようにしてもよい。 In the present embodiment, the main slot scoring axis and the sub-slot scoring axis have been described as examples of the scoring axis to be used, but another scoring axis may be used. For example, in addition to the main slot score axis and the sub slot score axis, a person relevance score axis may be used. Note that the degree of relevance to a person can be scored based on, for example, the number of appearances of a person or the number of times they are photographed together. Specifically, it can be determined that a person who appears many times has a high degree of relevance to the group of sub-images that were evaluated, and it is determined that people who appear together a large number of times have a high degree of relevance to each other. can do. In addition, although scoring is performed by switching each scoring axis, an integrated scoring axis that combines the scoring axis for the main slot, the scoring axis for the sub-slots, the scoring axis for the degree of person relevance, and the like may be used. At this time, the weight of each score axis when calculating the integrated score may be changed. Also, the score axis to be used may be changed at random according to the number of times of processing, or the score axis may be switched by referring to a table prepared in advance.

分割部1105は、画像解析部207で取得した撮影日時情報に基づき、サブ画像群の撮影期間を所定の区間数に分割する。まず、画像群取得部1102により取得されたサブ画像群に含まれる画像の撮影時間から、処理対象の見開きに割り当てられたサブ画像群の撮影開始時間と撮影終了時間を特定し、サブ画像群の撮影期間を算出する。すなわち、サブ画像群に含まれる画像のうち最も早く撮影された画像の撮影時間および最も遅く撮影された画像の撮影時間を特定し、撮影期間を算出する。 A dividing unit 1105 divides the capturing period of the sub-image group into a predetermined number of segments based on the capturing date/time information acquired by the image analyzing unit 207 . First, from the shooting times of the images included in the sub-image group acquired by the image group acquiring unit 1102, the shooting start time and shooting end time of the sub-image group assigned to the spread to be processed are specified. Calculate the shooting period. That is, the imaging time of the image captured earliest and the imaging time of the image captured latest among the images included in the sub-image group are specified, and the imaging period is calculated.

次に、ループカウンタ1103でカウントされた処理回数に基づいて、算出された撮影期間を均等に分割して撮影時間区間とする。撮影時間区間の分割数は、カウントに基づいた2のべき乗で設定する。本実施形態では、カウントに基づいた2のべき乗で撮影期間を均等に分割する方法を説明したが、これに限定されず、撮影期間をカウント数で均等に分割してもよい。また、分割部1105は、分割された各撮影時間区間の開始時刻および終了撮影時刻を出力する。 Next, based on the number of times of processing counted by the loop counter 1103, the calculated imaging period is equally divided into imaging time intervals. The division number of the imaging time interval is set by a power of 2 based on the count. In the present embodiment, the method of equally dividing the imaging period by the power of 2 based on the count has been described, but the method is not limited to this, and the imaging period may be equally divided by the count number. The division unit 1105 also outputs the start time and the end photography time of each divided photography time interval.

画像種類設定部1106は、ループカウンタ1103でカウントされた処理回数に応じて、画像選択で選択される画像の種類を設定する。本実施形態では、処理回数が1回目はSNS画像から選択し、2回目は動画切り出し画像から選択し、3回目以降は静止画から選択するように設定する。 An image type setting unit 1106 sets the type of image selected in image selection according to the number of times of processing counted by the loop counter 1103 . In this embodiment, the SNS image is selected for the first processing, the moving image clipped image is selected for the second processing, and the still image is selected for the third and subsequent processing.

区間情報設定部1107は、画像群取得部1102で取得したサブ画像群に含まれる画像を、分割部1105で分割された撮影時間区間ごとにグループ分けして、画像の撮影情報、各画像の得点等の各撮影時間区間の情報を格納する。 A section information setting unit 1107 divides the images included in the sub-image group acquired by the image group acquisition unit 1102 into groups according to the shooting time sections divided by the dividing unit 1105, and obtains the shooting information of the images and the score of each image. , etc., for each shooting time interval.

モード設定部1108は、アルバム作成条件設定部201で指定されたモードが設定され、設定されたモードに対応するオブジェクトが配置されるように以降の処理を行う。なお、モードの一例は上述した通り、人物、動物、料理である。 A mode setting unit 1108 sets the mode specified by the album creation condition setting unit 201, and performs the subsequent processing so that objects corresponding to the set mode are arranged. Examples of modes are person, animal, and food, as described above.

画像選択部1109は、各撮影時間区間からモードに対応するオブジェクトを含む得点の高い画像を1枚選択する。この画像選択部1109による画像の選択は、得点軸設定部1104で設定された得点軸と、モード設定部1108で設定されたモードと、区間情報設定部1107で設定された画像の得点とに基づいて行われる。図9を用いて説明した通り、画像が1枚もない撮影時間区間からは画像は選択しない。本実施形態では、各撮影時間区間から画像を1枚選択するものとしたが、各撮影時間区間から複数枚ずつ選択するようにしてもよい。設定されたモードに対応するオブジェクトが含まれる画像の判定には、本実施形態では図5に示す解析時の各画像のオブジェクト分類のTOP3までに設定されたモードに対応するオブジェクトが含まれているかを判定条件とするが、これに限定されない。 The image selection unit 1109 selects one image with a high score including an object corresponding to the mode from each imaging time period. Image selection by the image selection unit 1109 is based on the score axis set by the score axis setting unit 1104, the mode set by the mode setting unit 1108, and the score of the image set by the section information setting unit 1107. is done. As described with reference to FIG. 9, no image is selected from the photographing time interval in which there is no image. In this embodiment, one image is selected from each imaging time interval, but multiple images may be selected from each imaging time interval. In the present embodiment, determination of an image including an object corresponding to the set mode includes whether an object corresponding to the mode set up to TOP 3 of the object classification of each image at the time of analysis shown in FIG. 5 is included. is a determination condition, but is not limited to this.

類似判定部1110は、撮影時間区間から画像を選択するごとに、選択された画像に対して、前に選択された画像との類似判定を行う。後述する類似判定の結果が判定閾値以上であれば、類似していると判定し、判定閾値未満であれば、類似していないと判定する。類似していないと判断された場合は、その区間から選択された画像を保持しておき、類似していると判断された場合は、その区間の選択画像を破棄する。 Each time an image is selected from the shooting time period, the similarity determination unit 1110 performs similarity determination between the selected image and the previously selected image. If the result of similarity determination, which will be described later, is equal to or greater than the determination threshold, it is determined that the images are similar, and if the result is less than the determination threshold, it is determined that they are not similar. If it is determined that they are not similar, the image selected from that section is held, and if it is determined that they are similar, the selected image of that section is discarded.

類似判定は、パターンマッチングによる判定、SHIFT法を用いた判定などを用いることができる。類似判定に用いる判定閾値は、比較する画像の撮影時間差に応じて変更する。例えば、類似判定結果が0~100のレンジで出力される場合に100に近いほど似ているとし、判定閾値以上であれば類似していると判定し、判定閾値未満であれば類似していないと判定する。連写などにより撮影時間差が短い場合(例えば15秒以内)は、判定閾値を低く設定する(例えば、60に設定する)。それ以外は判定閾値を80に設定するのが望ましい。判定閾値を低くすることにより、類似していると判断されやすくなり、少しの類似であっても類似画像と判断されるため、選択画像が破棄されて選択できる画像が無くなりやすくなる。本実施形態では、このように、撮影時間差に応じて判定基準を変更する。 For similarity determination, determination by pattern matching, determination using the SHIFT method, or the like can be used. The determination threshold used for similarity determination is changed according to the shooting time difference between images to be compared. For example, when the similarity determination result is output in the range of 0 to 100, the closer the value is to 100, the more similar it is. I judge. If the shooting time difference is short (for example, within 15 seconds) due to continuous shooting or the like, the determination threshold is set low (for example, set to 60). Otherwise, it is desirable to set the determination threshold to 80. By lowering the determination threshold, it becomes easier to determine that the images are similar, and even if there is a slight similarity, it is determined that the images are similar. In this embodiment, in this way, the determination criteria are changed according to the imaging time difference.

統合部1111は、類似判定部1110で非類似と判定された各区間で選択された画像から、最終的に残す画像を選別する。複数区間から画像が選択された場合にいずれの区間の画像を選別するかを判断する。画像を判断する際には、画像選択部1109で判定したのと同じ得点を用い、得点の高い画像を選択する。本実施形態では、得点の高い画像を選択するものとしたが、これに限定されるものではない。例えば、画像が選択された区間のうち、隣接する区間から画像が選択されていない区間から選択するようにしてもよい。 The integration unit 1111 selects an image to be finally left from the images selected in each section determined to be dissimilar by the similarity determination unit 1110 . When images are selected from a plurality of sections, it is determined which section of the image is to be selected. When judging an image, the same score as judged by the image selection unit 1109 is used, and an image with a high score is selected. In this embodiment, an image with a high score is selected, but the selection is not limited to this. For example, among sections in which an image is selected, a section in which an image is not selected from adjacent sections may be selected.

画像管理部1112は、統合部1111で選択された画像を選択画像として追加し、枚数設定部1101で設定された必要枚数を超えていないかを判定する。必要枚数に到達した場合は画像選択処理を終了する。必要枚数に達成していない場合は、ループカウンタ1103をカウントアップし、上述した画像選択処理を再度実行する。 The image management unit 1112 adds the image selected by the integration unit 1111 as a selected image, and determines whether the required number set by the number setting unit 1101 is exceeded. When the required number of images has been reached, the image selection process is terminated. If the required number of sheets has not been reached, the loop counter 1103 is counted up, and the image selection process described above is executed again.

ここでは説明のために、メイン画像とサブ画像で同じオブジェクトを含む画像を選択する例で説明したが、メイン画像とサブ画像で異なるオブジェクトを選択することもできる。例えば、ループカウントが1の時はメイン画像が選択されるため、ループカウントが1の時とそれ以外の時で選択するオブジェクトを切り替えることにより、メイン画像とサブ画像で異なるオブジェクトが選択できる。 Here, for the sake of explanation, an example in which images containing the same object are selected in the main image and the sub-image has been described, but different objects can be selected in the main image and the sub-image. For example, when the loop count is 1, the main image is selected. By switching the object to be selected when the loop count is 1 and when the loop count is other than 1, different objects can be selected for the main image and the sub-image.

図12は、図11に示す構成で行うサブ画像群からテンプレートのスロットに配置する画像を選択する処理フロー図である。処理対象の見開きに割り当てられたサブ画像群から画像を選択する詳細フローを説明する。なお、図12はS423の詳細な処理を説明するフローチャートである。 FIG. 12 is a flow chart of processing for selecting an image to be arranged in a template slot from a group of sub-images performed in the configuration shown in FIG. A detailed flow for selecting an image from the group of sub-images assigned to the spread to be processed will be described. Note that FIG. 12 is a flowchart for explaining the detailed processing of S423.

S1201では、枚数設定部1101が、処理対象の見開きに割り当てられたサブ画像群から選択する総画像枚数を設定する。なお、この総画像枚数は、図3の309の設定値に基づいて決定されても良いし、デフォルトで設定されている値でも良い。 In S1201, the number setting unit 1101 sets the total number of images to be selected from the group of sub-images assigned to the spread to be processed. Note that this total number of images may be determined based on the setting value of 309 in FIG. 3, or may be a value set by default.

S1202では、画像群取得部1102が、画像取得部205が取得した画像群の画像データから、処理対象の見開きに割り当てられたサブ画像群に対応する画像データを取得する。 In S<b>1202 , the image group acquisition unit 1102 acquires image data corresponding to the sub-image group assigned to the spread to be processed from the image data of the image group acquired by the image acquisition unit 205 .

S1203では、モード設定部1108がモードを設定する。ここでは上述した人物モード、動物モードまたは料理モードが設定される。 In S1203, the mode setting unit 1108 sets the mode. Here, the person mode, animal mode, or food mode described above is set.

S1204では、ループカウンタ1103が、サブ画像群ごとに画像を選択する処理を実行した回数をカウントする。なお、初期値は1である。 In S1204, the loop counter 1103 counts the number of times the image selection process is executed for each sub-image group. Note that the initial value is 1.

S1205では、得点軸設定部1104が、利用する得点軸を設定する。本実施形態では、ループカウンタ1103で管理される画像選択処理回数に応じて、利用する得点軸を設定する。なお、具体的な設定方法は、得点軸設定部1104の説明で上述している。 In S1205, the score axis setting unit 1104 sets the score axis to be used. In this embodiment, the score axis to be used is set according to the number of image selection processes managed by the loop counter 1103 . A specific setting method has been described above in the description of the score axis setting unit 1104 .

S1206では、画像種類設定部1106が、選択する画像種類を設定する。ループカウントが1の場合、すなわち、処理回数が1回目の場合、本実施形態ではSNS画像を選択するように設定する。ループカウントが2の場合、すなわち処理回数が2回目の場合、動画切り出し画像を選択するように設定する。ループカウントが3以上の場合、すなわち処理回数が3回目以上の場合、静止画を選択するように設定する。 In S1206, the image type setting unit 1106 sets the image type to be selected. When the loop count is 1, that is, when the number of times of processing is the first time, in the present embodiment, the SNS image is set to be selected. When the loop count is 2, that is, when the number of times of processing is the second time, setting is made so as to select a moving image clipped image. When the loop count is 3 or more, that is, when the number of times of processing is 3 or more, a still image is set to be selected.

S1207では、分割部1105が、処理対象の見開きに割り当てられたサブ画像群の開始および終了撮影時間からサブ画像群の撮影期間を割り出し、ループカウンタ1103でカウントされた処理回数に基づいてサブ画像群の撮影時間区間を均等に分割する。なお、処理回数が1回目の場合は、この段階ではまだ画像が1枚も選択されていないため、分割しない。処理回数が2回目の場合、画像が1枚選択されており、サブ画像群の撮影期間の撮影時間区間は1つなので、撮影期間全体を均等に二分割して2つの撮影時間区間を作成する。処理回数が3回目の場合、画像が2枚選択されており、2つの撮影時間区間が存在するので、2つの撮影時間区間をそれぞれ二分割して4つの撮影時間区間を作成する。 In S1207, the dividing unit 1105 calculates the shooting period of the sub-image group from the start and end shooting times of the sub-image group assigned to the spread to be processed, and divides the sub-image group based on the number of times of processing counted by the loop counter 1103. Evenly divide the shooting time interval of . Note that when the number of times of processing is the first, no image is selected at this stage, so no division is performed. When the number of times of processing is the second time, one image is selected, and since there is one shooting time interval in the shooting period of the sub-image group, the entire shooting period is evenly divided into two to create two shooting time intervals. . When the number of times of processing is 3, two images are selected and there are two shooting time intervals, so each of the two shooting time intervals is divided into two to create four shooting time intervals.

S1208では、区間情報設定部1107が、取得したサブ画像群の画像データを、分割された撮影時間区間ごとにグループ分けして、撮影時間区間毎に各画像の撮影情報、各画像の得点を取得する。 In step S1208, the section information setting unit 1107 groups the acquired image data of the sub-image group for each divided shooting time section, and acquires the shooting information of each image and the score of each image for each shooting time section. do.

S1209では、分割部1105により分割された着目撮影時間区間の画像が選択済みか否かを判定する。着目撮影時間区間が選択済みの撮影時間区間であれば、S1214へ進む。未選択の撮影時間区間であれば、S1210に進む。なお、1回目のループでは、撮影時間区間が分割されていないため、着目撮影時間区間は1つである。 In S<b>1209 , it is determined whether or not the image of the shooting time period of interest divided by the division unit 1105 has been selected. If the shooting time interval of interest is an already selected shooting time interval, the process advances to S1214. If it is an unselected shooting time section, the process proceeds to S1210. Note that in the first loop, there is one shooting time interval of interest because the shooting time interval is not divided.

S1210では、未選択の撮影時間区間であった着目撮影時間区間内に設定されたモードのオブジェクトが含まれるか否かを判定する。例えば、モードとして動物が設定されていた場合、動物と識別されるオブジェクトが含む画像があるか否かが判定される。指定オブジェクトを含む画像が1枚もない場合、S1214へ進む。指定オブジェクトを含む場合は、S1211に進む。 In S1210, it is determined whether or not an object of the set mode is included in the shooting time interval of interest, which was an unselected shooting time interval. For example, if an animal is set as the mode, it is determined whether or not there is an image containing an object identified as an animal. If there is no image containing the designated object, the process advances to S1214. If the specified object is included, the process proceeds to S1211.

S1211では、画像選択部1109が、着目撮影時間区間内の画像から指定オブジェクトを含む画像を1枚選択する。なお、着目撮影時間区間内に指定オブジェクトを含む複数の画像が存在する場合は、最も点数が高い1枚の画像が選択される。 In S1211, the image selection unit 1109 selects one image including the designated object from the images within the shooting time period of interest. Note that if there are a plurality of images including the specified object within the shooting time interval of interest, one image with the highest score is selected.

S1212では、類似判定部1110が、着目撮影時間区間で選択された画像に対して、前に選択された他の撮影時間区間で選択された画像との類似判定を行う。類似する画像が他の撮影時間区間にないと判定された場合は、着目撮影時間区間で選定された画像をそのまま保持し、S1214へ進む。類似する画像が他の撮影時間区間にあると判定された場合は、S1213に移行して着目撮影時間区間で選択された画像を解除し、S1214へ進む。 In S1212, the similarity determination unit 1110 performs similarity determination between the image selected in the imaging time interval of interest and the image selected in another previously selected imaging time interval. If it is determined that there is no similar image in another imaging time interval, the image selected in the imaging time interval of interest is retained as it is, and the process proceeds to S1214. If it is determined that a similar image exists in another shooting time interval, the process proceeds to S1213, cancels the image selected in the target shooting time interval, and proceeds to S1214.

S1214では、画像の選択を行う処理がS1207で分割した全撮影時間区間に対して実行されたかを判定し、全撮影時間区間に対して実行された場合は、S1215へ進む。S1205で分割した全撮影時間区間に対して実行されていない場合は、S1208へ戻り、画像未選択の撮影時間区間に対して画像選択を実施する。 In S1214, it is determined whether or not the image selection processing has been performed for all the shooting time intervals divided in S1207. If it has not been executed for all the shooting time intervals divided in S1205, the process returns to S1208, and image selection is performed for the shooting time intervals for which images have not been selected.

S1215では、統合部1111が、類似判定部1110で非類似と判定された各撮影時間区の画像から、最も得点の高い最終的に残す画像を選択する。すなわち、S1209~S1214で2以上の画像が残った場合、残す画像を選択する。 In S<b>1215 , the integration unit 1111 selects an image with the highest score to be finally left from the images of each shooting time period determined to be dissimilar by the similarity determination unit 1110 . That is, if two or more images remain in S1209 to S1214, the remaining image is selected.

S1216では、画像管理部1112が、S1215で選択された画像を選択画像に対して追加し、総選択枚数を管理する。 In S1216, the image management unit 1112 adds the images selected in S1215 to the selected images and manages the total number of selected images.

S1217では、画像管理部1112により管理されている総選択枚数が、枚数設定部1101で設定された必要枚数と一致しているかを判定する。必要枚数と総選択枚数が一致した場合は画像選択処理を終了する。総選択枚数が必要枚数未満の場合は、S1218に進む。 In S<b>1217 , it is determined whether the total selected number of sheets managed by the image management unit 1112 matches the required number of sheets set by the number setting unit 1101 . If the required number of images and the total selected number of images match, the image selection process is terminated. If the total selected number is less than the required number, the process proceeds to S1218.

S1218では、指定されたモードのオブジェクトを含む画像をサブ画像群から全て選択したか否かを判定する。指定されたモードのオブジェクトを含む画像が全て選択されておらず、まだサブ画像群に存在する場合は、総選択枚数が必要枚数に達するまでS1204へ戻って画像選択処理を続行する。S1204へ戻った際、ループカウンタ1103により管理されているカウンタを1アップする。その結果、連動している分割部1105により前回よりも2倍多い撮影時間区間の分割が設定される。撮影時間区間がより細かく分割され、画像が未選択の撮影時間区間において画像を選択するので、それまでに選択されなかった画像が選択される。S1218で指定されたモードのオブジェクトを含む画像をサブ画像群から全て選択した場合は、S1219に進む。 In S1218, it is determined whether or not all images including objects of the designated mode have been selected from the sub-image group. If all the images including the object of the designated mode have not been selected and still exist in the sub-image group, the process returns to S1204 to continue image selection processing until the total number of selected images reaches the required number. When returning to S1204, the counter managed by the loop counter 1103 is incremented by one. As a result, the dividing unit 1105, which works in conjunction, sets twice as many divisions of the imaging time interval as the previous time. Since the imaging time interval is divided more finely and an image is selected in an unselected imaging time interval, an image that has not been selected so far is selected. When all the images including the object of the mode specified in S1218 have been selected from the sub-image group, the process proceeds to S1219.

S1219では、サブ画像群の画像のうち、未選択の全画像を判定しても指定モードの画像がなかった場合に、指定モードを変更する。変更の方法は予め定めた優先順位に従って指定モード以外の最も優先順位の高いモードに変更してもよいし、サブ画像群内に含まれるオブジェクトに基づいてモードを変更してもよい。S1203に戻り、変更したモードにモードを再設定し、必要枚数を取得できるまで処理を繰り返す。 In S1219, the designated mode is changed if there is no image of the designated mode even if all the unselected images among the images of the sub-image group are determined. As for the method of change, the mode may be changed to the mode with the highest priority other than the specified mode according to a predetermined priority, or the mode may be changed based on the objects included in the sub-image group. The process returns to S1203, the mode is reset to the changed mode, and the process is repeated until the required number of sheets is acquired.

図4に戻って、S424では、テンプレート設定部214が記憶装置104からレイアウトに利用する複数のテンプレートを設定する。設定されるテンプレートはアルバム作成条件設定部201で指定されたデザインのものが設定される。 Returning to FIG. 4, in S424, the template setting unit 214 sets a plurality of templates to be used for layout from the storage device 104. FIG. The set template has a design designated by the album creation condition setting section 201 .

S425では、画像レイアウト部215が処理対象の見開きの画像レイアウトを決定する。テンプレート設定部214により設定された複数のテンプレートの中から、選択された画像を配置するのに適したテンプレートを決定する。テンプレート決定の方法について、図13に示すテンプレート決定を行うソフトウェアの構成を説明するブロック図を用いて説明する。 In S425, the image layout unit 215 determines the spread image layout to be processed. A template suitable for arranging the selected image is determined from among the plurality of templates set by the template setting unit 214 . A template determination method will be described with reference to the block diagram of FIG. 13 illustrating the configuration of software for template determination.

選択画像情報取得部1301は、画像選択部213で選択された画像の選択画像数と選択された各画像に関する画像情報を取得する。取得する画像情報は、画像の幅と高さ、撮影日時情報、画像得点部210により算出された得点である。 A selected image information acquisition unit 1301 acquires the number of selected images selected by the image selection unit 213 and image information about each selected image. The image information to be acquired includes the width and height of the image, information on the shooting date and time, and the score calculated by the image scoring unit 210 .

テンプレート選択部(スロット数)1302は、選択画像枚数と一致するスロット数を持つテンプレート候補をテンプレート設定部214で設定された中から選択する。 A template selection unit (number of slots) 1302 selects a template candidate having a number of slots that matches the number of selected images from those set by the template setting unit 214 .

選択画像ソート部1303は、選択画像を撮影日時順にソートする。 A selected image sorting unit 1303 sorts the selected images in order of shooting date and time.

テンプレート選択部(メイン画像位置)1304は、テンプレート選択部1302で選択されたテンプレートの内、メイン画像を配置するメインスロットの配置順が、撮影日時順に並べたときのメイン画像の配置順と一致するテンプレート候補を選択する。次に、メイン画像とメインスロットとのアスペクト比が一致しているテンプレート候補を選択する。本実施形態では、テンプレートの左上に撮影日時のより古い画像、右下に撮影日時のより新しい画像を配置するものとする。 In the template selection section (main image position) 1304, among the templates selected by the template selection section 1302, the arrangement order of the main slots in which the main images are arranged matches the arrangement order of the main images when arranged in order of shooting date and time. Select template suggestions. Next, a template candidate having the same aspect ratio between the main image and the main slot is selected. In this embodiment, an image with an older shooting date and time is arranged in the upper left of the template, and an image with a newer shooting date and time is arranged in the lower right.

テンプレート選択部(サブ画像位置)1305は、テンプレート選択部(メイン画像位置)1304で選択されたテンプレートの内から画像選択部213で選択された画像に適したテンプレートを選択する。テンプレート選択部(サブ画像位置)1305は、サブ画像を配置するサブスロットが撮影日時順に並べたサブ画像の順と一致し、サブ画像とサブスロットとのアスペクト比が一致しているテンプレートを選択する。 A template selection unit (sub-image position) 1305 selects a template suitable for the image selected by the image selection unit 213 from among the templates selected by the template selection unit (main image position) 1304 . A template selection unit (sub-image position) 1305 selects a template in which the sub-slots in which sub-images are arranged match the order of the sub-images arranged in order of photographing date and time, and the aspect ratios of the sub-images and sub-slots match. .

図14は、テンプレート決定の処理フロー図である。 FIG. 14 is a processing flow diagram of template determination.

S1401は、選択画像情報取得部1301が選択された画像の選択画像数と選択された各画像の画像情報を取得する。ここでは、図12の処理により3枚の画像が選択されたケースを想定する。そのため、S1401では選択画像数として3が取得される。 In S1401, the selected image information acquisition unit 1301 acquires the number of selected images of the selected images and the image information of each selected image. Here, a case is assumed in which three images are selected by the processing of FIG. 12 . Therefore, 3 is acquired as the number of selected images in S1401.

S1402は、テンプレート選択部1302(スロット数)が選択画像数とスロット数が一致するテンプレート候補を選択する。ここではスロット数が3のテンプレートが選択される。なお、図10(a)に示すテンプレート(1-1)~(4-4)が、スロット数が3のテンプレートの一例である。 In S1402, the template selection unit 1302 (number of slots) selects a template candidate whose number of selected images matches the number of slots. Here, a template with 3 slots is selected. Note that templates (1-1) to (4-4) shown in FIG. 10(a) are examples of templates with three slots.

S1403は、選択画像ソート部1303が、選択画像を撮影時間順に並べる。選択画像を撮影日時の順に並べた結果が図10(b)であったとする。ここでは、画像1005がメインスロット用として選択されたメイン画像であり、画像1006と画像1007がサブスロット用として選択されたサブ画像とする。 In S1403, the selected image sorting unit 1303 arranges the selected images in order of shooting time. Assume that the result of arranging the selected images in the order of shooting date and time is that shown in FIG. Here, image 1005 is the main image selected for the main slot, and images 1006 and 1007 are sub-images selected for the sub-slot.

S1404は、テンプレート選択部(メイン画像位置)1304が、撮影順に選択画像を並べた際にメイン画像の配置順と、メインスロットの配置順が一致し、メイン画像とメインスロットとのアスペクト比が一致するテンプレート候補が選択される。画像1005は、撮影日時が一番新しく且つメインスロット用のメイン画像であるため、図10(a)に示すテンプレート(3-1)~(3-4)のテンプレートが候補となる。 In S1404, when the template selection unit (main image position) 1304 arranges the selected images in the shooting order, the arrangement order of the main images and the arrangement order of the main slots match, and the aspect ratios of the main images and the main slots match. template candidates are selected. Since the image 1005 has the latest shooting date and time and is the main image for the main slot, templates (3-1) to (3-4) shown in FIG. 10A are candidates.

S1405は、テンプレート選択部(サブ画像位置)1305でサブ画像とサブスロットとの位置およびアスペクト比が一致するテンプレートを選択する。図10(b)に示す例では、サブスロット用の古い方の画像1006、すなわち、左上に配置したい画像が縦画像で、新しい方の画像1007が横画像である。したがって、テンプレート(3-2)が、選択された画像に最も適したテンプレートとして選択される。 In S1405, the template selection unit (sub-image position) 1305 selects a template in which the positions and aspect ratios of the sub-image and sub-slot match. In the example shown in FIG. 10(b), the old image 1006 for the sub-slot, that is, the image to be placed at the upper left is the vertical image, and the new image 1007 is the horizontal image. Template (3-2) is therefore selected as the most suitable template for the selected image.

このようにS425では、使用するテンプレートと、テンプレートのいずれのスロットにいずれの画像を配置するかについての情報が決定される。 Thus, at S425, information about which template to use and which image to place in which slot of the template is determined.

S426では、画像補正部217が画像補正を行う。画像補正部217に入力された画像補正条件がONの場合は、画像補正を実施する。本実施形態では、画像補正として、覆い焼き補正、赤目補正、コントラスト補正を自動で実施する。画像補正部217に入力された画像補正条件がOFFの場合は、画像補正を実施しない。画像補正された画像は、短辺の画素数が1200画素に、色空間がsRGBに変換される。 In S426, the image correction unit 217 performs image correction. When the image correction condition input to the image correction unit 217 is ON, image correction is performed. In this embodiment, dodging correction, red-eye correction, and contrast correction are automatically performed as image corrections. When the image correction condition input to the image correction unit 217 is OFF, image correction is not performed. The corrected image is converted to 1200 pixels on the short side and sRGB color space.

S427では、レイアウト情報出力部218がレイアウト情報を作成する。S425で決まった通りに各画像をテンプレートに配置する。このとき、テンプレートが有する各スロットのサイズ情報に合わせて使用する画像を変倍して配置する。ここで用いる画像は、S426で生成した補正画像であり、S408~S418で用いた解析画像とは異なる画像である。そして、レイアウト情報出力部218は、レイアウト情報としてテンプレートに画像を配置したビットマップデータを生成する。 In S427, the layout information output unit 218 creates layout information. Each image is placed on the template as determined in S425. At this time, the image to be used is scaled and arranged according to the size information of each slot of the template. The image used here is the corrected image generated in S426, and is an image different from the analysis image used in S408 to S418. Then, the layout information output unit 218 generates bitmap data in which images are arranged in the template as layout information.

S428では、S423~S427が全ての見開きに対して終了したか否かを判定する。終了していない場合(S428でNo)はS423に戻る。終了している場合(S428でYes)は自動レイアウト処理を終了する。 In S428, it is determined whether or not S423 to S427 have been completed for all spreads. If not finished (No in S428), the process returns to S423. If completed (Yes in S428), the automatic layout process is terminated.

このように上記フローでアルバムを作成して、その結果をユーザにプレビューする。ユーザはプレビューされる完成したアルバムを確認し、必要に応じて編集作業を行う。 In this way, an album is created according to the flow described above, and the result is previewed for the user. The user confirms the previewed completed album and performs editing operations as necessary.

ここから、完成した既存見開き又は既存ページを有するアルバムに対して、ユーザ指示で見開き又はページを追加し、追加見開き又は追加ページに対して自動レイアウトを行う方法に関して説明する。 From here, a method of adding spreads or pages according to user instructions to a completed album having existing spreads or existing pages and performing automatic layout for additional spreads or additional pages will be described.

図15は、追加見開きに使用する画像の自動選択を実施するソフトウェアの構成を説明するブロック図である。 FIG. 15 is a block diagram illustrating the configuration of software for automatically selecting images to be used for additional double-page spreads.

見開き追加位置設定部1501は、自動レイアウト結果に対してユーザ入力に基づき見開きを追加する位置を決定する。見開き追加位置の指定に関しては、図21を用いて説明する。 A double-page spread addition position setting unit 1501 determines the position at which a double-page spread is added based on the user's input in the automatic layout result. Designation of the spread addition position will be described with reference to FIG.

図21は、自動レイアウト結果に対して見開き追加位置を指定するためのUI例を示す図である。ウィンドウ2101は、自動レイアウトした結果をプレビューする表示ウィンドウである。表示ウィンドウ下部に配置されたスライダーバーを移動させることにより、全てのレイアウト結果を確認することができる。見開き2102は、自動レイアウトにより作成された各見開きのレイアウト結果を示している。ユーザは、ポインタ2103で、自動レイアウト結果に対して見開きを追加する位置を指定することができる。マウス107を使ってポインタ2103を移動させ、ユーザが見開きを追加したい位置に移動させると、「見開き追加」のポップアップが表示される。ポップアップが表示された位置でクリックすることにより、見開きを追加する位置を確定することができる。 FIG. 21 is a diagram showing an example of a UI for designating a spread addition position for an automatic layout result. A window 2101 is a display window for previewing the result of automatic layout. All layout results can be checked by moving the slider bar arranged at the bottom of the display window. A double-page spread 2102 shows the layout result of each double-page spread created by automatic layout. The user can use the pointer 2103 to specify the position at which the spread is to be added to the automatic layout result. When the user uses the mouse 107 to move the pointer 2103 to a position where the user wants to add a double-page spread, an "add double-page spread" pop-up is displayed. By clicking at the position where the popup is displayed, the position to add the spread can be confirmed.

追加画像設定部1502は、アルバムにおける未使用画像群をユーザに提示して、提示した画像群から追加見開きに使用する画像をユーザに選択させる。ユーザによる画像の指定に関しては、図22を用いて説明する。 The additional image setting unit 1502 presents a group of unused images in the album to the user and allows the user to select an image to be used for the additional spread from the group of presented images. Designation of an image by the user will be described with reference to FIG.

図22は、追加見開きに使用する画像を選択するためのUI例を示す図である。ウィンドウ2201は、指定可能な画像を一覧表示する表示ウィンドウである。画像2202は、指定可能な画像である。ここでは、自動レイアウトで未選択の画像を表示する。ユーザは、ポインタ2203で、追加見開きに使用する画像を指定することができる。図22の例では、画像7上にポインタ2203が移動して選択されている状況を示している。追加見開きに使用する画像は複数枚選んでもよい。ボタン2204は、指定する画像の選択が完了したことを確定させるボタンである。ボタン2204を押下すると、選択中の画像が追加見開きに使用する画像として確定される。 FIG. 22 is a diagram showing an example of a UI for selecting images to be used for additional spreads. A window 2201 is a display window for displaying a list of specifiable images. An image 2202 is an image that can be specified. Here, unselected images are displayed in automatic layout. The user can use the pointer 2203 to designate an image to be used for the additional spread. The example of FIG. 22 shows a situation where the pointer 2203 is moved and selected on the image 7 . Multiple images may be selected to be used for additional spreads. A button 2204 is a button for confirming that the selection of the designated image has been completed. When a button 2204 is pressed, the selected image is confirmed as the image to be used for the additional spread.

ここでは説明の便宜上、追加見開きに使用する画像を、アルバム作成条件設定部201で指定されたディレクトリ内に含まれる画像群から選択する前提で説明したが、ユーザが別ディレクトリ内に含まれる画像群を指定できるようにしてもよい。 Here, for convenience of explanation, it is assumed that the images to be used for the additional double-page spread are selected from the group of images contained in the directory specified by the album creation condition setting section 201, but the user selects the group of images contained in another directory. can be specified.

説明を図15に戻す。指定画像解析部1503は、追加画像設定部1502でユーザにより選択された画像を解析する。ここでは、追加画像設定部1502で画像が1枚指定された場合について説明する。指定画像解析部1503は、指定された画像に対して画像解析部207と同様の画像解析を実施する。自動レイアウト時に解析されている場合、解析結果が保存されているため、それを利用することで指定画像解析部1503での処理を省いてもよく、それにより処理を高速化できる。アルバム作成条件設定部201で指定した画像とは別ディレクトリ内に含まれる画像を指定した場合は、解析結果がないため、指定画像解析部1503で解析処理を実施する。この解析結果は、上述したように、画像データにおけるオブジェクト判定、顔検出、検出した顔の表情認識、検出した顔の個人認識の結果、および撮影日時情報などである。ここでは撮影日時情報を解析結果の一例として説明する。 Returning the description to FIG. A designated image analysis unit 1503 analyzes the image selected by the user in the additional image setting unit 1502 . Here, a case where one image is specified in the additional image setting unit 1502 will be described. The designated image analysis unit 1503 performs image analysis similar to that of the image analysis unit 207 on the designated image. If the image is analyzed during automatic layout, the analysis result is stored. By using the result, the processing in the designated image analysis unit 1503 can be omitted, thereby speeding up the processing. If an image included in a different directory from the image specified by the album creation condition setting unit 201 is specified, the specified image analysis unit 1503 performs analysis processing because there is no analysis result. As described above, the analysis results include object determination in image data, face detection, expression recognition of detected faces, personal recognition results of detected faces, and shooting date/time information. Here, the shooting date/time information will be described as an example of the analysis result.

画像選択条件設定部1504は、追加画像設定部1502で指定された画像以外に、追加見開きに使用する画像候補を自動で選択する条件を設定する。ここでは説明のために、追加画像設定部1502で指定された画像の撮影日時から、画像分類部208で分割されたサブ画像群のうち、追加画像設定部1502で指定された画像と同じシーンに分類されていることを画像選択条件(範囲)に設定する。ここでは上述したように追加画像設定部1502で指定された画像は、アルバム作成条件設定部201で指定されたディレクトリ内に含まれる画像群から選択されていることを前提としている。そしてアルバム作成条件設定部201で指定されたディレクトリ内に含まれる画像群はすでに撮影日時に基づいてサブ画像群に分割され、シーン分類されている。そのため、指定された画像がどのサブ画像群の、どのシーンに属しているかを撮影日時に基づき特定することができる。 An image selection condition setting unit 1504 sets conditions for automatically selecting image candidates to be used for additional spreads other than the images specified by the additional image setting unit 1502 . For the sake of explanation, from among the group of sub-images divided by the image classification unit 208, from the photographing date and time of the image specified by the additional image setting unit 1502, Set the image selection condition (range) to be classified. Here, it is assumed that the images specified in the additional image setting section 1502 are selected from the group of images included in the directory specified in the album creation condition setting section 201, as described above. The image group included in the directory specified by the album creation condition setting unit 201 has already been divided into sub-image groups based on the shooting date and time, and scene-classified. Therefore, it is possible to identify which sub-image group and which scene the specified image belongs to based on the shooting date and time.

追加画像設定部1502で指定された画像に撮影日時情報がない場合には、見開き追加位置設定部1501で指定された見開き追加位置を挟む前後の見開きから、画像選択条件(範囲)を設定してもよい。例えば、追加見開きの前の見開き内で使用されている画像の撮影日時が一番遅いものを開始撮影日時とする。また、追加見開きの後の見開き内で使用されている画像の撮影日時が一番早いものを終了撮影日時とする。この開始日時から終了日時を画像選択条件として設定する。 If the image specified in the additional image setting section 1502 does not have shooting date and time information, the image selection condition (range) is set from the spreads before and after the spread addition position specified in the spread addition position setting section 1501. good too. For example, the latest shooting date and time of the image used in the spread before the additional spread is set as the start shooting date and time. Also, the earliest shooting date and time of the image used in the spread after the additional spread is set as the end shooting date and time. The start date and time and the end date and time are set as image selection conditions.

アルバム作成条件設定部201で指定した画像とは別ディレクトリ内に含まれる画像を指定した場合は、別ディレクトリ内の全画像を画像選択の範囲に設定してもよい。また、別ディレクトリ内の画像を画像分類部208と同様に解析して画像群分割してシーン分類し、追加画像設定部1502で指定された画像と同じシーンに分類された画像のみを画像選択の範囲に設定してもよい。 When an image included in a different directory from the image specified in the album creation condition setting unit 201 is specified, all images in the different directory may be set in the image selection range. Also, images in another directory are analyzed in the same manner as the image classification unit 208, image groups are divided, and scenes are classified. You can set the range.

画像解析部1505は、追加画像設定部1502で指定された画像を除く、画像選択条件設定部1504で設定された画像選択条件を満たす画像を取得し、画像解析部207と同様の解析処理を行う。予め画像解析が実施されており解析結果が保存されている場合は、それを利用してもよい。結果が保存されていない場合は解析処理を実施する。 An image analysis unit 1505 acquires images that satisfy the image selection conditions set by the image selection condition setting unit 1504, excluding images specified by the additional image setting unit 1502, and performs analysis processing similar to that of the image analysis unit 207. . If image analysis has been performed in advance and the analysis results have been saved, it may be used. If the result is not saved, the analysis process is executed.

画像得点部1506は、画像解析結果に基づいて、画像解析部1505が取得した画像の得点化を行う。画像を得点化する際には、画像得点部210と同様の処理を行う。予め画像得点が算出されており結果が保存されている場合は、それを利用してもよい。画像得点が保存されていない場合は、解析結果に基づいて画像得点を算出する。 The image scoring unit 1506 scores the image acquired by the image analyzing unit 1505 based on the image analysis result. When scoring an image, the same processing as that of the image scoring unit 210 is performed. If the image score is calculated in advance and the result is saved, it may be used. If the image score is not stored, the image score is calculated based on the analysis results.

画像選択枚数設定部1507は、追加見開きに配置する画像枚数と、追加見開きに配置する画像枚数から追加画像設定部1502で指定された画像枚数を引いた画像枚数である自動選択画像枚数とを設定する。ここでは自動レイアウト時に各見開きで使用されている画像枚数から、一見開きあたりの平均画像枚数を算出し、平均画像枚数を追加見開きに配置する画像枚数に設定する。また、平均画像枚数から追加画像設定部1502で指定された画像枚数を引いた画像枚数を画像選択条件に基づき取得された画像の中から使用する自動選択画像枚数に設定する。 The number of images to be selected setting unit 1507 sets the number of images to be arranged in the additional spread and the number of images to be automatically selected, which is the number of images to be arranged in the additional spread minus the number of images specified in the additional image setting unit 1502. do. Here, the average number of images per one page spread is calculated from the number of images used in each spread during automatic layout, and the average number of images is set as the number of images to be arranged in the additional spread. Also, the number of images obtained by subtracting the number of images specified by the additional image setting unit 1502 from the average number of images is set as the number of automatically selected images to be used from among the images acquired based on the image selection conditions.

ここでは、平均画像枚数からユーザ指定画像枚数を差し引いた枚数を自動選択画像枚数と設定したが、配置する画像の最小値と最大値を設定してもよい。例えば、追加見開きに配置する画像枚数として、アルバム内の見開き中の最小画像枚数を探索して最小値に設定し、同様にアルバム内の見開き中の最大画像枚数を探索して最大値に設定してもよい。アルバム内の採用数でなく、固定値で追加見開きに配置する画像枚数の最小値及び最大値を設定してもよい。また、保持しているテンプレートに配置できる画像枚数に応じて最小値と最大値を設定してもよい。また、画像選択条件設定部1504で設定された範囲に含まれる未使用画像枚数に応じて、自動選択画像枚数を設定してもよい。例えば、平均画像枚数もしくは上記最小値よりも未使用画像枚数が下回った場合は、未使用画像枚数を自動選択画像枚数に設定してもよい。 Here, the number of images obtained by subtracting the number of images specified by the user from the average number of images is set as the number of automatically selected images, but the minimum and maximum values of the images to be arranged may be set. For example, as the number of images to be placed in an additional spread, search for the minimum number of images in the spread in the album and set it to the minimum value, and similarly search for the maximum number of images in the spread in the album and set it to the maximum value. may The minimum and maximum number of images to be arranged in the additional spread may be set as fixed values instead of the number of images to be used in the album. Also, the minimum and maximum values may be set according to the number of images that can be arranged in the held template. Also, the number of automatically selected images may be set according to the number of unused images included in the range set by the image selection condition setting unit 1504 . For example, when the number of unused images is less than the average number of images or the minimum value, the number of unused images may be set as the number of automatically selected images.

画像自動選択部1508は、追加画像設定部1502でユーザが指定した画像に加え、画像選択条件に基づき取得された画像の中から追加見開きに配置する画像を選択する。画像選択条件設定部1504で設定された範囲に含まれる未使用画像群に対してユーザが指定した画像に対する類似画像判定を行い、類似していない画像から画像選択枚数設定部1507で設定された自動選択画像枚数分を得点の高い画像から順に選択する。画像選択条件設定部1504で設定された範囲に含まれる未使用画像枚数が少ない場合には、未使用画像枚数に応じて、類似画像判定時に設定する閾値を変更してもよい。例えば、選択時には撮影日時情報を利用して画像選択部213と同様の処理で選択してもよい。 An automatic image selection unit 1508 selects an image to be laid out in an additional spread from images acquired based on image selection conditions, in addition to images specified by the user in the additional image setting unit 1502 . Similar image determination is performed for images specified by the user in the unused image group included in the range set by the image selection condition setting unit 1504, and the automatic image selection set by the image selection number setting unit 1507 is performed from images that are not similar. The number of selected images is selected in descending order of the score. If the number of unused images included in the range set by the image selection condition setting unit 1504 is small, the threshold set during similar image determination may be changed according to the number of unused images. For example, at the time of selection, the same processing as that of the image selection unit 213 may be performed using shooting date/time information.

追加見開きレイアウト部1509は、追加画像設定部1502で設定された画像と、画像自動選択部1508で自動選択された画像とを、追加見開きに自動レイアウトする。ここでは説明のために、自動レイアウト処理は、図2に記載の画像レイアウト部215で行うレイアウト方法及び図13と図14で説明したテンプレート決定方法と同様の処理を行う。 An additional spread layout section 1509 automatically lays out the images set by the additional image setting section 1502 and the images automatically selected by the image automatic selection section 1508 in an additional spread. Here, for the sake of explanation, the automatic layout process performs the same processing as the layout method performed by the image layout unit 215 shown in FIG. 2 and the template determination method explained with reference to FIGS.

ここでは、アルバム全体の自動レイアウトと同じレイアウト方法を追加見開きに用いた場合で説明したが、他のレイアウト方法を用いてもよい。また、選択された画像のアスペクト比、時系列、大スロットの位置などに基づいて、テンプレートを動的に生成してもよい。さらに、テンプレートは使用せず、選択された画像から見開き内における画像の位置及びサイズなどの画像の配置を設定してもよい。なお、本開示において画像の配置とは、画像の外縁の位置、その外縁を構成する各辺の位置又は各頂点の位置を意味するものとする。 Here, the case where the same layout method as the automatic layout of the entire album is used for the additional double-page spread has been described, but other layout methods may be used. Templates may also be dynamically generated based on the aspect ratio of the selected image, time sequence, location of large slots, and the like. Furthermore, without using a template, the image layout, such as the position and size of the image in the spread, may be set from the selected image. In the present disclosure, the arrangement of an image means the position of the outer edge of the image, the position of each side constituting the outer edge, or the position of each vertex.

レイアウト情報取得部1510は、追加見開きレイアウト部1509で作成されたレイアウト結果に関するレイアウト情報を取得する。レイアウト情報は、使用したテンプレート、背景色、背景パターン、余白の設定、配置された画像の特徴量、撮影日時に対する画像の配置順序、大スロットに配置された画像などがある。レイアウト情報取得部1510は、追加見開きに関する上記レイアウト情報を取得する。 A layout information acquisition unit 1510 acquires layout information related to the layout result created by the additional spread layout unit 1509 . The layout information includes the template used, the background color, the background pattern, the setting of the margins, the features of the arranged images, the arrangement order of the images with respect to the date and time of shooting, the images arranged in the large slots, and the like. The layout information acquisition unit 1510 acquires the layout information regarding the additional double-page spread.

レイアウト変更判定部1511は、追加見開き以外の既存のレイアウト済み見開きに対して、レイアウトを変更するか否かを判定する。またレイアウト変更判定部1511は、レイアウト情報取得部1510で取得された追加見開きのレイアウト情報に基づいて、既存見開きを変更する箇所、及びレイアウトの変更方法を設定する。 A layout change determination unit 1511 determines whether or not to change the layout of existing laid-out spreads other than additional spreads. Also, the layout change determination unit 1511 sets the portion to be changed in the existing spread and the layout change method based on the layout information of the additional spread acquired by the layout information acquisition unit 1510 .

ここでは説明のために、追加見開きと隣接する前見開き及び後ろ見開きとに対して、類似したレイアウト結果か否かを判定する。類似したレイアウト結果か否かを判定する方法として、追加見開きと隣接する前見開き及び後ろ見開きとで採用されたテンプレートのスロット数、スロットのサイズ、及び各サイズのスロットの位置を比較することにより類似を判定する。他の類似したレイアウト結果か否かを判定する方法としては、テンプレートごとに番号を割り当て、割り当てられた番号が同じテンプレートが使用されている場合は類似と判定してもよい。 Here, for the sake of explanation, it is determined whether or not the additional spread and the adjacent front and back spreads have similar layout results. As a method of determining whether or not the layout results are similar, the number of slots, the size of the slots, and the positions of the slots of each size of the templates adopted in the additional spread and the adjacent front and back spreads are compared. judge. As another method of determining whether or not the layout results are similar, a number may be assigned to each template, and templates having the same assigned number may be determined to be similar.

レイアウト変更判定部1511は、追加見開きのレイアウトで使用したテンプレートと、追加見開きに隣接する既存見開きのレイアウトで使用されたテンプレートを比較する。ここでは説明のために、追加見開きの直前に位置する既存見開きのレイアウトで類似テンプレートが使用されているとする。 The layout change determination unit 1511 compares the template used in the layout of the additional spread with the template used in the layout of the existing spread adjacent to the additional spread. Here, for the sake of explanation, it is assumed that the similar template is used in the layout of the existing spread immediately before the additional spread.

類似テンプレートが使用されていると判定された場合、類似テンプレートが使用されていると判定された既存見開きを、使用中のテンプレートとは別のテンプレートを利用させるレイアウト変更が必要と判定する。 When it is determined that a similar template is used, it is determined that the existing double-page spread determined to use a similar template requires a layout change to use a template different from the template in use.

ここでは説明のために、追加見開きに隣接する見開きに対して判定処理を行ったが、隣接しない見開きに対しても判定処理を行ってもよい。その際の判定対象基準として、例えば、追加見開きで使用した画像と同じシーンの画像を使った既存見開きを判定対象とするとしてもよい。 Here, for the sake of explanation, the determination process is performed on the spread adjacent to the additional spread, but the determination process may also be performed on the spread that is not adjacent. As a determination target criterion at that time, for example, an existing spread using an image of the same scene as the image used in the additional spread may be determined.

既存見開き自動レイアウト部1512は、レイアウト変更判定部1511でレイアウト変更が必要と判定された既存見開きに対してレイアウト変更を行う。レイアウト変更を行う既存見開きに対して、レイアウト変更判定部1511で設定された変更方法に基づいて、既存見開きを自動でレイアウトする。ここでは説明のために、使用するテンプレートを変更する方法を例にする。 The existing double-page spread automatic layout unit 1512 changes the layout of the existing double-page spread determined by the layout change determination unit 1511 to require layout change. Based on the change method set by the layout change determination unit 1511, the existing spread is automatically laid out for the existing spread whose layout is to be changed. For the sake of explanation, here is an example of how to change the template to be used.

自動レイアウト処理は、図2に記載の画像レイアウト部215で行うレイアウト方法及び図13と図14で説明したテンプレート決定方法と同様の処理を行う。この時、レイアウト変更判定部1511の判定結果に基づき、類似と判定されたテンプレートとは別のテンプレートを使って画像を配置するように制御する。具体的には、図13と図14で説明したテンプレート決定方法において、テンプレート候補から、追加見開きのレイアウトで使用されたテンプレートを除外する。その結果、別テンプレートを使ったレイアウト結果を自動で作成できる。また、追加見開きの自動レイアウトを行う際に、既存見開きの自動レイアウトで使用したテンプレートセットとは異なる別テンプレートセットを用意してもよい。さらに、追加見開きの自動レイアウト時に使用する別テンプレートセットを、既存見開きのレイアウト変更時にも利用することにより、レイアウト変更しない他の既存見開きへの影響を減らすことができる。 The automatic layout process is similar to the layout method performed by the image layout unit 215 shown in FIG. 2 and the template determination method explained with reference to FIGS. At this time, based on the determination result of the layout change determination unit 1511, control is performed so that the images are arranged using a template other than the template determined to be similar. Specifically, in the template determination method described with reference to FIGS. 13 and 14, the templates used in the additional spread layout are excluded from the template candidates. As a result, a layout result using another template can be automatically created. Further, when performing the automatic layout of the additional double-page spread, a template set different from the template set used in the automatic layout of the existing double-page spread may be prepared. Furthermore, by using a different template set for automatic layout of additional spreads when changing the layout of existing spreads, it is possible to reduce the influence on other existing spreads whose layouts are not changed.

ここでは説明のために、追加見開きレイアウト部1509と既存見開き自動レイアウト部1512は別構成として記載しているが、これらを1つの構成で実現してもよい。 For the sake of explanation, the additional double-page spread layout section 1509 and the existing double-page spread automatic layout section 1512 are described as separate configurations, but they may be implemented as one configuration.

また、既存見開きのレイアウトを変更する方法に関して説明したが、既存見開きのレイアウトで利用する画像を変更または追加してもよい。例えば、追加見開きにおいて既存見開きで使用されている画像と類似する画像が使用された場合には、既存見開きで使用されている追加見開きで使用されている画像と類似する画像を類似していない画像に変更してもよい。 Also, although the method for changing the layout of the existing double-page spread has been described, images used in the layout of the existing double-spread may be changed or added. For example, if an image similar to the image used in the existing spread is used in the additional spread, an image similar to the image used in the additional spread used in the existing spread is replaced with an image that is not similar. can be changed to

以上が、追加見開き及び既存見開きに対して、自動レイアウトを実施するためのブロック図に関する説明である。 The above is the description of the block diagram for executing the automatic layout for additional spreads and existing spreads.

図23は、追加見開き及び既存見開きに対して、自動レイアウトを実施したレイアウト結果を説明するための図である。図23(a)は見開きを追加する前の自動レイアウト後の見開きを示している。見開き内の矩形は配置された画像を示している。図23(b)は、追加見開きレイアウト部1509により、ユーザが指定した追加位置に見開きを追加した後のレイアウト結果を示している。既存のアルバムに対して見開きを追加すると、追加された追加見開きと追加見開きに隣接するN見開きとで同じテンプレートが使用されるなど、アルバムの構成要素の一部が連続することで、単調な印象を与えるなどレイアウト審美性が崩れる場合がある。このように類似した見開きが連続することを回避するために、レイアウト情報取得部1510により追加見開きのレイアウト結果を取得し、レイアウト変更判定部1511により既存見開きのレイアウトを変更するかを判定する。図23(b)に示すような場合には、N見開きと追加見開きで使用したテンプレートが同じと判定され、既存見開きのレイアウトにおける画像の配置を変更する。図23(c)は、既存見開き自動レイアウト部1512により既存見開きのレイアウトを変更した結果である。ここでは説明のために、時間順が変更しないようなテンプレートを選択して、既存見開きにおける画像の配置を変更した結果を示している。このように、既存見開きのレイアウトを調整することにより、見開きを構成する要素が連続することによるアルバム全体の審美性の低下を避けることができる。 23A and 23B are diagrams for explaining layout results obtained by performing automatic layout on additional spreads and existing spreads. FIG. 23(a) shows a spread after automatic layout before addition of a spread. Rectangles within the spread indicate the arranged images. FIG. 23B shows the layout result after the additional spread layout unit 1509 adds a spread at the additional position specified by the user. When a spread is added to an existing album, the same template is used for the additional spread and the N-spread adjacent to the additional spread. Layout aesthetics may collapse, such as giving In order to avoid such continuation of similar spreads, the layout information acquisition unit 1510 acquires the layout results of the additional spreads, and the layout change determination unit 1511 determines whether to change the layout of the existing spreads. In the case shown in FIG. 23B, it is determined that the template used for the N spread and the additional spread is the same, and the layout of the images in the layout of the existing spread is changed. FIG. 23C shows the result of changing the layout of the existing double-page spread by the existing double-page spread automatic layout unit 1512 . Here, for the sake of explanation, the result of changing the arrangement of images in an existing double-page spread by selecting a template whose chronological order does not change is shown. By adjusting the layout of the existing double-page spread in this way, it is possible to avoid deterioration of the overall aesthetics of the album due to the continuation of the elements constituting the double-page spread.

図16は、追加見開き及び既存見開きに対して、自動レイアウトを実施するためのフローチャートである。 FIG. 16 is a flow chart for executing automatic layout for additional spreads and existing spreads.

S1601では、見開き追加位置設定部1501が、自動レイアウト結果のプレビューに対して、ユーザがポインタで指定した見開き追加位置を設定する。 In S1601, the spread addition position setting unit 1501 sets the spread addition position specified by the user with the pointer for the preview of the automatic layout result.

S1602では、追加画像設定部1502が、ユーザにアルバム未使用画像を提示し、提示した画像群から追加する見開きに配置する画像をユーザに選択させ、ユーザが指定した画像を追加見開きに配置するユーザ選択画像として設定する。 In S1602, the additional image setting unit 1502 presents the album unused images to the user, prompts the user to select an image to be placed in the additional spread from the presented image group, and instructs the user to place the image specified by the user in the additional spread. Set as selected image.

S1603では、指定画像解析部1503が、追加画像設定部1502で設定された画像を解析する。指定画像解析部1503は、画像解析部207と同様の解析処理を行う。 In S<b>1603 , the designated image analysis unit 1503 analyzes the image set by the additional image setting unit 1502 . A designated image analysis unit 1503 performs analysis processing similar to that of the image analysis unit 207 .

S1604では、画像選択条件設定部1504が、追加画像設定部1502で設定された画像の解析結果に基づき、追加画像設定部1502で設定された画像以外に、追加見開きに配置する画像候補を自動で選択する条件を設定する。ここで設定される条件としては、例えば追加画像設定部1502で設定された画像と同一シーンに分類されていることである。 In step S1604, the image selection condition setting unit 1504 automatically selects image candidates to be arranged in the additional spread, in addition to the images set by the additional image setting unit 1502, based on the analysis results of the images set by the additional image setting unit 1502. Set the conditions for selection. The condition set here is that the image is classified into the same scene as the image set by the additional image setting unit 1502, for example.

S1605では、画像解析部1505が、画像選択条件設定部1504で設定された条件に該当する画像を順次解析する。画像解析部1505は、画像解析部207と同様の解析処理を行う。 In S<b>1605 , the image analysis unit 1505 sequentially analyzes images that meet the conditions set by the image selection condition setting unit 1504 . An image analysis unit 1505 performs analysis processing similar to that of the image analysis unit 207 .

S1606では、画像得点部1506が、画像解析部1505の画像解析結果に基づいて画像の得点化を行う。画像得点部1506は、画像得点部210と同様の得点化処理を行う。 In S<b>1606 , the image scoring unit 1506 scores the image based on the image analysis result of the image analysis unit 1505 . An image scoring unit 1506 performs scoring processing similar to that of the image scoring unit 210 .

S1607では、画像選択条件設定部1504で設定された条件に該当する画像が解析及び得点化されたか否かを判定する。指定された条件に該当する全画像の解析及び得点化が終了した場合は、S1608に処理を進める。解析及び得点化の終了していない画像が残っている場合は、S1605に戻り、解析及び得点化されていない画像に対して処理を継続する。 In S1607, it is determined whether or not the image corresponding to the condition set by the image selection condition setting unit 1504 has been analyzed and scored. If the analysis and scoring of all images that meet the specified conditions are completed, the process advances to S1608. If there are still images that have not been analyzed and scored, the process returns to S1605 to continue processing the images that have not been analyzed and scored.

S1608では、画像選択枚数設定部1507が、追加見開きに配置する画像と、画像選択条件に基づき取得された画像の中から使用する画像枚数である自動選択画像枚数とを設定する。なお、具体的な設定方法は、画像選択枚数設定部1507の説明で上述しているため省略する。 In S1608, the image selection number setting unit 1507 sets the number of images to be arranged in the additional spread and the number of automatically selected images, which is the number of images to be used from among the images acquired based on the image selection conditions. Note that a specific setting method has been described above in the description of the image selection number setting unit 1507, and is therefore omitted.

S1609では、画像自動選択部1508が、追加画像設定部1502で設定された画像に加え、画像選択条件に基づき取得された画像の中から得点の高い順に追加見開きに配置する画像として選択する。 In S1609, in addition to the images set by the additional image setting unit 1502, the image automatic selection unit 1508 selects the images to be arranged in the additional spread from among the images acquired based on the image selection conditions in descending order of score.

S1610では、追加見開きレイアウト部1509が、画像自動選択部1508で自動選択された画像を用いて、追加見開きに対して自動レイアウトを行う。 In S1610, the additional spread layout unit 1509 uses the images automatically selected by the automatic image selection unit 1508 to automatically lay out the additional spread.

S1611では、レイアウト情報取得部1510が、追加見開きレイアウト部1509で作成された追加見開きのレイアウト結果の情報を取得する。 In S<b>1611 , the layout information acquisition unit 1510 acquires information on the layout result of the additional spread created by the additional spread layout unit 1509 .

S1612では、レイアウト変更判定部1511が、追加見開きと、追加見開き以外のレイアウト済みの既存見開きとのレイアウト結果を比較して、既存見開きのレイアウトを変更するかを判定する。なお、具体的な設定方法は、レイアウト変更判定部1511の説明で上述しているため省略する。 In S1612, the layout change determination unit 1511 compares the layout results of the additional spread and existing spreads that have already been laid out other than the additional spread, and determines whether to change the layout of the existing spread. Note that a specific setting method has been described above in the description of the layout change determination unit 1511, and is therefore omitted.

S1613では、既存見開き自動レイアウト部1512が、レイアウト変更判定部1511でレイアウト変更が必要であると判定された既存見開きに対してレイアウト変更を行う。例えば、既存見開き自動レイアウト部1512は、既存見開きが使用しているテンプレートを別のテンプレートに変更することでS1613を実行する。その他の方法として、スロットサイズを変更したり、トリミング処理したりすることでS1613が実現されても良い。 In S1613, the existing double-page spread automatic layout unit 1512 changes the layout of the existing double-page spread determined by the layout change determination unit 1511 to require layout change. For example, the existing spread automatic layout unit 1512 executes S1613 by changing the template used by the existing spread to another template. Alternatively, S1613 may be realized by changing the slot size or performing trimming.

S1614では、レイアウト変更判定部1511で変更すると判定された全既存見開きに対して自動レイアウトが実施されたか否かを判定し、実施された場合は処理を終了する。実施されていない場合には、S1613に戻り、レイアウトが実施されていない見開きの処理を行う。 In S1614, it is determined whether or not automatic layout has been performed for all existing double-page spreads determined to be changed by the layout change determination unit 1511, and if it has been performed, the process ends. If not, the process returns to S1613 to perform spread processing for which layout has not been performed.

以上が、追加見開き及び既存見開きに対して、自動レイアウトを実施するためのフローチャートに関する説明である。 The above is the description of the flow chart for executing the automatic layout for additional spreads and existing spreads.

なお、S1612では、追加見開きと、追加見開き以外のレイアウト済みの既存見開きとのレイアウト結果を比較して、類似したレイアウト結果か否かを判定する。そして両者が類似していると判定された場合、既存見開きのレイアウトを変更すると決定している。しかし、他の基準で判定しても良い。例えば、S1612では、追加見開きと、追加見開き以外のレイアウト済みの既存見開きとのレイアウト結果を比較して、類似したレイアウト結果か否かを判定する。そして両者が類似していないと判定された場合、既存見開きのレイアウトを変更すると決定しても良い。この際、追加ページのレイアウトと類似するように既存ページのレイアウトが変更される。例えば、追加ページと同じテンプレートが既存ページにも適用されることで、既存ページのレイアウトが変更される。 In S1612, the layout results of the additional spread and the existing spread that has already been laid out other than the additional spread are compared, and it is determined whether or not the layout results are similar. Then, when it is determined that both are similar, it is decided to change the layout of the existing double-page spread. However, other criteria may be used for determination. For example, in S1612, the layout results of the additional spread and the existing spread that has already been laid out other than the additional spread are compared to determine whether or not the layout results are similar. Then, if it is determined that the two are not similar, it may be decided to change the layout of the existing double-page spread. At this time, the layout of the existing page is changed so as to resemble the layout of the added page. For example, the layout of the existing page is changed by applying the same template as the additional page to the existing page.

本実施形態では、追加見開きをアルバムの特定の位置に追加する場合に、追加見開きのレイアウトに応じて、既存見開きのレイアウトを変更することにより、見開き追加後も調和の取れた審美性の高いアルバムを自動で作成することができる。 In this embodiment, when an additional spread is added to a specific position of the album, by changing the layout of the existing spread in accordance with the layout of the additional spread, the album is highly aesthetically harmonious even after the addition of the spread. can be created automatically.

(実施形態2)
第2の実施形態は、追加見開きと既存見開きとを合わせて自動レイアウトを行う方法に関して記載する。
(Embodiment 2)
The second embodiment describes a method of automatically laying out an additional spread and an existing spread.

図17は、追加見開きと既存見開きを合わせて自動レイアウトを実施するためのブロック図である。図15と同じ番号に関しては、同じ装置を表しており同様の処理を実施するため、ここでは説明を割愛する。 FIG. 17 is a block diagram for executing automatic layout by combining additional spreads and existing spreads. Since the same numbers as in FIG. 15 represent the same devices and perform the same processing, the description is omitted here.

画像選択枚数設定部1507は、追加見開きに配置する画像を設定する。ここでは、アルバム内の既存見開きにおける最小画像枚数を探索して、追加見開きに配置する画像枚数の最小値に設定する。 An image selection number setting unit 1507 sets images to be arranged in the additional spread. Here, the minimum number of images in the existing double-page spread in the album is searched for, and the minimum number of images to be arranged in the additional double-spread is set.

レイアウト変更範囲判定部1701は、見開き追加位置設定部1501で画像自動選択部1508により選択された画像に基づき、既存見開きのレイアウトを変更する範囲を判定する装置である。ここでは、既存見開きで配置されている画像と、追加画像設定部1502で設定された画像及び画像自動選択部1508で選択された画像との撮影日時情報が重複しているか否かによりレイアウト変更範囲を判定する。例えば、追加見開きの直前の既存の見開きに配置された画像と同一シーンの中で未使用の画像群から、追加見開きに配置する画像を選択する場合を例に説明する。この場合、既存見開きに配置されている画像と追加見開きに配置される画像とは同じシーンの画像であるため、既存見開きから追加見開きにかけて一貫した所定の順序、例えば撮影日時順で画像を配置することが望ましい。しかし、追加見開きで使用するために選択された画像は、必ずしも追加見開きの直前の既存見開きに配置された全ての画像の撮影日時よりも新しいとは限らない。そのため、画像の既存見開き及び追加見開きへの割当てを変更して、既存見開きと追加見開きとに新たに割当てられた画像をレイアウトする必要がある。 The layout change range determination unit 1701 is a device that determines the range of changing the layout of the existing spread based on the image selected by the image automatic selection unit 1508 in the spread addition position setting unit 1501 . Here, the layout change range is determined depending on whether or not the photographing date and time information of the images arranged in the existing spread and the images set in the additional image setting unit 1502 and the images selected in the automatic image selection unit 1508 overlap. judge. For example, a case will be described in which an image to be arranged in an additional spread is selected from a group of unused images in the same scene as the image arranged in the existing spread immediately before the additional spread. In this case, since the images arranged in the existing spread and the images arranged in the additional spread are images of the same scene, the images are arranged in a consistent predetermined order from the existing spread to the additional spread, for example, in order of shooting date and time. is desirable. However, the images selected for use in the additional spread are not necessarily newer than the shooting dates and times of all the images placed in the existing spread just before the additional spread. Therefore, it is necessary to change the allocation of images to the existing and additional spreads and lay out the images newly allocated to the existing and additional spreads.

他にも、画像自動選択部1508で画像選択時に、画像選択条件設定部1504で設定された範囲に未使用画像が少ない場合、画像選択枚数設定部1507で設定した枚数分だけ画像を選択できない場合がある。もしくは、未使用画像が設定した枚数以上あっても、画質が悪いなどレイアウトに使用するには適さない画像の場合は、設定した枚数分だけ画像を選択できない場合がある。そのような場合は、既存見開きに配置されている画像を追加見開きに配置する画像として選択し、追加見開きの自動レイアウトを行うと同時に、追加見開きに画像が移された既存見開きの自動レイアウトも行う方法が考えられる。既存見開きから追加見開きに画像を移した場合、既存見開きにおける画像の配置を変更する必要があるため、この場合もレイアウト変更範囲判定部1701では、追加見開きに画像が移された既存見開きを変更範囲として設定する。 In addition, when images are selected by the image automatic selection unit 1508, if there are few unused images in the range set by the image selection condition setting unit 1504, or if the number of images set by the image selection number setting unit 1507 cannot be selected. There is Alternatively, even if there are more than the set number of unused images, if the image quality is poor or not suitable for use in the layout, the set number of images may not be selected. In such a case, select the image placed in the existing spread as an image to be placed in the additional spread, and perform automatic layout of the additional spread, and at the same time, automatically lay out the existing spread with the image moved to the additional spread. I can think of a way. If an image is moved from an existing spread to an additional spread, it is necessary to change the arrangement of the images in the existing spread. set as

見開き割当部1702は、レイアウト変更範囲判定部1701で判定された既存見開き及び追加見開きに対して配置する画像を割り当てる。ここでは、画像の撮影時間差から、各画像を割当てる見開きを設定する。まずは、変更範囲に含まれる既存見開き及び追加見開きに配置する画像群を撮影時間差が1番大きい区間で分割する。次に、分割された区間において撮影時間差が大きい区間で分割する。これを、変更範囲に含まれる既存見開き及び追加見開きの見開き数になるまで繰り返し、必要な見開き数分まで画像群を分割できたら、画像を区間単位で変更範囲内の各見開きに割当てる。この時、撮影時間差だけでなく、分割した各区間に含まれる画像枚数が平均画像枚数になるように分割位置を調整してもよい。また、未使用画像枚数が少なかったり、未使用画像がレイアウトに適さなかったりするときに、既存見開きから追加見開きに多数の画像を移した場合、既存見開きの数を減らすなど、既存見開きの構成を変更してもよい。 A spread allocation unit 1702 allocates images to be laid out to existing spreads and additional spreads determined by the layout change range determination unit 1701 . Here, a spread to which each image is assigned is set based on the image capturing time difference. First, the group of images to be arranged in the existing spread and the additional spread included in the change range is divided by the section with the largest shooting time difference. Next, among the divided sections, a section having a large photographing time difference is divided. This is repeated until the number of existing spreads and additional spreads included in the change range is reached, and when the image group is divided up to the necessary number of spreads, the images are assigned to each spread within the change range in section units. At this time, the division position may be adjusted so that the number of images included in each divided section becomes the average number of images, in addition to the shooting time difference. Also, when the number of unused images is small or the unused images are not suitable for the layout, if many images are moved from the existing spread to the additional spread, the existing spread structure can be adjusted, such as reducing the number of existing spreads. You can change it.

自動レイアウト部1703は、レイアウト変更範囲判定部1701で判定された見開きに対して、見開き割当部1702で各見開きに割当てられた画像を用いて、見開きごとに自動レイアウトを行う。自動レイアウト部1703が行うレイアウト方法は、実施形態1に記載の方法と同じである。 The automatic layout unit 1703 performs automatic layout for each spread determined by the layout change range determination unit 1701 using the images assigned to each spread by the spread allocation unit 1702 . The layout method performed by the automatic layout unit 1703 is the same as the method described in the first embodiment.

以上が、追加見開きと既存見開きを合わせて自動レイアウトを実施するためのブロック図に関する説明である。 The above is the description of the block diagram for executing the automatic layout by combining the additional spread and the existing spread.

図24は、追加見開きと既存見開きを合わせて自動レイアウトを実施したレイアウト結果を説明するための図である。図24(a)は、見開きを追加する前の自動レイアウト後の既存見開きを示している。見開き内の矩形は配置された画像を示している。ここでは説明のために、アスペクト比が全て同じ画像と仮定する。各画像内に記載しているEventは画像のイベントを示している。Eventの下に記載されている数値は撮影日時順を模式的に表したIDである。飛び飛びの番号になっているのは、それらの間に撮影された画像で、見開きに配置する画像としては採用されなかった画像が存在することを示している。図24(b)は、ユーザ指定箇所に見開きを追加し、追加見開き内のみで自動レイアウトを行ったレイアウト結果である。追加見開きと隣接するN見開きとで、同じEvent1の画像を配置しているが、N見開きと追加見開きとにわたる時系列が崩れている。それに対して、図24(c)は、本実施形態で処理したレイアウト結果である。レイアウト変更範囲判定部1701により、既存見開きの変更範囲を特定し、見開き割当部1702より、既存見開きも含めて見開き割当てを行っている。その後、自動レイアウト部1703により、各見開きに対して自動レイアウトを実施することにより、既存見開きと追加見開きとにわたる時系列が整ったレイアウトとなっている。 24A and 24B are diagrams for explaining the result of automatic layout in which the additional spread and the existing spread are combined. FIG. 24(a) shows existing spreads after automatic layout before addition of spreads. Rectangles within the spread indicate the arranged images. Here, for the sake of explanation, it is assumed that all images have the same aspect ratio. Event described in each image indicates the event of the image. Numerical values written under Event are IDs that schematically represent the order of photographing date and time. Intermittent numbers indicate that there are images captured between them and not adopted as images to be arranged in the double-page spread. FIG. 24(b) shows a layout result obtained by adding a double-page spread to a user-specified portion and performing automatic layout only within the additional double-page spread. Although the same Event 1 image is arranged in the additional spread and the adjacent N spread, the time series between the N spread and the additional spread is broken. On the other hand, FIG. 24C shows the layout result processed in this embodiment. A layout change range determination unit 1701 specifies a change range of an existing spread, and a spread assignment unit 1702 performs spread allocation including the existing spread. After that, the automatic layout unit 1703 automatically lays out each spread, thereby providing a layout in which the existing spread and the additional spread are arranged in chronological order.

図18は、追加見開きと既存見開きを合わせて自動レイアウトを実施するためのフローチャートである。図16と同じ番号に関しては、同じ装置を表しており同様の処理を実施するため、ここでは説明を割愛する。 FIG. 18 is a flow chart for executing automatic layout by combining additional spreads and existing spreads. Since the same numbers as in FIG. 16 represent the same devices and perform the same processing, the description is omitted here.

S1801では、レイアウト変更範囲判定部1701が、画像自動選択部1508により選択された画像に基づき、既存見開きのレイアウトを変更する範囲を判定する。例えば、図24の例では、図24(b)においてN見開きに配置された画像の撮影日時情報(2-16)と、追加見開きに配置された画像の撮影日時情報(1-15)が重複している。一方、N+1見開きに配置された画像の撮影日時情報は、追加見開きに配置された画像の撮影日時情報と重複していないとする。この場合、S1801において、既存見開きのレイアウトを変更する範囲としてN見開きが特定される。 In S<b>1801 , the layout change range determination unit 1701 determines the range of changing the layout of the existing double-page spread based on the image selected by the automatic image selection unit 1508 . For example, in the example of FIG. 24, the photographing date/time information (2-16) of the image arranged in the N spread and the photographing date/time information (1-15) of the image arranged in the additional spread overlap in FIG. 24(b). are doing. On the other hand, it is assumed that the shooting date/time information of the images arranged in the N+1 spread does not overlap with the shooting date/time information of the images arranged in the additional spread. In this case, in S1801, N-page spreads are specified as the range for changing the layout of the existing two-page spread.

S1802では、見開き割当部1702が、レイアウト変更範囲判定部1701で変更する見開きと判定された既存見開きに配置されていた画像群及び追加見開き用に選択された画像群を、撮影日時に基づき変更する見開き数分の区間に分割する。そして見開き割当部1702は、画像を分割した区間単位で変更する各見開きに割り当てる。例えば、図24の例では、N見開きと追加見開きが対象となるため2つの区間に分割される。 In step S1802, the spread assignment unit 1702 changes the group of images arranged in the existing spread determined by the layout change range determination unit 1701 to be changed and the group of images selected for the additional spread based on the shooting date and time. Divide into sections equal to the number of spreads. Then, the spread allocation unit 1702 allocates the divided image to each spread to be changed in units of sections. For example, in the example of FIG. 24, the N-page spread and the additional page-spread are targeted, so they are divided into two sections.

S1803では、自動レイアウト部1703が、変更範囲内の各見開きに対して、見開き割当部1702で見開きに割当てられた画像を用いて、見開きごとに自動レイアウトを行う。図24では、N見開きと追加見開きに対して自動レイアウトが実行される。 In S1803, the automatic layout unit 1703 automatically lays out each spread using the images assigned to the spread by the spread assigning unit 1702 for each spread within the change range. In FIG. 24, automatic layout is executed for the N spread and the additional spread.

S1804では、レイアウト変更範囲判定部1701で判定された全見開きに対して、自動レイアウトが実施されたか否かを判定し、実施された場合は処理を終了する。実施されていない場合は、S1803に戻り、自動レイアウトが実施されていない見開きに対して処理を継続する。 In S1804, it is determined whether or not automatic layout has been performed for all double-page spreads determined by the layout change range determination unit 1701. If it has been performed, the process ends. If not, the process returns to S1803 to continue processing for the two-page spread for which automatic layout has not been performed.

以上が、追加見開きと既存見開きを合わせて自動レイアウトを実施するためのフローチャートに関する説明となる。 The above is a description of the flow chart for executing automatic layout by combining additional spreads and existing spreads.

本実施形態では、画像を割当てる追加見開きと既存見開きとを変更し、見開きの割当てが変更された画像を含む追加見開きと既存見開きとに自動レイアウトを行うことにより、既存見開きと追加見開きとの整合性の高いレイアウトを実現することができる。 In this embodiment, the additional and existing spreads to which the images are assigned are changed, and the additional and existing spreads containing the images to which the spread allocation has been changed are automatically laid out, thereby matching the existing and additional spreads. A highly flexible layout can be realized.

(実施形態3)
第3の実施形態は、追加見開きと既存見開きを合わせて自動レイアウトを行う際に見開き割当ての実施を切り替える方法に関して記載する。
(Embodiment 3)
The third embodiment will describe a method for switching the execution of spread allocation when performing automatic layout by combining additional spreads and existing spreads.

図19は、追加見開きと既存見開きを合わせて自動レイアウトを行う際に見開き割当ての実施を切り替えるためのブロック図である。図17と同じ番号に関しては、同じ装置を表しており同様の処理を実施するため、ここでは説明を割愛する。 FIG. 19 is a block diagram for switching the execution of spread allocation when performing automatic layout by combining additional spreads and existing spreads. Since the same numbers as in FIG. 17 represent the same devices and perform the same processing, the description is omitted here.

見開き変更判定部1901は、追加見開きを自動レイアウトする際に見開きの割当てを変更するか否かを判定する。ここでは説明のために、追加見開きと隣接する前後見開きにおいて、追加見開きのために選択した画像の撮影時間が、既存見開き内に配置されている画像の撮影時間区間内にかかるか否かを判定する。追加見開きで選択された画像の撮影日時が既存見開きの撮影時間区間内にかからない場合は、見開きの割当てを変更しない。一方、追加見開きで選択された画像の撮影日時が既存見開きの撮影時間区間にかかる場合は、見開きの割当てを変更する。 A spread change determination unit 1901 determines whether or not to change allocation of spreads when automatically laying out additional spreads. For the sake of explanation, it is determined whether or not the shooting time of the image selected for the additional spread is within the shooting time interval of the images arranged in the existing spread in the front and back spread adjacent to the additional spread. do. If the shooting date and time of the image selected in the additional spread does not fall within the shooting time interval of the existing spread, the assignment of the spread is not changed. On the other hand, if the shooting date and time of the image selected in the additional spread overlaps the shooting time interval of the existing spread, the allocation of the spread is changed.

見開きの割当てを変更しない場合は、実施形態1で説明した手順で、画像自動選択部1508で選択された画像を使って、追加見開き自動レイアウト部1509により追加見開きに自動レイアウトを実施する。そしてレイアウト情報取得部1510、レイアウト変更判定部1511、既存見開き自動レイアウト部1512により、既存見開きのレイアウトを適宜変更する。 If the allocation of spreads is not changed, an additional spread is automatically laid out by the additional spread automatic layout unit 1509 using the images selected by the automatic image selection unit 1508 according to the procedure described in the first embodiment. Then, a layout information acquisition unit 1510, a layout change determination unit 1511, and an existing spread automatic layout unit 1512 appropriately change the layout of the existing spread.

見開きの割当てを変更する場合は、実施形態2で説明した手順で、レイアウト変更範囲判定部1701、見開き割当部1702、レイアウト部1703により、追加見開きと変更範囲内の既存見開きとに対し自動レイアウトを実施する。 When changing the allocation of spreads, the layout change range determination unit 1701, the spread allocation unit 1702, and the layout unit 1703 perform automatic layout for the additional spreads and the existing spreads within the change range according to the procedure described in the second embodiment. implement.

ここでは説明のために変更する見開きの判定を隣接する見開きに限定したが、隣接する既存見開き以外を判定対象としてもよい。例えば、追加見開きで選択された画像と共通する特徴を有する関連するイベントの画像を含む既存見開きであれば、隣接する見開き以外もレイアウト変更範囲判定対象に含めてもよい。 Here, for the sake of explanation, the determination of the spread to be changed is limited to adjacent spreads, but other than the existing adjacent spreads may be subject to determination. For example, if an existing spread includes an image of a related event that has features common to the image selected in the additional spread, other than the adjacent spread may be included in the layout change range determination target.

また、見開きの割当てを変更した際に、撮影時間差が大きい箇所で見開きの割当てを区切ると、平均画像枚数よりも枚数差が大きくなる場合がある。その場合は、撮影時間差が大きい箇所ではなく、平均画像枚数に近くなるように見開きを区切ってもよい。見開き当たりの画像枚数が平均画像枚数を超える場合は、画像自動選択部1508で選択された画像の中で平均画像枚数までスコアの低い画像から選択解除してもよい。見開きあたりの画像枚数が平均画像枚数を下回る場合、割当てられた撮影時間区間内で画像を追加選択してもよい。 Further, when the allocation of spreads is changed, if the allocation of spreads is delimited at a place where the shooting time difference is large, the difference in the number of images may become larger than the average number of images. In that case, the double-page spread may be divided so as to be close to the average number of images instead of the location where the shooting time difference is large. If the number of images per double-page spread exceeds the average number of images, the images selected by the automatic image selection unit 1508 may be deselected starting with the lowest score up to the average number of images. If the number of images per spread is less than the average number of images, additional images may be selected within the assigned shooting time interval.

以上が、追加見開きと既存見開きを合わせて自動レイアウトを行う際に見開き割当ての実施を切り替えるためのブロック図に関する説明である。 The above is a description of the block diagram for switching the execution of spread assignment when performing automatic layout by combining additional spreads and existing spreads.

次に、追加見開きと既存見開きを合わせて自動レイアウトを行う際に見開き割当ての実施を切り替えるためのフローに関して説明する。 Next, a description will be given of a flow for switching the allocation of spreads when performing automatic layout by combining additional spreads and existing spreads.

図20は、追加見開きと既存見開きを合わせて自動レイアウトを行う際に見開き割当ての実施を切り替えるためのフロー図である。図18と同じ番号に関しては、同じ装置を表しており同様の処理を実施するため、ここでは説明を割愛する。 FIG. 20 is a flowchart for switching the execution of spread allocation when performing automatic layout by combining additional spreads and existing spreads. Since the same numbers as in FIG. 18 represent the same devices and perform the same processing, the description is omitted here.

S2001では、見開き変更判定部1901が、追加見開きを自動レイアウトする際に見開きの画像の割当てを変更するか否かを判定する。判定した結果、見開きの割当てを変更しない場合、S1610に分岐して処理を実行する。見開きの割当てを変更する場合、S1801に分岐して処理を実行する。 In S2001, the spread change determination unit 1901 determines whether or not to change the allocation of spread images when automatically laying out additional spreads. As a result of the determination, if the spread assignment is not to be changed, the process branches to S1610 to execute processing. If the spread assignment is to be changed, the process branches to S1801 to execute processing.

各分岐で自動レイアウトを実行することで、追加見開きを含む見開きを自動でレイアウトを実行することができる。 By executing automatic layout at each branch, spreads including additional spreads can be laid out automatically.

以上が、追加見開きと既存見開きを合わせて自動レイアウトを行う際に見開き割当ての実施を切り替えるためのフローに関する説明である。 The above is a description of the flow for switching the execution of spread assignment when performing automatic layout by combining additional spreads and existing spreads.

本実施形態では、見開き割当ての実施を切り替えることにより、配置する画像に応じて最適なレイアウトを実現することができる。 In this embodiment, by switching the execution of spread allocation, it is possible to realize an optimum layout according to the images to be arranged.

(他の実施形態)
本発明は上述した実施形態に限定されるものではない。例えば、上述した実施形態では、アルバム作成アプリケーションを例に挙げて説明したが、お勧め画像を自動選択するような画像選択処理を備えるアプリケーションや画像処理装置であってもよい。
(Other embodiments)
The invention is not limited to the embodiments described above. For example, in the above-described embodiment, an album creation application was described as an example, but an application or an image processing apparatus having image selection processing for automatically selecting recommended images may be used.

また、図1では、ローカル環境を想定した画像処理装置を例に挙げて説明したが、画像処理装置はこれに限定されるものではない。例えば、サーバ上の画像処理装置であってもよい。この場合は、サーバ内に保存されている画像を利用又は画像をアップロードするようにすればよい。 Also, in FIG. 1, the image processing apparatus assuming a local environment has been described as an example, but the image processing apparatus is not limited to this. For example, it may be an image processing device on a server. In this case, an image stored in the server may be used or an image may be uploaded.

上述した実施形態では、画像が写真であるものとし、撮影日時に基づいてグループ分けをするようにしたが、画像を作成した日時でグループ分けをするようにしてもよい。 In the above-described embodiment, the images are assumed to be photographs, and the images are grouped based on the date and time when they were taken.

上述した実施形態では、利用者がモードを指定するものとし、指定されたモードに基づいて配置するようにしたが、アルバムを作成する画像群を画像解析して、画像群に含まれるオブジェクトの種類の分布等から自動的にモードを設定してもよい。 なお、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、プログラムは、1つのコンピュータで実行させても、複数のコンピュータを連動させて実行させるようにしてもよい。また、上記した処理の全てをソフトウェアで実現する必要はなく、一部または全部をハードウェアによって実現するようにしてもよい。 In the above-described embodiment, the mode is specified by the user, and the arrangement is made based on the specified mode. The mode may be set automatically from the distribution of . The present invention can also be realized by executing the following processing. That is, the software (program) that realizes the functions of the above-described embodiments is supplied to a system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed. Also, the program may be executed by one computer or may be executed by interlocking a plurality of computers. Further, it is not necessary to implement all of the above-described processes by software, and part or all of them may be implemented by hardware.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

Claims (10)

複数の画像が配置された既存ページを含むアルバムデータを表示する表示制御手段と、
前記アルバムデータに追加ページを追加する追加手段と、
前記追加ページに対してユーザにより選択された画像データを含む複数の画像データをレイアウトするレイアウト手段と、
前記追加ページに対する複数の画像データのレイアウト結果と、前記既存ページにおける複数の画像データのレイアウト結果に基づいて、前記既存ページにおける前記複数の画像データの配置を変更する変更手段を備える
画像処理装置。
display control means for displaying album data including an existing page on which a plurality of images are arranged;
additional means for adding additional pages to the album data;
layout means for laying out a plurality of image data including image data selected by a user for the additional page;
An image processing apparatus comprising a changing unit that changes the arrangement of the plurality of image data on the existing page based on the layout result of the plurality of image data for the additional page and the layout result of the plurality of image data on the existing page.
前記変更手段は、前記既存ページ及び前記追加ページの構成要素を変更することを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein said changing means changes components of said existing page and said additional page. 前記変更手段は、撮影日時が所定の時間の範囲にある複数の画像データが前記既存ページと前記追加ページとにわたって撮影日時順に配置されていない場合、前記複数の画像データが前記所定の既存ページと前記追加ページとにわたって撮影日時順に配置されるように、前記既存ページに配置された画像と前記追加ページに配置された画像とを入れ替えることを特徴とする請求項2に記載の画像処理装置。 When the plurality of image data whose photographing date and time are within a predetermined time range are not arranged in the order of photographing date and time across the existing page and the additional page, the changing means changes the plurality of image data from the predetermined existing page. 3. The image processing apparatus according to claim 2, wherein the image arranged on the existing page and the image arranged on the additional page are exchanged so that the images arranged on the additional page are arranged in order of shooting date and time. 前記変更手段は、前記既存ページに使用されていたテンプレートを変更することにより、前記既存ページにおける前記複数の画像データの配置を変更することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 4. The method according to any one of claims 1 to 3, wherein said changing means changes the arrangement of said plurality of image data on said existing page by changing a template used for said existing page. The described image processing device. 前記変更手段は、前記追加ページにおいて使用されるテンプレートに配置される画像データの数と、前記既存ページにおける複数の画像データの数が同じであると判定された場合、前記既存ページにおける前記複数の画像データの配置を変更することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 When it is determined that the number of image data arranged in the template used in the additional page is the same as the number of the plurality of image data in the existing page, the changing means changes the number of the plurality of image data in the existing page. 5. The image processing apparatus according to any one of claims 1 to 4, wherein the arrangement of image data is changed. ユーザ入力に基づき、前記アルバムデータにおける前記追加ページを追加する追加位置を設定する追加位置設定手段をさらに備え、
前記既存ページは、前記追加位置から所定のページ数の範囲にある既存ページであることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
further comprising additional position setting means for setting an additional position for adding the additional page in the album data based on a user input;
6. The image processing apparatus according to any one of claims 1 to 5, wherein the existing page is an existing page within a predetermined number of pages from the addition position.
前記既存ページは、前記追加ページに配置された画像と共通する所定の特徴を有する画像データを含むことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 6. The image processing apparatus according to any one of claims 1 to 5, wherein the existing page contains image data having a predetermined characteristic in common with the image arranged on the additional page. 前記追加ページは、開いたときに向かい合う2ページからなる見開き単位で追加することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 7. The image processing apparatus according to any one of claims 1 to 6, wherein the additional pages are added in units of double-page spreads consisting of two pages facing each other when opened. 複数の画像が配置された既存ページを含むアルバムデータを表示するステップと、
前記アルバムデータに追加ページを追加するステップと、
前記追加ページに対してユーザにより選択された画像データを含む複数の画像データをレイアウトするステップと、
前記追加ページに対する複数の画像データのレイアウト結果と、前記既存ページにおける複数の画像データのレイアウト結果に基づいて、前記既存ページにおける前記複数の画像データの配置を変更するステップと
を有する画像処理方法。
displaying album data including an existing page with a plurality of images;
adding additional pages to the album data;
laying out a plurality of image data including image data selected by a user for the additional page;
An image processing method comprising: changing the arrangement of the plurality of image data on the existing page based on the layout result of the plurality of image data for the additional page; and the layout result of the plurality of image data on the existing page.
コンピュータを請求項1乃至8のいずれか1項に記載の画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 8.
JP2019078785A 2019-04-17 2019-04-17 Image processing device, image processing method, and program Active JP7286393B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019078785A JP7286393B2 (en) 2019-04-17 2019-04-17 Image processing device, image processing method, and program
US16/851,134 US11627227B2 (en) 2019-04-17 2020-04-17 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019078785A JP7286393B2 (en) 2019-04-17 2019-04-17 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2020177420A JP2020177420A (en) 2020-10-29
JP7286393B2 true JP7286393B2 (en) 2023-06-05

Family

ID=72832157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019078785A Active JP7286393B2 (en) 2019-04-17 2019-04-17 Image processing device, image processing method, and program

Country Status (2)

Country Link
US (1) US11627227B2 (en)
JP (1) JP7286393B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7341677B2 (en) * 2019-02-28 2023-09-11 キヤノン株式会社 Apparatus, method, and program
JP2021027555A (en) * 2019-08-08 2021-02-22 キヤノン株式会社 Image processing device, control method, and program
JP2022123213A (en) 2021-02-12 2022-08-24 キヤノン株式会社 Image processing apparatus, method for controlling the same, and program
JP2022123210A (en) 2021-02-12 2022-08-24 キヤノン株式会社 Image processing apparatus, method for controlling the same, and program
JP2022123209A (en) 2021-02-12 2022-08-24 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2023067166A (en) 2021-10-29 2023-05-16 キヤノン株式会社 Image processing apparatus and image processing method
JP2023067164A (en) 2021-10-29 2023-05-16 キヤノン株式会社 Image processing apparatus and image processing method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055403A (en) 2016-09-29 2018-04-05 富士フイルム株式会社 Page image display control system, page image display control method, and program thereof

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6028603A (en) * 1997-10-24 2000-02-22 Pictra, Inc. Methods and apparatuses for presenting a collection of digital media in a media container
US6097389A (en) * 1997-10-24 2000-08-01 Pictra, Inc. Methods and apparatuses for presenting a collection of digital media in a media container
JP4056026B2 (en) * 1998-11-09 2008-03-05 キヤノン株式会社 Image management apparatus, image management method, and storage medium
US7289132B1 (en) * 2003-12-19 2007-10-30 Apple Inc. Method and apparatus for image acquisition, organization, manipulation, and publication
US7843581B2 (en) * 2004-04-08 2010-11-30 Canon Kabushiki Kaisha Creating and sharing digital photo albums
US7656543B2 (en) * 2004-11-12 2010-02-02 Hewlett-Packard Development Company, L.P. Albuming images
US8255796B1 (en) * 2005-01-09 2012-08-28 Apple Inc. Efficient creation of documents
US8024658B1 (en) * 2005-01-09 2011-09-20 Apple Inc. Application for designing photo albums
US8555154B2 (en) * 2005-07-07 2013-10-08 Shutterfly, Inc. Flexible methods for creating photobooks
JP4762731B2 (en) * 2005-10-18 2011-08-31 富士フイルム株式会社 Album creating apparatus, album creating method, and album creating program
US9081782B2 (en) * 2006-11-17 2015-07-14 Cabin Creek, Llc Systems and methods for dynamically generating graphical memorabilia projects for presentation and use
WO2008117827A1 (en) * 2007-03-26 2008-10-02 Nikon Corporation Image display device, and program product for displaying image
JP5080524B2 (en) * 2008-03-26 2012-11-21 富士フイルム株式会社 Storage device for image sharing, image sharing and method
US20100017704A1 (en) * 2008-07-18 2010-01-21 Yahoo! Inc. Dynamic content layout
US20120038664A1 (en) * 2010-02-16 2012-02-16 Michael Sheasby Managing occluding objects in layouts of graphic objects
US8605323B2 (en) * 2010-08-31 2013-12-10 Hewlett-Packard Development Company, L.P. Automated imposition
JP2012138895A (en) * 2010-12-08 2012-07-19 Canon Inc Data generation device, data generation method, and program
JP5526193B2 (en) * 2011-06-20 2014-06-18 富士フイルム株式会社 Image processing apparatus, image processing method, and image processing program
US20130124980A1 (en) * 2011-11-16 2013-05-16 Future IP Limited Framework for creating interactive digital content
US9996566B2 (en) * 2012-02-20 2018-06-12 Wix.Com Ltd. Visual design system for generating a visual data structure associated with a semantic composition based on a hierarchy of components
US11188509B2 (en) * 2012-02-20 2021-11-30 Wix.Com Ltd. System and method for generating a visual data structure associated with business information based on a hierarchy of components
US20130239049A1 (en) * 2012-03-06 2013-09-12 Apple Inc. Application for creating journals
JP6039942B2 (en) * 2012-07-09 2016-12-07 キヤノン株式会社 Information processing apparatus, control method thereof, and program
JP6012310B2 (en) * 2012-07-09 2016-10-25 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP5956860B2 (en) * 2012-07-09 2016-07-27 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP5993642B2 (en) * 2012-07-09 2016-09-14 キヤノン株式会社 Information processing apparatus, control method thereof, and program
JP5713279B2 (en) * 2012-09-20 2015-05-07 カシオ計算機株式会社 Image classification device, electronic album creation device, image classification method, and program
US9710944B2 (en) * 2012-10-22 2017-07-18 Apple Inc. Electronic document thinning
JP5883843B2 (en) * 2013-12-13 2016-03-15 富士フイルム株式会社 Image evaluation apparatus, image evaluation method, image evaluation program, and recording medium storing the program
EP3674963A1 (en) * 2014-04-29 2020-07-01 Wix.com Ltd. System and method for the creation and use of visually-diverse high-quality dynamic layouts cross-reference to related applications
US20150370761A1 (en) * 2014-06-24 2015-12-24 Keepsayk LLC Display layout editing system and method using dynamic reflow
JP6417154B2 (en) * 2014-08-27 2018-10-31 キヤノン株式会社 Information processing apparatus, information processing method, and program
US20160092091A1 (en) * 2014-09-30 2016-03-31 Apple Inc. Adjusting page layouts
US9507506B2 (en) * 2014-11-13 2016-11-29 Interactive Memories, Inc. Automatic target box in methods and systems for editing content-rich layouts in media-based projects
US9219830B1 (en) * 2014-10-31 2015-12-22 Interactive Memories, Inc. Methods and systems for page and spread arrangement in photo-based projects
JP6422409B2 (en) * 2015-08-07 2018-11-14 キヤノン株式会社 Display control apparatus, display control method, and program
JP6525862B2 (en) * 2015-08-07 2019-06-05 キヤノン株式会社 Image processing apparatus, image processing method and program
JP6660119B2 (en) * 2015-08-07 2020-03-04 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP6494504B2 (en) * 2015-12-25 2019-04-03 キヤノン株式会社 Information processing apparatus, control method, and program
JP6873678B2 (en) * 2016-12-09 2021-05-19 キヤノン株式会社 Image processing equipment, control methods, and programs
JP6902860B2 (en) * 2016-12-09 2021-07-14 キヤノン株式会社 Image processing equipment, image processing methods, and programs
JP6942464B2 (en) * 2016-12-09 2021-09-29 キヤノン株式会社 Image processing equipment, image processing methods, and programs
JP6723937B2 (en) * 2017-01-31 2020-07-15 キヤノン株式会社 Program, image processing apparatus, and image processing method
JP6902886B2 (en) * 2017-03-14 2021-07-14 キヤノン株式会社 Image processing equipment, methods and programs
JP7024308B2 (en) * 2017-10-13 2022-02-24 セイコーエプソン株式会社 Display device, display method and display program
JP7224774B2 (en) * 2018-04-23 2023-02-20 キヤノン株式会社 Image processing device, image processing method, and program
JP6938422B2 (en) * 2018-04-23 2021-09-22 キヤノン株式会社 Image processing equipment, image processing methods, and programs
JP7350495B2 (en) * 2019-02-28 2023-09-26 キヤノン株式会社 Apparatus, method, and program
JP7286392B2 (en) * 2019-04-17 2023-06-05 キヤノン株式会社 Image processing device, image processing method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055403A (en) 2016-09-29 2018-04-05 富士フイルム株式会社 Page image display control system, page image display control method, and program thereof

Also Published As

Publication number Publication date
US20200336608A1 (en) 2020-10-22
JP2020177420A (en) 2020-10-29
US11627227B2 (en) 2023-04-11

Similar Documents

Publication Publication Date Title
JP7224774B2 (en) Image processing device, image processing method, and program
JP7286392B2 (en) Image processing device, image processing method, and program
JP7286393B2 (en) Image processing device, image processing method, and program
JP6711937B2 (en) Image processing device, image processing method, and program
KR102240626B1 (en) Image processing method, image processing apparatus, and program
KR102157494B1 (en) Control method and storage medium
JP7350495B2 (en) Apparatus, method, and program
EP3334141B1 (en) Method and program for album image layout arrangement considering image data source
JP2018097491A (en) Image processing device, image processing method and program
KR20200067260A (en) Image processing apparatus for laying out image on template and image processing method
JP7336211B2 (en) Image processing device, control method, and program
JP6904692B2 (en) Image processing equipment, control methods, and programs
JP2022123207A (en) Image processing apparatus, method for the same, and program
JP2022123213A (en) Image processing apparatus, method for controlling the same, and program
JP2022123210A (en) Image processing apparatus, method for controlling the same, and program
JP2022123211A (en) Program, image processing apparatus, and image processing method
JP7336209B2 (en) Image processing device, control method, and program
JP7027101B2 (en) Information processing equipment, control methods, and programs
JP2017117408A (en) Image processing device, image processing method and computer program
JP7451242B2 (en) Image processing device, image processing method, and program
JP2021149195A (en) Program, image processing method, and image processing apparatus
JP6700806B2 (en) Program, information processing apparatus, and control method
JP7336212B2 (en) Image processing device, control method, and program
JP7336210B2 (en) Image processing device, control method, and program
JP2017117403A (en) Image processing device, image processing method and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230524

R151 Written notification of patent or utility model registration

Ref document number: 7286393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151