JP6742486B2 - Program, image processing method - Google Patents

Program, image processing method Download PDF

Info

Publication number
JP6742486B2
JP6742486B2 JP2019145656A JP2019145656A JP6742486B2 JP 6742486 B2 JP6742486 B2 JP 6742486B2 JP 2019145656 A JP2019145656 A JP 2019145656A JP 2019145656 A JP2019145656 A JP 2019145656A JP 6742486 B2 JP6742486 B2 JP 6742486B2
Authority
JP
Japan
Prior art keywords
image
group
candidate
image data
slot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019145656A
Other languages
Japanese (ja)
Other versions
JP2020014213A (en
Inventor
加藤 真夫
真夫 加藤
智也 石田
智也 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019145656A priority Critical patent/JP6742486B2/en
Publication of JP2020014213A publication Critical patent/JP2020014213A/en
Application granted granted Critical
Publication of JP6742486B2 publication Critical patent/JP6742486B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、画像表示技術に関するものである。 The present invention relates to image display technology.

従来の画像処理装置では、ユーザインターフェースを構成するLCD(Liquid Cristal Display)の表示画面に画像データに関する画像を表示し、該表示された画像を指定して画像の編集を行うものがある。フォトアルバムの編集においては、フォトアルバムの各ページに画像スロットが配置されており、その画像スロットに写真を割り当ることにより、所望のレイアウト画像を得ることができる。フォトアルバム作成のためのアプリケーションの中には、ユーザがまず写真画像を指定してその中からフォトアルバムのテンプレートに沿って写真画像を自動で割り当てるものがある。このように、写真画像を手動ではなく自動で割り当てる場合には、ユーザの所望する画像が割り当てられないことがあるため、画像の入替が行えるようにする。特許文献1では、フォトアルバムを作成するためにユーザが指定する複数の画像をグループに分けて、そのグループとフォトアルバムのページを対応付けし、画像スロットの画像を入れ替える場合、そのページに対応するグループから候補画像を表示する。 Some conventional image processing apparatuses display an image related to image data on a display screen of an LCD (Liquid Cristal Display) that constitutes a user interface, and edit the image by designating the displayed image. In editing a photo album, an image slot is arranged on each page of the photo album, and a desired layout image can be obtained by assigning a photo to the image slot. Among applications for creating a photo album, there is an application in which a user first designates a photo image and then automatically assigns a photo image in accordance with a template of the photo album. As described above, in the case of automatically assigning a photographic image instead of manually, the image desired by the user may not be assigned, so that the images can be replaced. In Patent Document 1, a plurality of images specified by a user for creating a photo album are divided into groups, the groups are associated with the pages of the photo album, and when the images in the image slots are replaced, the pages are associated with the pages. Display candidate images from the group.

特許第5449460号公報Patent No. 5449460

特許文献1では、ユーザが指定する画像の枚数が多い場合、候補画像が多く表示されることになる。また、フォトアルバムの各ページに対して割り当てられた画像を候補画像として表示するため、入れ替え対象の画像スロットの特性を考慮しておらず、画像を選び難いという課題がある。例えば、入れ替えの対象の画像スロットがグレースケールの画像を配置することを想定しているスロットの場合でも、カラーの画像もが候補画像として表示してしまうことになる。また、縦長のスロットに対して横長のスロットが表示されたりすることがある。 In Patent Document 1, when the number of images designated by the user is large, many candidate images are displayed. Further, since the image assigned to each page of the photo album is displayed as a candidate image, there is a problem that it is difficult to select an image because the characteristics of the image slots to be replaced are not considered. For example, even if the image slot to be replaced is a slot that is supposed to be a grayscale image, a color image will be displayed as a candidate image. Also, a horizontally long slot may be displayed with respect to a vertically long slot.

本発明はこのような問題に鑑みてなされたものであり、任意の画像を他の画像に置き換える場合において、該他の画像の候補として好適な画像を表示するための技術を提供する。 The present invention has been made in view of such a problem, and provides a technique for displaying an image suitable as a candidate for another image when replacing an arbitrary image with another image.

本発明の一様態は、コンピュータを、
複数の画像データを含む画像データ群を取得する取得手段、
前記複数の画像データを複数のグループに分割する分割手段、
前記複数のグループのうち所定のグループに含まれる画像データに基づく画像を、該所定のグループに対応するページのスロットに配置したレイアウト画像を表示させるレイアウト表示制御手段、
前記レイアウト画像に配置されている第1画像の撮影日時が含まれる所定の時間範囲に撮影日時が含まれる画像を候補画像として含む第1候補画面を表示させる第1の表示制御手段
前記所定の時間範囲よりも前の時間範囲と、前記所定の時間範囲よりも後の時間範囲と、のうち少なくとも何れかの時間範囲に撮影日時が含まれる画像を候補画像として含む第2候補画面を表示させる第2の表示制御手段、
前記第1候補画面から前記第2候補画面へ変更する変更手段、
前記候補画像の中からユーザにより選択された候補画像を配置する配置手段
として機能させるためのプログラムであって、
前記所定の時間範囲、及び、前記少なくとも何れかの時間範囲は、前記所定のグループの撮影期間に含まれることを特徴とする。
According to one embodiment of the present invention, a computer
Acquisition means for acquiring an image data group including a plurality of image data,
Dividing means for dividing the plurality of image data into a plurality of groups,
A layout display control means for displaying a layout image in which an image based on image data included in a predetermined group of the plurality of groups is displayed in a slot of a page corresponding to the predetermined group ,
First display control means for displaying a first candidate screen including, as a candidate image , an image including a shooting date and time within a predetermined time range including a shooting date and time of the first image arranged in the layout image ,
A second candidate screen including, as a candidate image, an image including a shooting date and time in at least one of a time range before the predetermined time range and a time range after the predetermined time range. Second display control means for displaying
Changing means for changing from the first candidate screen to the second candidate screen,
Arrangement means for arranging a candidate image selected by the user from the candidate images
It is a program to function as
The predetermined time range and at least one of the time ranges are included in the shooting period of the predetermined group.

本発明の構成によれば、任意の画像を他の画像に置き換える場合において、該他の画像の候補として好適な画像を表示することができる。 According to the configuration of the present invention, when an arbitrary image is replaced with another image, an image suitable as a candidate for the other image can be displayed.

システムの構成例を示すブロック図。The block diagram which shows the structural example of a system. PC1のハードウェア構成例を示すブロック図。The block diagram which shows the hardware structural example of PC1. ソフトウェアモジュール群の構成例を示す図。The figure which shows the structural example of a software module group. ウィンドウ401の表示例を示す図。The figure which shows the example of a display of the window 401. PC1が行う処理のフローチャート。The flowchart of the process which PC1 performs. 画像の候補を一覧表示させるための処理のフローチャート。The flowchart of the process for displaying a list of image candidates. 見開きのページの画像と、候補画像を含むウィンドウと、の一例を示す図。The figure which shows an example of the image of a two-page spread, and the window containing a candidate image. 候補画像を含むウィンドウの遷移例を示す図。The figure which shows the example of a transition of the window containing a candidate image. アプリケーション80において図10の処理を実行する機能部のブロック図。FIG. 11 is a block diagram of a functional unit that executes the process of FIG. 10 in the application 80. 自動レイアウト処理部916を実行することで行う処理のフローチャート。9 is a flowchart of processing performed by executing the automatic layout processing unit 916. 画像解析情報の一例を示す図。The figure which shows an example of image analysis information. 撮像画像のグループ分けの一例を示す図。The figure which shows an example of the grouping of a captured image. シーン分類基準データの一例を示す図。The figure which shows an example of scene classification reference data. ステップS1010の処理を説明するための図。The figure for demonstrating the process of step S1010. ステップS1017の処理を説明する図。The figure explaining the process of step S1017. テンプレート群を示す図。The figure which shows a template group. 候補撮像画像の選択方法を説明する図。The figure explaining the selection method of a candidate picked-up image. 候補撮像画像の選択方法を説明する図。The figure explaining the selection method of a candidate picked-up image.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In addition, the embodiment described below shows an example of the case where the present invention is concretely implemented, and is one of the concrete examples of the configurations described in the claims.

[第1の実施形態]
本実施形態では、画像処理装置の一例について説明する。この画像処理装置は、複数の画像データを含む画像データ群を取得し、該取得した画像データ群から選択した画像データに基づく画像をスロットに配置したレイアウト画像を表示画面に表示させる(第1の表示制御)。該表示画面に表示されたレイアウト画像において画像を入れ替える入替対象のスロットを選択し、該選択された入替対象のスロットに配置されている第1画像の撮影日時に基づいて、第1画像と入れ替える候補画像を表示画面に表示させる(第2の表示制御)。
[First Embodiment]
In the present embodiment, an example of the image processing device will be described. This image processing apparatus acquires an image data group including a plurality of image data, and displays a layout image in which an image based on the image data selected from the acquired image data group is arranged in a slot on a display screen (first Display control). A candidate for replacing the first image based on the shooting date and time of the first image arranged in the selected slot to be replaced in the layout image displayed on the display screen. The image is displayed on the display screen (second display control).

先ず、本実施形態に係るシステムの構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係るシステムは、フォトアルバムを作成するユーザが操作するPC(パーソナルコンピュータ)1と、フォトアルバムの注文サイトを提供するABC社のサーバであるPC2と、を有している。そして、PC1とPC2とはインターネットを介して互いにデータ通信が可能なように接続されている。 First, a configuration example of the system according to the present embodiment will be described with reference to the block diagram of FIG. As shown in FIG. 1, the system according to the present embodiment includes a PC (personal computer) 1 operated by a user who creates a photo album, and a PC 2 which is a server of ABC Company that provides a photo album ordering site. doing. The PC1 and the PC2 are connected to each other via the Internet so as to be able to perform data communication with each other.

先ず、PC1について説明する。PC1には、アプリケーション80と、Webブラウザ143と、がインストールされている。 First, the PC 1 will be described. The application 80 and the Web browser 143 are installed in the PC 1.

アプリケーション80は、フォトアルバムを作成してPC2にアップロードするための様々な機能を提供するためのアプリケーションである。 The application 80 is an application for providing various functions for creating a photo album and uploading it to the PC 2.

Webブラウザ143は、WWW(WorldWideWeb)を利用する際に用いられるブラウザである。Webブラウザ143は、PC2にアクセスして、PC1側で作成したフォトアルバムをPC2にアップロードしたり、PC2が提供する注文サイトを介してフォトアルバムの注文を可能にせしめるための様々な機能を提供するアプリケーションである。 The web browser 143 is a browser used when using WWW (World Wide Web). The Web browser 143 provides various functions for accessing the PC2, uploading the photo album created on the PC1 side to the PC2, and enabling the ordering of the photo album via the order site provided by the PC2. It is an application.

PC1は、Ethernet(登録商標)等のローカルエリアネットワーク(例えば、ユーザの自宅に構築された一般家庭用のホームネットワーク)4に接続されており、このローカルエリアネットワーク4は、上記のインターネットに接続されている。 The PC 1 is connected to a local area network 4 such as Ethernet (registered trademark) (for example, a home network for general homes built in the user's home), and the local area network 4 is connected to the Internet. ing.

次に、PC2について説明する。PC2には、サーバ機能のアプリケーションであるWebサーバ9がインストールされており、更にWebサーバ9には、フォトアルバムの注文サイトであるショッピングサイト11のアプリケーションが含まれている。 Next, the PC 2 will be described. A Web server 9 which is an application of a server function is installed in the PC 2, and the Web server 9 further includes an application of a shopping site 11 which is a photo album ordering site.

PC2は、Ethernet(登録商標)等のローカルエリアネットワーク(例えば、ABC社の社内に構築されたオフィスネットワーク)8に接続されており、このローカルエリアネットワーク8は、上記のインターネットに接続されている。 The PC 2 is connected to a local area network 8 such as Ethernet (registered trademark) (for example, an office network built in the company of ABC Company), and the local area network 8 is connected to the Internet.

なお、PC1、PC2の何れにもOS(オペレーティングシステム)がインストールされており、PC1、PC2の何れにおいても、アプリケーションはこのOS上で動作する。 An OS (operating system) is installed in both PC1 and PC2, and the application operates on this OS in both PC1 and PC2.

次に、PC1のハードウェア構成例について、図2のブロック図を用いて説明する。なお、PC2のハードウェア構成も図2に示したハードウェア構成と同じであっても良いし、図2に示したハードウェア構成とは異なるハードウェア構成を採用しても構わない。 Next, an example of the hardware configuration of the PC 1 will be described with reference to the block diagram of FIG. The hardware configuration of the PC 2 may be the same as the hardware configuration shown in FIG. 2, or a hardware configuration different from the hardware configuration shown in FIG. 2 may be adopted.

RAM201は、HDD(ハードディスクドライブ)202からロードされたコンピュータプログラムやデータ、通信制御部207を介して外部(例えばPC2)から受信したコンピュータプログラムやデータ、を格納するためのエリアを有する。更にRAM201は、CPU204が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM201は、各種のエリアを適宜提供することができる。 The RAM 201 has an area for storing computer programs and data loaded from an HDD (hard disk drive) 202 and computer programs and data received from the outside (for example, the PC 2) via the communication control unit 207. Further, the RAM 201 has a work area used when the CPU 204 executes various processes. In this way, the RAM 201 can provide various areas as needed.

HDD202は、大容量情報記憶装置の一例であり、HDD202には、OSや、PC1が行うものとして後述する各処理をCPU204に実行させるためのコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、上記のアプリケーション80やWebブラウザ143も含まれている。また、このデータには、後述する処理において既知の情報として説明するものも含まれている。HDD202に保存されているコンピュータプログラムやデータは、CPU204による制御に従って適宜RAM201にロードされ、CPU204による処理対象となる。 The HDD 202 is an example of a large-capacity information storage device, and the HDD 202 stores an OS and computer programs and data for causing the CPU 204 to execute each process described below as being performed by the PC 1. The computer program also includes the application 80 and the Web browser 143 described above. Further, this data also includes what is described as known information in the processing described later. The computer programs and data stored in the HDD 202 are appropriately loaded into the RAM 201 under the control of the CPU 204, and are processed by the CPU 204.

操作部203は、キーボードやマウスなどのインターフェースにより構成されており、ユーザが操作することで、各種の操作入力をCPU204に対して入力することができる。 The operation unit 203 is configured by an interface such as a keyboard and a mouse, and can be operated by a user to input various operation inputs to the CPU 204.

CPU204は、RAM201に格納されているコンピュータプログラムやデータを用いて処理を実行することで、PC1全体の動作制御を行うと共に、PC1が行うものとして後述する各処理を実行若しくは制御する。 The CPU 204 executes a process using a computer program or data stored in the RAM 201, thereby controlling the operation of the entire PC 1 and executing or controlling each process described below as being executed by the PC 1.

通信制御部207は、ローカルエリアネットワーク4及びインターネットを介してPC2とデータ通信を行うためのものである。 The communication control unit 207 is for performing data communication with the PC 2 via the local area network 4 and the Internet.

表示部205は、CRTや液晶画面などにより構成されており、CPU204による処理結果を画像や文字なでもって表示することができる。なお、表示部205と操作部203とを一体化させてタッチパネル画面を構成しても構わない。 The display unit 205 includes a CRT, a liquid crystal screen, and the like, and can display the processing result by the CPU 204 as an image or a character. The display unit 205 and the operation unit 203 may be integrated into a touch panel screen.

RAM201、HDD202、操作部203、CPU204、通信制御部207、表示部205、は何れも、バス206に接続されている。 The RAM 201, the HDD 202, the operation unit 203, the CPU 204, the communication control unit 207, and the display unit 205 are all connected to the bus 206.

次に、PC1のHDD202に保存されているソフトウェアモジュール群の構成例について、図3を用いて説明する。なお、図3に示したソフトウェアモジュールはHDD202に保存されているソフトウェアモジュール群の一部を示したものであって、全てではない。また、HDD202に保存されるソフトウェアモジュール群は、PC1に搭載されるOSや、PC1の使用環境などに応じて適宜変更される。 Next, a configuration example of the software module group stored in the HDD 202 of the PC 1 will be described with reference to FIG. Note that the software modules shown in FIG. 3 represent a part of the software module group stored in the HDD 202, but not all. The software module group stored in the HDD 202 is appropriately changed according to the OS installed in the PC 1, the usage environment of the PC 1, and the like.

モジュール92は、Ethernetを制御するEthernet制御スタックである。モジュール91は、IP Networkを制御するIP Network制御スタックである。モジュール90は、ネットワーク上のデバイス探索の仕組みを提供するWSD(Web Service on Devices)を制御するWSD制御スタックである。モジュール88は、ネットワークのプラグアンドプレイを制御するPnP−X制御スタックである。尚、PnP−Xとは、ネットワーク接続デバイスに対するサポートを提供する、プラグアンドプレイの一連の拡張機能としてWindows8(登録商標)に標準搭載されている機能であるPlug and Play Extensionsの略称である。モジュール85は、デバイスドライバ群であり、OSに標準で同梱されている標準ドライバ群87と、IndependentHardwareVendor(IHV)から提供されるIHV製ドライバ群86とを含んで構成される。 The module 92 is an Ethernet control stack that controls Ethernet. The module 91 is an IP Network control stack that controls the IP Network. The module 90 is a WSD control stack that controls a WSD (Web Service on Devices) that provides a device search mechanism on the network. Module 88 is a PnP-X control stack that controls the plug and play of the network. PnP-X is an abbreviation for Plug and Play Extensions, which is a function that is standardly installed in Windows 8 (registered trademark) as a series of extended functions of Plug and Play that provides support for network-connected devices. The module 85 is a device driver group, and includes a standard driver group 87 that is standardly packaged with the OS, and an IHV-made driver group 86 that is provided by the Independent Hardware Vendor (IHV).

モジュール84は、アプリケーション/DDIインタフェースであり、ApplicationProgramingInterface(API)、DeviceDriverInterface(DDI)を含んで構成される。アプリケーション群82は、上記のアプリケーション80及びWebブラウザ143を含むアプリケーション群である。 The module 84 is an application/DDI interface and is configured to include an Application Programming Interface (API) and a Device Driver Interface (DDI). The application group 82 is an application group including the application 80 and the Web browser 143 described above.

次に、PC1においてアプリケーション80を起動し、フォトアルバムの各ページにおいて規定の領域に所望の撮像画像を配置して所望のフォトアルバムを作成する処理について説明する。アプリケーション80を起動すると、表示部205の表示画面には、図4に例示するウィンドウ401が表示される。以降、ウィンドウ401を含む様々なGUIの表示制御や、ユーザが操作部203を操作して該GUIを用いて行った操作入力に応じた処理等、特に断らない限りは、以降の処理の主体は何れもCPU204であるものとする。 Next, a process of activating the application 80 on the PC 1 to arrange a desired captured image in a prescribed area on each page of the photo album to create a desired photo album will be described. When the application 80 is started, the window 401 illustrated in FIG. 4 is displayed on the display screen of the display unit 205. Hereinafter, unless otherwise specified, display control of various GUIs including the window 401, processing according to an operation input performed by the user operating the operation unit 203 using the GUI, etc. Both are assumed to be the CPU 204.

表示領域402には、フォトアルバムにおいて見開きのページのサムネイル画像が表示される。表示領域402には左から、1ページ目及び2ページ目による見開きのページのサムネイル画像、3ページ目及び4ページ目による見開きのページのサムネイル画像、…、9ページ目及び10ページ目による見開きのページのサムネイル画像、が表示されている。また、図4では、ユーザが操作部203を操作して、3ページ目及び4ページ目による見開きのページのサムネイル画像を指定している。この場合、該サムネイル画像が選択状態となっており(該サムネイル画像に枠404が重ねられて表示されている)、表示領域403には、該サムネイル画像に対応する「3ページ目及び4ページ目による見開きのページの画像」が表示される。「3ページ目及び4ページ目による見開きのページの画像」には撮像画像を配置可能な領域(写真スロット)405a〜405dが設けられており、これらの領域405a〜405dには、後述する処理等によって撮像画像が該領域のサイズにリサイズされて配置される。 In the display area 402, a thumbnail image of a double-page spread in the photo album is displayed. In the display area 402, from the left, thumbnail images of double-page spreads on the first and second pages, thumbnail images of double-page spreads on the third and fourth pages,..., Double-page spreads on the ninth and tenth pages. A thumbnail image of the page is displayed. Further, in FIG. 4, the user operates the operation unit 203 to specify the thumbnail images of the double-page spreads of the third page and the fourth page. In this case, the thumbnail image is in the selected state (the frame 404 is superimposed on the thumbnail image and displayed), and the display area 403 displays “third page and fourth page” corresponding to the thumbnail image. The "page spread image" is displayed. Areas (photograph slots) 405a to 405d in which the captured images can be arranged are provided in the "images of double-page spreads by the third page and the fourth page", and these areas 405a to 405d perform processing described later. The captured image is resized to the size of the area and arranged by.

ここで、領域405a〜405dのそれぞれに撮像画像が配置されている状態において、ユーザが操作部203を操作して領域405a〜405dのうち何れか1つを指定すると、該1つの領域に表示されている撮像画像の代わりに該1つの領域に配置可能な撮像画像の候補が一覧表示される。然るにユーザはこの一覧表示された候補画像のうち所望の候補画像を、操作部203を操作して指定することで、該指定された候補画像を該1つの領域に配置させる(画像の入れ替え)ことができる。 Here, when the user operates the operation unit 203 to specify any one of the regions 405a to 405d in a state where the captured image is arranged in each of the regions 405a to 405d, the image is displayed in the one region. Instead of the captured image, a list of captured image candidates that can be arranged in the one area is displayed. Therefore, the user operates the operation unit 203 to designate a desired candidate image among the candidate images displayed in the list, thereby arranging the designated candidate image in the one area (replacement of images). You can

そしてユーザが操作部203を操作してボタン406を指定すると、CPU204は通信制御部207を制御し、作成したフォトアルバムのデータをPC2にアップロードする。 When the user operates the operation unit 203 to specify the button 406, the CPU 204 controls the communication control unit 207 and uploads the created photo album data to the PC 2.

次に、領域405a〜405dのそれぞれに撮像画像が配置されている状態において、領域405a〜405dのうちユーザが指定した領域に配置可能な画像の候補を一覧表示させるための処理について、図5のフローチャートに従って説明する。 Next, regarding the processing for displaying a list of image candidates that can be arranged in the area designated by the user among the areas 405a to 405d in the state where the captured images are arranged in the areas 405a to 405d, respectively, of FIG. It will be described according to the flowchart.

<ステップS101>
ユーザは操作部203を操作して、領域405a〜405dのうち何れか1つ(入替対象スロット)を指定することで、該領域に配置可能な画像の候補の一覧を表示部205に表示させることができる。然るに、CPU204は、領域405a〜405dのうち何れか1つの選択操作を受け付ける。
<Step S101>
The user operates the operation unit 203 to specify any one of the areas 405a to 405d (replacement target slot) to display a list of image candidates that can be arranged in the area on the display unit 205. You can Therefore, the CPU 204 receives a selection operation of any one of the areas 405a to 405d.

<ステップS102>
CPU204は、入替対象スロットに表示中の撮像画像を、該撮像画像の代わりに入替対象スロットに配置可能な撮像画像の候補をHDD202から探すための起点(候補起点画像)に設定する。
<Step S102>
The CPU 204 sets the captured image being displayed in the replacement target slot as a starting point (a candidate starting image) for searching the HDD 202 for a candidate of a captured image that can be arranged in the replacement target slot instead of the captured image.

<ステップS103>
CPU204は、候補起点画像の代わりに入替対象スロットに配置可能な撮像画像の候補(候補画像)を、候補起点画像に基づいてHDD202から探す(リストアップする)。本ステップにおける処理の詳細については後述する。
<Step S103>
The CPU 204 searches the HDD 202 for a candidate (candidate image) of a captured image that can be arranged in the replacement target slot instead of the candidate origin image, based on the candidate origin image (lists). Details of the processing in this step will be described later.

<ステップS104>
CPU204は、ステップS103においてリストアップした候補画像を含むウィンドウを表示部205に表示させる。このウィンドウについて、図7を用いて説明する。図7(a)には、「1ページ目及び2ページ目による見開きのページの画像」が示されており、500〜502が写真スロットである。図7(b)には、「3ページ目及び4ページ目による見開きのページの画像」が示されており、503〜505が写真スロットである。図7(b)において写真スロット503の上に写真スロット504、505が重なっているが、このように写真スロットの上に更に写真スロットが配置される場合もある。図7(c)には、「5ページ目及び6ページ目による見開きのページの画像」が示されており、506〜507が写真スロットである。
<Step S104>
The CPU 204 causes the display unit 205 to display a window including the candidate images listed in step S103. This window will be described with reference to FIG. In FIG. 7A, "images of double-page spreads by the first and second pages" are shown, and 500 to 502 are photo slots. FIG. 7B shows “images of double-page spreads on the third and fourth pages”, and 503 to 505 are photo slots. In FIG. 7B, the photo slots 504 and 505 are overlapped on the photo slot 503, but there may be a case where the photo slots are further arranged on the photo slot in this way. In FIG. 7C, "images of double-page spread pages by the fifth and sixth pages" are shown, and 506 to 507 are photo slots.

ここで、図7(b)の「3ページ目及び4ページ目による見開きのページの画像」が表示領域403に表示されている状態において、写真スロット503に表示されている撮像画像を他の撮像画像に入れ替えるべく、その候補画像を表示させるためにユーザが操作部203を操作して、写真スロット503を指定したとする。このとき、ステップS104では、図7(d)に例示するウィンドウが表示部205に表示される。 Here, in the state where the “image of the double-page spread by the third and fourth pages” in FIG. 7B is displayed in the display area 403, the captured image displayed in the photo slot 503 is captured by another image. It is assumed that the user operates the operation unit 203 to specify the photo slot 503 in order to display the candidate image so as to replace it with an image. At this time, in step S104, the window illustrated in FIG. 7D is displayed on the display unit 205.

このウィンドウには、写真スロット503に配置可能な撮像画像の候補である候補撮像画像641〜644(ステップS103で、写真スロット503に表示中の撮像画像に基づいてリストアップされた撮像画像)が一覧表示されている。ユーザはこの候補撮像画像641〜644のうち写真スロット503に配置したい所望の1つを操作部203を操作することで指定することができる。ここで、ユーザが候補撮像画像641〜644のうち写真スロット503に配置したい所望の1枚を操作部203を操作して指定したとする。このときCPU204は、写真スロット503に表示中の撮像画像の代わりに、該指定された候補撮像画像を、写真スロット503のサイズにリサイズしてから該写真スロット503に配置(表示)する。 In this window, a list of candidate picked-up images 641 to 644 (picked-up images listed based on the picked-up image displayed in the photo slot 503 in step S103) that are candidates for picked-up images that can be arranged in the photo slot 503 are listed. It is displayed. The user can specify a desired one of the candidate captured images 641 to 644 to be arranged in the photo slot 503 by operating the operation unit 203. Here, it is assumed that the user operates the operation unit 203 to specify a desired one of the candidate captured images 641 to 644 to be placed in the photo slot 503. At this time, the CPU 204 resizes the designated candidate picked-up image to the size of the photo slot 503 instead of the picked-up image being displayed in the photo slot 503, and then arranges (displays) it in the photo slot 503.

また、前ボタン510は、フォトアルバムの全ページを通して順序づけられた写真スロット順において、現在選択中の写真スロットよりも1つ前の写真スロットに配置された撮像画像に基づく候補画像を表示するためのボタンである。図7(d)の場合、ユーザが操作部203を操作して前ボタン510を指定すると、CPU204は、写真スロット503よりも1つ前の順序の写真スロットに配置された撮像画像に基づく候補画像を表示する。 Further, the previous button 510 is for displaying a candidate image based on the captured image arranged in the photo slot one before the currently selected photo slot in the photo slot order ordered through all the pages of the photo album. It is a button. In the case of FIG. 7D, when the user operates the operation unit 203 to specify the front button 510, the CPU 204 causes the CPU 204 to select a candidate image based on the captured images arranged in the photo slot one order before the photo slot 503. Is displayed.

また、後ボタン511は、フォトアルバムの全ページを通して順序づけられた写真スロット順において、現在選択中の写真スロットよりも1つ後の写真スロットに配置された撮像画像に基づく候補画像を表示するためのボタンである。図7(d)の場合、ユーザが操作部203を操作して後ボタン511を指定すると、CPU204は、写真スロット503よりも1つ後の順序の写真スロットに配置された撮像画像に基づく候補画像を表示する。 Further, the rear button 511 is for displaying a candidate image based on the imaged image placed in the photo slot that is one behind the currently selected photo slot in the photo slot order that is ordered through all the pages of the photo album. It is a button. In the case of FIG. 7D, when the user operates the operation unit 203 to specify the back button 511, the CPU 204 causes the CPU 204 to select a candidate image based on the picked-up images arranged in the photo slot one order after the photo slot 503. Is displayed.

前ボタン510や後ボタン511を指定すると、CPU204は、該新たな写真スロットに表示中の撮像画像を候補起点画像とし、該候補起点画像に基づいて新たな候補撮像画像をリストアップする。そしてCPU204は、該リストアップした候補撮像画像をウィンドウ内に一覧表示させる。前ボタン510、後ボタン511を指定した場合におけるウィンドウ内の候補撮像画像の遷移例を図8に示す。 When the front button 510 or the rear button 511 is designated, the CPU 204 sets the captured image being displayed in the new photo slot as a candidate starting point image, and lists new candidate captured images based on the candidate starting point image. Then, the CPU 204 displays a list of the listed picked-up candidate images in the window. FIG. 8 shows a transition example of the candidate captured images in the window when the front button 510 and the rear button 511 are specified.

図8(a)のウィンドウは、「1ページ目及び2ページ目による見開きのページの画像」(図7(a))(画像1−2と呼称する)において写真スロット500を選択した場合に表示されるウィンドウである。このウィンドウには、写真スロット500に表示中の撮像画像に基づいてリストアップされた候補撮像画像600〜603が一覧表示されている。このウィンドウにおいて後ボタン511を指定すると、図8(b)に示す如く、写真スロット501に表示中の撮像画像に基づいてリストアップされた候補撮像画像610〜613が一覧表示されたウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(a)のウィンドウに遷移する。一方、図8(b)のウィンドウにおいて後ボタン511を指定すると、図8(c)に示す如く、写真スロット502に表示中の撮像画像に基づいてリストアップされた候補撮像画像620〜623が一覧表示されたウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(b)のウィンドウに遷移する。一方、図8(c)のウィンドウにおいて後ボタン511を指定したとする。この場合、図8(d)に示す如く、「3ページ目及び4ページ目による見開きのページの画像」(画像3−4と呼称する)の写真スロット503に表示中の撮像画像に基づいてリストアップされた候補撮像画像630〜633を含むウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(c)のウィンドウに遷移する。一方、図8(d)のウィンドウにおいて後ボタン511を指定すると、図8(e)に示す如く、画像3−4中の写真スロット504に表示中の撮像画像に基づいてリストアップされた候補撮像画像640〜643が一覧表示されたウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(d)のウィンドウに遷移する。一方、図8(e)のウィンドウにおいて後ボタン511を指定すると、図8(f)に示す如く、画像3−4中の写真スロット505に表示中の撮像画像に基づいてリストアップされた候補撮像画像650〜653が一覧表示されたウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(e)のウィンドウに遷移する。一方、図8(f)のウィンドウにおいて後ボタン511を指定したとする。この場合、図8(g)に示す如く、「5ページ目及び6ページ目による見開きのページの画像」(画像5−6と呼称する)の写真スロット506に表示中の撮像画像に基づいてリストアップされた候補撮像画像660〜663を含むウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(f)のウィンドウに遷移する。一方、図8(g)のウィンドウにおいて後ボタン511を指定すると、図8(h)に示す如く、画像5−6中の写真スロット507に表示中の撮像画像に基づいてリストアップされた候補撮像画像670〜673が一覧表示されたウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(g)のウィンドウに遷移する。 The window of FIG. 8A is displayed when the photo slot 500 is selected in “Image of spread page by first page and second page” (FIG. 7A) (referred to as image 1-2). This is the window that will be opened. In this window, candidate picked-up images 600 to 603 listed based on picked-up images being displayed in the photo slot 500 are displayed in a list. When the back button 511 is specified in this window, as shown in FIG. 8B, a window displaying a list of candidate captured images 610 to 613 listed based on the captured images displayed in the photo slot 501 is displayed. It If the front button 510 is specified in this window, the window changes to the window shown in FIG. On the other hand, if the rear button 511 is specified in the window of FIG. 8B, candidate captured images 620 to 623 listed based on the captured images displayed in the photo slot 502 are listed as shown in FIG. 8C. The displayed window is displayed. If the front button 510 is specified in this window, the window changes to the window shown in FIG. On the other hand, assume that the back button 511 is specified in the window of FIG. In this case, as shown in FIG. 8D, the list based on the imaged image displayed in the photo slot 503 of “Image of double-page spread by page 3 and page 4” (referred to as image 3-4). A window including the uploaded candidate captured images 630 to 633 is displayed. If the front button 510 is specified in this window, the window changes to the window shown in FIG. On the other hand, if the rear button 511 is specified in the window of FIG. 8D, as shown in FIG. 8E, the candidate image pickups listed based on the imaged image displayed in the photo slot 504 in the image 3-4 are displayed. A window listing the images 640 to 643 is displayed. If the front button 510 is specified in this window, the window changes to that shown in FIG. On the other hand, if the rear button 511 is specified in the window of FIG. 8E, as shown in FIG. 8F, the candidate image pickups listed based on the imaged image displayed in the photo slot 505 in the image 3-4 are displayed. A window listing the images 650-653 is displayed. If the front button 510 is specified in this window, the window changes to the window shown in FIG. On the other hand, assume that the back button 511 is specified in the window of FIG. In this case, as shown in FIG. 8G, the list is based on the imaged images displayed in the photo slot 506 of “Images of double-page spreads on page 5 and page 6” (referred to as images 5-6). A window including the uploaded candidate captured images 660 to 663 is displayed. If the front button 510 is specified in this window, the window changes to the window shown in FIG. On the other hand, if the rear button 511 is specified in the window of FIG. 8G, the candidate imaged listed based on the imaged image displayed in the photo slot 507 in the image 5-6 is displayed as shown in FIG. 8H. A window listing the images 670-673 is displayed. If the front button 510 is specified in this window, the window changes to the window shown in FIG.

このように、本実施形態では、ユーザが操作部203を操作して前ボタン510や後ボタン511を指定することで、見開きページの画像を跨いだ写真スロットに応じた候補撮像画像の一覧を表示させることができる。 As described above, in the present embodiment, the user operates the operation unit 203 to specify the front button 510 and the rear button 511, thereby displaying a list of candidate captured images corresponding to the photo slots across the images of the double-page spread. Can be made.

また、前ボタン510や後ボタン511を指定することにより、表示領域403内で選択した写真スロットに表示中の撮像画像と入れ替える候補となる画像として、該写真スロットが属するページ外の写真スロット用の候補撮像画像も表示させることができる。これにより、対象写真スロットに配置可能な撮像画像とは全く異なる撮像画像を該対象写真スロットに配置させることが可能となる。 Further, by designating the front button 510 and the rear button 511, as a candidate image to be replaced with the captured image being displayed in the photo slot selected in the display area 403, the image for the photo slot outside the page to which the photo slot belongs is selected. Candidate captured images can also be displayed. This makes it possible to arrange a captured image that is completely different from the captured image that can be arranged in the target photo slot, in the target photo slot.

なお、上記の例では、「フォトアルバムの全ページを通して順序づけられた写真スロット順」が、ページの左上の写真スロット、右上の写真スロット、左下の写真スロット、右下の写真スロット、の順であるとしたが、この順に限るものではない。また、写真スロット503のように、ページ全体に割り当てられた写真スロットはそのページの最初の順序としているが、これも一例であって、これに限るものではない。例えば、左上、左下、右上、右下のように他の順番を採用しても構わない。また、上記の例では、ウィンドウ内に表示した候補撮像画像の数を4としたが、この数に限るものではない。 In the above example, the order of photo slots ordered through all pages of the photo album is the photo slot at the top left of the page, the photo slot at the top right, the photo slot at the bottom left, and the photo slot at the bottom right. However, it is not limited to this order. Further, although the photo slots assigned to the entire page, like the photo slot 503, are in the first order of the page, this is also an example, and the present invention is not limited to this. For example, another order such as upper left, lower left, upper right, lower right may be adopted. Further, in the above example, the number of candidate captured images displayed in the window is four, but the number is not limited to this number.

また、上記の例では、前ボタン510や後ボタン511によって1つ前若しくは1つ後の写真スロットに配置された撮像画像に基づく候補画像を表示していたが、ウィンドウ上で他の写真スロットに配置された撮像画像に基づく候補画像する方法には様々な方法があり、特定の方法に限るものではない。例えば、どれだけ前若しくは後の写真スロットを選択するのかを指定する入力欄を設け、そこに数値を入力するようにしても良い(例えば2つ前の写真スロットを選択する場合には「−2」、2つ後の写真スロットを選択する場合には「2」を入力する)。 Further, in the above example, the candidate image based on the captured image placed in the previous or next photo slot by the front button 510 or the rear button 511 is displayed, but it is displayed in another photo slot on the window. There are various methods for forming a candidate image based on the arranged captured image, and the method is not limited to a specific method. For example, it is possible to provide an input field for designating how much before or after the photo slot is selected and input a numerical value there (for example, when selecting the photo slot two before, "-2 "Enter "2" to select the next photo slot."

図7に戻って、ボタン520は、ウィンドウ内に表示されている候補撮像画像以外の撮像画像を表示させるためのボタンである。ユーザが操作部203を操作することでこのボタン520を指定すると、CPU204は、フォトアルバムを作成する際に最初にユーザが指定する画像の一覧を表示部205に一覧表示させる。 Returning to FIG. 7, the button 520 is a button for displaying a captured image other than the candidate captured image displayed in the window. When the user operates the operation unit 203 to specify this button 520, the CPU 204 causes the display unit 205 to display a list of images initially specified by the user when creating a photo album.

<ステップS105>
CPU204は、前ボタン510(前候補ボタン)が指定されたか否かを判定する。この判定の結果、指定された場合には、処理はステップS106に進み、指定されていない場合には、処理はステップS107に進む。
<Step S105>
The CPU 204 determines whether or not the previous button 510 (previous candidate button) is designated. If the result of this determination is that it has been designated, the processing proceeds to step S106, and if it has not been designated, the processing proceeds to step S107.

<ステップS106>
CPU204は、「フォトアルバムの全ページを通して順序づけられた写真スロット順」において、現在候補起点画像となっている写真スロットよりも1つ前の写真スロットに表示されている撮像画像を新たな候補起点画像に設定する。そして処理はステップS103に戻る。
<Step S106>
The CPU 204, in the “order of photo slots ordered through all pages of the photo album”, sets the captured image displayed in the previous photo slot of the photo slot that is the current candidate start image to the new candidate start image. Set to. Then, the process returns to step S103.

<ステップS107>
CPU204は、後ボタン511(後候補ボタン)が指定されたか否かを判定する。この判定の結果、指定された場合には、処理はステップS108に進み、指定されていない場合には、処理はステップS109に進む。
<Step S107>
The CPU 204 determines whether or not the rear button 511 (rear candidate button) is designated. If the result of this determination is that it has been designated, the processing proceeds to step S108, and if it has not been designated, the processing proceeds to step S109.

<ステップS108>
CPU204は、「フォトアルバムの全ページを通して順序づけられた写真スロット順」において、現在候補起点画像となっている写真スロットよりも1つ後の写真スロットに表示されている撮像画像を新たな候補起点画像に設定する。そして処理はステップS103に戻る。
<Step S108>
The CPU 204, in the “order of photo slots ordered through all pages of the photo album”, sets the captured image displayed in the photo slot that is one after the photo slot that is currently the candidate start image to the new candidate start image. Set to. Then, the process returns to step S103.

<ステップS109>
CPU204は、表示中のウィンドウ内のそれぞれの候補撮像画像のうち何れか1つをユーザが操作部203を操作して選択したか否かを判定する。この判定の結果、選択した場合には、処理はステップS110に進み、選択していない場合には、ステップS104に戻る。
<Step S109>
The CPU 204 determines whether or not the user has operated the operation unit 203 to select one of the candidate captured images in the currently displayed window. If the result of this determination is that it has been selected, the process proceeds to step S110, and if it has not been selected, the process returns to step S104.

<ステップS110>
CPU204は、入替対象スロットに表示中の撮像画像を、ユーザが操作部203を操作して選択した候補撮像画像に置き換えて表示する。
<Step S110>
The CPU 204 replaces the captured image being displayed in the replacement target slot with the candidate captured image selected by the user operating the operation unit 203 and displays the candidate captured image.

次に、CPU204がアプリケーション80を実行することで、図4に例示するようなウィンドウ401を生成して表示部205に表示させるための処理について説明する。図5の処理、すなわち、写真スロットに表示中の撮像画像に代えて表示する撮像画像の候補を一覧表示させ、そのうちユーザが選択した候補を該写真スロットに表示する処理は、以下に説明する図10の処理によって生成されたウィンドウに対して行う処理である。 Next, a process will be described in which the CPU 204 executes the application 80 to generate the window 401 illustrated in FIG. 4 and display the window 401 on the display unit 205. The process of FIG. 5, that is, the process of displaying a list of picked-up image candidates to be displayed instead of the picked-up image currently displayed in the photo slot, and displaying the candidate selected by the user in the photo slot is described below. This is a process performed on the window generated by the process of 10.

先ず、アプリケーション80において、図10のフローチャートに従った処理を実行する機能部について、図9のブロック図を用いて説明する。図9に示す如く、図10のフローチャートに従った処理は、指定部901及び自動レイアウト処理部916によって実行される。また、図9に示す如く、自動レイアウト処理部916は、複数の機能部により構成されており、該複数の機能部によって自動レイアウト処理部916の機能が実現される。なお、図9では、指定部901は自動レイアウト処理部916とは別個の機能部として示しているが、指定部901は自動レイアウト処理部916内に含めても構わない。 First, in the application 80, a functional unit that executes processing according to the flowchart of FIG. 10 will be described with reference to the block diagram of FIG. 9. As shown in FIG. 9, the processing according to the flowchart of FIG. 10 is executed by the designation unit 901 and the automatic layout processing unit 916. Further, as shown in FIG. 9, the automatic layout processing unit 916 is composed of a plurality of functional units, and the functions of the automatic layout processing unit 916 are realized by the plurality of functional units. Note that in FIG. 9, the designating unit 901 is shown as a functional unit separate from the automatic layout processing unit 916, but the designating unit 901 may be included in the automatic layout processing unit 916.

また、説明上、図9に示した機能部を処理の主体として説明する場合があるが、実際には、該機能部に対応するコンピュータプログラムをCPU204が実行することで該機能部の機能が実現される。 Further, for the sake of explanation, the functional unit shown in FIG. 9 may be described as the main body of processing, but in reality, the function of the functional unit is realized by the CPU 204 executing a computer program corresponding to the functional unit. To be done.

また、後述するそれぞれの機能部の機能は、その一部若しくは全部を他の機能部に任せても構わないし、他の機能部と協調動作を行うことで実現させるようにしても構わない。つまり、複数の機能部によって自動レイアウト処理部916の機能が実現されるのであれば、個々の機能部がどのような動作を行うのかについては特定の形態に限らない。 Further, the functions of the respective functional units described later may be partly or wholly left to other functional units, or may be realized by performing a cooperative operation with other functional units. That is, as long as the function of the automatic layout processing unit 916 is realized by a plurality of function units, the operation of each function unit is not limited to a specific form.

指定部901は、「フォトアルバムの作成条件を構成する様々な情報」を取得し、該取得した情報を自動レイアウト処理部916に供給する。「フォトアルバムの作成条件を構成する様々な情報」は、例えば、ユーザが操作部203を操作して、表示部205に表示されたGUI(グラフィカルユーザインターフェース)上で設定した情報である。ユーザがGUI上でこれらの情報の設定を行った後で完了指示を入力すると、指定部901は、該GUI上で設定された「フォトアルバムの作成条件を構成する様々な情報」を取得する。もちろん、予めGUI上で作成してHDD202に保存した「フォトアルバムの作成条件を構成する様々な情報」を指定部901がHDD202から取得するようにしても構わない。設定される条件には、たとえば対象となる画像や主人公のID、アルバムの見開き数、テンプレート情報、画像補正のON/OFF条件等の指定が含まれる。画像の指定は、たとえば撮影日時など個別の画像データの付随情報や属性情報による指定であってもよいし、デバイスやディレクトリの指定など、画像データを含むファイルシステムの構造に基づく指定であってもよい。なお、本実施形態において、「見開き」とは、たとえば表示においてはひとつの表示用ウィンドウに相当し、印刷においては、異なるシートに印刷された、互いに隣接する1対のページに相当する。 The designation unit 901 acquires “various information constituting the photo album creation condition” and supplies the acquired information to the automatic layout processing unit 916. “Various information constituting the photo album creation condition” is, for example, information set by a user operating the operation unit 203 on a GUI (graphical user interface) displayed on the display unit 205. When the user inputs a completion instruction after setting these pieces of information on the GUI, the designation unit 901 acquires “various pieces of information constituting the photo album creation condition” set on the GUI. Of course, the designation unit 901 may acquire from the HDD 202 the “various information forming the photo album creation condition” that is created in advance on the GUI and stored in the HDD 202. The conditions to be set include, for example, designation of the target image or the hero ID, the number of double-page spreads of the album, template information, ON/OFF conditions for image correction, and the like. The image may be specified by accompanying information or attribute information of individual image data such as shooting date and time, or may be specified based on the structure of the file system including the image data, such as device or directory specification. Good. In the present embodiment, the “spread” corresponds to, for example, one display window in display, and in printing, corresponds to a pair of adjacent pages printed on different sheets.

画像取得部902は、HDD202に格納されている撮像画像データ群を読み出す。 The image acquisition unit 902 reads the captured image data group stored in the HDD 202.

画像変換部903は、画像取得部902が取得したそれぞれの撮像画像データについて、該撮像画像データの縮小画像データ(例えば短辺が490画素のサイズを有し、且つ各画素がsRGBの色情報を有する)を、解析画像として生成する。 The image conversion unit 903, for each captured image data acquired by the image acquisition unit 902, reduces the image data of the captured image data (for example, the short side has a size of 490 pixels, and each pixel has color information of sRGB). Have) is generated as an analysis image.

画像解析部904は、画像変換部903が生成したそれぞれの解析画像に対し、特徴量抽出、顔認識、個人認識、表情認識などの解析処理を行うと共に、該解析画像の生成元である撮像画像の付帯情報(例えばExif情報)から該撮像画像の撮像日時を取得する。 The image analysis unit 904 performs analysis processing such as feature amount extraction, face recognition, individual recognition, and facial expression recognition on each analysis image generated by the image conversion unit 903, and the captured image from which the analysis image is generated. The image capturing date and time of the captured image is acquired from the supplementary information (eg, Exif information) of

画像分類部905は、画像取得部902が取得した撮像画像群を、画像解析部904による解析処理の結果及び撮像日時に基づいて、複数のシーンに分割し、シーン分類する。シーンとは、旅行や日常、結婚式等の撮影シーンのことである。シーンとは、例えば、一つの撮影対象について一時期の撮影機会に撮影された画像の集まりであるということもできる。 The image classification unit 905 divides the captured image group acquired by the image acquisition unit 902 into a plurality of scenes based on the result of the analysis processing by the image analysis unit 904 and the imaging date and time, and classifies the scenes. A scene is a shooting scene such as a trip, a daily life, or a wedding. It can be said that the scene is, for example, a collection of images taken at one shooting opportunity for one shooting target.

入力部906は、指定部901が取得した情報のうち、主人公を特定する情報(例えば、主人公の識別情報)を取得する。 The input unit 906 acquires, from the information acquired by the designating unit 901, information identifying the hero (for example, identification information of the hero).

画像得点部907は、画像取得部902が取得したそれぞれの撮像画像データに対して得点を求める。 The image score unit 907 obtains a score for each captured image data acquired by the image acquisition unit 902.

入力部908は、指定部901が取得した情報のうち、フォトアルバムの見開きの数を取得する。 The input unit 908 acquires the number of spreads of the photo album from the information acquired by the designating unit 901.

見開き割当部909は、画像分類部905によって分類されたそれぞれのグループ若しくは該それぞれのグループに基づいて再編成されたそれぞれのグループ、をフォトアルバムのそれぞれの見開きに割り当てる。 The spread allocation unit 909 allocates each group classified by the image classification unit 905 or each group rearranged based on each group to each spread of the photo album.

画像選択部910は、それぞれの見開きについて、該見開きに割り当てたグループ内のそれぞれの撮像画像について画像得点部907が求めた得点に基づいて、該それぞれの撮像画像のうち該見開きにおける写真スロットに配置する撮像画像を選択する。 The image selection unit 910 arranges, for each spread, a photo slot of each of the captured images in the spread based on the score obtained by the image score unit 907 for each captured image in the group assigned to the spread. The captured image to be selected is selected.

入力部911は、指定部901が取得した情報のうち、見開きのレイアウト(見開き内のそれぞれの写真スロットのレイアウト)を表すテンプレート群(それぞれ異なるレイアウトのテンプレート)を取得する。ここでいうところのテンプレートとは、見開きのページの画像である。 The input unit 911 acquires, from the information acquired by the designating unit 901, a template group (a template having a different layout) representing a layout of two-page spreads (a layout of each photo slot in the two-page spread). The template here is an image of a two-page spread.

画像レイアウト部912は、入力部911が入力したそれぞれのテンプレートのうち、画像選択部910が選択した撮像画像に基づいて1つのテンプレートを選択する。 The image layout unit 912 selects one of the templates input by the input unit 911 based on the captured image selected by the image selection unit 910.

入力部913は、指定部901が取得した情報のうち、撮像画像に対する画像補正を実施するか否かを示すフラグ値を取得する。 The input unit 913 acquires, from the information acquired by the designating unit 901, a flag value indicating whether to perform image correction on the captured image.

画像補正部914は、入力部913が取得したフラグ値が、画像補正を実施することを示す値である場合には、画像選択部910が選択した撮像画像に対して、覆い焼き補正、赤目補正、コントラスト補正等の補正処理を施す。もちろん、画像補正部914は、入力部913が取得したフラグ値が、画像補正を実施しないことを示す値である場合には、補正処理は実行しない。 When the flag value acquired by the input unit 913 is a value indicating that image correction is to be performed, the image correction unit 914 performs dodge correction and red-eye correction on the captured image selected by the image selection unit 910. , Correction processing such as contrast correction is performed. Of course, the image correction unit 914 does not execute the correction process when the flag value acquired by the input unit 913 is a value indicating that the image correction is not performed.

出力部915は、画像レイアウト部912が選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに割り当てられた撮像画像を、該写真スロットのサイズにリサイズして配置した「見開きのページの画像」を生成する。そして出力部915は、この生成した「見開きのページの画像」をレイアウト情報として出力する。 The output unit 915 arranges, in each photo slot on the template selected by the image layout unit 912, the captured image assigned to the photo slot by resizing the image to the size of the photo slot and arranging the “page spread image”. To generate. Then, the output unit 915 outputs the generated “image of the two-page spread” as layout information.

なお上記の説明では、画像補正や写真スロットに配置する対象となる画像は撮像画像であったが、該撮像画像から生成した解析画像であっても構わない。もちろん、撮像画像から生成した他の画像であっても構わない。 In the above description, the image to be image-corrected or placed in the photo slot is the captured image, but it may be an analysis image generated from the captured image. Of course, it may be another image generated from the captured image.

次に、CPU204が自動レイアウト処理部916を実行することで行う処理について、図10のフローチャートに沿って説明する。 Next, the processing performed by the CPU 204 executing the automatic layout processing unit 916 will be described with reference to the flowchart of FIG. 10.

<ステップS1001>
画像変換部903は、指定された画像群に含まれる画像に順次着目して、着目画像から上記の解析画像を生成する。なお、解析画像は、指定部901が取得した情報に含まれている「解析画像の縦横の画素数、画素値の色空間などの生成パラメータ」に基づいて生成される。
<Step S1001>
The image conversion unit 903 sequentially focuses on the images included in the designated image group, and generates the above analysis image from the focused image. The analysis image is generated based on the “generation parameters such as the number of vertical and horizontal pixels of the analysis image and the color space of pixel values” included in the information acquired by the designation unit 901.

<ステップS1002>
画像解析部904は、ステップS1001で生成された解析画像から特徴量を抽出すると共に、該解析画像の生成元の撮像画像の付帯情報から該撮像画像の撮像日時を取得する。抽出する特徴量には、様々なものを用いることができるが、以下では一例として、ピント量を特徴量として抽出する。
<Step S1002>
The image analysis unit 904 extracts the feature amount from the analysis image generated in step S1001 and acquires the image capture date and time of the captured image from the incidental information of the captured image from which the analysis image was generated. Although various features can be used as the feature amount to be extracted, the focus amount is extracted as the feature amount as an example below.

画像中のエッジの検出方法として公知のソーベルフィルタを用いることができる。ソーベルフィルタを用いて画像からエッジを検出し、該検出したエッジの始点と終点の輝度差を始点と終点との間の距離で割ればエッジの傾き(輝度勾配)を算出できる。そして、画像中のエッジの傾きの平均値を算出する。傾きの平均値が大きい画像は、傾きの平均値が小さい画像よりもピントが合っていると考えることが出来る。そこで、この傾きに対してそれぞれ異なる複数の閾値を予め設定し、画像から求めた傾きの平均値がどの閾値以上であるのかを判別することで、該画像におけるピント量を算出することができる。本実施形態では互いに異なる2つの閾値θ1、θ2(θ1<θ2)を設定し、求めた傾きの平均値AがA<θ1であればピント量=×、θ1≦A<θ2であればピント量=△、A≧θ2であれば、ピント量=○と判別する。ピント量=○とは、フォトアルバムに採用したいピントの傾きを表す。ピント量=△とは、許容できるピントの傾きを表す。ピント量=×とは、許容できない傾きを表す。 A known Sobel filter can be used as a method for detecting edges in an image. An edge (luminance gradient) can be calculated by detecting an edge from an image using a Sobel filter and dividing the brightness difference between the detected start point and end point of the detected edge by the distance between the start point and the end point. Then, the average value of the inclinations of the edges in the image is calculated. An image with a large average tilt value can be considered to be more in focus than an image with a small average tilt value. Therefore, by setting a plurality of different threshold values for each of the inclinations in advance and determining which threshold value is the average value of the inclinations obtained from the image or more, the focus amount in the image can be calculated. In the present embodiment, two different thresholds θ1 and θ2 (θ1<θ2) are set, and if the calculated average value A of the inclination is A<θ1, the focus amount=×, and if θ1≦A<θ2, the focus amount. =Δ, A≧θ2, it is determined that the focus amount=◯. The focus amount=○ indicates the inclination of the focus to be adopted in the photo album. The focus amount=Δ represents an allowable focus tilt. The focus amount=× represents an unacceptable inclination.

<ステップS1003>
画像解析部904は、ステップS1001で生成された解析画像から人の顔を検出する。画像から顔を検出する技術は公知技術であり、例えば、複数用意した弱識別器から強識別器を作成するAdaboostが挙げられる。本実施形態では、Adaboostにより作成した強識別器により、画像から人の顔を検出する。この顔検出処理により、画像上における人の顔の領域(顔領域(矩形領域))の座標位置及びサイズを取得する。なお、サイズの代わりに、顔の領域の左上隅の座標位置と右下隅の座標位置とを取得するようにしても良い。なお、顔に限らず、犬や猫等の動物、花、食べ物、建物、置物等のオブジェクトを顔の代わりの検出対象としてAdaboostによって強識別器を作成することができる。これにより、顔以外のオブジェクトを検出することができる。
<Step S1003>
The image analysis unit 904 detects a human face from the analysis image generated in step S1001. A technique for detecting a face from an image is a known technique, and examples thereof include Adaboost that creates a strong discriminator from a plurality of prepared weak discriminators. In the present embodiment, the face of a person is detected from the image by the strong classifier created by Adaboost. By this face detection processing, the coordinate position and size of the human face area (face area (rectangular area)) on the image are acquired. Instead of the size, the coordinate position of the upper left corner and the coordinate position of the lower right corner of the face area may be acquired. The strong discriminator can be created by Adaboost not only for faces but also for animals such as dogs and cats, objects such as flowers, food, buildings, and figurines as detection targets instead of faces. Thereby, an object other than the face can be detected.

<ステップS1004>
画像解析部904は、ステップS1003で検出したそれぞれの顔領域に対し、該顔領域内の顔が誰の顔であるのかを認識する処理である個人認識処理を行う。例えば、HDD202に予め登録されている様々な人の顔の画像について、ステップS1003で検出した顔領域内の画像との類似度を求める。そして、HDD202に予め登録されている様々な人の顔の画像のうち、閾値以上であって且つ最大の類似度を求めた画像を特定し、該特定した画像と予め関連づけられている識別情報(該画像内の顔を有する個人の識別情報(個人ID))を取得する。なお、求めた類似度が何れも閾値未満であった場合には、新規の識別情報を発行し、ステップS1003で検出した顔領域内の画像を、該発行した識別情報と関連づけてHDD202に登録する。
<Step S1004>
The image analysis unit 904 performs, for each face area detected in step S1003, individual recognition processing that is processing for recognizing who the face in the face area is. For example, regarding the images of the faces of various people registered in the HDD 202 in advance, the degree of similarity with the images in the face area detected in step S1003 is obtained. Then, among the images of the faces of various people that are registered in the HDD 202 in advance, an image for which the maximum degree of similarity is obtained that is greater than or equal to the threshold value is specified, and the identification information (( The identification information (personal ID) of an individual having a face in the image is acquired. If all the calculated similarities are less than the threshold value, new identification information is issued, and the image in the face area detected in step S1003 is registered in the HDD 202 in association with the issued identification information. ..

なお、本ステップでは、ステップS1003で検出した顔領域内の顔を有する人の識別情報を取得することができるのであれば、どのような個人認識処理を採用しても構わない。 In this step, any personal recognition process may be adopted as long as the identification information of the person having the face in the face region detected in step S1003 can be acquired.

そして画像解析部904は、ステップS1002〜S1004にて収集した情報を画像解析情報としてHDD202に登録する。画像解析情報の一例を図11に示す。画像解析情報には、それぞれの撮像画像について、該撮像画像に固有のID(画像ID)、該撮像画像の撮像日時、ピント量、該撮像画像から検出した人の顔の数、該撮像画像から検出したそれぞれの人の顔の領域の左上隅及び右下隅の座標位置が含まれている。例えば、画像ID=1の撮像画像については、以下のような情報が登録されている。 Then, the image analysis unit 904 registers the information collected in steps S1002 to S1004 in the HDD 202 as image analysis information. FIG. 11 shows an example of the image analysis information. The image analysis information includes, for each captured image, an ID (image ID) unique to the captured image, an image capture date and time of the captured image, a focus amount, the number of human faces detected from the captured image, and the captured image. The coordinate positions of the upper left corner and the lower right corner of the detected face area of each person are included. For example, the following information is registered for the captured image with the image ID=1.

撮像日時=「2015年7月1日10時11分12秒」
ピント量=「○」
検出した人の顔の数=「6」
個人ID=1の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=2の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=3の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=4の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=5の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=6の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
<ステップS1005>
画像取得部902が取得した撮像画像群の全てをステップS1001で選択した場合には、処理はステップS1005を介してステップS1006に進む。一方、画像取得部902が取得した撮像画像群のうち未選択の撮像画像が残っている場合には、処理はステップS1001に戻る。
Imaging date and time = "July 1, 2015 10:11:12"
Focus amount = "○"
Number of detected human faces = "6"
The coordinate position of the upper left corner and the coordinate position of the lower right corner of the face area of the person with personal ID=1 The coordinate position of the upper left corner and the coordinate position of the lower right corner of the face area of the person with personal ID=2 Person with the personal ID=3 Coordinate position of the upper left corner and the lower right corner of the face area of the person's face area The upper left corner of the person's face area of the individual ID=4 and the coordinate position of the lower right corner of the person's face area of the individual ID=5 The coordinate position of the corner and the coordinate position of the lower right corner The coordinate position of the upper left corner and the coordinate position of the lower right corner of the face area of the person with the individual ID=6 <Step S1005>
When all of the captured image groups acquired by the image acquisition unit 902 are selected in step S1001, the process proceeds to step S1006 via step S1005. On the other hand, if an unselected captured image remains in the captured image group acquired by the image acquisition unit 902, the process returns to step S1001.

<ステップS1006>
画像分類部905は、HDD202に登録した画像解析情報から、画像取得部902が取得したそれぞれの撮像画像の撮像日時を取得する。そして画像分類部905は、該取得したそれぞれの撮像画像の撮像日時に基づいて、画像取得部902が取得した撮像画像群(撮像画像データ群)を複数のグループに分割する。
<Step S1006>
The image classification unit 905 acquires the imaging date and time of each captured image acquired by the image acquisition unit 902 from the image analysis information registered in the HDD 202. Then, the image classification unit 905 divides the captured image group (captured image data group) acquired by the image acquisition unit 902 into a plurality of groups based on the captured date and time of each acquired captured image.

例えば、画像取得部902が取得したそれぞれの撮像画像(撮像画像データ)を撮像日時が古い順に見た場合に、N(Nは1以上の整数)番目の撮像画像の撮像日時と、(N+1)番目の撮像画像の撮像日時と、の差が1日以上であるとする。このとき、N番目の撮像画像と(N+1)番目の撮像画像との間にグループの境界を設定する。また、撮像日時が古い順においてN番目の撮像画像の撮像日時と(N+1)番目の撮像画像の撮像日時との差が16時間以上であれば、N番目の撮像画像と(N+1)番目の撮像画像との間にグループの境界を設定する。また、撮像日時が古い順において隣接する撮像画像間で撮像日時の差が、どの撮像画像間であっても16時間未満であるとする。この場合、1日で撮像した撮像画像群において最初に撮像した撮像画像の撮像日時と最後に撮像した撮像画像の撮像日時との差が4時間未満であれば、該1日の撮像画像群を1つのグループとする。一方、該1日で撮像した撮像画像群において最初に撮像した撮像画像の撮像日時と最後に撮像した撮像画像の撮像日時との差が4時間以上であった場合、該1日で撮像した撮像画像の枚数が50枚未満(1日で撮像した撮像画像データの数が50未満)であれば、該1日の撮像画像群を1つのグループとする。このような撮像画像のグループ分けの一例を図12(A)に示す。図12(A)〜(C)において横軸は撮像日時(左側に向かうほど古く、右側に向かうほど新しい)、縦軸は撮像画像の枚数を示す。図12(A)では、撮像画像群をグループ1201〜1208の8個のグループに分割している。図12(A)において矢印はグループの境界を示している。 For example, when the captured images (captured image data) acquired by the image acquisition unit 902 are viewed in ascending order of captured date and time, the captured date and time of the Nth (N is an integer of 1 or more) captured image and (N+1) It is assumed that the difference between the image pickup date and time of the th imaged image is one day or more. At this time, a group boundary is set between the Nth captured image and the (N+1)th captured image. If the difference between the image pickup date and time of the Nth image pickup image and the image pickup date and time of the (N+1)th image pickup image in the order of image pickup date and time is 16 hours or more, the Nth image pickup image and the (N+1)th image pickup image are taken. Set the boundary of the group with the image. In addition, it is assumed that the difference in image pickup date and time between adjacent image pickup images in the order of the image pickup date and time is less than 16 hours regardless of which image is picked up. In this case, if the difference between the date and time of the first captured image and the date and time of the last captured image in the captured image group captured in one day is less than 4 hours, the captured image group of the one day is selected. There will be one group. On the other hand, if the difference between the image pickup date and time of the first image pickup image and the image pickup date and time of the last image pickup image in the image pickup image group taken in the one day is 4 hours or more, the image pickup in the one day is performed. If the number of images is less than 50 (the number of captured image data captured in one day is less than 50), the captured image group of the one day is set as one group. An example of such grouping of captured images is shown in FIG. In FIGS. 12A to 12C, the horizontal axis represents the image capturing date/time (older toward the left, newer toward the right), and the vertical axis represents the number of captured images. In FIG. 12A, the captured image group is divided into eight groups 1201 to 1208. In FIG. 12A, the arrows indicate the boundaries of groups.

<ステップS1007>
画像分類部905は、ステップS1006で分割したそれぞれのグループのうち1つを着目グループとして選択し、該着目グループがどのシーン分類されるのかを判断する。本実施形態では、グループが、旅行、日常、セレモニーのどのシーンに分類されるのかを判断する。もちろん、シーンの種類はこれらの種類に限るものではない。
<Step S1007>
The image classifying unit 905 selects one of the groups divided in step S1006 as the target group, and determines which scene is classified into the target group. In the present embodiment, it is determined whether the group is classified into a travel scene, a daily life scene, and a ceremony scene. Of course, the types of scenes are not limited to these types.

本ステップのために、HDD202には予め、グループがどのシーンに分類されるのかを判断するための基準となるデータ(シーン分類基準データ)が登録されている。シーン分類基準データの作成方法の一例を以下に示す。 For this step, data (scene classification reference data) serving as a reference for determining to which scene the group is classified is registered in the HDD 202 in advance. An example of how to create the scene classification reference data is shown below.

例えば、旅行の画像として予め判断されている画像群(旅行画像群)、日常の画像として予め判断されている画像群(日常画像群)、セレモニーの画像として予め判断されている画像群(セレモニー画像群)、のそれぞれの画像群を予め複数用意する。そして、旅行画像群、日常画像群、セレモニー画像群、のそれぞれについて、撮像期間の平均及び標準偏差、撮像枚数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める。例えば、旅行画像群について、撮像期間の平均及び標準偏差、撮像枚数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める場合について説明する。 For example, an image group that has been determined in advance as a travel image (travel image group), an image group that has been determined in advance as a daily image (daily image group), and an image group that has been determined in advance as a ceremony image (ceremony image) Groups), and a plurality of image groups for each group are prepared in advance. Then, for each of the travel image group, the daily image group, and the ceremony image group, the average and standard deviation of the image capturing period, the average and standard deviation of the number of captured images, and the average and standard deviation of the number of image capturing persons are obtained. For example, a case will be described in which the average and standard deviation of the imaging period, the average and standard deviation of the number of captured images, and the average and standard deviation of the number of imaging persons are obtained for the travel image group.

画像群の撮像期間とは、該画像群において最も過去に撮像した画像の撮像日時と最近撮像した画像の撮像日時との差分である。然るに、それぞれの旅行画像群について、該旅行画像群において最も過去に撮像した画像の撮像日時と最近撮像した画像の撮像日時との差分を、該旅行画像群の撮像期間として求め、該それぞれの旅行画像群について求めた撮像期間の平均及び標準偏差を求める。 The image capturing period of an image group is the difference between the image capturing date and time of the image captured in the earliest and the image capturing date and time of the most recently captured image in the image group. Therefore, for each travel image group, the difference between the image capture date and time of the image captured in the earliest in the travel image group and the image capture date and time of the most recently captured image in the travel image group is obtained as the image capture period of the travel image group, and the travel image is captured. The average and standard deviation of the imaging period obtained for the image group are obtained.

また、画像群の撮像枚数とは、該画像群を構成する画像の枚数である。然るに、それぞれの旅行画像群について、該旅行画像群を構成する撮像画像の枚数を求め、該それぞれの旅行画像群について求めた撮像画像の枚数の平均及び標準偏差を求める。 Further, the number of captured images of the image group is the number of images forming the image group. Therefore, for each travel image group, the number of captured images forming the travel image group is obtained, and the average and standard deviation of the number of captured images obtained for each travel image group are obtained.

また、画像群の撮像人数とは、該画像群を構成するそれぞれの画像に写っている顔の数である。然るに、全ての旅行画像群について、該旅行画像群を構成するそれぞれの撮像画像に写っている顔の数を周知の顔認識などの技術でもって求め、該求めた顔の数の平均及び標準偏差を求める。 Further, the number of captured images of the image group is the number of faces shown in each image forming the image group. Therefore, for all the travel image groups, the number of faces shown in each of the captured images forming the travel image group is obtained by a well-known technique such as face recognition, and the average and standard deviation of the obtained number of faces are obtained. Ask for.

日常画像群、セレモニー画像群についても同様にして、撮像期間の平均及び標準偏差、撮像枚数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める。そして、このようにして旅行画像群、日常画像群、セレモニー画像群のそれぞれについて求めた、撮像期間の平均及び標準偏差、撮像枚数の平均及び標準偏差、撮像人数の平均及び標準偏差、を、シーン分類基準データとしてHDD202に予め登録しておく。シーン分類基準データの一例を図13に示す。 Similarly, for the daily image group and the ceremony image group, the average and standard deviation of the image capturing period, the average and standard deviation of the number of captured images, and the average and standard deviation of the number of image capturing persons are obtained. Then, the average and standard deviation of the imaging period, the average and standard deviation of the number of captured images, and the average and standard deviation of the number of captured images obtained for each of the travel image group, the daily image group, and the ceremony image group in this way It is registered in the HDD 202 in advance as classification reference data. An example of the scene classification reference data is shown in FIG.

画像分類部905は、着目グループについて、上記と同様にして、撮像期間、撮像枚数、撮像人数の平均を求める。そして、画像分類部905は、シーン分類基準データを参照し、着目グループについて、旅行(シーン分類1)についての得点、日常(シーン分類2)についての得点、セレモニー(シーン分類3)についての得点を以下のようにして求める。 The image classification unit 905 obtains the average of the image capturing period, the number of captured images, and the number of captured images for the target group in the same manner as above. Then, the image classification unit 905 refers to the scene classification reference data, and for the target group, scores for travel (scene classification 1), daily (scene classification 2), and ceremony (scene classification 3). Calculate as follows.

シーンiの撮像期間の得点=50−|10×(シーンiの撮像期間の平均−選択グループの撮像期間)/シーンiの撮像期間の標準偏差|
シーンiの撮像枚数の得点=50−|10×(シーンiの撮像枚数の平均−選択グループの撮像枚数)/シーンiの撮像枚数の標準偏差|
シーンiの撮像人数の得点=50−|10×(シーンiの撮像人数の平均−選択グループの撮像人数の平均)/シーンiの撮像人数の標準偏差|
シーンiの得点=(シーンiの撮像期間の得点+シーンiの撮像枚数の得点+シーンiの撮像人数の得点)/3
ただし、i=1,2,3
そして画像分類部905は、着目グループについて求めたシーン分類1の得点、シーン分類2の得点、シーン分類3の得点、のうち最も高い得点のシーンを、該着目グループのシーンとして決定(分類)する。最も高い得点のシーン分類が複数個ある場合には、予め設定された優先順位において最も高いシーン分類を採用する。例えば、日常>セレモニー>旅行の順を予め設定しておく。例えば、図12(A)のグループ1205の撮像期間が36時間、撮像枚数が300枚、撮像人数の平均が1.7人であるとする。この場合、図13のシーン分類基準データを用いると、旅行の得点は45.32、日常の得点は18.38、セレモニーの得点は−29.92となり、グループ1205のシーンは旅行に分類される。なお、それぞれのグループがどのシーンに分類されたのかについては、例えば、グループ毎に、分類先のシーンに固有の識別情報を対応付けてHDD202で管理する。
Score of imaging period of scene i=50−|10×(average of imaging period of scene i−imaging period of selected group)/standard deviation of imaging period of scene i|
Score of number of captured images of scene i=50−|10×(average number of captured images of scene i−number of captured images of selected group)/standard deviation of number of captured images of scene i|
Score of the number of imagers in the scene i=50−|10×(average number of imagers in the scene i−average number of imagers in the selected group)/standard deviation of the number of imagers in the scene i|
Score of scene i = (score of image capturing period of scene i + score of number of images captured in scene i + score of number of persons capturing image of scene i)/3
However, i=1, 2, 3
Then, the image classification unit 905 determines (classifies) the scene with the highest score among the scene classification 1 score, the scene classification 2 score, and the scene classification 3 score obtained for the target group as the scene of the target group. .. When there are a plurality of scene classifications with the highest score, the highest scene classification in the preset priority order is adopted. For example, the order of daily life>ceremony> travel is set in advance. For example, it is assumed that the group 1205 in FIG. 12A has an imaging period of 36 hours, the number of images to be captured is 300, and the average number of persons to be imaged is 1.7. In this case, using the scene classification reference data of FIG. 13, the travel score is 45.32, the daily score is 18.38, the ceremony score is −29.92, and the scenes in group 1205 are classified as travel. .. It should be noted that which scene each group is classified into is managed by the HDD 202 in association with identification information unique to the classification destination scene for each group, for example.

<ステップS1008>
ステップS1006で分割したそれぞれのグループの全てをステップS1007で選択した場合には、処理はステップS1009に進む。一方、ステップS1006で分割したそれぞれのグループのうち未選択のグループが残っている場合には、処理はステップS1007に戻る。
<Step S1008>
If all of the groups divided in step S1006 are selected in step S1007, the process proceeds to step S1009. On the other hand, if an unselected group remains among the groups divided in step S1006, the process returns to step S1007.

<ステップS1009>
入力部906は、指定部901が取得した情報のうち、主人公を特定する情報(ここでは主人公IDとする)を取得する。なお、主人公IDとは、画像取得部902が取得した撮像画像群に登場する人のうち主人公としての人に固有のID(図11の個人ID)である。この主人公IDは、ユーザが上記のGUIを用いて指定しても良いし、以下の処理によって、ユーザ操作を介さずに決定しても良い。
<Step S1009>
The input unit 906 acquires, from the information acquired by the designating unit 901, information that identifies the main character (here, the main character ID). The hero ID is an ID unique to the person who is the hero (personal ID in FIG. 11) of the persons who appear in the captured image group acquired by the image acquisition unit 902. This hero ID may be specified by the user using the GUI described above, or may be determined by the following processing without a user operation.

例えば、上記のステップS1004の処理によって、それぞれの撮像画像においてどの個人IDを有する人が登場したのかの情報を取得することができる。そのため、画像取得部902が取得した撮像画像群におけるそれぞれの人の登場回数、各シーンにおけるそれぞれの人の登場回数、それぞれの人が登場するシーンの個数、等を求めることが可能となる。この様な情報から、それぞれの人のうちその人を主人公とするのかを決定することができる。例えば、画像取得部902が取得した撮像画像群が複数のシーンによって構成されている場合には、最も多くのシーンに登場している人の個人IDを主人公IDとする。また、画像取得部902が取得した撮像画像群が単一シーンで構成されている場合には、該単一シーンで最も多く登場している人の個人IDを主人公IDとする。 For example, by the processing in step S1004 described above, it is possible to acquire information regarding which person ID has appeared in each captured image. Therefore, the number of appearances of each person in the captured image group acquired by the image acquisition unit 902, the number of appearances of each person in each scene, the number of scenes in which each person appears, and the like can be obtained. From such information, it is possible to determine whether each person should be the main character. For example, when the captured image group acquired by the image acquisition unit 902 is composed of a plurality of scenes, the personal ID of the person who appears in the most scenes is the main character ID. When the captured image group acquired by the image acquisition unit 902 is composed of a single scene, the personal ID of the person who appears most frequently in the single scene is set as the main character ID.

<ステップS1010>
画像得点部907は、画像取得部902が取得した撮像画像群のうちの1つの着目画像に対して、メイン写真スロット(メインスロット)用の得点及びサブ写真スロット(サブスロット)用の得点を求める。ここで、メイン写真スロット及びサブ写真スロットについて、図16(A)を用いて説明する。図16(A)の(1−1)〜(4−4)は、入力部911が入力するテンプレート群である。(1−1)のテンプレート1601において1602〜1604は写真スロットであるが、写真スロット1602は他の写真スロット1603及び1604よりもサイズが大きい。このような場合、写真スロット1602をメイン写真スロット、写真スロット1603及び1604をサブ写真スロットとする。そこで、選択画像についてメイン写真スロット用の得点及びサブ写真スロット用の得点を求めるために用いる基準データを、例えば以下のようにして予め作成しておく。
<Step S1010>
The image scoring unit 907 obtains a score for the main photo slot (main slot) and a score for the sub photo slot (sub slot) for one focused image in the captured image group acquired by the image acquisition unit 902. .. Here, the main photo slot and the sub photo slot will be described with reference to FIG. 16(A) to (4-4) are a group of templates input by the input unit 911. In the template 1601 of (1-1), 1602-1604 are photo slots, but the photo slot 1602 is larger in size than the other photo slots 1603 and 1604. In such a case, the photo slot 1602 is the main photo slot and the photo slots 1603 and 1604 are the sub photo slots. Therefore, reference data used to obtain the score for the main photo slot and the score for the sub photo slot for the selected image are created in advance as follows, for example.

メイン写真スロットに配置する画像として好ましいもの、サブ写真スロットに配置する画像として好ましいもの、は、その画像のシーンによって異なる。メイン写真スロットに配置する画像として好ましい画像の特徴、サブ写真スロットに配置する画像として好ましい画像の特徴、画像のシーン、の関係の一例を図14(A)に示す。 What is preferable as the image to be placed in the main photo slot and what is preferable as the image to be placed in the sub photo slot depends on the scene of the image. FIG. 14A shows an example of the relationship between the characteristics of images that are preferable as images to be arranged in the main photo slot, the characteristics of images that are preferable as images to be arranged in the sub-photo slots, and the scenes of the images.

然るに、メイン写真スロットについて図14(A)で規定している条件を満たす旅行の画像群、日常の画像群、セレモニーの画像群、サブ写真スロットについて図14(A)で規定している条件を満たす旅行の画像群、日常の画像群、セレモニーの画像群、を予め用意する。そして、メイン写真スロット用に用意した各シーンの画像群について、該画像群に登場する顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を求める。同様にして、サブ写真スロット用に用意した各シーンの画像群について、該画像群に登場する顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を求める。このようにしてメイン写真スロット及びサブ写真スロットについて求めた、顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を、上記の基準データとしてHDD202に予め登録しておく。 Therefore, the travel image group, the daily image group, the ceremony image group, and the sub-photo slot that satisfy the conditions defined in FIG. 14(A) for the main photo slot are defined as shown in FIG. 14(A). Prepare a set of travel images to satisfy, daily images, and images of ceremonies. Then, for the image group of each scene prepared for the main photo slot, the average and standard deviation of the number of faces appearing in the image group, the face appearance position, and the face size are obtained. Similarly, for the image group of each scene prepared for the sub-picture slot, the average and standard deviation of the number of faces appearing in the image group, the face appearance position, and the face size are obtained. The average and standard deviation of the number of faces, the appearance positions of the faces, and the size of the faces obtained for the main photo slot and the sub photo slot in this way are registered in the HDD 202 in advance as the reference data.

そして画像得点部907は、着目画像Iに対して、メイン写真スロット用の得点1及びサブ写真スロット用の得点2を、以下のようにして求める。 Then, the image score unit 907 obtains a score 1 for the main photo slot and a score 2 for the sub photo slot for the image of interest I as follows.

<メイン写真スロット用の得点>
顔数の得点1=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔数の平均−着目画像Iに登場する主人公の顔の数)/着目画像Iのシーンについてメイン写真スロット用に求めた顔数の標準偏差|
顔登場位置の得点1=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔登場位置の平均−着目画像Iに登場する主人公の顔の登場位置)/着目画像Iのシーンについてメイン写真スロット用に求めた顔登場位置の標準偏差|
顔サイズの得点1=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔サイズの平均−着目画像Iに登場する主人公の顔のサイズ)/着目画像Iのシーンについてメイン写真スロット用に求めた顔サイズの標準偏差|
得点1=(顔数の得点1+顔登場位置の得点1+顔サイズの得点1)/3

<サブ写真スロット用の得点>
顔数の得点2=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔数の平均−着目画像Iに登場する主人公の顔の数)/着目画像Iのシーンについてサブ写真スロット用に求めた顔数の標準偏差|
顔登場位置の得点2=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔登場位置の平均−着目画像Iに登場する主人公の顔の登場位置)/着目画像Iのシーンについてサブ写真スロット用に求めた顔登場位置の標準偏差|
顔サイズの得点2=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔サイズの平均−着目画像Iに登場する主人公の顔のサイズ)/着目画像Iのシーンについてサブ写真スロット用に求めた顔サイズの標準偏差|
得点2=(顔数の得点2+顔登場位置の得点2+顔サイズの得点2)/3

「着目画像Iに登場する主人公の顔」の数については、図11の画像解析情報の、着目画像Iに対応する画像IDの行において、主人公IDに対応する個人IDに左上隅の位置及び右下隅の位置が登録されていれば「1」、登録されていなければ「0」となる。また、「着目画像Iに登場する主人公の顔」の登場位置、サイズについては、図11の画像解析情報の、着目画像Iに対応する画像IDの行において、主人公IDに対応する個人IDに登録されている左上隅の位置及び右下隅の位置を参照すれば特定できる。

また、フォトアルバムに使う画像はピントが合っている方が好ましい為、図11に示すピント=「○」である撮像画像に対しては更に得点を加算してもよい。それぞれの画像IDに対応する撮像画像について求めた、メイン写真スロット用の得点1及びサブ写真スロット用の得点2の一例を図14(B)に示す。
<Score for main photo slot>
Face number score 1=50-|10x (average number of faces obtained for the main photo slot for the scene of the target image I-number of faces of the protagonist appearing in the target image I)/mainly for the scene of the target image I Standard deviation of the number of faces obtained for photo slots|
Score of face appearance position 1=50−|10×(average of face appearance positions obtained for main photo slot for scene of target image I−appearance position of main character's face appearing in target image I)/target image I About the scene Standard deviation of face appearance position obtained for the main photo slot|
Face size score 1=50−|10×(average face size obtained for main photo slot for scene of target image I−face size of hero appearing in target image I)/mainly for scene of target image I Standard deviation of face size obtained for photo slots|
Score 1 = (number of faces score 1 + face appearance position score 1 + face size score 1)/3

<Score for sub-picture slot>
Face number score 2=50−|10×(average number of faces obtained for the sub-photo slot for the scene of the target image I−the number of faces of the protagonist appearing in the target image I)/sub for the scene of the target image I Standard deviation of the number of faces obtained for photo slots|
Score of face appearance position 2=50−|10×(average of face appearance positions obtained for the sub-photo slot for the scene of the image of interest I−appearance position of the main character's face appearing in the image of interest I)/of the image of interest I About the scene Standard deviation of the face appearance position obtained for the sub photo slot|
Face size score 2=50-|10x (average face size obtained for the sub-photo slot for the scene of the target image I-the size of the hero's face appearing in the target image I)/sub for the scene of the target image I Standard deviation of face size obtained for photo slots|
Score 2=(number of faces score 2+face appearance position score 2+face size score 2)/3

Regarding the number of “faces of the hero appearing in the image of interest I”, in the line of the image ID corresponding to the image of interest I in the image analysis information of FIG. 11, the position of the upper left corner and the right of the personal ID corresponding to the hero ID If the position of the lower corner is registered, it is "1", and if it is not registered, it is "0". In addition, regarding the appearance position and size of the “face of the hero appearing in the image of interest I”, in the line of the image ID corresponding to the image of interest I in the image analysis information of FIG. 11, the personal ID corresponding to the hero ID is registered. It can be specified by referring to the upper left corner position and the lower right corner position.

Further, since it is preferable that the image used for the photo album is in focus, the score may be further added to the captured image with the focus=“◯” shown in FIG. 11. FIG. 14B shows an example of the score 1 for the main photo slot and the score 2 for the sub photo slot, which are obtained for the picked-up images corresponding to the respective image IDs.

<ステップS1011>
画像取得部902が取得した撮像画像群の全てをステップS1010で処理した場合には、処理はステップS1012に進む。一方、画像取得部902が取得した撮像画像群のうち未処理の撮像画像が残っている場合には、処理はステップS1010に戻る。
<Step S1011>
When all of the captured image groups acquired by the image acquisition unit 902 have been processed in step S1010, the process proceeds to step S1012. On the other hand, if an unprocessed captured image remains in the captured image group acquired by the image acquisition unit 902, the process returns to step S1010.

<ステップS1012>
入力部908は、指定部901が取得した情報のうち、フォトアルバムの見開きの数を取得する。そして見開き割当部909は、ステップS1006において分割したグループの数と、入力部908が取得した見開きの数と、が同じであるか否かを判定する。この判定の結果、同じである場合には、処理はステップS1016に進み、同じではない場合には、処理はステップS1013に進む。例えば、図12(A)の場合は、グループ分割数=8であるから、入力部908が取得した見開きの数=8であれば、処理はステップS1016に進むことになる。
<Step S1012>
The input unit 908 acquires the number of spreads of the photo album from the information acquired by the designating unit 901. Then, the double-page spread allocation unit 909 determines whether the number of groups divided in step S1006 and the number of double-page spreads acquired by the input unit 908 are the same. As a result of this determination, if they are the same, the process proceeds to step S1016, and if they are not the same, the process proceeds to step S1013. For example, in the case of FIG. 12A, since the number of divided groups=8, if the number of spreads acquired by the input unit 908=8, the process proceeds to step S1016.

<ステップS1013>
見開き割当部909は、ステップS1006において分割したグループの数X<入力部908が取得した見開きの数Yであるか否かを判断する。この判断の結果、X<Yであれば、処理はステップS1014に進み、X≧Yであれば、処理はステップS1015に進む。
<Step S1013>
The spread allocation unit 909 determines whether or not the number X of groups divided in step S1006<the number Y of spreads acquired by the input unit 908. As a result of this determination, if X<Y, the process proceeds to step S1014, and if X≧Y, the process proceeds to step S1015.

<ステップS1014>
見開き割当部909は、X=Yとなるべく、画像取得部902が取得した撮像画像群のグループ再分割(サブシーン分割)を行う。以下では具体的な例を挙げてステップS1014の処理を説明するために、図12(A)のように、X=8となっている状態において、Y=10であるケースを例にとる。この場合、図12(B)に示す如く、点線で示す部分で図12(A)のグループ1202及び1205を分割することで、10個のグループ1201〜1210を生成する。この点線の位置(分割基準線)の位置は、例えば、以下のようにして求める。
<Step S1014>
The two-page spread allocation unit 909 performs group re-division (sub-scene division) of the captured image group acquired by the image acquisition unit 902 so that X=Y. In order to explain the process of step S1014 using a specific example, a case where Y=10 in the state where X=8 as shown in FIG. 12A is taken as an example. In this case, as shown in FIG. 12B, the groups 1202 and 1205 of FIG. 12A are divided by the portion indicated by the dotted line to generate ten groups 1201 to 1210. The position of this dotted line (division reference line) is obtained as follows, for example.

先ず、図12(A)のグループ1201〜1208のそれぞれのグループのうち、撮像画像枚数が多いグループを特定する。X=8,Y=10の場合、2カ所に分割基準線を設ける必要があるため、グループ1201〜1208のそれぞれのグループのうち、撮像画像枚数が最も多いグループ及び2番目に多いグループの2つのグループを特定する。図12(A)の場合、撮像画像枚数が最も多いグループはグループ1205であり、2番目に多いグループはグループ1201及び1202である。ここで、グループ1201とグループ1202とでは撮像画像枚数は同じであるが、撮像期間がグループ1202の方がグループ1201よりも長い。然るにこの場合には、グループ1202を選択する。然るに、結果として、グループ1205及びグループ1202のそれぞれを2つのグループに分割する。 First, of the groups 1201 to 1208 in FIG. 12A, a group having a large number of captured images is specified. In the case of X=8 and Y=10, it is necessary to provide the division reference lines at two places, and therefore, of the groups 1201 to 1208, two groups, the group having the largest number of captured images and the group having the second largest number of captured images, are provided. Identify the group. In the case of FIG. 12A, the group having the largest number of captured images is the group 1205, and the groups having the second largest number are the groups 1201 and 1202. Here, although the number of captured images is the same in the groups 1201 and 1202, the imaging period of the group 1202 is longer than that of the group 1201. Therefore, in this case, the group 1202 is selected. Therefore, as a result, each of the group 1205 and the group 1202 is divided into two groups.

先ず、グループ1202の分割方法について説明する。図12(A)においてグループ1202には、撮像画像枚数のピークが2つ存在するためのその間の位置を分割基準線の位置とする。次に、グループ1205の分割方法について説明する。図12(A)においてグループ1205には、撮像画像枚数のピークが3つ存在するが、分割後の2つのグループ間で撮像画像枚数の差がより小さくなるようにする。したがって、ここでは、3つのピークの間の位置のうち右側の位置を分割基準線の位置とする。なお、ここでは撮影日の違う箇所で分割したが、撮像画像枚数が多い箇所が単一日であった場合は、単一日の中で時間差が最大の箇所で分割する。なお、本ステップにおけるグループ分割方法には様々なグループ分割方法を用いることができ、特定のグループ分割方法に限るものではない。 First, a method of dividing the group 1202 will be described. In FIG. 12A, there are two peaks of the number of captured images in the group 1202, and the position between them is the position of the division reference line. Next, a method of dividing the group 1205 will be described. In FIG. 12A, the group 1205 has three peaks in the number of captured images, but the difference in the number of captured images between the two groups after division is made smaller. Therefore, here, the position on the right side of the positions between the three peaks is the position of the division reference line. In addition, here, although division is performed at different locations on the shooting date, if the location where the number of captured images is large is a single day, division is performed at the location with the largest time difference in the single day. Various group dividing methods can be used as the group dividing method in this step, and the method is not limited to a specific group dividing method.

<ステップS1015>
見開き割当部909は、X=Yとなるべく、画像取得部902が取得した撮像画像群のグループ再分割(シーン統合)を行う。以下では具体的な例を挙げてステップS1015の処理を説明するために、図12(A)のように、X=8となっている状態において、Y=6であるケースを例にとる。この場合、幾つかのグループを統合して1つのグループとすることでグループ数を減らしてX=Yを達成する。図12(C)に示す如く、点線で示す部分で図12(A)のグループ1203及び1204を統合し、且つ図12(A)のグループ1207及び1208を統合することで、6個のグループ1201〜1206を生成する。この点線の位置(統合基準線)の位置は、例えば、以下のようにして求める。
<Step S1015>
The two-page spread allocation unit 909 performs group re-division (scene integration) of the captured image group acquired by the image acquisition unit 902 so that X=Y. In the following, in order to describe the process of step S1015 using a specific example, a case where Y=6 is set in the state where X=8 as shown in FIG. 12A. In this case, several groups are integrated into one group to reduce the number of groups and achieve X=Y. As shown in FIG. 12C, by combining the groups 1203 and 1204 in FIG. 12A and the groups 1207 and 1208 in FIG. ~ 1206 is generated. The position of this dotted line (integrated reference line) is obtained as follows, for example.

先ず、図12(A)のグループ1201〜1208のそれぞれのグループのうち、撮像画像枚数が少ないグループを特定する。X=8,Y=6の場合、2カ所に統合基準線を設ける必要があるため、グループ1201〜1208のそれぞれのグループのうち、撮像画像枚数が最も少ないグループ及び2番目に少ないグループの2つのグループを特定する。図12(A)の場合、撮像画像枚数が最も少ないグループはグループ1208であり、2番目に少ないグループはグループ1203及び1207である。ここで、グループ1203とグループ1207とでは撮像画像枚数は同じであるが、グループ1207は、統合対象となるグループ1208と隣接しているため、この場合には、グループ1203を選択する。然るに、結果として、グループ1203及びグループ1208のそれぞれを統合対象とする。 First, of the groups 1201 to 1208 in FIG. 12A, a group having a small number of captured images is specified. In the case of X=8 and Y=6, since it is necessary to provide integrated reference lines at two locations, two groups, the group having the smallest number of captured images and the group having the second smallest number of captured images, among the groups 1201 to 1208 are provided. Identify the group. In the case of FIG. 12A, the group having the smallest number of captured images is the group 1208, and the groups having the second smallest number are the groups 1203 and 1207. Here, the number of captured images is the same in the group 1203 and the group 1207, but the group 1207 is adjacent to the group 1208 to be integrated. In this case, therefore, the group 1203 is selected. Therefore, as a result, the groups 1203 and 1208 are integrated.

先ず、グループ1203の統合方法について説明する。グループ1203に隣接するグループ1202とグループ1204とでは、グループ1204の方が撮像期間が短い。そこで、グループ1203をグループ1204と統合することで、図12(C)のグループ1203を生成する。 First, a method of integrating the groups 1203 will be described. Among the groups 1202 and 1204 adjacent to the group 1203, the group 1204 has a shorter imaging period. Therefore, the group 1203 is integrated with the group 1204 to generate the group 1203 in FIG.

グループ1208については隣接しているグループはグループ1207のみであるため、グループ1208をグループ1207と統合することで、図12(C)のグループ1206を生成する。 Since only the group 1207 is adjacent to the group 1208, the group 1208 is integrated with the group 1207 to generate the group 1206 in FIG. 12C.

なお、本ステップにおけるグループ統合方法には様々なグループ統合方法を用いることができ、特定のグループ統合方法に限るものではない。 Various group integration methods can be used as the group integration method in this step, and the method is not limited to a specific group integration method.

<ステップS1016>
見開き割当部909は、入力部908が取得した見開きの数と同数のグループのそれぞれを、何れかの見開きに割り当てる。どの見開きにどのグループを割り当てるのかについては様々な形態とすることができるが、例えば、より先頭の見開きには、撮像日時(グループ中の任意の撮像画像の撮像日時)がより過去のグループを割り当てる。
<Step S1016>
The spread allocating unit 909 allocates each of the same number of groups as the number of spreads acquired by the input unit 908 to one of the spreads. Although various forms can be used for allocating which group to which spread, for example, a group whose imaging date and time (imaging date and time of an arbitrary captured image in a group) is assigned to a more front spread is assigned. ..

<ステップS1017>
画像選択部910は先ず、それぞれの見開きのうち未選択の見開きを1つ選択し、該選択した見開きに割り当てられたグループに属する撮像画像群のうち、該見開きにおいて表示対象となる撮像画像を選択する。図4の場合は、4枚の撮像画像を選択する。選択した見開きに割り当てられたグループに属する撮像画像群のうち、該見開きにおいて表示対象となる4枚の撮像画像を選択する処理について、図15を例にとり説明する。
<Step S1017>
The image selection unit 910 first selects one unselected spread among the spreads, and selects a captured image to be displayed in the spread from the captured image group belonging to the group assigned to the selected spread. To do. In the case of FIG. 4, four captured images are selected. A process of selecting four captured images to be displayed in the spread from the captured image group belonging to the group assigned to the selected spread will be described with reference to FIG. 15 as an example.

図15においてStartは、選択された見開きに割り当てられたグループ(着目グループ)に属する撮像画像群において最も過去に撮像された撮像画像の撮像日時を表している。Endは、着目グループに属する撮像画像群において最近撮像された撮像画像の撮像日時を表している。然るに、(End−Start)が、着目グループの撮像期間を表している。 In FIG. 15, Start represents the image pickup date and time of the imaged image captured in the earliest in the imaged image group belonging to the group (focused group) assigned to the selected spread. End represents the image capturing date and time of the captured image most recently captured in the captured image group belonging to the target group. Therefore, (End-Start) represents the imaging period of the target group.

先ず、着目グループに属する撮像画像群(図15(A))から、メイン写真スロットに配置する撮像画像を選択する。メイン写真スロットに配置する撮像画像としては、着目グループに属するそれぞれの撮像画像のうち、メイン写真スロット用の得点が最も高かった撮像画像を選択する。メイン写真スロットに配置する撮像画像として選択された撮像画像を、図15(B)において(1)として表している。 First, a picked-up image to be placed in the main photo slot is selected from the picked-up image group (FIG. 15A) belonging to the focused group. As the picked-up image to be placed in the main photo slot, the picked-up image having the highest score for the main photo slot is selected from the picked-up images belonging to the target group. The captured image selected as the captured image to be placed in the main photo slot is shown as (1) in FIG. 15(B).

次に、サブ写真スロットに配置する撮像画像(3枚)を、着目グループに属する撮像画像群から選択する。画像選択は撮像期間の一部に集中しないように、以下に説明するように撮像期間を細分化する工夫をする。 Next, the picked-up images (three) to be arranged in the sub-photo slot are selected from the picked-up image group belonging to the target group. In order not to concentrate the image selection on a part of the image pickup period, a device for subdividing the image pickup period is devised as described below.

先ず、サブ写真スロットに配置する1枚目の撮像画像を選択する。そのために先ず、図15(C)に示す如く、撮像期間を2つの分割期間に分割する。そして図15(D)に示す如く、2つの分割期間のうち、撮像画像(1)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像群のうちサブ写真スロット用の得点が最高の撮像画像を、サブ写真スロットに配置する撮像画像として選択する。サブ写真スロットに配置する1枚目の撮像画像として選択された撮像画像を、図15(D)において(2)として示している。 First, the first captured image to be placed in the sub-photo slot is selected. Therefore, first, as shown in FIG. 15C, the imaging period is divided into two divided periods. Then, as shown in FIG. 15D, of the two divided periods, for the sub-photograph slot, among the imaged image groups belonging to the remaining divided period (solid line) excluding the divided period (dotted line) to which the captured image (1) belongs The picked-up image with the highest score is selected as the picked-up image to be placed in the sub-photo slot. The captured image selected as the first captured image to be placed in the sub-photo slot is shown as (2) in FIG. 15D.

次に、サブ写真スロットに配置する2枚目の撮像画像を選択する。そのために先ず、図15(E)に示す如く、各分割期間を2つに分割することにより撮像期間を4つの分割期間に分割する。図15(F)に示す如く、4つの分割期間のうち撮像画像(1)及び(2)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像群のうちサブ写真スロット用の得点が最高の撮像画像をサブ写真スロットに配置する撮像画像として選択する。サブ写真スロットに配置する2枚目の撮像画像として選択された撮像画像を、図15(F)において(3)として示している。 Next, the second captured image to be placed in the sub-photo slot is selected. Therefore, first, as shown in FIG. 15E, the imaging period is divided into four divided periods by dividing each divided period into two. As shown in FIG. 15(F), a sub-photograph of the captured image group belonging to the remaining divided period (solid line) excluding the divided period (dotted line) to which the captured images (1) and (2) belong among the four divided periods. The picked-up image with the highest score for the slot is selected as the picked-up image to be placed in the sub-photo slot. The captured image selected as the second captured image to be placed in the sub-photo slot is shown as (3) in FIG. 15(F).

次に、サブ写真スロットに配置する3枚目の撮像画像を選択する。サブ写真スロットに配置する撮像画像を上記の4分割した分割期間のうち、撮像画像(1)〜(3)が属していない分割期間Gから撮像画像を選択するのであるが、ここで、図15(G)に斜線で示す如く、分割期間Gには何れの撮像画像も属していないとする。このような場合は、図15(H)に示す如く、撮像期間を8つの分割期間に分割する。図15(I)に示す如く、各分割期間を2つに分割することにより8つの分割期間とする。8つの分割期間のうち撮像画像(1)〜(3)が属する分割期間(点線)及び分割期間Gを省いた残りの分割期間(実線)に属する撮像画像群のうちサブ写真スロット用の得点が最高の撮像画像をサブ写真スロットに配置する撮像画像として選択する。サブ写真スロットに配置する3枚目の撮像画像として選択された撮像画像を、図15(I)において(4)として示している。 Next, the third captured image to be placed in the sub photo slot is selected. The picked-up image is selected from the divided period G to which the picked-up images (1) to (3) do not belong, among the divided periods obtained by dividing the picked-up image to be arranged in the sub-photograph slot into four, as shown in FIG. As indicated by the diagonal lines in (G), it is assumed that no captured image belongs to the divided period G. In such a case, as shown in FIG. 15(H), the imaging period is divided into eight divided periods. As shown in FIG. 15(I), each divided period is divided into two to make eight divided periods. Among the eight divided periods, the score for the sub-photograph slot is included in the captured image group belonging to the divided period (dotted line) to which the captured images (1) to (3) belong and the remaining divided period (solid line) excluding the divided period G. The highest captured image is selected as the captured image to place in the sub-photo slot. The picked-up image selected as the third picked-up image to be placed in the sub-photo slot is shown as (4) in FIG. 15(I).

<ステップS1018>
画像レイアウト部912は、画像レイアウトの決定のために、ステップS107で選択した画像を基にしてテンプレートを選択する。入力部911が入力したテンプレート群のうち、着目する見開きに適用するテンプレートを、該着目する見開きについて選択した撮像画像に基づいて選択する。以下では具体例を挙げてステップS1018における処理を説明するために、入力部911は、図16(A)の(1−1)〜(4−4)の16枚のテンプレートを入力したとする。なお、ステップS1017ではメイン写真スロット用に1枚の撮像画像、サブ写真スロット用に2枚の撮像画像を選択しているとする。この場合は、図16(A)に示すように写真スロットの数が3のテンプレート群を候補とする。ここで、ステップS1017にて選択した3枚の撮像画像を撮像日時が古いものから順に左から並べると、図16(B)に示す如く、縦長(縦向き)の画像1606、横長(横向き)の画像1607、縦長(縦向き)の画像1605であったとする。なお、画像1606及び1607はサブ写真スロットに配置する撮像画像であり、画像1605はメイン写真スロットに配置する撮像画像である。
<Step S1018>
The image layout unit 912 selects a template based on the image selected in step S107 to determine the image layout. From the template group input by the input unit 911, a template to be applied to the focused spread is selected based on the captured image selected for the focused spread. In the following, in order to describe the process in step S1018 using a specific example, it is assumed that the input unit 911 inputs 16 templates (1-1) to (4-4) in FIG. 16A. In step S1017, it is assumed that one captured image for the main photo slot and two captured images for the sub photo slot are selected. In this case, as shown in FIG. 16A, a template group having three photo slots is set as a candidate. Here, when the three picked-up images selected in step S1017 are arranged from the left in order from the oldest picked-up date and time, as shown in FIG. 16B, a vertically long (vertical) image 1606 and a horizontally long (horizontal) image are displayed. It is assumed that the image 1607 is a vertically long (vertical) image 1605. Images 1606 and 1607 are captured images arranged in the sub-photo slot, and image 1605 is a captured image arranged in the main photo slot.

次に、その候補から、テンプレート内のメインスロットの位置が、着目シーンの選択された画像群におけるメインスロット用画像の時系列的な位置に対応しているテンプレートを選択する。本実施形態では、テンプレートの左上に撮影日時のより古い画像、右下に撮影日時のより新しい画像をレイアウトするものとする。図16(B)に示す如く、メイン写真スロットに配置する縦長の画像1605の撮像日時が最近であるため、右下に最近の撮像日時の縦長のメイン写真スロット用の画像を配置するレイアウトは、(3−1)〜(3−4)の何れかが候補として残る。 Next, a template is selected from the candidates in which the position of the main slot in the template corresponds to the time-series position of the main slot image in the selected image group of the scene of interest. In this embodiment, it is assumed that an image with an older shooting date and time is laid out in the upper left of the template and an image with a newer shooting date and time is laid out in the lower right. As shown in FIG. 16B, since the vertical image 1605 to be placed in the main photo slot has the latest image pickup date and time, the layout for arranging the image for the vertically long main photo slot with the latest image pickup date and time in the lower right is as follows. Any of (3-1) to (3-4) remains as a candidate.

また、撮像日時が最も古い画像は縦長のサブ写真スロット用の画像1606であり、左上に最も古い撮像日時の縦長のサブ写真スロット用の画像を配置するレイアウトは、(3−1)、(3−2)の何れかが候補として残る。 Further, the image with the oldest imaging date and time is the image 1606 for the vertically long sub photo slot, and the layout for arranging the image for the vertically long sub photo slot with the oldest imaging date and time is (3-1), (3 -2) remains as a candidate.

また、撮像日時が2番目に古い画像は横長のサブ写真スロット用の画像1607であり、左上及び右下以外に2番目に古い撮像日時の横長のサブ写真スロット用の画像を配置するレイアウトは、(3−2)のみである。 Also, the image with the second oldest imaging date and time is the image 1607 for the horizontally long sub photo slot, and the layout for arranging the image for the horizontally long sub photo slot with the second oldest imaging date and time is other than the upper left and lower right corners. Only (3-2).

然るに、この場合は、(3−2)のレイアウトを、着目する見開きに適用するテンプレートとして選択する。なお、着目する見開きに適用するテンプレートの選択方法は上記の方法に限るものではなく、他の方法を採用しても構わない。 Therefore, in this case, the layout of (3-2) is selected as the template to be applied to the spread of interest. The method of selecting the template applied to the spread of interest is not limited to the above method, and another method may be adopted.

<ステップS1019>
画像補正部914は、入力部913が取得したフラグ値が、画像補正を実施することを示す値である場合には、ステップS1017において画像選択部910が選択した撮像画像に対して、覆い焼き補正、赤目補正、コントラスト補正等の補正処理を施す。もちろん、画像補正部914は、入力部913が取得したフラグ値が、画像補正を実施しないことを示す値である場合には、補正処理は実行しない。
<Step S1019>
When the flag value acquired by the input unit 913 is a value indicating that image correction is to be performed, the image correction unit 914 corrects the dodging of the captured image selected by the image selection unit 910 in step S1017. , Correction processing such as red-eye correction and contrast correction is performed. Of course, the image correction unit 914 does not execute the correction process when the flag value acquired by the input unit 913 is a value indicating that the image correction is not performed.

<ステップS1020>
出力部915は、ステップS1018で選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに対してステップS1017で選択された撮像画像を、該写真スロットのサイズにリサイズして配置した「見開きのページの画像」を生成する。そして出力部915は、この生成した「見開きのページの画像」をレイアウト情報として出力する。出力先は表示部205であっても良いし、HDD202であっても良い。
<Step S1020>
The output unit 915 resizes the captured image selected in step S1017 for the photo slot in each photo slot on the template selected in step S1018 to the size of the photo slot and arranges the “page spread”. Image of ". Then, the output unit 915 outputs the generated “image of the two-page spread” as layout information. The output destination may be the display unit 205 or the HDD 202.

<ステップS1021>
ステップS1017において全ての見開きを選択した場合には、図10のフローチャートに従った処理は終了する。一方、未選択の見開きが残っている場合には、処理はステップS1017に戻る。
<Step S1021>
If all the spreads are selected in step S1017, the process according to the flowchart of FIG. 10 ends. On the other hand, when there is an unselected spread, the process returns to step S1017.

以上説明した、図10のフローチャートに従った処理を行うことで、各見開きの写真スロットに撮像画像が配置されたフォトアルバムを作成することができる。次に、図15に示した画像選択方法でもって選択された4枚の画像がレイアウトされた見開きの画像がウィンドウ401の表示領域403内に表示されている場合に、ユーザが操作部203を操作して任意の写真スロットを指定した場合について説明する。 By performing the processing according to the flowchart of FIG. 10 described above, it is possible to create a photo album in which captured images are arranged in the photo slots of each spread. Next, when the spread image in which the four images selected by the image selection method shown in FIG. 15 are laid out is displayed in the display area 403 of the window 401, the user operates the operation unit 203. Then, the case where an arbitrary photo slot is designated will be described.

図17(A)は、図15(I)のように撮像画像(1)〜(4)がメイン写真スロット用及びサブ写真スロット用に選択されており、このような状態において、撮像画像(3)の写真スロットがユーザが操作部203を操作して指定した場合を示している。すなわち、図17(A)では、撮像画像(3)が候補起点画像となっている。撮像画像(3)が候補起点画像となった場合、該候補起点画像の撮像日時の近傍範囲1701に属する撮像画像が、候補撮像画像として選択されることになる。ここでいう撮像画像(3)の近傍範囲は、図15(I)の撮像画像(3)を含む分割期間に対応する。すなわち、本実施形態では、見開きに対する最後の画像を選択したときの分割期間のうち起点画像を含む分割期間を「近傍範囲」とする。図17(A)では、近傍範囲1701に属する撮像画像のうち撮像画像(5)及び(6)が候補撮像画像として選択されている。なお、撮像画像(5)及び(6)の選択方法には様々な方法を用いることができ、特定の方法に限るものではない。例えば、近傍範囲1701に属する撮像画像(撮像画像(3)以外)からランダムに2つを選択しても構わないし、近傍範囲1701内で撮像画像(3)の撮像日時から最も遠い2つの撮像画像を選択しても構わない。また、近傍範囲1701に属する撮像画像から、撮像画像(3)とは異なる人物が写っている撮像画像や、撮像画像(3)とは異なる構図の撮像画像、を候補撮像画像として選択しても構わない。 In FIG. 17A, the captured images (1) to (4) are selected for the main photo slot and the sub photo slot as shown in FIG. 15I, and in such a state, the captured image (3 ) Shows the case where the user operates the operation unit 203 to specify the photo slot. That is, in FIG. 17A, the captured image (3) is the candidate starting point image. When the picked-up image (3) is the candidate starting point image, the picked-up image belonging to the range 1701 near the picked-up date and time of the candidate starting point image is selected as the candidate picked-up image. The neighborhood range of the captured image (3) here corresponds to a divided period including the captured image (3) of FIG. 15(I). That is, in the present embodiment, the divided period including the starting image among the divided periods when the last image for the spread is selected is set as the “neighborhood range”. In FIG. 17A, captured images (5) and (6) among the captured images belonging to the neighborhood range 1701 are selected as candidate captured images. Note that various methods can be used as the method of selecting the captured images (5) and (6), and the selection method is not limited to a specific method. For example, two captured images may be randomly selected from the captured images (other than the captured image (3)) belonging to the neighboring range 1701, or the two captured images farthest from the captured date and time of the captured image (3) within the neighboring range 1701. May be selected. Further, even if a picked-up image of a person different from the picked-up image (3) or a picked-up image having a composition different from that of the picked-up image (3) is selected as a candidate picked-up image from the picked-up images belonging to the neighborhood range 1701. I do not care.

なお、ここでは候補撮像画像として2枚の撮像画像を選択する例を示したが、候補撮像画像として選択する撮像画像の枚数は2に限らず、任意の数でも構わない。ここで、図7(d)に示すように4つの候補撮像画像を表示する場合について説明する。本実施形態では、上の2つの候補撮像画像を第1の評価方法でスコアの高いものとし、下の2つの候補撮像画像を第2の評価方法でスコアの高いものとする。これにより、本実施形態では、異なる趣でスコアの高い画像を候補画像として表示することができる。 Although an example in which two captured images are selected as the candidate captured images is shown here, the number of captured images selected as the candidate captured images is not limited to 2 and may be any number. Here, a case where four candidate captured images are displayed as shown in FIG. 7D will be described. In the present embodiment, the upper two candidate picked-up images have a high score by the first evaluation method, and the lower two candidate picked-up images have a high score by the second evaluation method. As a result, in the present embodiment, images having different scores and high scores can be displayed as candidate images.

このように、何れの選択方法を採用しても、候補撮像画像は、候補起点画像と同じ分割期間(撮像日時が比較的近い撮像画像群)から選択されるので、ページ内の時系列を崩すことなくユーザは簡単に画像を入れ替えることが可能となる。 In this way, no matter which selection method is adopted, the candidate captured image is selected from the same divided period (a group of captured images whose image capturing dates and times are relatively close) as the candidate starting image, so that the time series in the page is destroyed. Without this, the user can easily replace the image.

次に、上記の前ボタンや後ボタンを指示することで、候補撮像画像を切り替える場合について説明する。現在、候補撮像画像として撮像画像(5)及び(6)が表示されているとする。このとき、ユーザが操作部203を操作して前ボタンを指示すると、図17(B)に示す如く、上記の順序において撮像画像(3)よりも前の撮像画像である撮像画像(2)が候補起点画像となる。そして、撮像画像(2)の撮像日時の近傍範囲1702(分割期間1702)に属する撮像画像が、候補撮像画像として選択されることになる。図17(B)では、近傍範囲1702に属する撮像画像のうち撮像画像(7)及び(8)が候補撮像画像として選択されている。また現在、候補撮像画像として撮像画像(5)及び(6)が表示されている状態において、ユーザが操作部203を操作して後ボタンを指示したとする。このとき、図17(B)に示す如く、上記の順序において撮像画像(3)よりも後の撮像画像である撮像画像(1)が候補起点画像となる。そして、撮像画像(1)の撮像日時の近傍範囲1703(分割期間1703)に属する撮像画像が、候補撮像画像として選択されることになる。図17(B)では、近傍範囲1703に属する撮像画像のうち撮像画像(9)及び(10)が候補撮像画像として選択されている。
上述した方法により、任意の画像を他の画像に置き換える場合において、該他の画像の候補として好適な画像を表示することができる。
本実施形態では、画像スロットで現在割り当てられている画像の近傍の画像を候補画像として表示する。これにより、画像をレイアウトする際にスロットに適した画像をユーザが容易に選択することができる。本実施形態では、入替対象スロットの近傍の画像を候補画像として表示する。具体的には、入替対象スロットと同一撮影期間から候補画像を選定して表示する。これにより、ユーザはページ内の時系列を崩すことなく簡単に画像を入れ替えることができる。
さらに、入れ替え候補画像の次の候補を選定して表示する際にも、時間的に前のスロットの近傍範囲から候補画像を選択することにより、ユーザは容易にページ内の時系列を大きく崩すことなく画像を入れ替えることができる。
Next, a case will be described where the candidate captured images are switched by instructing the front button or the rear button. It is assumed that currently captured images (5) and (6) are displayed as candidate captured images. At this time, when the user operates the operation unit 203 to instruct the front button, as shown in FIG. 17B, the captured image (2) which is the captured image before the captured image (3) in the above order is displayed. It becomes a candidate starting point image. Then, the captured image belonging to the neighborhood range 1702 (divided period 1702) of the captured date and time of the captured image (2) is selected as the candidate captured image. In FIG. 17B, the captured images (7) and (8) among the captured images belonging to the neighborhood range 1702 are selected as the candidate captured images. In addition, it is assumed that the user operates the operation unit 203 to instruct the rear button while the captured images (5) and (6) are currently displayed as the candidate captured images. At this time, as shown in FIG. 17B, the captured image (1) which is the captured image after the captured image (3) in the above order becomes the candidate starting point image. Then, the captured image belonging to the neighborhood range 1703 (divided period 1703) of the captured date and time of the captured image (1) is selected as the candidate captured image. In FIG. 17B, the captured images (9) and (10) among the captured images belonging to the neighborhood range 1703 are selected as candidate captured images.
By the method described above, when replacing an arbitrary image with another image, an image suitable as a candidate for the other image can be displayed.
In the present embodiment, an image near the image currently assigned in the image slot is displayed as a candidate image. This allows the user to easily select an image suitable for the slot when laying out the image. In the present embodiment, an image near the replacement target slot is displayed as a candidate image. Specifically, candidate images are selected and displayed from the same shooting period as the replacement target slot. This allows the user to easily replace the images without breaking the time series in the page.
Furthermore, when selecting and displaying the next candidate of the replacement candidate image, the user can easily break the time series in the page by selecting the candidate image from the neighborhood range of the slot that is previous in time. You can swap images without.

[第2の実施形態]
以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では図17(B)に示す如く、候補撮像画像として撮像画像(5)及び(6)が表示されている状態において前ボタンが指示されると、撮像画像(2)が候補起点画像となり、近傍範囲1702に属する(撮影期間1702に対応する)撮像画像が候補撮像画像として選択される。本実施形態では、図18に示す如く、候補撮像画像として撮像画像(5)及び(6)が表示されている状態において前ボタンが指示されると、近傍範囲1701と近傍範囲1702との間の範囲1801に属する撮像画像が候補撮像画像として選択される。図18では、範囲1801に属する撮像画像のうち、撮像画像(7’)及び(8’)が、候補撮像画像として選択されている。一方、後候補ボタンを押された場合、実施形態1と同様に、候補画像の選択範囲を撮影期間1703とする。これは、撮影期間1802に画像がないためであり、撮影期間(c)に画像がある場合は、撮影期間(c)から画像を選定する。すなわち、本実施形態では、入替対象スロットに配置されている画像が属する撮影期間よりも1つ後の撮影期間から、候補画像を選定して表示する。撮影期間からの候補画像の選定方法は、実施形態1と同様であるため、説明を省略する。
[Second Embodiment]
Hereinafter, the difference from the first embodiment will be mainly described, and unless otherwise stated below, it is assumed to be the same as the first embodiment. In the first embodiment, as shown in FIG. 17B, when the front button is instructed while the captured images (5) and (6) are displayed as candidate captured images, the captured image (2) becomes the candidate. The captured image that becomes the starting point image and belongs to the near range 1702 (corresponding to the capturing period 1702) is selected as a candidate captured image. In the present embodiment, as shown in FIG. 18, when the front button is instructed in the state where captured images (5) and (6) are displayed as candidate captured images, the area between the near range 1701 and the near range 1702 is displayed. A captured image belonging to the range 1801 is selected as a candidate captured image. In FIG. 18, among the captured images belonging to the range 1801, captured images (7′) and (8′) are selected as candidate captured images. On the other hand, when the subsequent candidate button is pressed, the selection range of the candidate image is set to the shooting period 1703 as in the first embodiment. This is because there is no image in the shooting period 1802. If there is an image in the shooting period (c), the image is selected from the shooting period (c). That is, in the present embodiment, the candidate image is selected and displayed from the shooting period that is one behind the shooting period to which the image arranged in the replacement target slot belongs. The method of selecting the candidate image from the shooting period is the same as that in the first embodiment, and thus the description is omitted.

次に、領域405a〜405dのそれぞれに撮像画像が配置されている状態において、領域405a〜405dのうちユーザが指定した領域に配置可能な画像の候補を一覧表示させるための処理について、図6のフローチャートに従って説明する。すなわち、本実施形態では、図5のフローチャートに従った処理を行う代わりに、図6のフローチャートに従った処理を行う点が、第1の実施形態と異なる。 Next, with respect to the processing for displaying a list of image candidates that can be arranged in the area designated by the user among the areas 405a to 405d in the state where the captured images are arranged in the areas 405a to 405d, respectively, of FIG. It will be described according to the flowchart. That is, the present embodiment differs from the first embodiment in that the process according to the flowchart of FIG. 6 is performed instead of performing the process according to the flowchart of FIG.

<ステップS1901>
CPU204は、領域405a〜405dのうち何れか1つの選択操作を受け付ける。
<Step S1901>
The CPU 204 receives a selection operation of any one of the areas 405a to 405d.

<ステップS1902>
CPU204は、入替対象スロットに表示中の撮像画像の撮像日時の近傍範囲を、抽出時間範囲に設定する。
<Step S1902>
The CPU 204 sets, as the extraction time range, the neighborhood range of the imaging date and time of the captured image being displayed in the replacement target slot.

<ステップS1903>
CPU204は、候補起点画像の代わりに入替対象スロットに配置可能な撮像画像の候補(候補画像)を、抽出時間範囲に属する撮像画像から探す(リストアップする)。
<Step S1903>
The CPU 204 searches for (lists up) a picked-up image candidate (candidate image) that can be arranged in the replacement target slot instead of the candidate start-point image, from the picked-up images belonging to the extraction time range.

<ステップS1904>
CPU204は、ステップS1903においてリストアップした候補画像を含むウィンドウを表示部205に表示させる。
<Step S1904>
The CPU 204 causes the display unit 205 to display a window including the candidate images listed in step S1903.

<ステップS1905>
CPU204は、前ボタン510(前候補ボタン)が指定されたか否かを判定する。この判定の結果、指定された場合には、処理はステップS1906に進み、指定されていない場合には、処理はステップS1907に進む。
<Step S1905>
The CPU 204 determines whether or not the previous button 510 (previous candidate button) is designated. If the result of this determination is that it has been designated, the processing proceeds to step S1906, and if it has not been designated, the processing proceeds to step S1907.

<ステップS1906>
CPU204は、抽出時間範囲に隣接し且つ日時が過去の時間範囲を、新たな抽出時間範囲に設定する。そして処理はステップS1903に戻る。
<Step S1906>
The CPU 204 sets a time range adjacent to the extraction time range and having a date and time in the past as a new extraction time range. Then, the process returns to step S1903.

<ステップS1907>
CPU204は、後ボタン511(後候補ボタン)が指定されたか否かを判定する。この判定の結果、指定された場合には、処理はステップS1908に進み、指定されていない場合には、処理はステップS1909に進む。
<Step S1907>
The CPU 204 determines whether or not the rear button 511 (rear candidate button) is designated. If the result of this determination is that it has been designated, the processing proceeds to step S1908, and if it has not been designated, the processing proceeds to step S1909.

<ステップS1908>
CPU204は、抽出時間範囲に隣接し且つ日時が新しい時間範囲を、新たな抽出時間範囲に設定する。そして処理はステップS1903に戻る。
<Step S1908>
The CPU 204 sets a time range adjacent to the extraction time range and having a new date and time as a new extraction time range. Then, the process returns to step S1903.

<ステップS1909>
CPU204は、表示中のウィンドウ内のそれぞれの候補撮像画像のうち何れか1つをユーザが操作部203を操作して選択したか否かを判断する。この判断の結果、選択した場合には、処理はステップS1910に進み、選択していない場合には、ステップS1904に戻る。
<Step S1909>
The CPU 204 determines whether or not the user operates the operation unit 203 to select one of the candidate captured images in the displayed window. If the result of this determination is that it has been selected, processing advances to step S1910, and if it has not been selected, processing returns to step S1904.

<ステップS1910>
CPU204は、入替対象スロットに表示中の撮像画像に代えて、ユーザが操作部203を操作して選択した候補撮像画像を、該入替対象スロットに表示(配置)する。
本実施形態では、画像スロットで現在割り当てられている画像の近傍の画像を候補画像として表示する。これにより、画像をレイアウトする際にスロットに適した画像をユーザが容易に選択することができる。本実施形態では、入替対象スロットの近傍の画像を候補画像として表示する。具体的には、入替対象スロットと同一撮影区間から候補画像を選定して表示する。これにより、ユーザはページ内の時系列を崩すことなく簡単に画像を入れ替えることができる。さらに、入れ替え候補画像の次の候補を選定して表示する際にも、時間的に隣接する前の撮影期間から候補画像を選択することにより、ユーザは容易にページ内の時系列を大きく崩すことなく画像を入れ替えることができる。
<Step S1910>
The CPU 204 displays (places) the candidate captured image selected by the user operating the operation unit 203 in the replacement target slot, instead of the captured image being displayed in the replacement target slot.
In the present embodiment, an image near the image currently assigned in the image slot is displayed as a candidate image. This allows the user to easily select an image suitable for the slot when laying out the image. In the present embodiment, an image near the replacement target slot is displayed as a candidate image. Specifically, the candidate image is selected and displayed from the same shooting section as the replacement target slot. This allows the user to easily replace the images without breaking the time series in the page. Further, even when the next candidate of the replacement candidate image is selected and displayed, the user can easily break the time series in the page by selecting the candidate image from the previous shooting period temporally adjacent to each other. You can swap the images without.

[第3の実施形態]
第1、2の実施形態では上記の通り、図5、6のフローチャートに従った処理は、図10のフローチャートに従った処理によって生成されたフォトアルバムを使用することを前提としていた。しかし、撮像画像群を撮像日時に基づいて見開きの数と同数のグループに分割し、それぞれの見開きに該グループを割り当てているフォトアルバムであれば良く、他の処理によって生成されたフォトアルバムを使用しても構わない。
[Third Embodiment]
As described above, in the first and second embodiments, the processing according to the flowcharts of FIGS. 5 and 6 is based on the premise that the photo album generated by the processing according to the flowchart of FIG. 10 is used. However, the captured image group may be divided into the same number of spreads as the number of spreads based on the shooting date and time, and the photo album may be assigned to each spread, and the photo album generated by other processing may be used. It doesn't matter.

また、第1、2の実施形態で説明した、図5、6のフローチャートに従った処理は、フォトアルバムにおいて一覧表示されている撮像画像を他の撮像画像に置き換えるものであった。しかし、撮像画像群を撮像日時に基づいて複数のグループに分割してそのうちの1つのグループに属する撮像画像を表示するようなケースにおいても、図5,6のフローチャートに従った処理を適宜変形すれば、対応することができる。すなわち、この場合、表示中の撮像画像の入れ替え候補を、該表示中の撮像画像が属するグループから選択してユーザに提示することになる。 Further, the processing according to the flowcharts of FIGS. 5 and 6 described in the first and second embodiments replaces the captured images listed in the photo album with another captured image. However, even in the case where the captured image group is divided into a plurality of groups based on the capturing date and time and the captured images belonging to one of the groups are displayed, the processing according to the flowcharts of FIGS. If you can, you can. That is, in this case, a replacement candidate for the displayed captured image is selected from the group to which the displayed captured image belongs and presented to the user.

すなわち、図5、6のフローチャートに従った処理は、何もフォトアルバムを作成してPC2にアップロードするための目的で行うことに限ったものではなく、様々な状況、様々な目的で使用されうるものである。 That is, the processing according to the flowcharts of FIGS. 5 and 6 is not limited to the purpose of creating a photo album and uploading it to the PC 2, but may be used in various situations and for various purposes. It is a thing.

[第4の実施形態]
PC1,PC2の代わりに同等の処理を実現可能な装置であれば、如何なる装置を用いても構わない。例えば、PC1の代わりに、タブレット端末装置やスマートフォンなどの機器を用いても構わない。
[Fourth Embodiment]
Instead of PC1 and PC2, any device may be used as long as it can realize the same processing. For example, instead of the PC 1, a device such as a tablet terminal device or a smartphone may be used.

[第5の実施形態]
領域405a〜405dのそれぞれは画像だけを配置するものに限らず、テキストを配置するものであっても良い。また、上記の実施形態では、画像や文字などを配置するための領域(領域405a〜405d)をオブジェクトとしている。しかし、単に画像上に表示された人などの被写体をオブジェクトとしても良く、画面上に表示されうるものであれば、如何なるものをオブジェクトとしても構わない。
[第6の実施形態]
図17の撮像画像(4)や図18の撮像画像(4)が入れ替え対象の画像として選択された場合のように、次の撮影期間が存在しない場合もある。この場合は、次の撮影期間を指定する為のUI表示を行わない(後ボタン511の表示を行わない)など、ユーザの指定を抑制するようにしてもよい。また、ユーザの指定を抑制せず、ユーザの指定があった場合は、Start側の時間帯から候補画像を表示するようにしてもよい。ここでは、最後の撮影期間の画像が入れ替え対象だった場合を例に挙げて説明したが、逆に、先頭の撮影期間の画像が入れ替え対象だった場合も同様である。
[第7の実施形態]
前ボタン510及び後ボタン511のうちいずれか一方のみを表示するようにしてもよい。前の撮影期間又は後の撮影期間のみに次候補の画像を表示できる場合であっても、ユーザの利便性は高まる。
[Fifth Embodiment]
Each of the areas 405a to 405d is not limited to the one in which only an image is arranged, but may be one in which text is arranged. Further, in the above-described embodiment, the areas (areas 405a to 405d) for arranging images and characters are objects. However, a subject such as a person displayed on the image may be an object, and any object that can be displayed on the screen may be an object.
[Sixth Embodiment]
In some cases, such as when the picked-up image (4) in FIG. 17 or the picked-up image (4) in FIG. 18 is selected as an image to be replaced, the next shooting period does not exist. In this case, the user's designation may be suppressed by not displaying the UI for designating the next shooting period (not displaying the rear button 511). Further, the user's designation may be suppressed, and the candidate image may be displayed from the Start time zone when the user's designation is made. Here, the case where the image in the last shooting period is the replacement target has been described as an example, but the same applies to the case where the image in the first shooting period is the replacement target.
[Seventh Embodiment]
Only one of the front button 510 and the rear button 511 may be displayed. Even if the next candidate image can be displayed only in the previous shooting period or the subsequent shooting period, the convenience for the user is enhanced.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

201:RAM 202:HDD 203:操作部 204:CPU 205:表示部 201: RAM 202: HDD 203: Operation part 204: CPU 205: Display part

Claims (12)

コンピュータを、
複数の画像データを含む画像データ群を取得する取得手段、
前記複数の画像データを複数のグループに分割する分割手段、
前記複数のグループのうち所定のグループに含まれる画像データに基づく画像を、該所定のグループに対応するページのスロットに配置したレイアウト画像を表示させるレイアウト表示制御手段、
前記レイアウト画像に配置されている第1画像の撮影日時が含まれる所定の時間範囲に撮影日時が含まれる画像を候補画像として含む第1候補画面を表示させる第1の表示制御手段
前記所定の時間範囲よりも前の時間範囲と、前記所定の時間範囲よりも後の時間範囲と、のうち少なくとも何れかの時間範囲に撮影日時が含まれる画像を候補画像として含む第2候補画面を表示させる第2の表示制御手段、
前記第1候補画面から前記第2候補画面へ変更する変更手段、
前記候補画像の中からユーザにより選択された候補画像を配置する配置手段
として機能させるためのプログラムであって、
前記所定の時間範囲、及び、前記少なくとも何れかの時間範囲は、前記所定のグループの撮影期間に含まれることを特徴とするプログラム。
Computer,
Acquisition means for acquiring an image data group including a plurality of image data,
Dividing means for dividing the plurality of image data into a plurality of groups,
A layout display control means for displaying a layout image in which an image based on image data included in a predetermined group of the plurality of groups is displayed in a slot of a page corresponding to the predetermined group ,
First display control means for displaying a first candidate screen including, as a candidate image , an image including a shooting date and time within a predetermined time range including a shooting date and time of the first image arranged in the layout image ,
A second candidate screen including, as a candidate image, an image including a shooting date and time in at least one of a time range before the predetermined time range and a time range after the predetermined time range. Second display control means for displaying
Changing means for changing from the first candidate screen to the second candidate screen,
Arrangement means for arranging a candidate image selected by the user from the candidate images
It is a program to function as
The program, wherein the predetermined time range and at least one of the time ranges are included in a shooting period of the predetermined group.
前記少なくとも何れかの時間範囲は、前記第2候補画面に含まれる候補画像のうち前記第1画像とは異なる第2画像の撮像日時を含む時間範囲、若しくは前記所定の時間範囲と前記第2画像の撮影日時とを含む時間範囲であることを特徴とする請求項1に記載のプログラムThe at least any one of the time ranges includes a time range including a date and time when a second image of the candidate images included in the second candidate screen is different from the first image , or the predetermined time range and the second image. The program according to claim 1, wherein the program is a time range including the shooting date and time . 前記レイアウト表示制御手段は、
前記所定のグループに含まれている画像データ群のうち規定の基準を満たす画像データに基づく画像を、第1スロットに配置し、
前記所定のグループに含まれている画像データ群のうち前記規定の基準を満たす画像データ、以外の画像データを、前記第1スロットよりもサイズが小さい第2スロットに配置することを特徴とする請求項1または2に記載のプログラム
The layout display control means,
An image based on image data satisfying a predetermined criterion of the image data group included in the predetermined group is arranged in the first slot ,
The image data other than the image data satisfying the specified standard among the image data group included in the predetermined group is arranged in the second slot smaller in size than the first slot. The program according to Item 1 or 2 .
前記所定のグループに対応するページは、見開きページであることを特徴とする請求項1乃至3の何れか1項に記載のプログラム。The program according to claim 1, wherein the page corresponding to the predetermined group is a spread page. 前記コンピュータを、前記画像データ群の中の画像データに含まれるオブジェクトを検出する検出手段としてさらに機能させることを特徴とする請求項1乃至3の何れか1項に記載のプログラム。4. The program according to claim 1, further causing the computer to function as a detection unit that detects an object included in the image data in the image data group. 前記検出手段は、人物以外の動物を検出可能であることを特徴とする請求項5に記載のプログラム。The program according to claim 5, wherein the detection means can detect animals other than humans. 複数の画像データを含む画像データ群を取得する取得工程と、
前記複数の画像データを複数のグループに分割する分割工程と、
前記複数のグループのうち所定のグループに含まれる画像データに基づく画像を、該所定のグループに対応するページのスロットに配置したレイアウト画像を表示させるレイアウト表示制御工程と、
前記レイアウト画像に配置されている第1画像の撮影日時が含まれる所定の時間範囲に撮影日時が含まれる画像を候補画像として含む第1候補画面を表示させる第1の表示制御工程と
前記所定の時間範囲よりも前の時間範囲と、前記所定の時間範囲よりも後の時間範囲と、のうち少なくとも何れかの時間範囲に撮影日時が含まれる画像を候補画像として含む第2候補画面を表示させる第2の表示制御工程と、
前記第1候補画面から前記第2候補画面へ変更する変更工程と、
前記候補画像の中からユーザにより選択された候補画像を配置する配置工程と
を備え
前記所定の時間範囲、及び、前記少なくとも何れかの時間範囲は、前記所定のグループの撮影期間に含まれることを特徴とする画像処理方法。
An acquisition step of acquiring an image data group including a plurality of image data,
A dividing step of dividing the plurality of image data into a plurality of groups,
A layout display control step of displaying a layout image in which an image based on image data included in a predetermined group of the plurality of groups is displayed in a slot of a page corresponding to the predetermined group ;
A first display control step of displaying a first candidate screen including, as a candidate image , an image including a shooting date and time within a predetermined time range including a shooting date and time of the first image arranged in the layout image ,
A second candidate screen including, as a candidate image, an image including a shooting date and time in at least one of a time range before the predetermined time range and a time range after the predetermined time range. A second display control step for displaying
A changing step of changing from the first candidate screen to the second candidate screen;
An arranging step of arranging a candidate image selected by the user from the candidate images ,
It said predetermined time range, and, wherein at least one of time range, the image processing method comprising Rukoto included in the shooting period of the predetermined group.
前記少なくとも何れかの時間範囲は、前記第2候補画面に含まれる候補画像のうち前記第1画像とは異なる第2画像の撮像日時を含む時間範囲、若しくは前記所定の時間範囲と前記第2画像の撮影日時とを含む時間範囲であることを特徴とする請求項7に記載の画像処理方法。The at least any one of the time ranges includes a time range including a date and time when a second image of the candidate images included in the second candidate screen is different from the first image, or the predetermined time range and the second image. The image processing method according to claim 7, wherein the time range includes the shooting date and time of. 前記レイアウト表示制御工程では、In the layout display control step,
前記所定のグループに含まれている画像データ群のうち規定の基準を満たす画像データに基づく画像を、第1スロットに配置し、An image based on image data satisfying a predetermined criterion of the image data group included in the predetermined group is arranged in the first slot,
前記所定のグループに含まれている画像データ群のうち前記規定の基準を満たす画像データ、以外の画像データを、前記第1スロットよりもサイズが小さい第2スロットに配置することを特徴とする請求項7または8に記載の画像処理方法。The image data other than the image data satisfying the specified standard among the image data group included in the predetermined group is arranged in the second slot smaller in size than the first slot. Item 9. The image processing method according to Item 7 or 8.
前記所定のグループに対応するページは、見開きページであることを特徴とする請求項7乃至9の何れか1項に記載の画像処理方法。The image processing method according to claim 7, wherein the page corresponding to the predetermined group is a spread page. 前記画像データ群の中の画像データに含まれるオブジェクトを検出する検出工程を更に備えることを特徴とする請求項7乃至9の何れか1項に記載の画像処理方法。The image processing method according to claim 7, further comprising a detection step of detecting an object included in the image data in the image data group. 前記検出工程では、人物以外の動物を検出可能であることを特徴とする請求項11に記載の画像処理方法。The image processing method according to claim 11, wherein an animal other than a person can be detected in the detecting step.
JP2019145656A 2019-08-07 2019-08-07 Program, image processing method Active JP6742486B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019145656A JP6742486B2 (en) 2019-08-07 2019-08-07 Program, image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145656A JP6742486B2 (en) 2019-08-07 2019-08-07 Program, image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015157514A Division JP6572054B2 (en) 2015-08-07 2015-08-07 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2020014213A JP2020014213A (en) 2020-01-23
JP6742486B2 true JP6742486B2 (en) 2020-08-19

Family

ID=69170091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145656A Active JP6742486B2 (en) 2019-08-07 2019-08-07 Program, image processing method

Country Status (1)

Country Link
JP (1) JP6742486B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196668A (en) * 2001-12-27 2003-07-11 Seiko Epson Corp Provision and browse of image through network
JP5449460B2 (en) * 2011-06-28 2014-03-19 富士フイルム株式会社 Image processing apparatus, image processing method, and image processing program
JP5883843B2 (en) * 2013-12-13 2016-03-15 富士フイルム株式会社 Image evaluation apparatus, image evaluation method, image evaluation program, and recording medium storing the program

Also Published As

Publication number Publication date
JP2020014213A (en) 2020-01-23

Similar Documents

Publication Publication Date Title
US10649633B2 (en) Image processing method, image processing apparatus, and non-transitory computer-readable storage medium
JP6938422B2 (en) Image processing equipment, image processing methods, and programs
JP6711937B2 (en) Image processing device, image processing method, and program
JP7286392B2 (en) Image processing device, image processing method, and program
KR102157494B1 (en) Control method and storage medium
JP6702900B2 (en) Information processing apparatus, display control method, and program
JP6422409B2 (en) Display control apparatus, display control method, and program
JP6723966B2 (en) Information processing apparatus, display control method, and program
JP7076974B2 (en) Image processing equipment, control methods and programs
JP7336211B2 (en) Image processing device, control method, and program
JP6887816B2 (en) Image processing equipment, control methods, and programs
JP2011055295A (en) Photographing apparatus
JP2015114920A (en) Image evaluation apparatus, image evaluation method, image evaluation program, and recording medium storing the program
JP6723938B2 (en) Information processing apparatus, display control method, and program
WO2014141840A1 (en) Electronic album device, and method of controlling operation of same
JP7207908B2 (en) Information processing system, information processing device, program, and information processing method
JP6681192B2 (en) Image processing apparatus, image processing method, and computer program
JP7336209B2 (en) Image processing device, control method, and program
JP6765978B2 (en) Information processing equipment and programs
JP6742486B2 (en) Program, image processing method
JP6821536B2 (en) Image processing equipment, control methods and programs
JP2019003326A (en) Information processor, control method and program
JP6572054B2 (en) Image processing apparatus and image processing method
JP7336212B2 (en) Image processing device, control method, and program
JP7336210B2 (en) Image processing device, control method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190904

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200728

R151 Written notification of patent or utility model registration

Ref document number: 6742486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151