JP2020204944A - Apparatus, method and program - Google Patents

Apparatus, method and program Download PDF

Info

Publication number
JP2020204944A
JP2020204944A JP2019112700A JP2019112700A JP2020204944A JP 2020204944 A JP2020204944 A JP 2020204944A JP 2019112700 A JP2019112700 A JP 2019112700A JP 2019112700 A JP2019112700 A JP 2019112700A JP 2020204944 A JP2020204944 A JP 2020204944A
Authority
JP
Japan
Prior art keywords
image
layout
sub
images
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019112700A
Other languages
Japanese (ja)
Other versions
JP7408304B2 (en
Inventor
山田 貴之
Takayuki Yamada
貴之 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019112700A priority Critical patent/JP7408304B2/en
Publication of JP2020204944A publication Critical patent/JP2020204944A/en
Application granted granted Critical
Publication of JP7408304B2 publication Critical patent/JP7408304B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

To solve a problem in which layout processing considering a nozzle of a printing apparatus is not performed at the time of layout of image data.SOLUTION: An apparatus includes: layout means that determine a layout method of image data to pages; identification means that identifies information on a nozzle of a printing apparatus which is not used in printing processing of the printing apparatus based on the determined layout method; and determination means that determines whether or not to change the layout method based on the identified information on the nozzle.SELECTED DRAWING: Figure 2

Description

本出願は、装置、方法、及びプログラムに関し、より具体的には、アルバム作成をする装置、方法、及びプログラムに関する。 The present application relates to devices, methods and programs, and more specifically to devices, methods and programs for creating albums.

デジタルカメラの普及に加え、近年ではスマートデバイスの普及及びスマートデバイスのカメラ性能の向上により、ユーザの写真撮影枚数が急激に増加している。撮影枚数の増加に伴い、撮影される被写体のバリエーションも増加している。 In recent years, in addition to the spread of digital cameras, the number of photographs taken by users has increased sharply due to the spread of smart devices and the improvement of camera performance of smart devices. As the number of shots increases, so does the variation of the subject to be shot.

デジタルカメラで撮影した複数の写真に対する自動レイアウトを行うことでアルバムを作成する方法として、特許文献1が開示されている。 Patent Document 1 is disclosed as a method of creating an album by performing automatic layout on a plurality of photographs taken by a digital camera.

特開2010−108165号公報JP-A-2010-108165

インクジェットプリンタでは、記録ヘッドに長時間使用していないノズルがある場合、インク固着を避けるため予備吐等の対策を取る必要がある。しかしながら、特許文献1では、ノズルの使用と不使用を考慮したレイアウト処理について開示されておらず、ユーザの利便性が低下するおそれがあった。 In an inkjet printer, if the recording head has a nozzle that has not been used for a long time, it is necessary to take measures such as preliminary ejection to avoid ink sticking. However, Patent Document 1 does not disclose layout processing in consideration of the use and non-use of nozzles, which may reduce user convenience.

本発明の一実施形態は、ページに対する画像データのレイアウト方法を決定するレイアウト手段と、前記決定されたレイアウト方法に基づいて印刷装置の印刷処理において使用されない前記印刷装置のノズルに関する情報を特定する特定手段と、前記特定された前記ノズルに関する情報に基づいて、前記レイアウト方法を変更するか否かを決定する決定手段と、を備えることを特徴とする装置である。 One embodiment of the present invention specifies a layout means that determines a method of laying out image data for a page and specifies information about nozzles of the printing device that are not used in the printing process of the printing device based on the determined layout method. The apparatus is characterized by comprising means and a deciding means for determining whether or not to change the layout method based on the specified information about the nozzle.

本出願によれば、ユーザの利便性を向上することができる。 According to the present application, the convenience of the user can be improved.

第1の実施形態における画像処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware structure of the image processing apparatus in 1st Embodiment. 第1の実施形態における画像処理装置のソフトウェア構成を示すブロック図である。It is a block diagram which shows the software structure of the image processing apparatus in 1st Embodiment. 第1の実施形態におけるアルバム作成アプリケーションのGUIを示す図である。It is a figure which shows the GUI of the album creation application in 1st Embodiment. 第1の実施形態における自動レイアウト処理のフローチャートである。It is a flowchart of automatic layout processing in 1st Embodiment. 第1の実施形態における画像解析情報を説明する図である。It is a figure explaining the image analysis information in 1st Embodiment. 第1の実施形態における画像群分割を説明する図である。It is a figure explaining the image group division in 1st Embodiment. 第1の実施形態におけるシーン分類を説明する図である。It is a figure explaining the scene classification in 1st Embodiment. 第1の実施形態における画像得点化を説明する図である。It is a figure explaining the image scoring in 1st Embodiment. 第1の実施形態における画像選択を説明する図である。It is a figure explaining image selection in 1st Embodiment. 第1の実施形態における基本レイアウトの作成を説明する図である。It is a figure explaining the creation of the basic layout in 1st Embodiment. 第1の実施形態における基本レイアウトの作成を説明する図である。It is a figure explaining the creation of the basic layout in 1st Embodiment. 第1の実施形態における不使用ノズルを説明する図である。It is a figure explaining the unused nozzle in 1st Embodiment. 第1の実施形態における補完レイアウトを説明する図である。It is a figure explaining the complementary layout in 1st Embodiment. 第2の実施形態における自動レイアウト処理のフローチャートである。It is a flowchart of automatic layout processing in 2nd Embodiment.

[第1の実施形態]
本実施形態では、画像処理装置において、アルバム作成のためのアプリケーション(以下、「アプリケーション」または単純に「アプリ」ともいう)を動作させる。このアプリケーションは、複数の写真画像が自動でレイアウトされたアルバムを出力するためのレイアウト情報を作成する。そして、このレイアウト情報を用いて記録することで、印刷物としてのアルバムが作成される。
[First Embodiment]
In the present embodiment, the image processing device operates an application for creating an album (hereinafter, also referred to as "application" or simply "application"). This application creates layout information for outputting an album in which multiple photographic images are automatically laid out. Then, by recording using this layout information, an album as a printed matter is created.

<画像処理装置のハードウェア構成について>
以下、本実施形態における画像処理装置のハードウェア構成について、図1を用いて説明する。尚、以下では、画像処理装置が情報処理装置(PC)のケースを説明するが、画像処理装置として、スマートフォン等の他の装置を採用してもよい。
<About the hardware configuration of the image processing device>
Hereinafter, the hardware configuration of the image processing apparatus according to the present embodiment will be described with reference to FIG. In the following, the case where the image processing device is an information processing device (PC) will be described, but another device such as a smartphone may be adopted as the image processing device.

図1に示すように、画像処理装置100は、CPU101と、ROM102と、RAM103と、HDD104と、ディスプレイ105と、キーボード106と、マウス107と、データ通信装置108と、を有する。これらの部品は、データバス109により接続されており、相互にデータを送信または受信することができる。 As shown in FIG. 1, the image processing device 100 includes a CPU 101, a ROM 102, a RAM 103, an HDD 104, a display 105, a keyboard 106, a mouse 107, and a data communication device 108. These components are connected by a data bus 109 and can transmit or receive data to and from each other.

CPU101は、画像処理装置100全体を制御する。また、CPU101は、本実施形態で説明する画像処理方法をプログラムに従って実行する。尚、図1では、画像処理装置は1個のCPUを有するが、画像処理装置は複数のCPUを有してもよい。 The CPU 101 controls the entire image processing device 100. Further, the CPU 101 executes the image processing method described in the present embodiment according to a program. In FIG. 1, the image processing device has one CPU, but the image processing device may have a plurality of CPUs.

ROM102には、CPU101が実行するプログラムが記憶されている。RAM103は、CPU101によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供する。HDD104には、画像ファイルや画像解析等の処理結果を保持するデータベース等が記憶され、本実施形態では、このHDD104に、アルバム作成のためのアプリケーションプログラムが記憶されている。尚、このアプリケーションプログラムについては、アルバム作成アプリと呼ばれることもあり、図3等を用いて後述する。 The ROM 102 stores a program executed by the CPU 101. The RAM 103 provides a memory for temporarily storing various information when the program is executed by the CPU 101. The HDD 104 stores a database or the like that holds processing results such as image files and image analysis, and in the present embodiment, the HDD 104 stores an application program for creating an album. This application program is sometimes called an album creation application, and will be described later with reference to FIG. 3 and the like.

ディスプレイ105は、本実施形態のユーザインターフェイス(以下UI)や画像のレイアウト結果を表示して、ユーザに提示するための装置である。ディスプレイ105は、タッチセンサー機能を有してもよい。キーボード106は、画像処理装置100が有する入力装置の1つであり、例えば、ディスプレイ105に表示されたGUI上に所定の情報を入力するために用いられる。本実施形態では、ユーザは、キーボード106を介してアルバムの見開き数を入力する。マウス107は、画像処理装置100が有する入力装置の1つであり、例えば、ディスプレイ105に表示されたGUI上のボタンをクリックして押下するために用いられる。 The display 105 is a device for displaying and presenting the layout result of the user interface (hereinafter referred to as UI) and the image of the present embodiment to the user. The display 105 may have a touch sensor function. The keyboard 106 is one of the input devices included in the image processing device 100, and is used, for example, to input predetermined information on the GUI displayed on the display 105. In this embodiment, the user inputs the number of spreads of the album via the keyboard 106. The mouse 107 is one of the input devices included in the image processing device 100, and is used, for example, to click and press a button on the GUI displayed on the display 105.

データ通信装置108は、記録装置やサーバ等の外部装置と通信するための装置である。例えば、自動レイアウトの結果取得された画像レイアウトに関する情報は、データ通信装置108を介して、画像処理装置100に接続された記録装置やサーバに送信される。データバス109は、上述した各構成要素とCPU101とを接続する。以上が、本実施形態における画像処理装置のハードウェア構成についての内容である。 The data communication device 108 is a device for communicating with an external device such as a recording device or a server. For example, the information about the image layout acquired as a result of the automatic layout is transmitted to the recording device or the server connected to the image processing device 100 via the data communication device 108. The data bus 109 connects each of the above-described components to the CPU 101. The above is the contents of the hardware configuration of the image processing device in the present embodiment.

<画像処理装置のソフトウェア構成について>
以下、本実施形態における画像処理装置のソフトウェア構成、言い換えると、画像処理装置にインストールされているアルバム作成アプリケーションにより実現される機能構成について、図2を用いて説明する。アルバム作成アプリケーションは、ディスプレイ105に表示されているアプリケーションのアイコンがユーザによりマウス107を使ってダブルクリックされること等により起動する。アルバム作成アプリケーションは様々な機能を有するが、以下では主に、本実施形態において特に重要な機能である、自動レイアウト処理部210により提供される自動レイアウト機能を説明する。
<About the software configuration of the image processing device>
Hereinafter, the software configuration of the image processing device in the present embodiment, in other words, the functional configuration realized by the album creation application installed in the image processing device will be described with reference to FIG. The album creation application is started by the user double-clicking the application icon displayed on the display 105 using the mouse 107 or the like. Although the album creation application has various functions, the automatic layout function provided by the automatic layout processing unit 210, which is a particularly important function in the present embodiment, will be mainly described below.

図2に示すように、このアプリは、アルバム作成条件設定部201と、自動レイアウト処理部210と、アルバム表示部202と、を有する。「自動レイアウト機能」とは、撮影された写真の画像をその内容や属性に基づいて分類ないし選択した上でレイアウトして、レイアウト情報を作成する機能である。作成されたレイアウト情報に基づくアルバム画像は、ディスプレイ105に表示される。 As shown in FIG. 2, this application has an album creation condition setting unit 201, an automatic layout processing unit 210, and an album display unit 202. The "automatic layout function" is a function for creating layout information by classifying or selecting an image of a photograph taken based on its contents and attributes and then laying it out. The album image based on the created layout information is displayed on the display 105.

アルバム作成条件設定部201は、マウス107によるUI操作に応じたアルバム作成条件を、自動レイアウト処理部210に設定する。本実施形態では、アルバム作成条件として、アルバムに使用する画像群、アルバムの見開き数、アルバム作成のモード、アルバムを作成する商材を設定する。画像郡の設定は、例えば撮影日時など個別の画像データの付随情報や属性情報を用いて設定してもよいし、デバイスやディレクトリの設定など、画像データが保存されているファイルシステムの構造に基づいて設定してもよい。尚、「見開き」とは、例えば表示においては1つの表示用ウィンドウに相当し、印刷においては、異なるシートに印刷された、互いに隣接する1対のページに相当する。 The album creation condition setting unit 201 sets the album creation condition according to the UI operation by the mouse 107 in the automatic layout processing unit 210. In the present embodiment, the image group used for the album, the number of spreads of the album, the mode for creating the album, and the product for creating the album are set as the album creation conditions. The image group setting may be set using the accompanying information or attribute information of individual image data such as the shooting date and time, or is based on the structure of the file system in which the image data is stored, such as the device and directory settings. May be set. The "spread" corresponds to, for example, one display window in display, and corresponds to a pair of adjacent pages printed on different sheets in printing.

画像取得部211は、HDD104に保存されている画像の中から、アルバム作成条件設定部201により設定されたアルバム作成条件を満たす画像群(画像データ群)を取得する。ここでいう画像群とは、1つのアルバム作成の際に見開きに配置する候補となる候補画像群を指す。例えば、アルバム作成条件設定部201において、XX年1月1日〜XX年12月31日が指定された場合は、XX年1月1日〜XX年12月31日に撮影された画像全てが、レイアウト候補の画像群に該当する。HDD104に保存されている画像としては、静止画像や、動画から切り出された切り出し画像が挙げられる。静止画像や切り出し画像は、デジタルカメラやスマートデバイス等の撮像デバイスから取得したものである。撮像デバイスは、画像処理装置100が備えていてもよいし、画像処理装置100の外部装置が備えるものであってもよい。尚、撮像デバイスが外部装置である場合は、画像取得部211は、データ通信装置108を介して画像を取得する。また、静止画像や切り出し画像は、外部のネットワークやサーバからデータ通信装置108を介して取得した画像であってもよい。ネットワークやサーバから取得した画像としては、ソーシャルネットワーキングサービス画像(以下、SNS画像)が挙げられる。CPU101はOSのプログラムを実行することで、各画像に対して、画像に付随するデータを解析し、画像の取得先である保存元を求める。但し、アプリケーションを介してSNSから画像を取得することで、アプリケーション内で該画像の取得先を管理してもよい。尚、画像取得部211が取得する画像は、上述した画像に限定されるものではなく、他の種類の画像であってもよい。 The image acquisition unit 211 acquires an image group (image data group) that satisfies the album creation condition set by the album creation condition setting unit 201 from the images stored in the HDD 104. The image group referred to here refers to a candidate image group that is a candidate to be arranged in a spread when creating one album. For example, when the album creation condition setting unit 201 specifies January 1, XX to December 31, XX, all the images taken from January 1, XX to December 31, XX are all taken. , Corresponds to the image group of layout candidates. Examples of the image stored in the HDD 104 include a still image and a cut-out image cut out from a moving image. Still images and cropped images are acquired from imaging devices such as digital cameras and smart devices. The image pickup device may be provided by the image processing device 100, or may be provided by an external device of the image processing device 100. When the imaging device is an external device, the image acquisition unit 211 acquires an image via the data communication device 108. Further, the still image or the cut-out image may be an image acquired from an external network or server via the data communication device 108. Examples of the image acquired from the network or the server include a social networking service image (hereinafter, SNS image). By executing the OS program, the CPU 101 analyzes the data associated with the image for each image and obtains the storage source which is the acquisition destination of the image. However, by acquiring an image from the SNS via the application, the acquisition destination of the image may be managed within the application. The image acquired by the image acquisition unit 211 is not limited to the above-mentioned image, and may be another type of image.

画像解析部212は、画像取得部211が取得した画像データに対する解析処理を実行する。本実施形態では、画像の特徴量を取得し、画像内のオブジェクト判定、顔検出、検出した顔の表情認識、検出した顔の個人認識を実行する。さらに、画像解析部212は、HDD104から取得した画像に付随したデータ(例えば、Exif情報)を参照して、撮影日時の情報を取得する。尚、画像解析部212が画像データを解析した結果得られる情報を「画像解析情報」と呼ぶ。 The image analysis unit 212 executes an analysis process on the image data acquired by the image acquisition unit 211. In the present embodiment, the feature amount of the image is acquired, and object determination in the image, face detection, facial expression recognition of the detected face, and personal recognition of the detected face are executed. Further, the image analysis unit 212 acquires information on the shooting date and time by referring to the data (for example, Exif information) associated with the image acquired from the HDD 104. The information obtained as a result of the image analysis unit 212 analyzing the image data is referred to as "image analysis information".

画像分類部213は、画像解析部212で導出した画像解析情報を用いることで、画像取得部211で取得した画像群をシーン毎に分類するシーン分割を実行する。このシーン分割は、撮影日時の情報、取得画像の枚数の情報、検出した顔の情報を使って実行する。シーンの画像とは、例えば、ある撮影対象について一時期の撮影機会に撮影された画像の集まり(サブ画像群)ということができ、このような撮影機会として、例えば、旅行、日常、結婚式、等が挙げられる。 The image classification unit 213 executes scene division for classifying the image group acquired by the image acquisition unit 211 for each scene by using the image analysis information derived by the image analysis unit 212. This scene division is executed using information on the shooting date and time, information on the number of acquired images, and information on the detected face. An image of a scene can be, for example, a collection of images (sub-image group) taken at a temporary shooting opportunity for a certain shooting target, and such shooting opportunities include, for example, travel, daily life, wedding, etc. Can be mentioned.

画像得点部214は、アルバム作成条件設定部201にて設定されたアルバム作成条件および画像解析部212にて導出された画像解析情報に基づき、各画像に対して得点付けを行う。本実施形態では、レイアウトに適した画像が高得点になるように各画像に対して得点付けを行う。画像に得点付けする際は、画像解析情報を含む画像情報、画像の分類結果、アルバム作成条件を用いる。但し、他の情報を付加的に或いは代替的に用いてもよい。レイアウトに適した画像とは、例えばコントラストが高い、エッジがシャープである、といった審美性が高い画像が挙げられる。 The image scoring unit 214 scores each image based on the album creation conditions set by the album creation condition setting unit 201 and the image analysis information derived by the image analysis unit 212. In the present embodiment, each image is scored so that the image suitable for the layout has a high score. When scoring an image, image information including image analysis information, image classification results, and album creation conditions are used. However, other information may be used additionally or as an alternative. An image suitable for layout includes, for example, an image having high aesthetics such as high contrast and sharp edges.

見開き割当部215は、画像群を分割して各見開きに割り当てる。ここでいう見開きとは、例えば、アルバムにおける見開き、つまり2ページに該当する。尚、ここでは、見開きに画像群を割り当てる形態を説明するが、ページに画像群を割り当てる形態でもよい。見開き割当部215は、入力された見開き数と画像分類結果とに基づいて画像群を分割し、各見開きに画像群の一部を割り当てる。例えば、入力された見開き数が5の場合、取得した画像群を5つの小画像群に分割し、各見開きに1つの小画像群を割当てる。 The spread allocation unit 215 divides the image group and allocates it to each spread. The spread referred to here corresponds to, for example, a spread in an album, that is, two pages. Although the form of allocating the image group to the spread is described here, the form of allocating the image group to the page may be used. The spread allocation unit 215 divides the image group based on the input number of spreads and the image classification result, and allocates a part of the image group to each spread. For example, when the number of input spreads is 5, the acquired image group is divided into 5 small image groups, and one small image group is assigned to each spread.

画像選択部216は、見開き割当部215で各見開きに割り当てられた小画像群において、画像得点部214で付けた得点に基づいて、アルバムに使用する画像を選択する。 The image selection unit 216 selects an image to be used for the album based on the score given by the image scoring unit 214 in the small image group assigned to each spread by the spread allocation unit 215.

レイアウト作成部217は、見開きのレイアウトを作成する。具体的には、レイアウト作成部217は、画像選択部216で選択された画像と、不使用ノズル判定部219で判定された不使用ノズルとに基づき、各画像の配置位置を決定する。 The layout creation unit 217 creates a spread layout. Specifically, the layout creation unit 217 determines the arrangement position of each image based on the image selected by the image selection unit 216 and the unused nozzle determined by the unused nozzle determination unit 219.

レイアウト情報出力部218は、レイアウト作成部217が作成したレイアウトに従って、レイアウト情報を出力する。レイアウト情報は、例えば、各画像が指定の位置に配置された見開きを描画するビットマップ形式画像データである。レイアウト情報出力部218から出力された画像データは、例えば図3に示すようなGUIを介するユーザ指示が入力された場合に、ディスプレイ105に表示される。 The layout information output unit 218 outputs layout information according to the layout created by the layout creation unit 217. The layout information is, for example, bitmap format image data for drawing a spread in which each image is arranged at a designated position. The image data output from the layout information output unit 218 is displayed on the display 105 when a user instruction is input via the GUI as shown in FIG. 3, for example.

不使用ノズル判定部219は、レイアウト情報出力部218から出力されたレイアウト情報に基づき、アルバム作成時に記録装置のどのノズルが使われないかを判定する。 The unused nozzle determination unit 219 determines which nozzle of the recording device is not used when creating an album, based on the layout information output from the layout information output unit 218.

アルバム表示部202は、レイアウト情報出力部218から出力されたビットマップ形式画像データに基づいて、アルバムの画像をディスプレイ105に表示する。 The album display unit 202 displays the album image on the display 105 based on the bitmap format image data output from the layout information output unit 218.

本実施形態におけるアルバム作成アプリケーションのプログラムが、画像処理装置100にインストールされると、画像処理装置100上で動作するOS(オペレーティングシステム)のトップ画面(デスクトップ)上にこのアプリの起動アイコンが表示される。ユーザがディスプレイ105に表示されているデスクトップ上の起動アイコンをマウス107でダブルクリックすると、HDD104に保存されているアルバム作成アプリケーションのプログラムがRAM103にロードされる。そして、RAM103にロードされたプログラムがCPU101によって実行されて、アルバム作成アプリケーションが起動する。以上が、本実施形態における画像処理装置のソフトウェア構成についての内容である。尚、アプリケーションは、別の形態でも良く、例えば画像処理装置100で動作するブラウザ内で画面等を表示するWebアプリでも良い。 When the program of the album creation application in this embodiment is installed in the image processing device 100, the start icon of this application is displayed on the top screen (desktop) of the OS (operating system) running on the image processing device 100. To. When the user double-clicks the startup icon on the desktop displayed on the display 105 with the mouse 107, the program of the album creation application stored in the HDD 104 is loaded into the RAM 103. Then, the program loaded in the RAM 103 is executed by the CPU 101, and the album creation application is started. The above is the contents of the software configuration of the image processing device in the present embodiment. The application may be in another form, for example, a Web application that displays a screen or the like in a browser operating on the image processing device 100.

<GUIについて>
以下、本実施形態におけるアルバム作成アプリケーションのGUIについて、図3を用いて説明する。図3は、起動したアルバム作成アプリケーションによって提供され、ディスプレイ105に表示されるGUI301を示す図である。ユーザは、GUI301を介して、アルバム作成条件を設定することができる。
<About GUI>
Hereinafter, the GUI of the album creation application in this embodiment will be described with reference to FIG. FIG. 3 is a diagram showing GUI 301 provided by the activated album creation application and displayed on the display 105. The user can set the album creation condition via GUI301.

GUI301は、アルバムに含ませる写真画像の設定部として、パスボックス302及びフォルダ選択ボタン303を有する。パスボックス302は、アルバム作成の対象となる画像群のHDD104における保存場所(パス)を示すためのボックスである。フォルダ選択ボタン303は、アルバム作成の対象とする画像群を含むフォルダを選択するためのボタンである。ユーザがフォルダ選択ボタン303をマウス107でクリックすると、複数フォルダから構成されるツリーが表示される。そして、アルバム作成の対象とする画像群を含むフォルダをユーザが選択すると、該選択したフォルダのフォルダパスがパスボックス302に表示される。 The GUI 301 has a pass box 302 and a folder selection button 303 as setting units for photographic images to be included in the album. The pass box 302 is a box for indicating the storage location (path) of the image group to be created in the album in the HDD 104. The folder selection button 303 is a button for selecting a folder containing an image group to be created as an album. When the user clicks the folder selection button 303 with the mouse 107, a tree composed of a plurality of folders is displayed. Then, when the user selects a folder containing the image group to be created as an album, the folder path of the selected folder is displayed in the pass box 302.

見開き数ボックス304は、アルバム1冊あたりの見開き数を指定するためのボックスである。ユーザは、キーボード106を使って見開き数ボックス304に数字を直接入力したり、マウス107を使ってリストから見開き数ボックス304に数字を入力したりすることができる。 The spread number box 304 is a box for designating the spread number per album. The user can use the keyboard 106 to enter numbers directly into the spread box 304, or use the mouse 107 to enter numbers from the list into the spread box 304.

モード指定部307には、アルバムを作成する際に考慮するオブジェクトが分かるイラスト画像がアイコンとして複数表示されている。ユーザは該表示されている複数アイコンの中から任意のアイコンを選択ことで、該考慮するオブジェクトを指定することができる。尚、本実施形態では、考慮する可能性のあるオブジェクトとして、「人」、「動物」、「料理」という3つのオブジェクトを採用するケースを説明する。但し、これ以外のオブジェクトを採用し、3つ以上のオブジェクトの中から、考慮するオブジェクトを選択してもよい。また、同時に複数のオブジェクトを指定することも可能だが、ここでは説明の簡略化のためにオブジェクトが1つ選択されたとする。ユーザは、アイコンをマウス107でクリックすることにより、考慮するオブジェクトを指定する。 In the mode designation unit 307, a plurality of illustration images showing the objects to be considered when creating an album are displayed as icons. The user can specify the object to be considered by selecting an arbitrary icon from the plurality of displayed icons. In this embodiment, a case where three objects of "human", "animal", and "cooking" are adopted as objects that may be considered will be described. However, objects other than this may be adopted, and the object to be considered may be selected from three or more objects. It is also possible to specify multiple objects at the same time, but here it is assumed that one object is selected for the sake of brevity. The user specifies the object to consider by clicking the icon with the mouse 107.

見開き写真枚数設定部309は、作成するアルバムの各見開きに配置する画像の枚数を設定するためのスライダーバーである。スライダーが「多」側に移動されると、各見開きに配置する画像の枚数が増える。一方、スライダーが「少」側に移動されると、各見開きに配置する画像の枚数が減る。 The spread photo number setting unit 309 is a slider bar for setting the number of images to be arranged in each spread of the album to be created. When the slider is moved to the "many" side, the number of images placed in each spread increases. On the other hand, when the slider is moved to the "small" side, the number of images arranged in each spread decreases.

商材指定部310は、作成するアルバムの商材を設定するための要素である。設定する商材に関する具体的な項目としては、アルバムのサイズ、アルバムの用紙種類を採用することができる。表紙種類や綴じ部の種類を設定してもよい。 The product designation unit 310 is an element for setting the product of the album to be created. As specific items related to the product to be set, the size of the album and the paper type of the album can be adopted. You may set the cover type and the binding part type.

OKボタン311は、選択された条件をアルバム作成条件として決定するボタンである。ユーザがOKボタン311をマウス107でクリックすると、アルバム作成条件が確定し、アルバム作成条件設定部201を介して、自動レイアウト処理部210にアルバム作成条件が伝えられる。具体的に説明すると、パスボックス302に入力されているパスの情報は、画像取得部211に伝えられる。また、見開き数ボックス304に入力されている見開き数の値は、見開き割当部215に伝えられる。 The OK button 311 is a button for determining the selected condition as an album creation condition. When the user clicks the OK button 311 with the mouse 107, the album creation condition is confirmed, and the album creation condition is transmitted to the automatic layout processing unit 210 via the album creation condition setting unit 201. More specifically, the path information input to the pass box 302 is transmitted to the image acquisition unit 211. Further, the value of the number of spreads input in the number of spreads box 304 is transmitted to the spread allocation unit 215.

リセットボタン312は、表示画面上の各設定内容をリセットするためのボタンである。以上が、本実施形態におけるアルバム作成アプリケーションのGUIについての内容である。 The reset button 312 is a button for resetting each setting content on the display screen. The above is the contents of the GUI of the album creation application in this embodiment.

<自動レイアウトについて>
以下、本実施形態における自動レイアウトについて、図4(a)を用いて説明する。図4(a)は、本実施形態におけるアルバム作成アプリケーションの自動レイアウトを実行する処理のフローチャートである。図4(a)〜(d)に示すフローチャートは、例えば、CPU101がHDD104に格納されたプログラムをROM102やRAM103に読み出して実行することにより実現される。尚、本実施形態では、アルバムを作成する際に、アルバムを作成するための画像群を画像の撮影時間に応じて分割し、分割した各サブ画像群(以下、「区間」ともいう)からページに配置する画像を選択する。
<About automatic layout>
Hereinafter, the automatic layout in this embodiment will be described with reference to FIG. 4A. FIG. 4A is a flowchart of a process for executing the automatic layout of the album creation application according to the present embodiment. The flowcharts shown in FIGS. 4A to 4D are realized, for example, by the CPU 101 reading the program stored in the HDD 104 into the ROM 102 or the RAM 103 and executing the program. In the present embodiment, when creating an album, the image group for creating the album is divided according to the shooting time of the image, and the page is divided from each sub-image group (hereinafter, also referred to as "section"). Select the image to place in.

ステップS401では、アルバム作成条件設定部201は、アルバム作成条件を設定する。尚、以下では、「ステップS〜」を単純に「S〜」と略記する。本実施形態では、アルバム作成条件として、アルバムに使用する画像群、見開き数、アルバム作成のモード、アルバムを作成する商材を設定する。 In step S401, the album creation condition setting unit 201 sets the album creation condition. In the following, "step S ~" is simply abbreviated as "S ~". In the present embodiment, the image group used for the album, the number of spreads, the mode for creating the album, and the product for creating the album are set as the album creation conditions.

S402では、画像取得部211は、アルバム作成条件設定部201で設定された条件を満たす画像を、HDD104から読み込み、RAM103に展開する。 In S402, the image acquisition unit 211 reads an image satisfying the conditions set by the album creation condition setting unit 201 from the HDD 104 and develops it in the RAM 103.

S403では、画像解析部212は、RAM103に展開された画像データを解析する。本ステップの解析について、図4(b)を用いて説明する。 In S403, the image analysis unit 212 analyzes the image data expanded in the RAM 103. The analysis of this step will be described with reference to FIG. 4 (b).

S4031では、画像解析部212は、画像取得部211が取得した画像データに付随する情報を参照し、画像データに対応する撮影日時の情報を取得する。本実施形態では、各画像データに付随するExif情報から撮影日時の情報を取得する。 In S4031, the image analysis unit 212 refers to the information associated with the image data acquired by the image acquisition unit 211, and acquires the information on the shooting date and time corresponding to the image data. In the present embodiment, information on the shooting date and time is acquired from the Exif information attached to each image data.

S4032では、画像解析部212は、画像取得部211が取得した画像データに対する画質の特徴量を導出する。画質の特徴量としては、例えば、ピント量が挙げられる。ピント量の判別手法として、エッジの検出手法を用いることができ、エッジの検出方法として、公知のソーベルフィルタを用いることができる。ソーベルフィルタで画像のエッジを検出し、エッジの始点と終点との間の輝度差を、始点と終点との間の距離で割ることで、輝度勾配(即ちエッジの傾き)を算出する。画像中のエッジの平均傾きを算出して、平均傾きが大きい画像は、平均傾きが小さい画像よりもピントが合っていると判定することができる。本実施形態では、エッジの平均傾きの大きさを測るための複数の傾き閾値を設定し、算出したエッジの平均傾きが何れの傾き閾値以上か判定することで、許容できるピント量か判定する。具体的には、異なる2つの傾き閾値として、第1の傾き閾値および第2の傾き閾値(尚、第1の傾き閾値>第2の傾き閾値)を設定し、○△×の3段階でピント量を判別する。画像中のエッジの平均傾きが第1の閾値以上であれば、好適なピント量とする(○で表す)。また、画像中のエッジの平均傾きが第1の閾値未満且つ第2の閾値以上であれば、許容できるピント量とし(△で表す)、画像中のエッジの平均傾きが第2の閾値未満であれば許容できないピント量とする(×で表す)。 In S4032, the image analysis unit 212 derives the feature amount of the image quality with respect to the image data acquired by the image acquisition unit 211. Examples of the feature amount of image quality include the focus amount. An edge detection method can be used as a focus amount determination method, and a known sobel filter can be used as an edge detection method. The edge of the image is detected by the Sobel filter, and the brightness gradient (that is, the slope of the edge) is calculated by dividing the brightness difference between the start point and the end point of the edge by the distance between the start point and the end point. By calculating the average slope of the edges in the image, it can be determined that the image having a large average slope is in focus more than the image having a small average slope. In the present embodiment, a plurality of inclination threshold values for measuring the magnitude of the average inclination of the edge are set, and by determining which inclination threshold or more the calculated average inclination of the edge is equal to or greater than, it is determined whether the focus amount is acceptable. Specifically, a first tilt threshold value and a second tilt threshold value (note that the first tilt threshold value> the second tilt threshold value) are set as two different tilt threshold values, and the focus is set in three stages of ○ △ ×. Determine the amount. If the average inclination of the edges in the image is equal to or greater than the first threshold value, a suitable focus amount is set (indicated by ◯). If the average slope of the edges in the image is less than the first threshold value and greater than or equal to the second threshold value, the focus amount is acceptable (indicated by Δ), and the average slope of the edges in the image is less than the second threshold value. If there is, the focus amount is unacceptable (indicated by x).

S4033では、画像解析部212は、画像取得部211が取得した画像データに対し、オブジェクト検出および該検出したオブジェクトの分類を行う。本実施形態では、顔を検出する。顔の検出方法として、任意の公知方法を採用することができる。このような公知方法として例えば、複数用意した弱識別器から強識別器を作成するAdaBoostが挙げられる。本実施形態では、AdaBoostにより作成した強識別器を用いて人物の顔を検出する。S4033では、顔を検出すると共に、画像における該検出した顔の領域の左上座標値と右下座標値とを取得する。この2種の座標値を求めることにより、顔の位置と顔のサイズとを特定することができる。更に、人物の顔と同様に、犬や猫等の動物と、料理とをそれぞれ検出するAdaBoostも併せて実行することで、人物、動物、料理のオブジェクトを検出すると同時に、画像内のオブジェクトが何か分類することができる。尚、検出対象のオブジェクトは上記のものに限らず、花、建物、置物等であってもよい。 In S4033, the image analysis unit 212 detects objects and classifies the detected objects with respect to the image data acquired by the image acquisition unit 211. In this embodiment, the face is detected. Any known method can be adopted as the face detection method. As such a known method, for example, AdaBoost in which a strong classifier is created from a plurality of weak classifiers prepared can be mentioned. In this embodiment, a person's face is detected using a strong classifier created by AdaBoost. In S4033, the face is detected, and the upper left coordinate value and the lower right coordinate value of the detected face region in the image are acquired. By obtaining these two types of coordinate values, the position of the face and the size of the face can be specified. Furthermore, by also executing AdaBoost, which detects animals such as dogs and cats and food, as well as the face of a person, objects of people, animals, and food are detected, and at the same time, what are the objects in the image? Can be classified. The object to be detected is not limited to the above, and may be a flower, a building, a figurine, or the like.

S4031〜S4033で取得した各画像データの解析結果としての画像解析情報は、図5に示すように、画像を識別するID毎に区別してHDD104に記憶する。画像内に含まれる主要オブジェクトに関する値は、AdaBoost実行時の信頼度が高いものから保持される。一方、検出されなかったオブジェクトに関する値は、保持されない。AdaBoostはパターンを判別する弱判別器を連続で接続し、1つの強判別器を形成する。そのため、信頼度はAdaboostで予め学習したパターンと一致する弱判別器が多いほど高くなる。尚、ここでは、AdaBoostを例に挙げてオブジェクト判定を説明したが、DeepNeuralNetworkを始めとするConvolutionalNeuralNetworkを用いた判別器であってもよい。 As shown in FIG. 5, the image analysis information as the analysis result of each image data acquired in S4031 to S4033 is stored in the HDD 104 separately for each ID that identifies the image. The values related to the main objects contained in the image are retained from the one with the highest reliability at the time of AdaBoost execution. On the other hand, the values for undetected objects are not retained. AdaBoost continuously connects weak discriminators that discriminate patterns to form one strong discriminator. Therefore, the reliability increases as the number of weak discriminators that match the pattern learned in advance by AdaBoost increases. Here, although the object determination has been described by taking AdaBoost as an example, a discriminator using a ConvolutionalNeuralNetwork such as DeepNeuralNetwork may be used.

図4(a)の説明に戻る。S411では、画像解析部212は、S401で設定された条件を満たす画像群の全画像に対して、S402からS403の処理が完了したかを判定する。本ステップの判定結果が真の場合、S412に進む一方、該判定結果が偽の場合、S402に戻る。 Returning to the description of FIG. 4 (a). In S411, the image analysis unit 212 determines whether the processing of S402 to S403 is completed for all the images of the image group satisfying the conditions set in S401. If the determination result of this step is true, the process proceeds to S412, while if the determination result is false, the process returns to S402.

S412では、画像分類部213は、アルバム作成条件設定部201によって設定された条件を満たす画像群に対して、シーン分割及びシーン分類を実行する。「シーン分割」とは、取得した画像群をシーンに応じて複数のサブ画像群に分割することを指す。具体的には、S4031で取得済みの撮影日時の情報を用いて、画像と画像との時間差に基づき画像群を複数のサブ画像群に分割する。実際の分割の例は、以下の通りである。 In S412, the image classification unit 213 executes scene division and scene classification for an image group that satisfies the conditions set by the album creation condition setting unit 201. “Scene division” refers to dividing the acquired image group into a plurality of sub image groups according to the scene. Specifically, using the information on the shooting date and time acquired in S4031, the image group is divided into a plurality of sub-image groups based on the time difference between the images. An example of the actual division is as follows.

画像群のうち、例えば最も撮影日時が古い(または新しい)画像に最初に着目し、その次に古い(または新しい)画像との時間差を算出し、該算出した時間差が所定の閾値以上か否か判定する。このような処理を、着目画像を撮影時間が新しい(或いは古い)ものに順次置き換えながら、全ての画像に対して行う。尚、S412における「分割」とは、2つの画像間を境に撮影日時の新しい方と古い方とに画像群を分割するという意味である。ある画像の撮影日と別の画像の撮影日とが同じでなく、かつ連続していない場合、すなわち、画像間に撮影していない日が存在する場合は、分割する。 Among the image groups, for example, the image with the oldest (or newest) shooting date and time is first focused on, the time difference from the next oldest (or newer) image is calculated, and whether or not the calculated time difference is equal to or greater than a predetermined threshold value. judge. Such processing is performed on all images while sequentially replacing the images of interest with new (or old) images. The "division" in S412 means that the image group is divided into the newer one and the older one in the shooting date and time at the boundary between the two images. If the shooting date of one image and the shooting date of another image are not the same and are not continuous, that is, if there is a non-shooting day between the images, the image is divided.

次に、撮影日が連続する場合について説明する。本実施形態では、着目画像の撮影日時とその次に古い(または新しい)画像の撮影日時との間の差が16時間以上の場合は分割する。画像間の撮影時間の差が16時間未満の場合、連続する各日の最初の撮影から最後の撮影までの時間差が4時間未満であれば分割する。一方、連続する各日の最初の撮影から最後の撮影までの時間差が4時間以上の場合、連続する各日の撮影枚数が50枚未満であれば分割し、50枚以上であれば分割しないものとする。尚、分割の際に用いる時間差の閾値や画像枚数の閾値は、これに限定されるものではない。図6(a)は、上述したシーン分割方法を用いて、画像群を分割した結果例を示している。つまり、8個のサブ画像群に分割されたことが示されている。 Next, a case where the shooting dates are continuous will be described. In the present embodiment, when the difference between the shooting date and time of the image of interest and the shooting date and time of the next oldest (or new) image is 16 hours or more, it is divided. When the difference in shooting time between images is less than 16 hours, if the time difference between the first shooting and the last shooting of each consecutive day is less than 4 hours, the image is divided. On the other hand, when the time difference from the first shooting to the last shooting of each consecutive day is 4 hours or more, if the number of shots taken each consecutive day is less than 50, it is divided, and if it is 50 or more, it is not divided. And. The time difference threshold value and the image number number threshold value used at the time of division are not limited to this. FIG. 6A shows an example of the result of dividing the image group by using the above-mentioned scene division method. That is, it is shown that it is divided into eight sub-image groups.

シーン分割の後、画像分類部213は、シーン分類を行う。本実施形態では、各サブ画像群(各シーン)を旅行、日常、セレモニーの3つに分類する場合を例に挙げて説明するが、分類の項目はこれらに限定されるものではない。 After the scene division, the image classification unit 213 classifies the scene. In the present embodiment, a case where each sub-image group (each scene) is classified into three categories of travel, daily life, and ceremony will be described as an example, but the classification items are not limited to these.

まず、旅行、日常、セレモニーのうち何れに分類されるか予め判定したサブ画像群を複数取得し、該取得した複数のサブ画像群の夫々ついての、撮影の特徴量を取得する。本実施形態で取得する特徴量は、例えば、撮影期間、撮影枚数、撮影人数である。撮影期間は、サブ画像群に含まれる画像のうち最も古い画像の撮影時間と最も新しい画像の撮影時間との間の時間差である。撮影枚数は、サブ画像群に含まれる画像の数(写真の枚数)である。撮影人数は、顔が写っている画像における顔の数であり、1つの画像に含まれる顔の数である。そして、複数のサブ画像群に対して、撮影期間の平均値と標準偏差、撮影枚数の平均値と標準偏差、1画像あたりの人数の平均値と標準偏差を求める。尚、本実施形態では、1画像あたりの顔の数が、1画像あたりの人数とする。 First, a plurality of sub-image groups determined in advance as to which of travel, daily life, and ceremony are classified are acquired, and the feature amount of photography for each of the acquired plurality of sub-image groups is acquired. The feature quantities acquired in this embodiment are, for example, the shooting period, the number of shots, and the number of shots. The shooting period is the time difference between the shooting time of the oldest image and the shooting time of the newest image among the images included in the sub-image group. The number of shots is the number of images (the number of pictures) included in the sub-image group. The number of photographed persons is the number of faces in an image showing faces, and is the number of faces included in one image. Then, the mean value and standard deviation of the shooting period, the mean value and standard deviation of the number of shots, and the mean value and standard deviation of the number of people per image are obtained for the plurality of sub-image groups. In the present embodiment, the number of faces per image is the number of people per image.

図7は、複数のサブ画像群に対して求めた、撮影期間(時間)の平均と標準偏差、撮影枚数の平均と標準偏差、1画像あたりの人数の平均と標準偏差の一例を示す。これらの求めた値は、アルバム作成アプリケーションのプログラムに予め組み込んでおく。つまり、アプリケーションの設計段階で、予め集めた画像を用いた学習によってパラメータを生成し、該生成したパラメータをプログラムに組み込んでおく。アルバム作成アプリケーションが起動された後、ユーザがパスボックス302を介して指定した画像群に対するシーン分割の結果得られたサブ画像群毎に、撮影期間と、撮影枚数と、1画像あたりの人数とのそれぞれの平均値を算出する。そして、シーン毎に、前述したアプリに予め組み込まれたパラメータ(具体的には、各サブ画像群の撮影期間、撮影枚数、撮影人数の特徴量についてのそれぞれの平均値と標準偏差)を用いて、以下の式に従って得点を算出する。 FIG. 7 shows an example of the average and standard deviation of the shooting period (time), the average and standard deviation of the number of shots, and the average and standard deviation of the number of people per image obtained for a plurality of sub-image groups. These obtained values are incorporated in the program of the album creation application in advance. That is, at the design stage of the application, parameters are generated by learning using images collected in advance, and the generated parameters are incorporated into the program. After the album creation application is started, the shooting period, the number of shots, and the number of people per image are determined for each sub-image group obtained as a result of scene division for the image group specified by the user via the pass box 302. Calculate the average value of each. Then, for each scene, the parameters (specifically, the average value and standard deviation of the shooting period, the number of shots, and the feature amount of the number of shots of each sub-image group) built into the above-mentioned application are used. , Calculate the score according to the following formula.

Figure 2020204944
Figure 2020204944

Figure 2020204944
Figure 2020204944

式(1)により、着目サブ画像群の、各シーンおよび各特徴量についての得点が求められる。例えば、旅行シーンについて、撮影期間と、撮影枚数と、撮影人数とのそれぞれの得点が求められる。これらの得点を式(2)により平均化して、旅行シーンに対する得点とする。同様に、日常、セレモニーという他のシーンについても得点が得られる。以上説明した手法により、旅行シーンの平均得点と、日常シーンの平均得点と、セレモニーシーンの平均得点とが、サブ画像群毎に算出される。尚、本実施形態では、式(2)における特徴量の項目数は3である。 From the formula (1), the score for each scene and each feature amount of the sub-image group of interest is obtained. For example, for a travel scene, the shooting period, the number of shots, and the number of shots are required. These scores are averaged by the formula (2) to obtain the score for the travel scene. Similarly, you can get points for other scenes such as daily life and ceremonies. By the method described above, the average score of the travel scene, the average score of the daily scene, and the average score of the ceremony scene are calculated for each sub-image group. In this embodiment, the number of feature quantity items in the formula (2) is 3.

サブ画像群毎に算出したシーン毎の得点のうち最高点のシーンをそのサブ画像群のシーンとして特定する。2以上のシーンが同点の場合は、既定の優先度に従ってシーン分類を行う。例えば、本実施形態では、日常>セレモニー>旅行の順に優先することが予め決められており、日常の優先度を最も高くする。尚、優先度の順番はこれに限定されるものではなく、また、ユーザが優先度の順番を変更できるようにしてもよい。 Of the scores for each scene calculated for each sub-image group, the scene with the highest score is specified as the scene for that sub-image group. If two or more scenes are tied, the scenes are classified according to the predetermined priority. For example, in the present embodiment, priority is given in the order of daily life> ceremony> travel, and the priority of daily life is the highest. The order of priorities is not limited to this, and the user may be able to change the order of priorities.

図6(a)のサブ画像群(1)〜(8)は夫々、画像群に対するシーン分割により得たサブ画像群を示す。これらサブ画像群のうちサブ画像群(5)について、撮影期間が36時間、撮影枚数が300枚、撮影人数が1.7人であったとする。これに対する旅行の平均得点は45.32、日常の平均得点は18.38、セレモニーの平均得点は−29.92であったとする。その場合、サブ画像群(5)のシーンは旅行に分類される。分類したサブ画像群は、シーン識別ができるようにシーンIDを関連付けて管理する。 Sub-image groups (1) to (8) in FIG. 6A show sub-image groups obtained by dividing the image group into scenes, respectively. Of these sub-image groups, it is assumed that the sub-image group (5) has a shooting period of 36 hours, the number of shots is 300, and the number of shots is 1.7. On the other hand, the average score of travel is 45.32, the average score of daily life is 18.38, and the average score of ceremonies is -29.92. In that case, the scene of the sub-image group (5) is classified as a trip. The classified sub-image group is managed by associating the scene ID so that the scene can be identified.

S416では、画像得点部214は、各画像に対する得点付けを行う。この処理を画像得点化と呼ぶ。本ステップで導出する「得点」とは、アルバムへの使用適性を評価するためのパラメータであり、画像データ毎に後述する観点で評価した得点が付けられ、後述の画像選択時に参照される。以下、図8(a)及び図8(b)を用いて、画像得点化の方法について説明する。 In S416, the image scoring unit 214 scores each image. This process is called image scoring. The "score" derived in this step is a parameter for evaluating the suitability for use in an album, and a score evaluated from the viewpoint described later is given to each image data, which is referred to when selecting an image described later. Hereinafter, the method of scoring an image will be described with reference to FIGS. 8 (a) and 8 (b).

図8(a)に画像データの得点化の基準を示す。より具体的には、図8(a)は、旅行、日常、セレモニーという3つのシーンについて、シーン毎に得点が高くなる画像の特徴をまとめたテーブルである。図8(a)に示すように、シーンの種類に応じて、得点が高くなる特徴が異なる。例えば、サブ画像群のシーン分類が旅行である場合、人物と風景が入った引いた画像は得点が高くなる。また、例えば、サブ画像群のシーン分類が日常である場合、顔のアップや横顔の画像は得点が高くなる。また、例えば、サブ画像群のシーン分類がセレモニーである場合、2人の距離が近い画像は得点が高くなる。 FIG. 8A shows the criteria for scoring image data. More specifically, FIG. 8A is a table summarizing the characteristics of images in which the score is high for each of the three scenes of travel, daily life, and ceremony. As shown in FIG. 8A, the feature of increasing the score differs depending on the type of scene. For example, if the scene classification of the sub-image group is travel, the subtracted image containing the person and the landscape will have a higher score. Further, for example, when the scene classification of the sub image group is daily, the score is high for the close-up of the face and the profile image. Further, for example, when the scene classification of the sub image group is a ceremony, the score is high for the images in which the two people are close to each other.

このように、シーンの種類に応じて、得点が高くなる特徴、言い換えれば、評価基準が異なる。本実施形態では、シーンの種類に応じた得点が高くなる特徴は、アプリケーションにおいて予め設定されており、プログラムに含まれるものとする。尚、得点が高くなる特徴は、上述したものに限定されない。本実施形態では、図8(a)に示す各シーンの特徴に基づいて、各サブ画像群に含まれる各画像データに得点を付ける。S4033で取得した各画像における顔の数、各画像における顔の位置、各画像における顔のサイズを用いて、平均値と標準偏差とを各シーンの種類に対して求めて、該求めた値をアルバム作成アプリケーションのプログラムに従い記憶しておく。ユーザが指定した画像群の各画像が何れのシーンに属するか(分類されるか)は、S412のシーン分類の結果から特定する。そして、注目画像のシーンに対応する予め求めた平均値と標準偏差、及び、注目画像における顔の数と顔の位置と顔サイズとの各特徴量に基づいて、以下の式(3)及び式(4)を用いて、得点と平均得点とを算出する。下式における得点、平均値、標準偏差は、シーン毎且つ特徴量毎に求められる。 In this way, the characteristics of high scores, in other words, the evaluation criteria, differ depending on the type of scene. In the present embodiment, the feature that the score increases according to the type of the scene is preset in the application and is included in the program. The feature of increasing the score is not limited to those described above. In the present embodiment, a score is given to each image data included in each sub-image group based on the characteristics of each scene shown in FIG. 8A. Using the number of faces in each image acquired in S4033, the position of the face in each image, and the size of the face in each image, the mean value and the standard deviation were obtained for each scene type, and the obtained value was obtained. Remember according to the program of the album creation application. Which scene each image of the image group specified by the user belongs to (classified) is specified from the result of the scene classification of S412. Then, based on the mean value and standard deviation obtained in advance corresponding to the scene of the attention image, and the feature quantities of the number of faces, the position of the face, and the face size in the attention image, the following equations (3) and equations (3) and equations are used. Using (4), the score and the average score are calculated. The score, mean value, and standard deviation in the following formula are obtained for each scene and each feature amount.

Figure 2020204944
Figure 2020204944

Figure 2020204944
Figure 2020204944

更に、上記の式を用いて算出された得点に対して、アルバム作成条件設定部201で指定されたモードに従って、加点を行う。例えば、アルバム作成のモードが人物と設定された場合に、ある画像について、図5の表に保持されているオブジェクト分類のTOP1からTOP3の値に、カテゴリが人の信頼度が含まれていれば、当該ある画像の得点に加点する。このとき、オブジェクト分類結果の信頼度が高いほど加算する得点を多くしてよい。他にも、加算する得点は、オブジェクト分類結果の順位(つまりTOP1〜TOP3のどれか)に応じて変更してもよい。ここでは説明のために、アルバム作成のモードで人物が選択された場合を説明したが、動物や料理など他のモードであってもよい。また、選択する個数は1つだけでなく、2つ以上を選択してもよい。その場合は、選択されたオブジェクトが含まれている分だけ得点に加点する。また、図5に示すピントの特徴量が○の画像に対しては、上記の式を用いて算出された得点に加点してもよい。これにより、ピントが合っている画像の得点を高くすることができる。図8(b)は、各画像に得点付けした結果の一例として、画像ID毎の得点が保持されたテーブルを示す。 Further, points are added to the score calculated by using the above formula according to the mode specified by the album creation condition setting unit 201. For example, when the album creation mode is set to person, for a certain image, if the values of TOP1 to TOP3 of the object classification held in the table of FIG. 5 include the reliability of the person in the category. , Add points to the score of the certain image. At this time, the higher the reliability of the object classification result, the more points may be added. In addition, the score to be added may be changed according to the rank of the object classification result (that is, any of TOP1 to TOP3). Here, for the sake of explanation, the case where a person is selected in the album creation mode has been described, but other modes such as animals and cooking may be used. Further, the number to be selected is not limited to one, and two or more may be selected. In that case, points will be added to the score as much as the selected object is included. Further, for the image whose focus feature amount shown in FIG. 5 is ◯, points may be added to the score calculated by using the above formula. As a result, the score of the in-focus image can be increased. FIG. 8B shows a table in which the scores for each image ID are held as an example of the results of scoring each image.

尚、本実施形態では、得点化にS403の画像解析結果及びS412の画像分類結果を用いたが、用いるものはこれに限らない。例えば、画像サイズを用いてもよいし、撮影時に使用したレンズ情報などの撮影情報を用いてもよいし、アプリケーションに入力される画像の圧縮フォーマットの情報を用いてもよい。 In the present embodiment, the image analysis result of S403 and the image classification result of S412 are used for scoring, but the ones used are not limited to this. For example, the image size may be used, the shooting information such as the lens information used at the time of shooting may be used, or the compression format information of the image input to the application may be used.

S417では、画像得点部214は、ユーザ指定の画像群の全画像に対してS416の画像得点化が完了したか判定する。本ステップの判定結果が真の場合、S418に進む一方、該判定結果が偽の場合、S416に戻る。 In S417, the image scoring unit 214 determines whether the image scoring of S416 is completed for all the images in the user-designated image group. If the determination result of this step is true, the process proceeds to S418, while if the determination result is false, the process returns to S416.

S418では、見開き割当部215は、ユーザ指定の画像群の全画像をアルバム内の各見開きに割り当てる。図4(c)は、本ステップにおける割り当て処理の詳細なフローチャートである。 In S418, the spread allocation unit 215 allocates all the images of the user-specified image group to each spread in the album. FIG. 4C is a detailed flowchart of the allocation process in this step.

S4181では、見開き割当部215は、画像分類部213のシーン分割により得られたシーン数(サブ画像群の数)がアルバム作成条件設定部201で設定された見開き数と同じか判定する。本ステップの判定結果が真の場合、S4185に進む一方、該判定結果が偽の場合、S4182に進む。例えば、図6(a)に示すようにシーン数が8であり、見開き数が8であれば、S4185に移行する。 In S4181, the spread allocation unit 215 determines whether the number of scenes (the number of sub-image groups) obtained by the scene division of the image classification unit 213 is the same as the number of spreads set by the album creation condition setting unit 201. If the determination result of this step is true, the process proceeds to S4185, while if the determination result is false, the process proceeds to S4182. For example, if the number of scenes is 8 and the number of spreads is 8 as shown in FIG. 6A, the process proceeds to S4185.

S4182では、見開き割当部215は、シーン数がアルバム作成条件設定部201で設定された見開き数より少ないか判定する。本ステップの判定結果が真の場合、S4183に進む一方、該判定結果が偽の場合、S4184に進む。例えば、図6(a)に示すようにシーン数が8であり、見開き数が10であれば、シーン数が見開き数より少なくないため、S4183に移行する。 In S4182, the spread allocation unit 215 determines whether the number of scenes is less than the number of spreads set by the album creation condition setting unit 201. If the determination result of this step is true, the process proceeds to S4183, while if the determination result is false, the process proceeds to S4184. For example, if the number of scenes is 8 and the number of spreads is 10, as shown in FIG. 6A, the number of scenes is not less than the number of spreads, so the process proceeds to S4183.

S4183では、見開き割当部215は、サブシーン分割を行う。「サブシーン分割」とは、シーン数が見開き数より小さい場合に、分割されたシーンを更に細かく分割することを指す。図6(a)に示すようなシーン数が8の場合に指定見開き数が10のケースを例に挙げて説明する。図6(b)は、図6(a)の状態でサブシーン分割を行った結果を示す。図中の破線矢印601、602の箇所でサブ画像群を更に分割することで、シーン数を10にしている。このようなサブシーン分割は、画像枚数および撮影日時を基準として用いて行われる。図6(a)に示す状態からのサブシーン分割では、画像数が多いサブ画像群を特定する。ここでは、シーン数を8から10に2つ増やしたいため、画像数が多い2つのサブ画像群を特定する。つまり、再分割すべきシーンを、最も多くの画像を含むシーンから順に増やしたいシーン数分(ここでは2)指定する。画像数が同数のシーンが複数存在する場合、画像間の撮影日時の差の最大値が大きい方のシーンを選択する。それでも分割対象のシーンを決定できない場合には、例えば時間的に早いシーンを優先的に分割対象とするなど、規則を予め決めておけばよい。図6(a)では、画像数が多いサブ画像群は、多い方からサブ画像群(5)、次にサブ画像群(1)とサブ画像群(2)である。サブ画像群(1)の画像数とサブ画像群(2)の画像数とは等しい。本実施形態では、サブ画像群に含まれる画像数が同じである場合は、サブ画像群に含まれる最初の画像と最後の画像との時間差が大きい方のサブ画像群を分割する。サブ画像群(1)とサブ画像群(2)は、含まれる画像の数は同じだが、サブ画像群(2)の方が最初の画像と最後の画像との時間差が大きいため、サブ画像群(2)が分割対象となる。このように、図6(a)の例では、サブ画像群(5)とサブ画像群(2)とをそれぞれ更に分割する。 In S4183, the spread allocation unit 215 divides the sub-scene. "Sub-scene division" refers to further subdividing the divided scenes when the number of scenes is smaller than the number of spreads. A case where the number of scenes as shown in FIG. 6A is 8 and the number of designated spreads is 10 will be described as an example. FIG. 6B shows the result of sub-scene division in the state of FIG. 6A. The number of scenes is set to 10 by further dividing the sub-image group at the locations of the dashed arrows 601 and 602 in the figure. Such sub-scene division is performed using the number of images and the shooting date and time as a reference. In the sub-scene division from the state shown in FIG. 6A, a sub-image group having a large number of images is specified. Here, since we want to increase the number of scenes by two from 8 to 10, we specify two sub-image groups with a large number of images. That is, the number of scenes to be subdivided is specified by the number of scenes (here, 2) to be increased in order from the scene containing the most images. When there are multiple scenes with the same number of images, the scene with the larger maximum difference in shooting date and time between the images is selected. If the scene to be divided cannot be determined even after that, a rule may be determined in advance, for example, a scene having an earlier time is preferentially divided. In FIG. 6A, the sub-image group having the largest number of images is the sub-image group (5) from the largest number, followed by the sub-image group (1) and the sub-image group (2). The number of images in the sub image group (1) is equal to the number of images in the sub image group (2). In the present embodiment, when the number of images included in the sub-image group is the same, the sub-image group having a larger time difference between the first image and the last image included in the sub-image group is divided. The sub-image group (1) and the sub-image group (2) contain the same number of images, but the sub-image group (2) has a larger time difference between the first image and the last image. (2) is the target of division. As described above, in the example of FIG. 6A, the sub-image group (5) and the sub-image group (2) are further divided.

まず、サブ画像群(2)の分割について説明する。図示するように、サブ画像群(2)には、画像枚数の山が2つあり、この2つは撮影日が違うものとする。この場合、破線矢印601で示すように、撮影日が変わる箇所で分割する。次に、サブ画像群(5)の分割について説明する。サブ画像群(5)には画像枚数の山が3つあり、この3つは撮影日が違うものとする。この場合も、撮影日が変わる箇所で分割する。このとき、撮影日が変わる箇所が2箇所あるが、分割後の各画像群の枚数差が小さくなるように分割する。図6(a)のサブ画像群(5)については、2日目と3日目との境目で分割した方が、1日目と2日目との境目で分割するよりも分割後の各画像群の枚数差が小さくなるので、2日目と3日目の境目で分割する。即ち、破線矢印602で示す箇所で分割する。以上説明したサブシーン分割によりシーン数を8から10にする。尚、ここでは、撮影日の違う箇所で分割したが、画像数が多いサブ画像群が単一日で撮影されたものである場合は、単一日の中で時間差が最大の箇所で分割する。 First, the division of the sub-image group (2) will be described. As shown in the figure, the sub-image group (2) has two peaks of the number of images, and it is assumed that these two have different shooting dates. In this case, as shown by the broken line arrow 601, it is divided at a place where the shooting date changes. Next, the division of the sub-image group (5) will be described. The sub-image group (5) has three peaks of the number of images, and it is assumed that these three have different shooting dates. Also in this case, it is divided at the place where the shooting date changes. At this time, there are two places where the shooting date changes, but the images are divided so that the difference in the number of images of each image group after division becomes small. Regarding the sub-image group (5) of FIG. 6A, each division after the division at the boundary between the second day and the third day is more effective than the division at the boundary between the first day and the second day. Since the difference in the number of image groups becomes small, it is divided at the boundary between the second day and the third day. That is, it is divided at the portion indicated by the broken line arrow 602. The number of scenes is changed from 8 to 10 by the sub-scene division described above. Here, the images are divided at different locations on the shooting date, but if the sub-image group with a large number of images was shot on a single day, it is divided at the location with the largest time difference in the single day. ..

S4184では、見開き割当部215は、シーン統合を行う。「シーン統合」とは、シーン数が見開き数より大きい場合に、分割されたシーン(サブ画像群)を統合することを指す。具体的には、シーン数と見開き数とが等しくなるように、シーン数を減らす。図6(a)に示すようなシーン数が8の場合に指定見開き数が6のケースを例に挙げて説明する。図6(c)は、図6(a)の状態でシーン統合を行った結果を示す。図6(c)中に破線603、604で示す箇所を統合したことで、言い換えれば、この破線で示す箇所で分割しないことで、シーン数(サブ画像群の数)を6にする。シーン統合では、画像数が少ないサブ画像群を、統合対象として特定する。ここでは、シーン数を8から6と2つ減らす目的で、画像数が少ないサブ画像群を2つ特定する必要がある。図6(a)では、画像数が少ないサブ画像群は、少ない方からサブ画像群(8)、次にサブ画像群(3)とサブ画像群(7)である。サブ画像群(3)の画像数とサブ画像群(7)の画像数とは等しい。従って、まず、最も画像数が少ないサブ画像群(8)を統合対象とする。もう1つの統合対象として考えられるサブ画像群(3)とサブ画像群(7)とは、含まれる画像の数は同じだが、サブ画像群(7)に隣接するサブ画像群(8)が統合対象であるため、サブ画像群(8)に隣接しないサブ画像群(3)を統合対象とする。 In S4184, the spread allocation unit 215 integrates the scenes. "Scene integration" refers to integrating divided scenes (sub-image groups) when the number of scenes is larger than the number of spreads. Specifically, the number of scenes is reduced so that the number of scenes and the number of spreads are equal. A case where the number of scenes is 8 and the number of designated spreads is 6 as shown in FIG. 6A will be described as an example. FIG. 6C shows the result of scene integration in the state of FIG. 6A. By integrating the parts indicated by the broken lines 603 and 604 in FIG. 6C, in other words, the number of scenes (the number of sub-image groups) is set to 6 by not dividing the parts indicated by the broken lines. In scene integration, sub-image groups with a small number of images are specified as integration targets. Here, it is necessary to specify two sub-image groups having a small number of images for the purpose of reducing the number of scenes by two from 8 to 6. In FIG. 6A, the sub-image group with the smallest number of images is the sub-image group (8), followed by the sub-image group (3) and the sub-image group (7). The number of images in the sub image group (3) is equal to the number of images in the sub image group (7). Therefore, first, the sub-image group (8) having the smallest number of images is targeted for integration. The sub-image group (3) and the sub-image group (7), which are considered as another integration target, contain the same number of images, but the sub-image group (8) adjacent to the sub-image group (7) is integrated. Since it is a target, the sub-image group (3) that is not adjacent to the sub-image group (8) is targeted for integration.

統合対象のサブ画像群を決定した後、この統合対象のサブ画像群を、撮影日時が前のサブ画像群に統合するか、撮影日時が後のサブ画像群に統合するかを決定する。まず、図6(a)のサブ画像群(3)の統合について説明する。サブ画像群(3)とこの前のサブ画像群(2)との間の時間差と、サブ画像群(3)とこの後のサブ画像群(4)との間の時間差とを比較すると、後者が前者より小さい。従って、サブ画像群(3)は、サブ画像群(4)に統合すると決定する。そして、破線603の箇所にあった異なるサブ画像間の境界がなくなり、サブ画像群の統合がなされる。次に、サブ画像群(8)の統合について説明する。サブ画像群(8)は、これより後のサブ画像群が存在しないため、サブ画像群(8)の前のサブ画像群(7)と統合すると決定する。そして、破線604の箇所にあった異なるサブ画像間の境界がなくなり、サブ画像群の統合がなされる。尚、本実施形態では、撮影時間の差が小さいサブ画像群同士を統合することにしたが、サブ画像群の統合手法はこれに限定されるものではない。例えば、統合対象のサブ画像群を画像数が少ないサブ画像群に統合するようにしてもよい。 After determining the sub-image group to be integrated, it is determined whether the sub-image group to be integrated is integrated into the sub-image group whose shooting date and time is earlier or the sub-image group whose shooting date and time is later. First, the integration of the sub-image group (3) of FIG. 6A will be described. Comparing the time difference between the sub-image group (3) and the previous sub-image group (2) and the time difference between the sub-image group (3) and the subsequent sub-image group (4), the latter Is smaller than the former. Therefore, it is determined that the sub-image group (3) is integrated with the sub-image group (4). Then, the boundary between the different sub-images at the location of the broken line 603 disappears, and the sub-image groups are integrated. Next, the integration of the sub-image group (8) will be described. Since the sub-image group (8) does not have a sub-image group after this, it is determined to integrate with the sub-image group (7) before the sub-image group (8). Then, the boundary between the different sub-images at the location of the broken line 604 disappears, and the sub-image groups are integrated. In the present embodiment, the sub-image groups having a small difference in shooting time are integrated, but the method for integrating the sub-image groups is not limited to this. For example, the sub-image group to be integrated may be integrated into the sub-image group having a small number of images.

S4185では、見開き割当部215は、見開き割当を行う。S4181〜S4184の処理によって、サブ画像群の数は、指定見開き数と同じになっている。本実施形態では、撮影日時が最も古いサブ画像群を先頭の見開きに割り当て、撮影日時順にサブ画像群をアルバムの各見開きのページに割当てる。これにより、撮影日時順にサブ画像群が並んだアルバムを作成することができる。但し、後述する通り、1つの見開きページ内では、画像は撮影日時順に並んでいてもよいし、並んでいなくてもよい。 In S4185, the spread allocation unit 215 performs spread allocation. By the processing of S4181 to S4184, the number of sub-image groups is the same as the designated number of spreads. In the present embodiment, the sub-image group having the oldest shooting date and time is assigned to the first spread, and the sub-image group is assigned to each spread page of the album in the order of shooting date and time. This makes it possible to create an album in which sub-image groups are arranged in order of shooting date and time. However, as will be described later, the images may or may not be arranged in the order of shooting date and time in one spread page.

S419では、画像選択部216は、各サブ画像群から所定枚数の画像を選択する。以下、図9を用いて、ある見開きに割り当てられたサブ画像群から画像を4枚選択するケースを例に挙げて説明する。 In S419, the image selection unit 216 selects a predetermined number of images from each sub-image group. Hereinafter, a case where four images are selected from a sub-image group assigned to a certain spread will be described with reference to FIG. 9 as an example.

図9において、(A)は、見開きに割り当てられたサブ画像群に含まれる最初の画像から最後の画像のまでの撮影日時の時間差、言い換えれば、サブ画像群の撮影期間を示す。図9の(B)を使って、4枚選択する際の1枚目を選択する方法を説明する。図9の(B)に示すサブ画像群の撮影期間に撮影された全ての画像のうち、S416で付けた得点が最も高い画像を、1枚目の画像として選択する。そして、2枚目以降の選択では、サブ画像群の撮影期間を細分化して画像を選択することにより、サブ画像群の撮影期間の一部に選択画像が集中しないようにする。まず、図9の(C)に示すようにサブ画像群の撮影期間を2等分して、2つの撮影区間(期間)とする(グループ分けする)。次に、図9の(D)に示すように、1枚目の画像が選ばれていない撮影区間(実線の区間)に属する画像の中から得点が最も高い画像を、2枚目の画像として選択する。次に、図9の(E)に示すように、(D)の各撮影区間をそれぞれ2等分する。図9の(F)において実線で示す撮影区間、即ち、1枚目と2枚目が選ばれていない2つの撮影区間に撮影された画像(2つの撮影区間に対応する画像)のうち得点が最も高い画像を、3枚目の画像として選択する。次に、画像を選択する撮影区間に画像が存在せず、画像選択できないケースを4枚目の画像選択を例に挙げて説明する。本実施形態では、画像の枚数に関わらず、時間に応じて撮影期間を分割している。従って、分割して得られた撮影区間に画像が存在しない場合がある。例えば、図9の(G)に示すように、まだ画像が選ばれていない撮影区間(斜線の撮影区間)から4枚目の画像を選択したいが、この撮影区間には画像が存在しないとする。このような場合は、図9の(H)に示すように、画像選択済みの各撮影区間をそれぞれ2分割する。次に、図9の(I)に示すように、1〜3枚目が選ばれていない実線の撮影区間に撮影された画像の中から得点が最も高い画像を、4枚目の画像として選択する。尚、選択する画像の枚数が4枚から増減したケースについても、前述と同様に画像を選択すればよい。 In FIG. 9, (A) shows the time difference between the shooting date and time from the first image to the last image included in the sub-image group assigned to the spread, in other words, the shooting period of the sub-image group. A method of selecting the first sheet when selecting four sheets will be described with reference to FIG. 9B. Of all the images taken during the shooting period of the sub-image group shown in FIG. 9B, the image with the highest score given in S416 is selected as the first image. Then, in the selection of the second and subsequent images, the shooting period of the sub image group is subdivided and the images are selected so that the selected images are not concentrated on a part of the shooting period of the sub image group. First, as shown in FIG. 9C, the shooting period of the sub-image group is divided into two equal parts (grouping) into two shooting sections (periods). Next, as shown in (D) of FIG. 9, the image having the highest score among the images belonging to the shooting section (solid line section) in which the first image is not selected is set as the second image. select. Next, as shown in (E) of FIG. 9, each shooting section of (D) is divided into two equal parts. The score of the image taken in the shooting section shown by the solid line in (F) of FIG. 9, that is, the two shooting sections in which the first and second shots are not selected (images corresponding to the two shooting sections) is The highest image is selected as the third image. Next, a case where an image does not exist in the shooting section for selecting an image and the image cannot be selected will be described by taking the fourth image selection as an example. In the present embodiment, the shooting period is divided according to the time regardless of the number of images. Therefore, the image may not exist in the shooting section obtained by dividing. For example, as shown in FIG. 9 (G), it is assumed that the fourth image is selected from the shooting section (diagonal line shooting section) in which the image has not been selected yet, but the image does not exist in this shooting section. .. In such a case, as shown in FIG. 9H, each image-selected shooting section is divided into two. Next, as shown in FIG. 9 (I), the image with the highest score is selected as the fourth image from the images taken in the solid line shooting section in which the first to third images are not selected. To do. In the case where the number of images to be selected is increased or decreased from 4, the images may be selected in the same manner as described above.

図4(a)の説明に戻る。S420では、レイアウト作成部217は、処理対象の見開きのどこにどの画像を配置するかを決定する(画像レイアウトの決定とする)。本実施形態では、見開きの端部に余白を持つレイアウト(基本レイアウトとする)を作成した後、記録時に記録ヘッドの全ノズルを使用するためのレイアウト(補完レイアウトとする)を作成する。図4(d)は、S420の詳細なフローチャートである。 Returning to the description of FIG. 4 (a). In S420, the layout creation unit 217 determines which image is to be arranged in the spread of the processing target (determined by determining the image layout). In the present embodiment, after creating a layout having a margin at the end of the spread (as a basic layout), a layout for using all the nozzles of the recording head during recording (as a complementary layout) is created. FIG. 4D is a detailed flowchart of S420.

S4201では、レイアウト作成部217は、各見開きの基本レイアウトを作成する。ここでは、S403で取得した撮影日時とS416で取得した得点とに基づいて基本レイアウトを作成する方法について、S419で5枚の画像が選ばれた例を挙げながら、図10及び図11を用いて説明する。図10は、選ばれた5枚の画像それぞれに対する撮影日時と得点を示す。まず、見開きに使う画像として選ばれた5枚の画像を、見開き内の2ページの何れかのページに割り当てる。本実施形態では、画像を撮影時間順に並べて、中央で分割する。尚、本例のように選択画像の数が奇数の場合は、中央に近い場所であって、前後の画像の撮影時間差が大きい場所で分割する。次に、各ページにおいて最高得点とそれ以外の得点の合計との比率に従って、ページ内を分割する。ここでは、この得点比率と、分割後のページにおける分割領域の面積比率とが同じになるように、垂直または水平な線分で分割する。尚、分割後の大きい方の矩形と、最高得点の画像とは、長辺の方向が揃っていることが望ましい。また、分割対象の領域は、ページ端部の一定の余白を除いた領域とする。この余白幅の情報は、アルバム作成アプリケーションに予め組み込んでおく。 In S4201, the layout creation unit 217 creates a basic layout for each spread. Here, regarding a method of creating a basic layout based on the shooting date and time acquired in S403 and the score acquired in S416, FIG. 10 and FIG. 11 are used with reference to an example in which five images are selected in S419. explain. FIG. 10 shows the shooting date and time and the score for each of the five selected images. First, the five images selected as the images used for the spread are assigned to any of the two pages in the spread. In the present embodiment, the images are arranged in order of shooting time and divided at the center. When the number of selected images is an odd number as in this example, the image is divided at a location close to the center where the shooting time difference between the preceding and following images is large. Next, the page is divided according to the ratio of the highest score to the total of the other scores on each page. Here, the score ratio is divided into vertical or horizontal line segments so that the area ratio of the divided area on the divided page is the same. It is desirable that the direction of the long side of the larger rectangle after division and the image with the highest score are aligned. The area to be divided is an area excluding a certain margin at the edge of the page. This margin width information is incorporated in the album creation application in advance.

図11(a)は、基本レイアウト作成の際の、1回目のページ分割後の状態を表す。見開きを構成する各ページ内を分割した後、大きい方の矩形内に最高得点の画像を配置する。矩形のうち、端部の一定の余白を除いた領域を画像領域とし、対象画像を拡大、縮小、トリミング処理することで領域に納まるように加工した上で配置する(図11(b)参照)。以後、配置されていない画像とページ内の領域とを用いて、同様の処理を行う(図11(c)参照)。この際、配置されていない画像が1枚のみの場合は、残っているページ内の領域に配置する。尚、ここでは、基本レイアウトとして、撮影日時と画像の得点とに基づいて、画像の配置を決めたが、基本レイアウトの作成方法は、これに限定されない。画像の色やオブジェクト検出の結果に基づいて画像を配置してもよいし、位置情報や撮影条件など、撮影日時以外の画像データに付随する情報に基づいて画像を配置してもよい。 FIG. 11A shows the state after the first page division when the basic layout is created. After dividing each page that constitutes the spread, the image with the highest score is placed in the larger rectangle. Of the rectangle, the area excluding a certain margin at the end is used as the image area, and the target image is enlarged, reduced, and trimmed so that it fits in the area before being arranged (see FIG. 11B). .. After that, the same processing is performed using the unarranged image and the area in the page (see FIG. 11C). At this time, if there is only one image that is not arranged, it is arranged in the area in the remaining page. Here, as the basic layout, the arrangement of the images is determined based on the shooting date and time and the score of the image, but the method of creating the basic layout is not limited to this. The image may be arranged based on the color of the image or the result of object detection, or the image may be arranged based on information accompanying the image data other than the shooting date and time, such as position information and shooting conditions.

S4202では、レイアウト作成部217は、全ての見開きに対してS4201の基本レイアウト作成が完了したか判定する。本ステップの判定結果が真の場合、S4203に進む。一方、本ステップの判定結果が偽の場合、S4201に戻る。 In S4202, the layout creation unit 217 determines whether the basic layout creation of S4201 is completed for all the spreads. If the determination result of this step is true, the process proceeds to S4203. On the other hand, if the determination result of this step is false, the process returns to S4201.

S4203では、レイアウト作成部217は、各見開きの補完レイアウトを作成する。本実施形態では、記録ヘッドの不使用ノズルを少なくするレイアウト方法として、見開き全体に画像を配置する方法を採用する。詳しく説明すると、S419で対象の見開きに割り当てられた画像の何れかを背景画像として見開き全体に配置し、他の画像を前景画像として背景画像の上に重ねて配置する。この際、前景画像は、S4201の基本レイアウト作成と同じ方法で配置する。 In S4203, the layout creation unit 217 creates a complementary layout for each spread. In the present embodiment, as a layout method for reducing unused nozzles of the recording head, a method of arranging an image over the entire spread is adopted. More specifically, any of the images assigned to the target spread in S419 is arranged as the background image in the entire spread, and the other images are arranged as the foreground image on the background image. At this time, the foreground image is arranged in the same manner as in creating the basic layout of S4201.

補完レイアウトは、見開きに割り当てられた各画像を背景画像として、画像枚数と同じ数作成する。尚ここでは、画像の配置方法として、見開き全体に1枚の背景画像を配置したが、画像の配置方法はこれに限られない。背景画像を複数にしてもよいし、見開きのうち片ページのみページ全面に画像を配置してもよいし(図13(a))、紙の搬送方向と同方向に余白領域が続かないように交互に配置してもよい(図13(b))。また、前景画像は基本レイアウトと同じ方法で配置したが、見開きのうち片ページに集めてもよいし(図13(c))、ばらばらに並べてもよい(図13(d))。 In the complementary layout, each image assigned to the spread is used as a background image, and the same number as the number of images is created. Here, as an image arrangement method, one background image is arranged over the entire spread, but the image arrangement method is not limited to this. There may be a plurality of background images, or only one page of the spread may be arranged on the entire page (FIG. 13 (a)) so that the margin area does not continue in the same direction as the paper transport direction. They may be arranged alternately (FIG. 13 (b)). Further, although the foreground images are arranged in the same manner as the basic layout, they may be collected on one page of the spread (FIG. 13 (c)) or arranged separately (FIG. 13 (d)).

S4204では、不使用ノズル判定部219は、不使用ノズル数を算出する。以下、本ステップの不使用ノズルの算出方法について、図12(a)を用いて説明する。図12(a)は、記録ヘッド1202を用いて記録媒体1201に記録する場合の、各見開きの記録結果1203、不使用ノズル1204を表す。図12(b)は、記録媒体1201を図12(a)に示す搬送方向に搬送しながら、記録媒体1201に記録したときの、ノズル位置とある色のインク吐出量と間の関係を示すグラフである。これは、搬送方向と垂直な方向に応じたインク吐出量を、搬送方向に積算したものに相当する。 In S4204, the unused nozzle determination unit 219 calculates the number of unused nozzles. Hereinafter, the method of calculating the unused nozzles in this step will be described with reference to FIG. 12A. FIG. 12A shows the recording result 1203 of each spread and the unused nozzle 1204 when recording on the recording medium 1201 using the recording head 1202. FIG. 12B is a graph showing the relationship between the nozzle position and the ink ejection amount of a certain color when recording on the recording medium 1201 while transporting the recording medium 1201 in the transport direction shown in FIG. 12A. Is. This corresponds to the sum of the ink ejection amounts in the direction perpendicular to the transport direction.

実際に記録装置で記録する際、画像データを構成する色(例えば、レッド(R)、グリーン(G)、ブルー(B))を記録ヘッドに合った色(例えば、CMYKシアン(C)、マゼンダ(M)、イエロー(Y)、ブラック(K))に色分解する。従って、この4チャンネル(CMYK)の画素値を用いて不使用ノズル数を算出することが考えられる。但し本実施形態では、CMYKの各画素値の代わりに、画像データで一般的に用いられるRGBの各画素値に基づき、不吐出ノズル数を算出する。言い換えると、各ノズルにおけるインク吐出量の代わりに、レイアウト結果のビットマップデータの列方向(記録媒体の搬送方向)に沿って、R値、G値、B値をそれぞれ積算した値を用いて、不吐出ノズル数を算出する。RGBの積算値の何れかが0の場合、相当位置のノズルを不使用ノズルとみなす。そして、最終的には、不使用ノズルの数を求める。尚、ここでは、RGBの各画素値を用いて不吐出ノズル数を算出したが、算出方法はこれに限定されない。他の色空間でもよいし、実際の記録工程と同様の色分解やインク吐出量計算を行ってもよいし、面付け等の記録工程時の紙面上への配置を考慮してもよい。例えば、記録媒体の搬送方向に対して垂直な方向に2見開き分並べて記録する場合、記録ヘッドの左側で記録する見開きと、その右側で記録する見開きとのそれぞれに対して、不使用ノズル数を算出する。また、必ずしも記録ヘッドの全てのノズルについてインク不吐出か否かを判定する必要はない。記録媒体の記録面外に位置するノズル(記録領域外のノズル)や、所定の閾値以上連続しないようなノズル、つまり、出力後にノズル不吐出の結果を不良として視認できないノズルは、不使用ノズル数のカウント対象としなくてもよい。例えば、2400dpi(10.6μmピッチ)の間隔でノズルが配置されており、記録媒体上でのドット径が50μmである記録装置で記録する場合を考える。このとき、連続した3ノズルの不吐は、隣接するノズルによる吐出により埋めることができるため、この連続した3ノズルを、不使用ノズルとして考える必要はない。尚、この閾値は、記録装置の解像度や記録条件、記録媒体の特性等に応じて変化させてもよい。 When actually recording with a recording device, the colors that make up the image data (for example, red (R), green (G), blue (B)) are the colors that match the recording head (for example, CMYK cyan (C), magenta). (M), yellow (Y), black (K)). Therefore, it is conceivable to calculate the number of unused nozzles using the pixel values of the four channels (CMYK). However, in the present embodiment, the number of non-ejection nozzles is calculated based on each pixel value of RGB generally used in image data instead of each pixel value of CMYK. In other words, instead of the ink ejection amount at each nozzle, the R value, G value, and B value are integrated along the column direction (conveyance direction of the recording medium) of the bitmap data of the layout result. Calculate the number of non-ejection nozzles. When any of the integrated values of RGB is 0, the nozzle at the corresponding position is regarded as an unused nozzle. Finally, the number of unused nozzles is calculated. Here, the number of non-ejection nozzles is calculated using each pixel value of RGB, but the calculation method is not limited to this. Other color spaces may be used, color separation and ink ejection amount calculation similar to those in the actual recording process may be performed, and arrangement on the paper surface during the recording process such as imposition may be considered. For example, when recording two spreads side by side in a direction perpendicular to the transport direction of the recording medium, the number of unused nozzles is set for each of the spreads recorded on the left side of the recording head and the spreads recorded on the right side. calculate. Further, it is not always necessary to determine whether or not all the nozzles of the recording head are non-ink ejection. The number of unused nozzles is the number of nozzles located outside the recording surface of the recording medium (nozzles outside the recording area) and nozzles that do not continue beyond a predetermined threshold value, that is, nozzles that cannot be visually recognized as defective nozzle non-discharge results after output. It is not necessary to count the number. For example, consider a case where nozzles are arranged at intervals of 2400 dpi (10.6 μm pitch) and recording is performed by a recording device having a dot diameter of 50 μm on a recording medium. At this time, since the non-ejection of the three consecutive nozzles can be filled by the ejection by the adjacent nozzles, it is not necessary to consider the three consecutive nozzles as unused nozzles. The threshold value may be changed according to the resolution of the recording device, recording conditions, characteristics of the recording medium, and the like.

S4205では、レイアウト作成部217は、S4203で作成した補完レイアウトのうち、1つを選ぶ。本実施形態では、対象見開き対応する補完レイアウトとして、S4204で算出した不使用ノズル数の値が最も小さい補完レイアウトを選択する。 In S4205, the layout creation unit 217 selects one of the complementary layouts created in S4203. In the present embodiment, as the complementary layout corresponding to the target spread, the complementary layout having the smallest value of the number of unused nozzles calculated in S4204 is selected.

S4206では、レイアウト作成部217は、全ての見開きに対してS4203からS4205の処理が完了したかを判定する。本ステップの判定結果が真の場合、S4207に進む一方、該判定結果が偽の場合、S4203に戻る。 In S4206, the layout creation unit 217 determines whether the processes of S4203 to S4205 have been completed for all the spreads. If the determination result of this step is true, the process proceeds to S4207, while if the determination result is false, the process returns to S4203.

S4207では、レイアウト作成部217は、補完レイアウトを使う見開きを決定する。本実施形態では、S4204で算出した不使用ノズル数が最も少ない見開きを、補完レイアウトを使う見開きとし、それ以外の見開きは基本レイアウトを使う見開きとする。尚、ここでは、不使用ノズル数が最も少ない見開きを1つ選択したが、選択方法はこれに限定されない。複数の見開きを選ぶことで不使用ノズル数を少なくしてもよいし、特定の範囲の不使用ノズル数が少なくなるような見開きを選んでもよい。 In S4207, the layout creation unit 217 determines the spread to use the complementary layout. In the present embodiment, the spread with the smallest number of unused nozzles calculated in S4204 is a spread using the complementary layout, and the other spreads are spreads using the basic layout. Here, one spread with the smallest number of unused nozzles is selected, but the selection method is not limited to this. The number of unused nozzles may be reduced by selecting a plurality of spreads, or a spread may be selected so that the number of unused nozzles in a specific range is reduced.

S4208では、不使用ノズル判定部219は、アルバム全体で不使用ノズル数が所定の閾値以下になっているか判定する。本ステップの判定結果が真の場合、S421に進む。一方、本ステップの判定結果が偽の場合、S4207で決定した補完レイアウトを使う見開きの決定を維持した状態で、S4203に戻る。なお、図4(d)のフローチャートでは、S4203に戻るが、その限りではない。例えば、S4207に戻り、レイアウト作成部217は、前回のS4207の処理において2番目に不使用ノズル数が少ないと判定された見開きをS4207において補完見開きと決定しても良い。尚、ここでは、アルバム全体での不使用ノズル数が閾値以下になった時点でS421に移行したが、S420の終了条件はこれに限定されない。アルバム全体での不使用ノズル数が所定の閾値以下になった後も補完レイアウトを増やしてもよいし、アルバムの一部分作成時の不使用ノズル数が所定の閾値以下になるまで補完レイアウトを増やしてもよい。本ステップで用いる所定の閾値は、アルバム作成アプリケーションに予め組み込んでおいてもよいし、アルバム作成条件設定部201で設定した値から導出してもよいし、画像データに基づいて導出してもよい。例えば、商材としてマット紙のような不良が目立ちにくい紙種を選んだ場合は閾値を上げる、画像データの低周波成分が多く不良が目立ちやすい場合は閾値を下げる、といったように調整してもよい。 In S4208, the unused nozzle determination unit 219 determines whether the number of unused nozzles in the entire album is equal to or less than a predetermined threshold value. If the determination result of this step is true, the process proceeds to S421. On the other hand, if the determination result of this step is false, the process returns to S4203 while maintaining the determination of the spread using the complementary layout determined in S4207. In the flowchart of FIG. 4D, the process returns to S4203, but this is not the case. For example, returning to S4207, the layout creation unit 217 may determine in S4207 that the spread determined to have the second smallest number of unused nozzles in the previous process of S4207 is a complementary spread. Here, when the number of unused nozzles in the entire album becomes equal to or less than the threshold value, the process shifts to S421, but the termination condition of S420 is not limited to this. The complementary layout may be increased even after the number of unused nozzles in the entire album is below the predetermined threshold, or the complementary layout may be increased until the number of unused nozzles when creating a part of the album is below the predetermined threshold. May be good. The predetermined threshold value used in this step may be incorporated in the album creation application in advance, may be derived from the value set by the album creation condition setting unit 201, or may be derived based on the image data. .. For example, if you select a paper type such as matte paper that has less noticeable defects, you can raise the threshold value, and if there are many low-frequency components in the image data and the defects are more noticeable, you can lower the threshold value. Good.

S421では、レイアウト情報出力部218は、レイアウト情報を作成する。例えば、レイアウト情報出力部218は、S420で決まった通りに各画像をレイアウトした見開き画像を表すビットマップ形式画像データを作成する。 In S421, the layout information output unit 218 creates layout information. For example, the layout information output unit 218 creates bitmap format image data representing a spread image in which each image is laid out as determined in S420.

なお、S421で作成されたレイアウト情報(ビットマップ形式画像データ)が印刷装置に送信されることで、印刷処理が実行される。 The layout information (bitmap format image data) created in S421 is transmitted to the printing apparatus to execute the printing process.

本実施形態によれば、例えば、フルマルチプリンタ等の記録装置で記録してアルバムを作成する際、長時間にわたってノズルが使用されない可能性を軽減できる。その結果、予備吐等のメンテナンス処理を軽減できるため、ユーザ(またはオペレータ)の利便性を向上できる。また、画像の解析結果に基づいて記録ヘッドにおける不使用ノズルを減らすように画像を配置することで、コストを低減できる。 According to this embodiment, for example, when recording with a recording device such as a full multi-printer to create an album, the possibility that the nozzle is not used for a long time can be reduced. As a result, maintenance processing such as preliminary ejection can be reduced, so that the convenience of the user (or operator) can be improved. Further, the cost can be reduced by arranging the images so as to reduce the unused nozzles in the recording head based on the analysis result of the images.

[第2の実施形態]
本実施形態では、使われるノズルを増やすことを画像選択時に考慮する。
[Second Embodiment]
In this embodiment, increasing the number of nozzles used is considered when selecting an image.

<自動レイアウトについて>
以下、本実施形態における自動レイアウトについて、図14(a)を用いて説明する。図14(a)は、本実施形態におけるアルバム作成アプリケーションの自動レイアウトを実行する処理のフローチャートである。尚、前述の実施形態と同じ符号で表す処理に関しては(図4参照)、前述の実施形態の処理と同じであるため、ここでは説明を割愛する。
<About automatic layout>
Hereinafter, the automatic layout in this embodiment will be described with reference to FIG. 14A. FIG. 14A is a flowchart of a process for executing the automatic layout of the album creation application according to the present embodiment. Since the processing represented by the same reference numerals as those in the above-described embodiment (see FIG. 4) is the same as the processing in the above-described embodiment, the description thereof is omitted here.

S1401では、画像選択部216は、各サブ画像群から所定枚数の画像を選択する。ここで本ステップの選択方法の1例として、各見開き内で多くの色が使用される画像を選択する方法について、図14(b)を用いて説明する。 In S1401, the image selection unit 216 selects a predetermined number of images from each sub-image group. Here, as an example of the selection method of this step, a method of selecting an image in which many colors are used in each spread will be described with reference to FIG. 14 (b).

S14011では、画像選択部216は、各画像に対して減色処理を行う。減色処理では、例えば公知のk−means法を用いて、画像内の色が所定数の種類となるように減色する。本実施形態では、画像内の色が5種類となるように減色するが、減色後の種類数は5に限らない。 In S14011, the image selection unit 216 performs color reduction processing on each image. In the color reduction treatment, for example, a known k-means method is used to reduce the colors in the image so that there are a predetermined number of types. In the present embodiment, the colors are reduced so that there are five types of colors in the image, but the number of types after the color reduction is not limited to five.

S14012では、画像選択部216は、サブ画像群から最初の1枚目の画像を選択する。本実施形態では、S416で付けた得点が最高の画像を1枚目の画像として選択する。 In S14012, the image selection unit 216 selects the first first image from the sub-image group. In the present embodiment, the image with the highest score given in S416 is selected as the first image.

S14013では、所定枚数の画像を選択済みか判定する。本ステップの判定結果が真の場合、一連の処理は終了する一方、該判定結果が偽の場合、S14014に進む。 In S14013, it is determined whether or not a predetermined number of images have been selected. If the determination result of this step is true, a series of processes is completed, while if the determination result is false, the process proceeds to S14014.

S14014では、既に選択済みの画像と、既に選択済みの画像を除いたサブ画像群の画像それぞれとの間の色距離を算出する。ここでは、本ステップに色距離算出の例として、色相を用いた色距離算出を説明する。まず、1つ前に選ばれた画像に対して、S14011で得られた減色画像に基づいて、最大面積である色を導出し、該導出した色を代表色とする。次に、既に選択済みの画像を除いたサブ画像群の各画像についても同様に、減色画像に基づいて代表色を決定する。ここで、代表色はHSV(色相、再度、明度)の各値に変換して表すものとする。最後に、1つ前に選ばれた画像の代表色と、既に選択済みの画像を除いたサブ画像群の各画像の代表色との間の差を計算する。ここでは、色相に着目して、色相の差を用いる。尚、色距離として色相の差を用いたが、色距離として他のパラメータの値を用いてもよい。例えば、他の色空間における距離でもよい。 In S14014, the color distance between the already selected image and each of the images in the sub-image group excluding the already selected image is calculated. Here, as an example of color distance calculation in this step, color distance calculation using hue will be described. First, a color having the maximum area is derived from the previously selected image based on the color-reduced image obtained in S14011, and the derived color is used as a representative color. Next, the representative color is similarly determined for each image of the sub-image group excluding the already selected image based on the color-reduced image. Here, the representative color is represented by converting it into each value of HSV (hue, again, brightness). Finally, the difference between the representative color of the previously selected image and the representative color of each image in the sub-image group excluding the already selected image is calculated. Here, paying attention to the hue, the difference in hue is used. Although the difference in hue is used as the color distance, the values of other parameters may be used as the color distance. For example, it may be a distance in another color space.

S14015では、画像選択部216は、選択済みの画像とは異なる色を有する画像を選択する。本実施形態では、S14014で計算した色距離のうち、選択済みの画像との色距離の平均値が最大となる画像を選択する。選択後、S14013に戻る。 In S14015, the image selection unit 216 selects an image having a color different from the selected image. In the present embodiment, among the color distances calculated in S14014, the image having the maximum average color distance from the selected image is selected. After selection, the process returns to S14013.

本実施形態によれば、画像の色に基づいてアルバムに使用する画像を選択することで、記録ヘッドにおける不使用ノズルを低減する結果、コストを低減できる。 According to the present embodiment, by selecting an image to be used for an album based on the color of the image, the number of unused nozzles in the recording head can be reduced, and as a result, the cost can be reduced.

[他の実施形態]
本出願の思想は、上述した実施形態に限定されるものではない。例えば、上述の実施形態では、アルバム作成アプリケーションを例に挙げて説明したが、お勧め画像を自動選択するような画像選択処理を備えるアプリケーションや画像処理装置であってもよい。つまり、アルバム作成に限定されないレイアウトアプリケーションにおいて上述した実施形態が実行されても良い。
[Other Embodiments]
The idea of the present application is not limited to the above-described embodiment. For example, in the above-described embodiment, the album creation application has been described as an example, but an application or an image processing device having an image selection process for automatically selecting a recommended image may be used. That is, the above-described embodiment may be executed in a layout application that is not limited to album creation.

また、図1に示すように、ローカル環境を想定した画像処理装置を例に挙げて説明したが、画像処理装置はこれに限定されるものではない。例えば、サーバ上の画像処理装置であってもよい。この場合は、サーバ内に保存されている画像を利用するか或いは画像をアップロードするようにすればよい。 Further, as shown in FIG. 1, an image processing device assuming a local environment has been described as an example, but the image processing device is not limited to this. For example, it may be an image processing device on a server. In this case, the image stored in the server may be used or the image may be uploaded.

また、上述した実施形態(特にS4208)では、不使用ノズル数が所定の閾値以下となるように補完見開きを決定したがその限りではない。例えば、レイアウト作成部217は、S4207までの処理において使用されないノズルを特定する。そしてレイアウト作成部217は、特定された不使用ノズルの使用頻度を判定し、使用頻度が閾値以下となる不使用ノズルが含まれる場合、S4208においてNoと判定しても良い。つまり、S4204において特定された不使用ノズルの数が多かったとしても、その全ての不使用ノズルの使用頻度が高い場合、レイアウト生成手段は、S4208においてYesと判定しても良い。また、例えば、レイアウト作成部217は、S4207までの処理において使用されないノズルを特定する。そしてレイアウト作成部217は、特定された不使用ノズルの不使用時間を判定し、不使用時間が閾値以上の不使用ノズルが含まれる場合、S4208においてNoと判定しても良い。 Further, in the above-described embodiment (particularly S4208), the complementary spread is determined so that the number of unused nozzles is equal to or less than a predetermined threshold value, but this is not the case. For example, the layout creation unit 217 identifies nozzles that are not used in the processes up to S4207. Then, the layout creation unit 217 determines the frequency of use of the specified unused nozzle, and may determine No in S4208 when the unused nozzle whose frequency of use is equal to or less than the threshold value is included. That is, even if the number of unused nozzles specified in S4204 is large, if the frequency of use of all the unused nozzles is high, the layout generation means may determine Yes in S4208. Further, for example, the layout creation unit 217 identifies nozzles that are not used in the processes up to S4207. Then, the layout creation unit 217 may determine the unused time of the specified unused nozzle, and may determine No in S4208 when the unused nozzle having the unused time equal to or longer than the threshold value is included.

上述した実施形態では、画像が写真であるものとし、写真の撮影日時に基づいてグループ分けをするようにしたが、画像を作成した日時に基づいてグループ分けをするようにしてもよい。 In the above-described embodiment, it is assumed that the image is a photograph, and the grouping is performed based on the shooting date and time of the photograph. However, the grouping may be performed based on the date and time when the image was created.

上述した実施形態では、利用者がモードを指定するものとし、指定されたモードに基づいてレイアウトするようにしたが、アルバムを作成する画像群に対し画像解析を行い、画像群に含まれるオブジェクトの種類の分布等から自動的にモードを設定してもよい。 In the above-described embodiment, the user specifies the mode, and the layout is performed based on the specified mode. However, image analysis is performed on the image group for creating the album, and the objects included in the image group are laid out. The mode may be set automatically based on the distribution of types.

上述した実施形態は、以下の処理を実行することによっても実現される。すなわち、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。尚、前述した第1〜第2の実施形態について、各実施形態の構成を適宜組み合わせて用いてもよい。 The above-described embodiment is also realized by executing the following processing. That is, a program that realizes one or more functions of the above-described embodiment is supplied to the system or device via a network or a storage medium. Then, it can be realized by the process of reading and executing the program by one or more processors in the computer of the system or the device. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. Regarding the above-mentioned first and second embodiments, the configurations of the respective embodiments may be appropriately combined and used.

100 画像処理装置
212 画像解析部
215 見開き割当部
216 画像選択部
217 レイアウト作成部
100 Image processing device 212 Image analysis unit 215 Spread allocation unit 216 Image selection unit 217 Layout creation unit

Claims (12)

ページに対する画像データのレイアウト方法を決定するレイアウト手段と、
前記決定されたレイアウト方法に基づいて印刷装置の印刷処理において使用されない前記印刷装置のノズルに関する情報を特定する特定手段と、
前記特定された前記ノズルに関する情報に基づいて、前記レイアウト方法を変更するか否かを決定する決定手段と、
を備えることを特徴とする装置。
Layout means that determine how to lay out image data for a page,
Specific means for identifying information about nozzles of the printing apparatus that are not used in the printing process of the printing apparatus based on the determined layout method.
A determinant that determines whether or not to change the layout method based on the information about the identified nozzle.
A device characterized by comprising.
前記特定された前記ノズルに関する情報は、前記印刷処理において使用されない前記印刷装置のノズルの数に関する情報であり、
前記印刷処理において使用されない前記印刷装置のノズルの数が閾値以下である場合、前記決定手段は、前記レイアウト方法を変更しないと決定し、
前記印刷処理において使用されない前記印刷装置のノズルの数が前記閾値以下でない場合、前記決定手段は、前記レイアウト方法を変更すると決定することを特徴とする請求項1に記載の装置。
The information about the identified nozzles is information about the number of nozzles of the printing apparatus that are not used in the printing process.
When the number of nozzles of the printing apparatus not used in the printing process is equal to or less than the threshold value, the determining means determines that the layout method is not changed.
The apparatus according to claim 1, wherein when the number of nozzles of the printing apparatus not used in the printing process is not equal to or less than the threshold value, the determining means determines to change the layout method.
前記特定された前記ノズルに関する情報は、前記印刷処理において使用されない前記印刷装置のノズルの使用頻度に関する情報であり、
前記印刷処理において使用されない前記印刷装置のノズルの使用頻度が閾値以下である場合、前記決定手段は、前記レイアウト方法を変更しないと決定し、
前記印刷処理において使用されない前記印刷装置のノズルの使用頻度が閾値以下でない場合、前記決定手段は、前記レイアウト方法を変更すると決定することを特徴とする請求項1に記載の装置。
The identified information about the nozzle is information about the frequency of use of the nozzle of the printing apparatus that is not used in the printing process.
When the frequency of use of the nozzles of the printing apparatus not used in the printing process is equal to or less than the threshold value, the determining means determines that the layout method is not changed.
The apparatus according to claim 1, wherein when the frequency of use of the nozzles of the printing apparatus not used in the printing process is not equal to or less than a threshold value, the determining means determines to change the layout method.
前記特定された前記ノズルに関する情報は、前記印刷処理において使用されない前記印刷装置のノズルの不使用時間に関する情報であり、
前記印刷処理において使用されない前記印刷装置の前記不使用時間が閾値以下である場合、前記決定手段は、前記レイアウト方法を変更しないと決定し、
前記印刷処理において使用されない前記印刷装置の前記不使用時間が閾値以下でない場合、前記決定手段は、前記レイアウト方法を変更すると決定することを特徴とする請求項1に記載の装置。
The information regarding the specified nozzle is information regarding the non-use time of the nozzle of the printing apparatus that is not used in the printing process.
When the non-use time of the printing apparatus not used in the printing process is equal to or less than the threshold value, the determining means determines that the layout method is not changed.
The apparatus according to claim 1, wherein when the non-use time of the printing apparatus not used in the printing process is not equal to or less than a threshold value, the determining means determines to change the layout method.
前記レイアウト手段は、アルバムの見開きページに対する画像データのレイアウト方法として、端部に余白を持つように画像が配置された第1のレイアウト方法と、前記見開きページの全体の矩形の幅に対応するノズルが全て使用されるように画像が配置された第2のレイアウト方法とを決定し、
前記アルバムの見開きページのうち少なくとも1つの見開きページについて、前記第2のレイアウト方法を使用することを決定することを特徴とする請求項1乃至4のいずれか1項に記載の装置。
The layout means is a first layout method in which an image is arranged so as to have a margin at an end as a method of laying out image data for a spread page of an album, and a nozzle corresponding to the width of the entire rectangle of the spread page. Determined with a second layout method in which the images were arranged so that all were used,
The apparatus according to any one of claims 1 to 4, wherein it is determined to use the second layout method for at least one spread page of the double-page spread of the album.
前記アルバムは、記録装置が搬送方向に沿って記録媒体を搬送し該記録媒体に記録することで作成され、
前記幅は、前記搬送方向と垂直な方向の幅であることを特徴とする請求項5に記載の装置。
The album is created by the recording device transporting the recording medium along the transport direction and recording on the recording medium.
The device according to claim 5, wherein the width is a width in a direction perpendicular to the transport direction.
前記第2のレイアウト方法では、
見開きページの全体に背景画像として1つの画像データが配置されているか、
見開きページを構成する2ページのうち何れかの全面に1つの画像データが配置されているか、又は
矩形の画像と矩形の余白とが交互に配置されている
ことを特徴とする請求項5又は6に記載の装置。
In the second layout method,
Is one image data arranged as a background image on the entire spread page?
Claim 5 or 6 characterized in that one image data is arranged on the entire surface of any one of the two pages constituting the spread page, or rectangular images and rectangular margins are arranged alternately. The device described in.
複数の画像データからレイアウトされる画像データを、使用されている色に関する情報に基づいて選択する選択手段を更に備えることを特徴とする請求項1乃至7の何れか1項に記載の装置。 The apparatus according to any one of claims 1 to 7, further comprising a selection means for selecting image data laid out from a plurality of image data based on information on colors used. 前記選択手段は、既に選択済みの画像と、該既に選択済みの画像を除いた画像群の画像それぞれとの間の色距離に基づいて、選択することを特徴とする請求項8に記載の装置。 The apparatus according to claim 8, wherein the selection means selects an image based on a color distance between the already selected image and each of the images of the image group excluding the already selected image. .. 前記選択手段は、前記既に選択済みの画像を除いた画像群の中から、前記色距離が最大の画像を選択することを特徴とする請求項9に記載の装置。 The apparatus according to claim 9, wherein the selection means selects an image having the maximum color distance from an image group excluding the already selected image. ページに対する画像データのレイアウト方法を決定するステップと、
前記決定されたレイアウト方法に基づいて印刷装置の印刷処理において使用されない前記印刷装置のノズルに関する情報を特定するステップと、
前記特定された前記ノズルに関する情報に基づいて、前記レイアウト方法を変更するか否かを決定するステップと、
を備えることを特徴とする方法。
Steps to determine how to lay out image data for a page,
A step of identifying information about nozzles of the printing device that are not used in the printing process of the printing device based on the determined layout method.
A step of deciding whether or not to change the layout method based on the information about the identified nozzle.
A method characterized by providing.
コンピュータに請求項11に記載の方法を実行させるためのプログラム。 A program for causing a computer to perform the method according to claim 11.
JP2019112700A 2019-06-18 2019-06-18 Apparatus, method, and program Active JP7408304B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019112700A JP7408304B2 (en) 2019-06-18 2019-06-18 Apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019112700A JP7408304B2 (en) 2019-06-18 2019-06-18 Apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2020204944A true JP2020204944A (en) 2020-12-24
JP7408304B2 JP7408304B2 (en) 2024-01-05

Family

ID=73837039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019112700A Active JP7408304B2 (en) 2019-06-18 2019-06-18 Apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP7408304B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008137253A (en) * 2006-12-01 2008-06-19 Seiko Epson Corp Printer, printer control program and control method of printer, image processor, image processing program and method for processing image, and storage medium that memorized the program
JP2012101516A (en) * 2010-11-12 2012-05-31 Seiko Epson Corp Printing apparatus and method
JP2014226816A (en) * 2013-05-20 2014-12-08 株式会社リコー Image forming apparatus and power supply control method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008137253A (en) * 2006-12-01 2008-06-19 Seiko Epson Corp Printer, printer control program and control method of printer, image processor, image processing program and method for processing image, and storage medium that memorized the program
JP2012101516A (en) * 2010-11-12 2012-05-31 Seiko Epson Corp Printing apparatus and method
JP2014226816A (en) * 2013-05-20 2014-12-08 株式会社リコー Image forming apparatus and power supply control method

Also Published As

Publication number Publication date
JP7408304B2 (en) 2024-01-05

Similar Documents

Publication Publication Date Title
JP6938422B2 (en) Image processing equipment, image processing methods, and programs
JP7224774B2 (en) Image processing device, image processing method, and program
US11570312B2 (en) Image processing apparatus, image processing method, and storage medium to select an image to be arranged in an added page in an album
JP6711937B2 (en) Image processing device, image processing method, and program
US11627227B2 (en) Image processing apparatus, image processing method, and storage medium
CN108377351B (en) Image processing apparatus and image processing method for laying out images on template
JP6702900B2 (en) Information processing apparatus, display control method, and program
US11470209B2 (en) Image processing apparatus, method of controlling image processing apparatus, and storage medium for editing an album
US20220262054A1 (en) Storage medium, image processing apparatus, and image processing method
US20220262057A1 (en) Storage medium, image processing apparatus, and image processing method
US20220262055A1 (en) Image processing apparatus, image processing method, and storage medium
JP2020140567A (en) Device, method, and program
US20140009796A1 (en) Information processing apparatus and control method thereof
JP2022123213A (en) Image processing apparatus, method for controlling the same, and program
JP2020140557A (en) Image processing device, control method, and program
JP7336209B2 (en) Image processing device, control method, and program
US8417068B2 (en) Image processing apparatus
US11509777B2 (en) Image processing apparatus, image processing method, and storage medium
JP7027101B2 (en) Information processing equipment, control methods, and programs
US11979523B2 (en) Storage medium, image processing method, and image processing apparatus
JP7408304B2 (en) Apparatus, method, and program
JP2021149196A (en) Image processing apparatus, image processing method, and program
US11978133B2 (en) Image processing apparatus, image processing method, and storage medium
JP7336212B2 (en) Image processing device, control method, and program
JP7336210B2 (en) Image processing device, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231220

R151 Written notification of patent or utility model registration

Ref document number: 7408304

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151