JP2020204944A - Apparatus, method and program - Google Patents
Apparatus, method and program Download PDFInfo
- Publication number
- JP2020204944A JP2020204944A JP2019112700A JP2019112700A JP2020204944A JP 2020204944 A JP2020204944 A JP 2020204944A JP 2019112700 A JP2019112700 A JP 2019112700A JP 2019112700 A JP2019112700 A JP 2019112700A JP 2020204944 A JP2020204944 A JP 2020204944A
- Authority
- JP
- Japan
- Prior art keywords
- image
- layout
- sub
- images
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 93
- 230000008859 change Effects 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims description 47
- 239000003086 colorant Substances 0.000 claims description 7
- 238000012545 processing Methods 0.000 abstract description 49
- 238000010191 image analysis Methods 0.000 description 20
- 230000000295 complement effect Effects 0.000 description 14
- 230000010354 integration Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 102100024607 DNA topoisomerase 1 Human genes 0.000 description 2
- 102100040401 DNA topoisomerase 3-alpha Human genes 0.000 description 2
- 101000830681 Homo sapiens DNA topoisomerase 1 Proteins 0.000 description 2
- 101000611068 Homo sapiens DNA topoisomerase 3-alpha Proteins 0.000 description 2
- 238000010411 cooking Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本出願は、装置、方法、及びプログラムに関し、より具体的には、アルバム作成をする装置、方法、及びプログラムに関する。 The present application relates to devices, methods and programs, and more specifically to devices, methods and programs for creating albums.
デジタルカメラの普及に加え、近年ではスマートデバイスの普及及びスマートデバイスのカメラ性能の向上により、ユーザの写真撮影枚数が急激に増加している。撮影枚数の増加に伴い、撮影される被写体のバリエーションも増加している。 In recent years, in addition to the spread of digital cameras, the number of photographs taken by users has increased sharply due to the spread of smart devices and the improvement of camera performance of smart devices. As the number of shots increases, so does the variation of the subject to be shot.
デジタルカメラで撮影した複数の写真に対する自動レイアウトを行うことでアルバムを作成する方法として、特許文献1が開示されている。
インクジェットプリンタでは、記録ヘッドに長時間使用していないノズルがある場合、インク固着を避けるため予備吐等の対策を取る必要がある。しかしながら、特許文献1では、ノズルの使用と不使用を考慮したレイアウト処理について開示されておらず、ユーザの利便性が低下するおそれがあった。
In an inkjet printer, if the recording head has a nozzle that has not been used for a long time, it is necessary to take measures such as preliminary ejection to avoid ink sticking. However,
本発明の一実施形態は、ページに対する画像データのレイアウト方法を決定するレイアウト手段と、前記決定されたレイアウト方法に基づいて印刷装置の印刷処理において使用されない前記印刷装置のノズルに関する情報を特定する特定手段と、前記特定された前記ノズルに関する情報に基づいて、前記レイアウト方法を変更するか否かを決定する決定手段と、を備えることを特徴とする装置である。 One embodiment of the present invention specifies a layout means that determines a method of laying out image data for a page and specifies information about nozzles of the printing device that are not used in the printing process of the printing device based on the determined layout method. The apparatus is characterized by comprising means and a deciding means for determining whether or not to change the layout method based on the specified information about the nozzle.
本出願によれば、ユーザの利便性を向上することができる。 According to the present application, the convenience of the user can be improved.
[第1の実施形態]
本実施形態では、画像処理装置において、アルバム作成のためのアプリケーション(以下、「アプリケーション」または単純に「アプリ」ともいう)を動作させる。このアプリケーションは、複数の写真画像が自動でレイアウトされたアルバムを出力するためのレイアウト情報を作成する。そして、このレイアウト情報を用いて記録することで、印刷物としてのアルバムが作成される。
[First Embodiment]
In the present embodiment, the image processing device operates an application for creating an album (hereinafter, also referred to as "application" or simply "application"). This application creates layout information for outputting an album in which multiple photographic images are automatically laid out. Then, by recording using this layout information, an album as a printed matter is created.
<画像処理装置のハードウェア構成について>
以下、本実施形態における画像処理装置のハードウェア構成について、図1を用いて説明する。尚、以下では、画像処理装置が情報処理装置(PC)のケースを説明するが、画像処理装置として、スマートフォン等の他の装置を採用してもよい。
<About the hardware configuration of the image processing device>
Hereinafter, the hardware configuration of the image processing apparatus according to the present embodiment will be described with reference to FIG. In the following, the case where the image processing device is an information processing device (PC) will be described, but another device such as a smartphone may be adopted as the image processing device.
図1に示すように、画像処理装置100は、CPU101と、ROM102と、RAM103と、HDD104と、ディスプレイ105と、キーボード106と、マウス107と、データ通信装置108と、を有する。これらの部品は、データバス109により接続されており、相互にデータを送信または受信することができる。
As shown in FIG. 1, the
CPU101は、画像処理装置100全体を制御する。また、CPU101は、本実施形態で説明する画像処理方法をプログラムに従って実行する。尚、図1では、画像処理装置は1個のCPUを有するが、画像処理装置は複数のCPUを有してもよい。
The
ROM102には、CPU101が実行するプログラムが記憶されている。RAM103は、CPU101によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供する。HDD104には、画像ファイルや画像解析等の処理結果を保持するデータベース等が記憶され、本実施形態では、このHDD104に、アルバム作成のためのアプリケーションプログラムが記憶されている。尚、このアプリケーションプログラムについては、アルバム作成アプリと呼ばれることもあり、図3等を用いて後述する。
The
ディスプレイ105は、本実施形態のユーザインターフェイス(以下UI)や画像のレイアウト結果を表示して、ユーザに提示するための装置である。ディスプレイ105は、タッチセンサー機能を有してもよい。キーボード106は、画像処理装置100が有する入力装置の1つであり、例えば、ディスプレイ105に表示されたGUI上に所定の情報を入力するために用いられる。本実施形態では、ユーザは、キーボード106を介してアルバムの見開き数を入力する。マウス107は、画像処理装置100が有する入力装置の1つであり、例えば、ディスプレイ105に表示されたGUI上のボタンをクリックして押下するために用いられる。
The
データ通信装置108は、記録装置やサーバ等の外部装置と通信するための装置である。例えば、自動レイアウトの結果取得された画像レイアウトに関する情報は、データ通信装置108を介して、画像処理装置100に接続された記録装置やサーバに送信される。データバス109は、上述した各構成要素とCPU101とを接続する。以上が、本実施形態における画像処理装置のハードウェア構成についての内容である。
The
<画像処理装置のソフトウェア構成について>
以下、本実施形態における画像処理装置のソフトウェア構成、言い換えると、画像処理装置にインストールされているアルバム作成アプリケーションにより実現される機能構成について、図2を用いて説明する。アルバム作成アプリケーションは、ディスプレイ105に表示されているアプリケーションのアイコンがユーザによりマウス107を使ってダブルクリックされること等により起動する。アルバム作成アプリケーションは様々な機能を有するが、以下では主に、本実施形態において特に重要な機能である、自動レイアウト処理部210により提供される自動レイアウト機能を説明する。
<About the software configuration of the image processing device>
Hereinafter, the software configuration of the image processing device in the present embodiment, in other words, the functional configuration realized by the album creation application installed in the image processing device will be described with reference to FIG. The album creation application is started by the user double-clicking the application icon displayed on the
図2に示すように、このアプリは、アルバム作成条件設定部201と、自動レイアウト処理部210と、アルバム表示部202と、を有する。「自動レイアウト機能」とは、撮影された写真の画像をその内容や属性に基づいて分類ないし選択した上でレイアウトして、レイアウト情報を作成する機能である。作成されたレイアウト情報に基づくアルバム画像は、ディスプレイ105に表示される。
As shown in FIG. 2, this application has an album creation
アルバム作成条件設定部201は、マウス107によるUI操作に応じたアルバム作成条件を、自動レイアウト処理部210に設定する。本実施形態では、アルバム作成条件として、アルバムに使用する画像群、アルバムの見開き数、アルバム作成のモード、アルバムを作成する商材を設定する。画像郡の設定は、例えば撮影日時など個別の画像データの付随情報や属性情報を用いて設定してもよいし、デバイスやディレクトリの設定など、画像データが保存されているファイルシステムの構造に基づいて設定してもよい。尚、「見開き」とは、例えば表示においては1つの表示用ウィンドウに相当し、印刷においては、異なるシートに印刷された、互いに隣接する1対のページに相当する。
The album creation
画像取得部211は、HDD104に保存されている画像の中から、アルバム作成条件設定部201により設定されたアルバム作成条件を満たす画像群(画像データ群)を取得する。ここでいう画像群とは、1つのアルバム作成の際に見開きに配置する候補となる候補画像群を指す。例えば、アルバム作成条件設定部201において、XX年1月1日〜XX年12月31日が指定された場合は、XX年1月1日〜XX年12月31日に撮影された画像全てが、レイアウト候補の画像群に該当する。HDD104に保存されている画像としては、静止画像や、動画から切り出された切り出し画像が挙げられる。静止画像や切り出し画像は、デジタルカメラやスマートデバイス等の撮像デバイスから取得したものである。撮像デバイスは、画像処理装置100が備えていてもよいし、画像処理装置100の外部装置が備えるものであってもよい。尚、撮像デバイスが外部装置である場合は、画像取得部211は、データ通信装置108を介して画像を取得する。また、静止画像や切り出し画像は、外部のネットワークやサーバからデータ通信装置108を介して取得した画像であってもよい。ネットワークやサーバから取得した画像としては、ソーシャルネットワーキングサービス画像(以下、SNS画像)が挙げられる。CPU101はOSのプログラムを実行することで、各画像に対して、画像に付随するデータを解析し、画像の取得先である保存元を求める。但し、アプリケーションを介してSNSから画像を取得することで、アプリケーション内で該画像の取得先を管理してもよい。尚、画像取得部211が取得する画像は、上述した画像に限定されるものではなく、他の種類の画像であってもよい。
The image acquisition unit 211 acquires an image group (image data group) that satisfies the album creation condition set by the album creation
画像解析部212は、画像取得部211が取得した画像データに対する解析処理を実行する。本実施形態では、画像の特徴量を取得し、画像内のオブジェクト判定、顔検出、検出した顔の表情認識、検出した顔の個人認識を実行する。さらに、画像解析部212は、HDD104から取得した画像に付随したデータ(例えば、Exif情報)を参照して、撮影日時の情報を取得する。尚、画像解析部212が画像データを解析した結果得られる情報を「画像解析情報」と呼ぶ。
The
画像分類部213は、画像解析部212で導出した画像解析情報を用いることで、画像取得部211で取得した画像群をシーン毎に分類するシーン分割を実行する。このシーン分割は、撮影日時の情報、取得画像の枚数の情報、検出した顔の情報を使って実行する。シーンの画像とは、例えば、ある撮影対象について一時期の撮影機会に撮影された画像の集まり(サブ画像群)ということができ、このような撮影機会として、例えば、旅行、日常、結婚式、等が挙げられる。
The
画像得点部214は、アルバム作成条件設定部201にて設定されたアルバム作成条件および画像解析部212にて導出された画像解析情報に基づき、各画像に対して得点付けを行う。本実施形態では、レイアウトに適した画像が高得点になるように各画像に対して得点付けを行う。画像に得点付けする際は、画像解析情報を含む画像情報、画像の分類結果、アルバム作成条件を用いる。但し、他の情報を付加的に或いは代替的に用いてもよい。レイアウトに適した画像とは、例えばコントラストが高い、エッジがシャープである、といった審美性が高い画像が挙げられる。
The
見開き割当部215は、画像群を分割して各見開きに割り当てる。ここでいう見開きとは、例えば、アルバムにおける見開き、つまり2ページに該当する。尚、ここでは、見開きに画像群を割り当てる形態を説明するが、ページに画像群を割り当てる形態でもよい。見開き割当部215は、入力された見開き数と画像分類結果とに基づいて画像群を分割し、各見開きに画像群の一部を割り当てる。例えば、入力された見開き数が5の場合、取得した画像群を5つの小画像群に分割し、各見開きに1つの小画像群を割当てる。
The
画像選択部216は、見開き割当部215で各見開きに割り当てられた小画像群において、画像得点部214で付けた得点に基づいて、アルバムに使用する画像を選択する。
The image selection unit 216 selects an image to be used for the album based on the score given by the
レイアウト作成部217は、見開きのレイアウトを作成する。具体的には、レイアウト作成部217は、画像選択部216で選択された画像と、不使用ノズル判定部219で判定された不使用ノズルとに基づき、各画像の配置位置を決定する。
The
レイアウト情報出力部218は、レイアウト作成部217が作成したレイアウトに従って、レイアウト情報を出力する。レイアウト情報は、例えば、各画像が指定の位置に配置された見開きを描画するビットマップ形式画像データである。レイアウト情報出力部218から出力された画像データは、例えば図3に示すようなGUIを介するユーザ指示が入力された場合に、ディスプレイ105に表示される。
The layout
不使用ノズル判定部219は、レイアウト情報出力部218から出力されたレイアウト情報に基づき、アルバム作成時に記録装置のどのノズルが使われないかを判定する。
The unused
アルバム表示部202は、レイアウト情報出力部218から出力されたビットマップ形式画像データに基づいて、アルバムの画像をディスプレイ105に表示する。
The
本実施形態におけるアルバム作成アプリケーションのプログラムが、画像処理装置100にインストールされると、画像処理装置100上で動作するOS(オペレーティングシステム)のトップ画面(デスクトップ)上にこのアプリの起動アイコンが表示される。ユーザがディスプレイ105に表示されているデスクトップ上の起動アイコンをマウス107でダブルクリックすると、HDD104に保存されているアルバム作成アプリケーションのプログラムがRAM103にロードされる。そして、RAM103にロードされたプログラムがCPU101によって実行されて、アルバム作成アプリケーションが起動する。以上が、本実施形態における画像処理装置のソフトウェア構成についての内容である。尚、アプリケーションは、別の形態でも良く、例えば画像処理装置100で動作するブラウザ内で画面等を表示するWebアプリでも良い。
When the program of the album creation application in this embodiment is installed in the
<GUIについて>
以下、本実施形態におけるアルバム作成アプリケーションのGUIについて、図3を用いて説明する。図3は、起動したアルバム作成アプリケーションによって提供され、ディスプレイ105に表示されるGUI301を示す図である。ユーザは、GUI301を介して、アルバム作成条件を設定することができる。
<About GUI>
Hereinafter, the GUI of the album creation application in this embodiment will be described with reference to FIG. FIG. 3 is a
GUI301は、アルバムに含ませる写真画像の設定部として、パスボックス302及びフォルダ選択ボタン303を有する。パスボックス302は、アルバム作成の対象となる画像群のHDD104における保存場所(パス)を示すためのボックスである。フォルダ選択ボタン303は、アルバム作成の対象とする画像群を含むフォルダを選択するためのボタンである。ユーザがフォルダ選択ボタン303をマウス107でクリックすると、複数フォルダから構成されるツリーが表示される。そして、アルバム作成の対象とする画像群を含むフォルダをユーザが選択すると、該選択したフォルダのフォルダパスがパスボックス302に表示される。
The
見開き数ボックス304は、アルバム1冊あたりの見開き数を指定するためのボックスである。ユーザは、キーボード106を使って見開き数ボックス304に数字を直接入力したり、マウス107を使ってリストから見開き数ボックス304に数字を入力したりすることができる。
The
モード指定部307には、アルバムを作成する際に考慮するオブジェクトが分かるイラスト画像がアイコンとして複数表示されている。ユーザは該表示されている複数アイコンの中から任意のアイコンを選択ことで、該考慮するオブジェクトを指定することができる。尚、本実施形態では、考慮する可能性のあるオブジェクトとして、「人」、「動物」、「料理」という3つのオブジェクトを採用するケースを説明する。但し、これ以外のオブジェクトを採用し、3つ以上のオブジェクトの中から、考慮するオブジェクトを選択してもよい。また、同時に複数のオブジェクトを指定することも可能だが、ここでは説明の簡略化のためにオブジェクトが1つ選択されたとする。ユーザは、アイコンをマウス107でクリックすることにより、考慮するオブジェクトを指定する。
In the
見開き写真枚数設定部309は、作成するアルバムの各見開きに配置する画像の枚数を設定するためのスライダーバーである。スライダーが「多」側に移動されると、各見開きに配置する画像の枚数が増える。一方、スライダーが「少」側に移動されると、各見開きに配置する画像の枚数が減る。
The spread photo
商材指定部310は、作成するアルバムの商材を設定するための要素である。設定する商材に関する具体的な項目としては、アルバムのサイズ、アルバムの用紙種類を採用することができる。表紙種類や綴じ部の種類を設定してもよい。
The
OKボタン311は、選択された条件をアルバム作成条件として決定するボタンである。ユーザがOKボタン311をマウス107でクリックすると、アルバム作成条件が確定し、アルバム作成条件設定部201を介して、自動レイアウト処理部210にアルバム作成条件が伝えられる。具体的に説明すると、パスボックス302に入力されているパスの情報は、画像取得部211に伝えられる。また、見開き数ボックス304に入力されている見開き数の値は、見開き割当部215に伝えられる。
The
リセットボタン312は、表示画面上の各設定内容をリセットするためのボタンである。以上が、本実施形態におけるアルバム作成アプリケーションのGUIについての内容である。
The
<自動レイアウトについて>
以下、本実施形態における自動レイアウトについて、図4(a)を用いて説明する。図4(a)は、本実施形態におけるアルバム作成アプリケーションの自動レイアウトを実行する処理のフローチャートである。図4(a)〜(d)に示すフローチャートは、例えば、CPU101がHDD104に格納されたプログラムをROM102やRAM103に読み出して実行することにより実現される。尚、本実施形態では、アルバムを作成する際に、アルバムを作成するための画像群を画像の撮影時間に応じて分割し、分割した各サブ画像群(以下、「区間」ともいう)からページに配置する画像を選択する。
<About automatic layout>
Hereinafter, the automatic layout in this embodiment will be described with reference to FIG. 4A. FIG. 4A is a flowchart of a process for executing the automatic layout of the album creation application according to the present embodiment. The flowcharts shown in FIGS. 4A to 4D are realized, for example, by the
ステップS401では、アルバム作成条件設定部201は、アルバム作成条件を設定する。尚、以下では、「ステップS〜」を単純に「S〜」と略記する。本実施形態では、アルバム作成条件として、アルバムに使用する画像群、見開き数、アルバム作成のモード、アルバムを作成する商材を設定する。
In step S401, the album creation
S402では、画像取得部211は、アルバム作成条件設定部201で設定された条件を満たす画像を、HDD104から読み込み、RAM103に展開する。
In S402, the image acquisition unit 211 reads an image satisfying the conditions set by the album creation
S403では、画像解析部212は、RAM103に展開された画像データを解析する。本ステップの解析について、図4(b)を用いて説明する。
In S403, the
S4031では、画像解析部212は、画像取得部211が取得した画像データに付随する情報を参照し、画像データに対応する撮影日時の情報を取得する。本実施形態では、各画像データに付随するExif情報から撮影日時の情報を取得する。
In S4031, the
S4032では、画像解析部212は、画像取得部211が取得した画像データに対する画質の特徴量を導出する。画質の特徴量としては、例えば、ピント量が挙げられる。ピント量の判別手法として、エッジの検出手法を用いることができ、エッジの検出方法として、公知のソーベルフィルタを用いることができる。ソーベルフィルタで画像のエッジを検出し、エッジの始点と終点との間の輝度差を、始点と終点との間の距離で割ることで、輝度勾配(即ちエッジの傾き)を算出する。画像中のエッジの平均傾きを算出して、平均傾きが大きい画像は、平均傾きが小さい画像よりもピントが合っていると判定することができる。本実施形態では、エッジの平均傾きの大きさを測るための複数の傾き閾値を設定し、算出したエッジの平均傾きが何れの傾き閾値以上か判定することで、許容できるピント量か判定する。具体的には、異なる2つの傾き閾値として、第1の傾き閾値および第2の傾き閾値(尚、第1の傾き閾値>第2の傾き閾値)を設定し、○△×の3段階でピント量を判別する。画像中のエッジの平均傾きが第1の閾値以上であれば、好適なピント量とする(○で表す)。また、画像中のエッジの平均傾きが第1の閾値未満且つ第2の閾値以上であれば、許容できるピント量とし(△で表す)、画像中のエッジの平均傾きが第2の閾値未満であれば許容できないピント量とする(×で表す)。
In S4032, the
S4033では、画像解析部212は、画像取得部211が取得した画像データに対し、オブジェクト検出および該検出したオブジェクトの分類を行う。本実施形態では、顔を検出する。顔の検出方法として、任意の公知方法を採用することができる。このような公知方法として例えば、複数用意した弱識別器から強識別器を作成するAdaBoostが挙げられる。本実施形態では、AdaBoostにより作成した強識別器を用いて人物の顔を検出する。S4033では、顔を検出すると共に、画像における該検出した顔の領域の左上座標値と右下座標値とを取得する。この2種の座標値を求めることにより、顔の位置と顔のサイズとを特定することができる。更に、人物の顔と同様に、犬や猫等の動物と、料理とをそれぞれ検出するAdaBoostも併せて実行することで、人物、動物、料理のオブジェクトを検出すると同時に、画像内のオブジェクトが何か分類することができる。尚、検出対象のオブジェクトは上記のものに限らず、花、建物、置物等であってもよい。
In S4033, the
S4031〜S4033で取得した各画像データの解析結果としての画像解析情報は、図5に示すように、画像を識別するID毎に区別してHDD104に記憶する。画像内に含まれる主要オブジェクトに関する値は、AdaBoost実行時の信頼度が高いものから保持される。一方、検出されなかったオブジェクトに関する値は、保持されない。AdaBoostはパターンを判別する弱判別器を連続で接続し、1つの強判別器を形成する。そのため、信頼度はAdaboostで予め学習したパターンと一致する弱判別器が多いほど高くなる。尚、ここでは、AdaBoostを例に挙げてオブジェクト判定を説明したが、DeepNeuralNetworkを始めとするConvolutionalNeuralNetworkを用いた判別器であってもよい。
As shown in FIG. 5, the image analysis information as the analysis result of each image data acquired in S4031 to S4033 is stored in the
図4(a)の説明に戻る。S411では、画像解析部212は、S401で設定された条件を満たす画像群の全画像に対して、S402からS403の処理が完了したかを判定する。本ステップの判定結果が真の場合、S412に進む一方、該判定結果が偽の場合、S402に戻る。
Returning to the description of FIG. 4 (a). In S411, the
S412では、画像分類部213は、アルバム作成条件設定部201によって設定された条件を満たす画像群に対して、シーン分割及びシーン分類を実行する。「シーン分割」とは、取得した画像群をシーンに応じて複数のサブ画像群に分割することを指す。具体的には、S4031で取得済みの撮影日時の情報を用いて、画像と画像との時間差に基づき画像群を複数のサブ画像群に分割する。実際の分割の例は、以下の通りである。
In S412, the
画像群のうち、例えば最も撮影日時が古い(または新しい)画像に最初に着目し、その次に古い(または新しい)画像との時間差を算出し、該算出した時間差が所定の閾値以上か否か判定する。このような処理を、着目画像を撮影時間が新しい(或いは古い)ものに順次置き換えながら、全ての画像に対して行う。尚、S412における「分割」とは、2つの画像間を境に撮影日時の新しい方と古い方とに画像群を分割するという意味である。ある画像の撮影日と別の画像の撮影日とが同じでなく、かつ連続していない場合、すなわち、画像間に撮影していない日が存在する場合は、分割する。 Among the image groups, for example, the image with the oldest (or newest) shooting date and time is first focused on, the time difference from the next oldest (or newer) image is calculated, and whether or not the calculated time difference is equal to or greater than a predetermined threshold value. judge. Such processing is performed on all images while sequentially replacing the images of interest with new (or old) images. The "division" in S412 means that the image group is divided into the newer one and the older one in the shooting date and time at the boundary between the two images. If the shooting date of one image and the shooting date of another image are not the same and are not continuous, that is, if there is a non-shooting day between the images, the image is divided.
次に、撮影日が連続する場合について説明する。本実施形態では、着目画像の撮影日時とその次に古い(または新しい)画像の撮影日時との間の差が16時間以上の場合は分割する。画像間の撮影時間の差が16時間未満の場合、連続する各日の最初の撮影から最後の撮影までの時間差が4時間未満であれば分割する。一方、連続する各日の最初の撮影から最後の撮影までの時間差が4時間以上の場合、連続する各日の撮影枚数が50枚未満であれば分割し、50枚以上であれば分割しないものとする。尚、分割の際に用いる時間差の閾値や画像枚数の閾値は、これに限定されるものではない。図6(a)は、上述したシーン分割方法を用いて、画像群を分割した結果例を示している。つまり、8個のサブ画像群に分割されたことが示されている。 Next, a case where the shooting dates are continuous will be described. In the present embodiment, when the difference between the shooting date and time of the image of interest and the shooting date and time of the next oldest (or new) image is 16 hours or more, it is divided. When the difference in shooting time between images is less than 16 hours, if the time difference between the first shooting and the last shooting of each consecutive day is less than 4 hours, the image is divided. On the other hand, when the time difference from the first shooting to the last shooting of each consecutive day is 4 hours or more, if the number of shots taken each consecutive day is less than 50, it is divided, and if it is 50 or more, it is not divided. And. The time difference threshold value and the image number number threshold value used at the time of division are not limited to this. FIG. 6A shows an example of the result of dividing the image group by using the above-mentioned scene division method. That is, it is shown that it is divided into eight sub-image groups.
シーン分割の後、画像分類部213は、シーン分類を行う。本実施形態では、各サブ画像群(各シーン)を旅行、日常、セレモニーの3つに分類する場合を例に挙げて説明するが、分類の項目はこれらに限定されるものではない。
After the scene division, the
まず、旅行、日常、セレモニーのうち何れに分類されるか予め判定したサブ画像群を複数取得し、該取得した複数のサブ画像群の夫々ついての、撮影の特徴量を取得する。本実施形態で取得する特徴量は、例えば、撮影期間、撮影枚数、撮影人数である。撮影期間は、サブ画像群に含まれる画像のうち最も古い画像の撮影時間と最も新しい画像の撮影時間との間の時間差である。撮影枚数は、サブ画像群に含まれる画像の数(写真の枚数)である。撮影人数は、顔が写っている画像における顔の数であり、1つの画像に含まれる顔の数である。そして、複数のサブ画像群に対して、撮影期間の平均値と標準偏差、撮影枚数の平均値と標準偏差、1画像あたりの人数の平均値と標準偏差を求める。尚、本実施形態では、1画像あたりの顔の数が、1画像あたりの人数とする。 First, a plurality of sub-image groups determined in advance as to which of travel, daily life, and ceremony are classified are acquired, and the feature amount of photography for each of the acquired plurality of sub-image groups is acquired. The feature quantities acquired in this embodiment are, for example, the shooting period, the number of shots, and the number of shots. The shooting period is the time difference between the shooting time of the oldest image and the shooting time of the newest image among the images included in the sub-image group. The number of shots is the number of images (the number of pictures) included in the sub-image group. The number of photographed persons is the number of faces in an image showing faces, and is the number of faces included in one image. Then, the mean value and standard deviation of the shooting period, the mean value and standard deviation of the number of shots, and the mean value and standard deviation of the number of people per image are obtained for the plurality of sub-image groups. In the present embodiment, the number of faces per image is the number of people per image.
図7は、複数のサブ画像群に対して求めた、撮影期間(時間)の平均と標準偏差、撮影枚数の平均と標準偏差、1画像あたりの人数の平均と標準偏差の一例を示す。これらの求めた値は、アルバム作成アプリケーションのプログラムに予め組み込んでおく。つまり、アプリケーションの設計段階で、予め集めた画像を用いた学習によってパラメータを生成し、該生成したパラメータをプログラムに組み込んでおく。アルバム作成アプリケーションが起動された後、ユーザがパスボックス302を介して指定した画像群に対するシーン分割の結果得られたサブ画像群毎に、撮影期間と、撮影枚数と、1画像あたりの人数とのそれぞれの平均値を算出する。そして、シーン毎に、前述したアプリに予め組み込まれたパラメータ(具体的には、各サブ画像群の撮影期間、撮影枚数、撮影人数の特徴量についてのそれぞれの平均値と標準偏差)を用いて、以下の式に従って得点を算出する。
FIG. 7 shows an example of the average and standard deviation of the shooting period (time), the average and standard deviation of the number of shots, and the average and standard deviation of the number of people per image obtained for a plurality of sub-image groups. These obtained values are incorporated in the program of the album creation application in advance. That is, at the design stage of the application, parameters are generated by learning using images collected in advance, and the generated parameters are incorporated into the program. After the album creation application is started, the shooting period, the number of shots, and the number of people per image are determined for each sub-image group obtained as a result of scene division for the image group specified by the user via the
式(1)により、着目サブ画像群の、各シーンおよび各特徴量についての得点が求められる。例えば、旅行シーンについて、撮影期間と、撮影枚数と、撮影人数とのそれぞれの得点が求められる。これらの得点を式(2)により平均化して、旅行シーンに対する得点とする。同様に、日常、セレモニーという他のシーンについても得点が得られる。以上説明した手法により、旅行シーンの平均得点と、日常シーンの平均得点と、セレモニーシーンの平均得点とが、サブ画像群毎に算出される。尚、本実施形態では、式(2)における特徴量の項目数は3である。 From the formula (1), the score for each scene and each feature amount of the sub-image group of interest is obtained. For example, for a travel scene, the shooting period, the number of shots, and the number of shots are required. These scores are averaged by the formula (2) to obtain the score for the travel scene. Similarly, you can get points for other scenes such as daily life and ceremonies. By the method described above, the average score of the travel scene, the average score of the daily scene, and the average score of the ceremony scene are calculated for each sub-image group. In this embodiment, the number of feature quantity items in the formula (2) is 3.
サブ画像群毎に算出したシーン毎の得点のうち最高点のシーンをそのサブ画像群のシーンとして特定する。2以上のシーンが同点の場合は、既定の優先度に従ってシーン分類を行う。例えば、本実施形態では、日常>セレモニー>旅行の順に優先することが予め決められており、日常の優先度を最も高くする。尚、優先度の順番はこれに限定されるものではなく、また、ユーザが優先度の順番を変更できるようにしてもよい。 Of the scores for each scene calculated for each sub-image group, the scene with the highest score is specified as the scene for that sub-image group. If two or more scenes are tied, the scenes are classified according to the predetermined priority. For example, in the present embodiment, priority is given in the order of daily life> ceremony> travel, and the priority of daily life is the highest. The order of priorities is not limited to this, and the user may be able to change the order of priorities.
図6(a)のサブ画像群(1)〜(8)は夫々、画像群に対するシーン分割により得たサブ画像群を示す。これらサブ画像群のうちサブ画像群(5)について、撮影期間が36時間、撮影枚数が300枚、撮影人数が1.7人であったとする。これに対する旅行の平均得点は45.32、日常の平均得点は18.38、セレモニーの平均得点は−29.92であったとする。その場合、サブ画像群(5)のシーンは旅行に分類される。分類したサブ画像群は、シーン識別ができるようにシーンIDを関連付けて管理する。 Sub-image groups (1) to (8) in FIG. 6A show sub-image groups obtained by dividing the image group into scenes, respectively. Of these sub-image groups, it is assumed that the sub-image group (5) has a shooting period of 36 hours, the number of shots is 300, and the number of shots is 1.7. On the other hand, the average score of travel is 45.32, the average score of daily life is 18.38, and the average score of ceremonies is -29.92. In that case, the scene of the sub-image group (5) is classified as a trip. The classified sub-image group is managed by associating the scene ID so that the scene can be identified.
S416では、画像得点部214は、各画像に対する得点付けを行う。この処理を画像得点化と呼ぶ。本ステップで導出する「得点」とは、アルバムへの使用適性を評価するためのパラメータであり、画像データ毎に後述する観点で評価した得点が付けられ、後述の画像選択時に参照される。以下、図8(a)及び図8(b)を用いて、画像得点化の方法について説明する。
In S416, the
図8(a)に画像データの得点化の基準を示す。より具体的には、図8(a)は、旅行、日常、セレモニーという3つのシーンについて、シーン毎に得点が高くなる画像の特徴をまとめたテーブルである。図8(a)に示すように、シーンの種類に応じて、得点が高くなる特徴が異なる。例えば、サブ画像群のシーン分類が旅行である場合、人物と風景が入った引いた画像は得点が高くなる。また、例えば、サブ画像群のシーン分類が日常である場合、顔のアップや横顔の画像は得点が高くなる。また、例えば、サブ画像群のシーン分類がセレモニーである場合、2人の距離が近い画像は得点が高くなる。 FIG. 8A shows the criteria for scoring image data. More specifically, FIG. 8A is a table summarizing the characteristics of images in which the score is high for each of the three scenes of travel, daily life, and ceremony. As shown in FIG. 8A, the feature of increasing the score differs depending on the type of scene. For example, if the scene classification of the sub-image group is travel, the subtracted image containing the person and the landscape will have a higher score. Further, for example, when the scene classification of the sub image group is daily, the score is high for the close-up of the face and the profile image. Further, for example, when the scene classification of the sub image group is a ceremony, the score is high for the images in which the two people are close to each other.
このように、シーンの種類に応じて、得点が高くなる特徴、言い換えれば、評価基準が異なる。本実施形態では、シーンの種類に応じた得点が高くなる特徴は、アプリケーションにおいて予め設定されており、プログラムに含まれるものとする。尚、得点が高くなる特徴は、上述したものに限定されない。本実施形態では、図8(a)に示す各シーンの特徴に基づいて、各サブ画像群に含まれる各画像データに得点を付ける。S4033で取得した各画像における顔の数、各画像における顔の位置、各画像における顔のサイズを用いて、平均値と標準偏差とを各シーンの種類に対して求めて、該求めた値をアルバム作成アプリケーションのプログラムに従い記憶しておく。ユーザが指定した画像群の各画像が何れのシーンに属するか(分類されるか)は、S412のシーン分類の結果から特定する。そして、注目画像のシーンに対応する予め求めた平均値と標準偏差、及び、注目画像における顔の数と顔の位置と顔サイズとの各特徴量に基づいて、以下の式(3)及び式(4)を用いて、得点と平均得点とを算出する。下式における得点、平均値、標準偏差は、シーン毎且つ特徴量毎に求められる。 In this way, the characteristics of high scores, in other words, the evaluation criteria, differ depending on the type of scene. In the present embodiment, the feature that the score increases according to the type of the scene is preset in the application and is included in the program. The feature of increasing the score is not limited to those described above. In the present embodiment, a score is given to each image data included in each sub-image group based on the characteristics of each scene shown in FIG. 8A. Using the number of faces in each image acquired in S4033, the position of the face in each image, and the size of the face in each image, the mean value and the standard deviation were obtained for each scene type, and the obtained value was obtained. Remember according to the program of the album creation application. Which scene each image of the image group specified by the user belongs to (classified) is specified from the result of the scene classification of S412. Then, based on the mean value and standard deviation obtained in advance corresponding to the scene of the attention image, and the feature quantities of the number of faces, the position of the face, and the face size in the attention image, the following equations (3) and equations (3) and equations are used. Using (4), the score and the average score are calculated. The score, mean value, and standard deviation in the following formula are obtained for each scene and each feature amount.
更に、上記の式を用いて算出された得点に対して、アルバム作成条件設定部201で指定されたモードに従って、加点を行う。例えば、アルバム作成のモードが人物と設定された場合に、ある画像について、図5の表に保持されているオブジェクト分類のTOP1からTOP3の値に、カテゴリが人の信頼度が含まれていれば、当該ある画像の得点に加点する。このとき、オブジェクト分類結果の信頼度が高いほど加算する得点を多くしてよい。他にも、加算する得点は、オブジェクト分類結果の順位(つまりTOP1〜TOP3のどれか)に応じて変更してもよい。ここでは説明のために、アルバム作成のモードで人物が選択された場合を説明したが、動物や料理など他のモードであってもよい。また、選択する個数は1つだけでなく、2つ以上を選択してもよい。その場合は、選択されたオブジェクトが含まれている分だけ得点に加点する。また、図5に示すピントの特徴量が○の画像に対しては、上記の式を用いて算出された得点に加点してもよい。これにより、ピントが合っている画像の得点を高くすることができる。図8(b)は、各画像に得点付けした結果の一例として、画像ID毎の得点が保持されたテーブルを示す。
Further, points are added to the score calculated by using the above formula according to the mode specified by the album creation
尚、本実施形態では、得点化にS403の画像解析結果及びS412の画像分類結果を用いたが、用いるものはこれに限らない。例えば、画像サイズを用いてもよいし、撮影時に使用したレンズ情報などの撮影情報を用いてもよいし、アプリケーションに入力される画像の圧縮フォーマットの情報を用いてもよい。 In the present embodiment, the image analysis result of S403 and the image classification result of S412 are used for scoring, but the ones used are not limited to this. For example, the image size may be used, the shooting information such as the lens information used at the time of shooting may be used, or the compression format information of the image input to the application may be used.
S417では、画像得点部214は、ユーザ指定の画像群の全画像に対してS416の画像得点化が完了したか判定する。本ステップの判定結果が真の場合、S418に進む一方、該判定結果が偽の場合、S416に戻る。
In S417, the
S418では、見開き割当部215は、ユーザ指定の画像群の全画像をアルバム内の各見開きに割り当てる。図4(c)は、本ステップにおける割り当て処理の詳細なフローチャートである。
In S418, the
S4181では、見開き割当部215は、画像分類部213のシーン分割により得られたシーン数(サブ画像群の数)がアルバム作成条件設定部201で設定された見開き数と同じか判定する。本ステップの判定結果が真の場合、S4185に進む一方、該判定結果が偽の場合、S4182に進む。例えば、図6(a)に示すようにシーン数が8であり、見開き数が8であれば、S4185に移行する。
In S4181, the
S4182では、見開き割当部215は、シーン数がアルバム作成条件設定部201で設定された見開き数より少ないか判定する。本ステップの判定結果が真の場合、S4183に進む一方、該判定結果が偽の場合、S4184に進む。例えば、図6(a)に示すようにシーン数が8であり、見開き数が10であれば、シーン数が見開き数より少なくないため、S4183に移行する。
In S4182, the
S4183では、見開き割当部215は、サブシーン分割を行う。「サブシーン分割」とは、シーン数が見開き数より小さい場合に、分割されたシーンを更に細かく分割することを指す。図6(a)に示すようなシーン数が8の場合に指定見開き数が10のケースを例に挙げて説明する。図6(b)は、図6(a)の状態でサブシーン分割を行った結果を示す。図中の破線矢印601、602の箇所でサブ画像群を更に分割することで、シーン数を10にしている。このようなサブシーン分割は、画像枚数および撮影日時を基準として用いて行われる。図6(a)に示す状態からのサブシーン分割では、画像数が多いサブ画像群を特定する。ここでは、シーン数を8から10に2つ増やしたいため、画像数が多い2つのサブ画像群を特定する。つまり、再分割すべきシーンを、最も多くの画像を含むシーンから順に増やしたいシーン数分(ここでは2)指定する。画像数が同数のシーンが複数存在する場合、画像間の撮影日時の差の最大値が大きい方のシーンを選択する。それでも分割対象のシーンを決定できない場合には、例えば時間的に早いシーンを優先的に分割対象とするなど、規則を予め決めておけばよい。図6(a)では、画像数が多いサブ画像群は、多い方からサブ画像群(5)、次にサブ画像群(1)とサブ画像群(2)である。サブ画像群(1)の画像数とサブ画像群(2)の画像数とは等しい。本実施形態では、サブ画像群に含まれる画像数が同じである場合は、サブ画像群に含まれる最初の画像と最後の画像との時間差が大きい方のサブ画像群を分割する。サブ画像群(1)とサブ画像群(2)は、含まれる画像の数は同じだが、サブ画像群(2)の方が最初の画像と最後の画像との時間差が大きいため、サブ画像群(2)が分割対象となる。このように、図6(a)の例では、サブ画像群(5)とサブ画像群(2)とをそれぞれ更に分割する。
In S4183, the
まず、サブ画像群(2)の分割について説明する。図示するように、サブ画像群(2)には、画像枚数の山が2つあり、この2つは撮影日が違うものとする。この場合、破線矢印601で示すように、撮影日が変わる箇所で分割する。次に、サブ画像群(5)の分割について説明する。サブ画像群(5)には画像枚数の山が3つあり、この3つは撮影日が違うものとする。この場合も、撮影日が変わる箇所で分割する。このとき、撮影日が変わる箇所が2箇所あるが、分割後の各画像群の枚数差が小さくなるように分割する。図6(a)のサブ画像群(5)については、2日目と3日目との境目で分割した方が、1日目と2日目との境目で分割するよりも分割後の各画像群の枚数差が小さくなるので、2日目と3日目の境目で分割する。即ち、破線矢印602で示す箇所で分割する。以上説明したサブシーン分割によりシーン数を8から10にする。尚、ここでは、撮影日の違う箇所で分割したが、画像数が多いサブ画像群が単一日で撮影されたものである場合は、単一日の中で時間差が最大の箇所で分割する。
First, the division of the sub-image group (2) will be described. As shown in the figure, the sub-image group (2) has two peaks of the number of images, and it is assumed that these two have different shooting dates. In this case, as shown by the
S4184では、見開き割当部215は、シーン統合を行う。「シーン統合」とは、シーン数が見開き数より大きい場合に、分割されたシーン(サブ画像群)を統合することを指す。具体的には、シーン数と見開き数とが等しくなるように、シーン数を減らす。図6(a)に示すようなシーン数が8の場合に指定見開き数が6のケースを例に挙げて説明する。図6(c)は、図6(a)の状態でシーン統合を行った結果を示す。図6(c)中に破線603、604で示す箇所を統合したことで、言い換えれば、この破線で示す箇所で分割しないことで、シーン数(サブ画像群の数)を6にする。シーン統合では、画像数が少ないサブ画像群を、統合対象として特定する。ここでは、シーン数を8から6と2つ減らす目的で、画像数が少ないサブ画像群を2つ特定する必要がある。図6(a)では、画像数が少ないサブ画像群は、少ない方からサブ画像群(8)、次にサブ画像群(3)とサブ画像群(7)である。サブ画像群(3)の画像数とサブ画像群(7)の画像数とは等しい。従って、まず、最も画像数が少ないサブ画像群(8)を統合対象とする。もう1つの統合対象として考えられるサブ画像群(3)とサブ画像群(7)とは、含まれる画像の数は同じだが、サブ画像群(7)に隣接するサブ画像群(8)が統合対象であるため、サブ画像群(8)に隣接しないサブ画像群(3)を統合対象とする。
In S4184, the
統合対象のサブ画像群を決定した後、この統合対象のサブ画像群を、撮影日時が前のサブ画像群に統合するか、撮影日時が後のサブ画像群に統合するかを決定する。まず、図6(a)のサブ画像群(3)の統合について説明する。サブ画像群(3)とこの前のサブ画像群(2)との間の時間差と、サブ画像群(3)とこの後のサブ画像群(4)との間の時間差とを比較すると、後者が前者より小さい。従って、サブ画像群(3)は、サブ画像群(4)に統合すると決定する。そして、破線603の箇所にあった異なるサブ画像間の境界がなくなり、サブ画像群の統合がなされる。次に、サブ画像群(8)の統合について説明する。サブ画像群(8)は、これより後のサブ画像群が存在しないため、サブ画像群(8)の前のサブ画像群(7)と統合すると決定する。そして、破線604の箇所にあった異なるサブ画像間の境界がなくなり、サブ画像群の統合がなされる。尚、本実施形態では、撮影時間の差が小さいサブ画像群同士を統合することにしたが、サブ画像群の統合手法はこれに限定されるものではない。例えば、統合対象のサブ画像群を画像数が少ないサブ画像群に統合するようにしてもよい。
After determining the sub-image group to be integrated, it is determined whether the sub-image group to be integrated is integrated into the sub-image group whose shooting date and time is earlier or the sub-image group whose shooting date and time is later. First, the integration of the sub-image group (3) of FIG. 6A will be described. Comparing the time difference between the sub-image group (3) and the previous sub-image group (2) and the time difference between the sub-image group (3) and the subsequent sub-image group (4), the latter Is smaller than the former. Therefore, it is determined that the sub-image group (3) is integrated with the sub-image group (4). Then, the boundary between the different sub-images at the location of the
S4185では、見開き割当部215は、見開き割当を行う。S4181〜S4184の処理によって、サブ画像群の数は、指定見開き数と同じになっている。本実施形態では、撮影日時が最も古いサブ画像群を先頭の見開きに割り当て、撮影日時順にサブ画像群をアルバムの各見開きのページに割当てる。これにより、撮影日時順にサブ画像群が並んだアルバムを作成することができる。但し、後述する通り、1つの見開きページ内では、画像は撮影日時順に並んでいてもよいし、並んでいなくてもよい。
In S4185, the
S419では、画像選択部216は、各サブ画像群から所定枚数の画像を選択する。以下、図9を用いて、ある見開きに割り当てられたサブ画像群から画像を4枚選択するケースを例に挙げて説明する。 In S419, the image selection unit 216 selects a predetermined number of images from each sub-image group. Hereinafter, a case where four images are selected from a sub-image group assigned to a certain spread will be described with reference to FIG. 9 as an example.
図9において、(A)は、見開きに割り当てられたサブ画像群に含まれる最初の画像から最後の画像のまでの撮影日時の時間差、言い換えれば、サブ画像群の撮影期間を示す。図9の(B)を使って、4枚選択する際の1枚目を選択する方法を説明する。図9の(B)に示すサブ画像群の撮影期間に撮影された全ての画像のうち、S416で付けた得点が最も高い画像を、1枚目の画像として選択する。そして、2枚目以降の選択では、サブ画像群の撮影期間を細分化して画像を選択することにより、サブ画像群の撮影期間の一部に選択画像が集中しないようにする。まず、図9の(C)に示すようにサブ画像群の撮影期間を2等分して、2つの撮影区間(期間)とする(グループ分けする)。次に、図9の(D)に示すように、1枚目の画像が選ばれていない撮影区間(実線の区間)に属する画像の中から得点が最も高い画像を、2枚目の画像として選択する。次に、図9の(E)に示すように、(D)の各撮影区間をそれぞれ2等分する。図9の(F)において実線で示す撮影区間、即ち、1枚目と2枚目が選ばれていない2つの撮影区間に撮影された画像(2つの撮影区間に対応する画像)のうち得点が最も高い画像を、3枚目の画像として選択する。次に、画像を選択する撮影区間に画像が存在せず、画像選択できないケースを4枚目の画像選択を例に挙げて説明する。本実施形態では、画像の枚数に関わらず、時間に応じて撮影期間を分割している。従って、分割して得られた撮影区間に画像が存在しない場合がある。例えば、図9の(G)に示すように、まだ画像が選ばれていない撮影区間(斜線の撮影区間)から4枚目の画像を選択したいが、この撮影区間には画像が存在しないとする。このような場合は、図9の(H)に示すように、画像選択済みの各撮影区間をそれぞれ2分割する。次に、図9の(I)に示すように、1〜3枚目が選ばれていない実線の撮影区間に撮影された画像の中から得点が最も高い画像を、4枚目の画像として選択する。尚、選択する画像の枚数が4枚から増減したケースについても、前述と同様に画像を選択すればよい。 In FIG. 9, (A) shows the time difference between the shooting date and time from the first image to the last image included in the sub-image group assigned to the spread, in other words, the shooting period of the sub-image group. A method of selecting the first sheet when selecting four sheets will be described with reference to FIG. 9B. Of all the images taken during the shooting period of the sub-image group shown in FIG. 9B, the image with the highest score given in S416 is selected as the first image. Then, in the selection of the second and subsequent images, the shooting period of the sub image group is subdivided and the images are selected so that the selected images are not concentrated on a part of the shooting period of the sub image group. First, as shown in FIG. 9C, the shooting period of the sub-image group is divided into two equal parts (grouping) into two shooting sections (periods). Next, as shown in (D) of FIG. 9, the image having the highest score among the images belonging to the shooting section (solid line section) in which the first image is not selected is set as the second image. select. Next, as shown in (E) of FIG. 9, each shooting section of (D) is divided into two equal parts. The score of the image taken in the shooting section shown by the solid line in (F) of FIG. 9, that is, the two shooting sections in which the first and second shots are not selected (images corresponding to the two shooting sections) is The highest image is selected as the third image. Next, a case where an image does not exist in the shooting section for selecting an image and the image cannot be selected will be described by taking the fourth image selection as an example. In the present embodiment, the shooting period is divided according to the time regardless of the number of images. Therefore, the image may not exist in the shooting section obtained by dividing. For example, as shown in FIG. 9 (G), it is assumed that the fourth image is selected from the shooting section (diagonal line shooting section) in which the image has not been selected yet, but the image does not exist in this shooting section. .. In such a case, as shown in FIG. 9H, each image-selected shooting section is divided into two. Next, as shown in FIG. 9 (I), the image with the highest score is selected as the fourth image from the images taken in the solid line shooting section in which the first to third images are not selected. To do. In the case where the number of images to be selected is increased or decreased from 4, the images may be selected in the same manner as described above.
図4(a)の説明に戻る。S420では、レイアウト作成部217は、処理対象の見開きのどこにどの画像を配置するかを決定する(画像レイアウトの決定とする)。本実施形態では、見開きの端部に余白を持つレイアウト(基本レイアウトとする)を作成した後、記録時に記録ヘッドの全ノズルを使用するためのレイアウト(補完レイアウトとする)を作成する。図4(d)は、S420の詳細なフローチャートである。
Returning to the description of FIG. 4 (a). In S420, the
S4201では、レイアウト作成部217は、各見開きの基本レイアウトを作成する。ここでは、S403で取得した撮影日時とS416で取得した得点とに基づいて基本レイアウトを作成する方法について、S419で5枚の画像が選ばれた例を挙げながら、図10及び図11を用いて説明する。図10は、選ばれた5枚の画像それぞれに対する撮影日時と得点を示す。まず、見開きに使う画像として選ばれた5枚の画像を、見開き内の2ページの何れかのページに割り当てる。本実施形態では、画像を撮影時間順に並べて、中央で分割する。尚、本例のように選択画像の数が奇数の場合は、中央に近い場所であって、前後の画像の撮影時間差が大きい場所で分割する。次に、各ページにおいて最高得点とそれ以外の得点の合計との比率に従って、ページ内を分割する。ここでは、この得点比率と、分割後のページにおける分割領域の面積比率とが同じになるように、垂直または水平な線分で分割する。尚、分割後の大きい方の矩形と、最高得点の画像とは、長辺の方向が揃っていることが望ましい。また、分割対象の領域は、ページ端部の一定の余白を除いた領域とする。この余白幅の情報は、アルバム作成アプリケーションに予め組み込んでおく。
In S4201, the
図11(a)は、基本レイアウト作成の際の、1回目のページ分割後の状態を表す。見開きを構成する各ページ内を分割した後、大きい方の矩形内に最高得点の画像を配置する。矩形のうち、端部の一定の余白を除いた領域を画像領域とし、対象画像を拡大、縮小、トリミング処理することで領域に納まるように加工した上で配置する(図11(b)参照)。以後、配置されていない画像とページ内の領域とを用いて、同様の処理を行う(図11(c)参照)。この際、配置されていない画像が1枚のみの場合は、残っているページ内の領域に配置する。尚、ここでは、基本レイアウトとして、撮影日時と画像の得点とに基づいて、画像の配置を決めたが、基本レイアウトの作成方法は、これに限定されない。画像の色やオブジェクト検出の結果に基づいて画像を配置してもよいし、位置情報や撮影条件など、撮影日時以外の画像データに付随する情報に基づいて画像を配置してもよい。 FIG. 11A shows the state after the first page division when the basic layout is created. After dividing each page that constitutes the spread, the image with the highest score is placed in the larger rectangle. Of the rectangle, the area excluding a certain margin at the end is used as the image area, and the target image is enlarged, reduced, and trimmed so that it fits in the area before being arranged (see FIG. 11B). .. After that, the same processing is performed using the unarranged image and the area in the page (see FIG. 11C). At this time, if there is only one image that is not arranged, it is arranged in the area in the remaining page. Here, as the basic layout, the arrangement of the images is determined based on the shooting date and time and the score of the image, but the method of creating the basic layout is not limited to this. The image may be arranged based on the color of the image or the result of object detection, or the image may be arranged based on information accompanying the image data other than the shooting date and time, such as position information and shooting conditions.
S4202では、レイアウト作成部217は、全ての見開きに対してS4201の基本レイアウト作成が完了したか判定する。本ステップの判定結果が真の場合、S4203に進む。一方、本ステップの判定結果が偽の場合、S4201に戻る。
In S4202, the
S4203では、レイアウト作成部217は、各見開きの補完レイアウトを作成する。本実施形態では、記録ヘッドの不使用ノズルを少なくするレイアウト方法として、見開き全体に画像を配置する方法を採用する。詳しく説明すると、S419で対象の見開きに割り当てられた画像の何れかを背景画像として見開き全体に配置し、他の画像を前景画像として背景画像の上に重ねて配置する。この際、前景画像は、S4201の基本レイアウト作成と同じ方法で配置する。
In S4203, the
補完レイアウトは、見開きに割り当てられた各画像を背景画像として、画像枚数と同じ数作成する。尚ここでは、画像の配置方法として、見開き全体に1枚の背景画像を配置したが、画像の配置方法はこれに限られない。背景画像を複数にしてもよいし、見開きのうち片ページのみページ全面に画像を配置してもよいし(図13(a))、紙の搬送方向と同方向に余白領域が続かないように交互に配置してもよい(図13(b))。また、前景画像は基本レイアウトと同じ方法で配置したが、見開きのうち片ページに集めてもよいし(図13(c))、ばらばらに並べてもよい(図13(d))。 In the complementary layout, each image assigned to the spread is used as a background image, and the same number as the number of images is created. Here, as an image arrangement method, one background image is arranged over the entire spread, but the image arrangement method is not limited to this. There may be a plurality of background images, or only one page of the spread may be arranged on the entire page (FIG. 13 (a)) so that the margin area does not continue in the same direction as the paper transport direction. They may be arranged alternately (FIG. 13 (b)). Further, although the foreground images are arranged in the same manner as the basic layout, they may be collected on one page of the spread (FIG. 13 (c)) or arranged separately (FIG. 13 (d)).
S4204では、不使用ノズル判定部219は、不使用ノズル数を算出する。以下、本ステップの不使用ノズルの算出方法について、図12(a)を用いて説明する。図12(a)は、記録ヘッド1202を用いて記録媒体1201に記録する場合の、各見開きの記録結果1203、不使用ノズル1204を表す。図12(b)は、記録媒体1201を図12(a)に示す搬送方向に搬送しながら、記録媒体1201に記録したときの、ノズル位置とある色のインク吐出量と間の関係を示すグラフである。これは、搬送方向と垂直な方向に応じたインク吐出量を、搬送方向に積算したものに相当する。
In S4204, the unused
実際に記録装置で記録する際、画像データを構成する色(例えば、レッド(R)、グリーン(G)、ブルー(B))を記録ヘッドに合った色(例えば、CMYKシアン(C)、マゼンダ(M)、イエロー(Y)、ブラック(K))に色分解する。従って、この4チャンネル(CMYK)の画素値を用いて不使用ノズル数を算出することが考えられる。但し本実施形態では、CMYKの各画素値の代わりに、画像データで一般的に用いられるRGBの各画素値に基づき、不吐出ノズル数を算出する。言い換えると、各ノズルにおけるインク吐出量の代わりに、レイアウト結果のビットマップデータの列方向(記録媒体の搬送方向)に沿って、R値、G値、B値をそれぞれ積算した値を用いて、不吐出ノズル数を算出する。RGBの積算値の何れかが0の場合、相当位置のノズルを不使用ノズルとみなす。そして、最終的には、不使用ノズルの数を求める。尚、ここでは、RGBの各画素値を用いて不吐出ノズル数を算出したが、算出方法はこれに限定されない。他の色空間でもよいし、実際の記録工程と同様の色分解やインク吐出量計算を行ってもよいし、面付け等の記録工程時の紙面上への配置を考慮してもよい。例えば、記録媒体の搬送方向に対して垂直な方向に2見開き分並べて記録する場合、記録ヘッドの左側で記録する見開きと、その右側で記録する見開きとのそれぞれに対して、不使用ノズル数を算出する。また、必ずしも記録ヘッドの全てのノズルについてインク不吐出か否かを判定する必要はない。記録媒体の記録面外に位置するノズル(記録領域外のノズル)や、所定の閾値以上連続しないようなノズル、つまり、出力後にノズル不吐出の結果を不良として視認できないノズルは、不使用ノズル数のカウント対象としなくてもよい。例えば、2400dpi(10.6μmピッチ)の間隔でノズルが配置されており、記録媒体上でのドット径が50μmである記録装置で記録する場合を考える。このとき、連続した3ノズルの不吐は、隣接するノズルによる吐出により埋めることができるため、この連続した3ノズルを、不使用ノズルとして考える必要はない。尚、この閾値は、記録装置の解像度や記録条件、記録媒体の特性等に応じて変化させてもよい。 When actually recording with a recording device, the colors that make up the image data (for example, red (R), green (G), blue (B)) are the colors that match the recording head (for example, CMYK cyan (C), magenta). (M), yellow (Y), black (K)). Therefore, it is conceivable to calculate the number of unused nozzles using the pixel values of the four channels (CMYK). However, in the present embodiment, the number of non-ejection nozzles is calculated based on each pixel value of RGB generally used in image data instead of each pixel value of CMYK. In other words, instead of the ink ejection amount at each nozzle, the R value, G value, and B value are integrated along the column direction (conveyance direction of the recording medium) of the bitmap data of the layout result. Calculate the number of non-ejection nozzles. When any of the integrated values of RGB is 0, the nozzle at the corresponding position is regarded as an unused nozzle. Finally, the number of unused nozzles is calculated. Here, the number of non-ejection nozzles is calculated using each pixel value of RGB, but the calculation method is not limited to this. Other color spaces may be used, color separation and ink ejection amount calculation similar to those in the actual recording process may be performed, and arrangement on the paper surface during the recording process such as imposition may be considered. For example, when recording two spreads side by side in a direction perpendicular to the transport direction of the recording medium, the number of unused nozzles is set for each of the spreads recorded on the left side of the recording head and the spreads recorded on the right side. calculate. Further, it is not always necessary to determine whether or not all the nozzles of the recording head are non-ink ejection. The number of unused nozzles is the number of nozzles located outside the recording surface of the recording medium (nozzles outside the recording area) and nozzles that do not continue beyond a predetermined threshold value, that is, nozzles that cannot be visually recognized as defective nozzle non-discharge results after output. It is not necessary to count the number. For example, consider a case where nozzles are arranged at intervals of 2400 dpi (10.6 μm pitch) and recording is performed by a recording device having a dot diameter of 50 μm on a recording medium. At this time, since the non-ejection of the three consecutive nozzles can be filled by the ejection by the adjacent nozzles, it is not necessary to consider the three consecutive nozzles as unused nozzles. The threshold value may be changed according to the resolution of the recording device, recording conditions, characteristics of the recording medium, and the like.
S4205では、レイアウト作成部217は、S4203で作成した補完レイアウトのうち、1つを選ぶ。本実施形態では、対象見開き対応する補完レイアウトとして、S4204で算出した不使用ノズル数の値が最も小さい補完レイアウトを選択する。
In S4205, the
S4206では、レイアウト作成部217は、全ての見開きに対してS4203からS4205の処理が完了したかを判定する。本ステップの判定結果が真の場合、S4207に進む一方、該判定結果が偽の場合、S4203に戻る。
In S4206, the
S4207では、レイアウト作成部217は、補完レイアウトを使う見開きを決定する。本実施形態では、S4204で算出した不使用ノズル数が最も少ない見開きを、補完レイアウトを使う見開きとし、それ以外の見開きは基本レイアウトを使う見開きとする。尚、ここでは、不使用ノズル数が最も少ない見開きを1つ選択したが、選択方法はこれに限定されない。複数の見開きを選ぶことで不使用ノズル数を少なくしてもよいし、特定の範囲の不使用ノズル数が少なくなるような見開きを選んでもよい。
In S4207, the
S4208では、不使用ノズル判定部219は、アルバム全体で不使用ノズル数が所定の閾値以下になっているか判定する。本ステップの判定結果が真の場合、S421に進む。一方、本ステップの判定結果が偽の場合、S4207で決定した補完レイアウトを使う見開きの決定を維持した状態で、S4203に戻る。なお、図4(d)のフローチャートでは、S4203に戻るが、その限りではない。例えば、S4207に戻り、レイアウト作成部217は、前回のS4207の処理において2番目に不使用ノズル数が少ないと判定された見開きをS4207において補完見開きと決定しても良い。尚、ここでは、アルバム全体での不使用ノズル数が閾値以下になった時点でS421に移行したが、S420の終了条件はこれに限定されない。アルバム全体での不使用ノズル数が所定の閾値以下になった後も補完レイアウトを増やしてもよいし、アルバムの一部分作成時の不使用ノズル数が所定の閾値以下になるまで補完レイアウトを増やしてもよい。本ステップで用いる所定の閾値は、アルバム作成アプリケーションに予め組み込んでおいてもよいし、アルバム作成条件設定部201で設定した値から導出してもよいし、画像データに基づいて導出してもよい。例えば、商材としてマット紙のような不良が目立ちにくい紙種を選んだ場合は閾値を上げる、画像データの低周波成分が多く不良が目立ちやすい場合は閾値を下げる、といったように調整してもよい。
In S4208, the unused
S421では、レイアウト情報出力部218は、レイアウト情報を作成する。例えば、レイアウト情報出力部218は、S420で決まった通りに各画像をレイアウトした見開き画像を表すビットマップ形式画像データを作成する。
In S421, the layout
なお、S421で作成されたレイアウト情報(ビットマップ形式画像データ)が印刷装置に送信されることで、印刷処理が実行される。 The layout information (bitmap format image data) created in S421 is transmitted to the printing apparatus to execute the printing process.
本実施形態によれば、例えば、フルマルチプリンタ等の記録装置で記録してアルバムを作成する際、長時間にわたってノズルが使用されない可能性を軽減できる。その結果、予備吐等のメンテナンス処理を軽減できるため、ユーザ(またはオペレータ)の利便性を向上できる。また、画像の解析結果に基づいて記録ヘッドにおける不使用ノズルを減らすように画像を配置することで、コストを低減できる。 According to this embodiment, for example, when recording with a recording device such as a full multi-printer to create an album, the possibility that the nozzle is not used for a long time can be reduced. As a result, maintenance processing such as preliminary ejection can be reduced, so that the convenience of the user (or operator) can be improved. Further, the cost can be reduced by arranging the images so as to reduce the unused nozzles in the recording head based on the analysis result of the images.
[第2の実施形態]
本実施形態では、使われるノズルを増やすことを画像選択時に考慮する。
[Second Embodiment]
In this embodiment, increasing the number of nozzles used is considered when selecting an image.
<自動レイアウトについて>
以下、本実施形態における自動レイアウトについて、図14(a)を用いて説明する。図14(a)は、本実施形態におけるアルバム作成アプリケーションの自動レイアウトを実行する処理のフローチャートである。尚、前述の実施形態と同じ符号で表す処理に関しては(図4参照)、前述の実施形態の処理と同じであるため、ここでは説明を割愛する。
<About automatic layout>
Hereinafter, the automatic layout in this embodiment will be described with reference to FIG. 14A. FIG. 14A is a flowchart of a process for executing the automatic layout of the album creation application according to the present embodiment. Since the processing represented by the same reference numerals as those in the above-described embodiment (see FIG. 4) is the same as the processing in the above-described embodiment, the description thereof is omitted here.
S1401では、画像選択部216は、各サブ画像群から所定枚数の画像を選択する。ここで本ステップの選択方法の1例として、各見開き内で多くの色が使用される画像を選択する方法について、図14(b)を用いて説明する。 In S1401, the image selection unit 216 selects a predetermined number of images from each sub-image group. Here, as an example of the selection method of this step, a method of selecting an image in which many colors are used in each spread will be described with reference to FIG. 14 (b).
S14011では、画像選択部216は、各画像に対して減色処理を行う。減色処理では、例えば公知のk−means法を用いて、画像内の色が所定数の種類となるように減色する。本実施形態では、画像内の色が5種類となるように減色するが、減色後の種類数は5に限らない。 In S14011, the image selection unit 216 performs color reduction processing on each image. In the color reduction treatment, for example, a known k-means method is used to reduce the colors in the image so that there are a predetermined number of types. In the present embodiment, the colors are reduced so that there are five types of colors in the image, but the number of types after the color reduction is not limited to five.
S14012では、画像選択部216は、サブ画像群から最初の1枚目の画像を選択する。本実施形態では、S416で付けた得点が最高の画像を1枚目の画像として選択する。 In S14012, the image selection unit 216 selects the first first image from the sub-image group. In the present embodiment, the image with the highest score given in S416 is selected as the first image.
S14013では、所定枚数の画像を選択済みか判定する。本ステップの判定結果が真の場合、一連の処理は終了する一方、該判定結果が偽の場合、S14014に進む。 In S14013, it is determined whether or not a predetermined number of images have been selected. If the determination result of this step is true, a series of processes is completed, while if the determination result is false, the process proceeds to S14014.
S14014では、既に選択済みの画像と、既に選択済みの画像を除いたサブ画像群の画像それぞれとの間の色距離を算出する。ここでは、本ステップに色距離算出の例として、色相を用いた色距離算出を説明する。まず、1つ前に選ばれた画像に対して、S14011で得られた減色画像に基づいて、最大面積である色を導出し、該導出した色を代表色とする。次に、既に選択済みの画像を除いたサブ画像群の各画像についても同様に、減色画像に基づいて代表色を決定する。ここで、代表色はHSV(色相、再度、明度)の各値に変換して表すものとする。最後に、1つ前に選ばれた画像の代表色と、既に選択済みの画像を除いたサブ画像群の各画像の代表色との間の差を計算する。ここでは、色相に着目して、色相の差を用いる。尚、色距離として色相の差を用いたが、色距離として他のパラメータの値を用いてもよい。例えば、他の色空間における距離でもよい。 In S14014, the color distance between the already selected image and each of the images in the sub-image group excluding the already selected image is calculated. Here, as an example of color distance calculation in this step, color distance calculation using hue will be described. First, a color having the maximum area is derived from the previously selected image based on the color-reduced image obtained in S14011, and the derived color is used as a representative color. Next, the representative color is similarly determined for each image of the sub-image group excluding the already selected image based on the color-reduced image. Here, the representative color is represented by converting it into each value of HSV (hue, again, brightness). Finally, the difference between the representative color of the previously selected image and the representative color of each image in the sub-image group excluding the already selected image is calculated. Here, paying attention to the hue, the difference in hue is used. Although the difference in hue is used as the color distance, the values of other parameters may be used as the color distance. For example, it may be a distance in another color space.
S14015では、画像選択部216は、選択済みの画像とは異なる色を有する画像を選択する。本実施形態では、S14014で計算した色距離のうち、選択済みの画像との色距離の平均値が最大となる画像を選択する。選択後、S14013に戻る。 In S14015, the image selection unit 216 selects an image having a color different from the selected image. In the present embodiment, among the color distances calculated in S14014, the image having the maximum average color distance from the selected image is selected. After selection, the process returns to S14013.
本実施形態によれば、画像の色に基づいてアルバムに使用する画像を選択することで、記録ヘッドにおける不使用ノズルを低減する結果、コストを低減できる。 According to the present embodiment, by selecting an image to be used for an album based on the color of the image, the number of unused nozzles in the recording head can be reduced, and as a result, the cost can be reduced.
[他の実施形態]
本出願の思想は、上述した実施形態に限定されるものではない。例えば、上述の実施形態では、アルバム作成アプリケーションを例に挙げて説明したが、お勧め画像を自動選択するような画像選択処理を備えるアプリケーションや画像処理装置であってもよい。つまり、アルバム作成に限定されないレイアウトアプリケーションにおいて上述した実施形態が実行されても良い。
[Other Embodiments]
The idea of the present application is not limited to the above-described embodiment. For example, in the above-described embodiment, the album creation application has been described as an example, but an application or an image processing device having an image selection process for automatically selecting a recommended image may be used. That is, the above-described embodiment may be executed in a layout application that is not limited to album creation.
また、図1に示すように、ローカル環境を想定した画像処理装置を例に挙げて説明したが、画像処理装置はこれに限定されるものではない。例えば、サーバ上の画像処理装置であってもよい。この場合は、サーバ内に保存されている画像を利用するか或いは画像をアップロードするようにすればよい。 Further, as shown in FIG. 1, an image processing device assuming a local environment has been described as an example, but the image processing device is not limited to this. For example, it may be an image processing device on a server. In this case, the image stored in the server may be used or the image may be uploaded.
また、上述した実施形態(特にS4208)では、不使用ノズル数が所定の閾値以下となるように補完見開きを決定したがその限りではない。例えば、レイアウト作成部217は、S4207までの処理において使用されないノズルを特定する。そしてレイアウト作成部217は、特定された不使用ノズルの使用頻度を判定し、使用頻度が閾値以下となる不使用ノズルが含まれる場合、S4208においてNoと判定しても良い。つまり、S4204において特定された不使用ノズルの数が多かったとしても、その全ての不使用ノズルの使用頻度が高い場合、レイアウト生成手段は、S4208においてYesと判定しても良い。また、例えば、レイアウト作成部217は、S4207までの処理において使用されないノズルを特定する。そしてレイアウト作成部217は、特定された不使用ノズルの不使用時間を判定し、不使用時間が閾値以上の不使用ノズルが含まれる場合、S4208においてNoと判定しても良い。
Further, in the above-described embodiment (particularly S4208), the complementary spread is determined so that the number of unused nozzles is equal to or less than a predetermined threshold value, but this is not the case. For example, the
上述した実施形態では、画像が写真であるものとし、写真の撮影日時に基づいてグループ分けをするようにしたが、画像を作成した日時に基づいてグループ分けをするようにしてもよい。 In the above-described embodiment, it is assumed that the image is a photograph, and the grouping is performed based on the shooting date and time of the photograph. However, the grouping may be performed based on the date and time when the image was created.
上述した実施形態では、利用者がモードを指定するものとし、指定されたモードに基づいてレイアウトするようにしたが、アルバムを作成する画像群に対し画像解析を行い、画像群に含まれるオブジェクトの種類の分布等から自動的にモードを設定してもよい。 In the above-described embodiment, the user specifies the mode, and the layout is performed based on the specified mode. However, image analysis is performed on the image group for creating the album, and the objects included in the image group are laid out. The mode may be set automatically based on the distribution of types.
上述した実施形態は、以下の処理を実行することによっても実現される。すなわち、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。尚、前述した第1〜第2の実施形態について、各実施形態の構成を適宜組み合わせて用いてもよい。 The above-described embodiment is also realized by executing the following processing. That is, a program that realizes one or more functions of the above-described embodiment is supplied to the system or device via a network or a storage medium. Then, it can be realized by the process of reading and executing the program by one or more processors in the computer of the system or the device. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. Regarding the above-mentioned first and second embodiments, the configurations of the respective embodiments may be appropriately combined and used.
100 画像処理装置
212 画像解析部
215 見開き割当部
216 画像選択部
217 レイアウト作成部
100
Claims (12)
前記決定されたレイアウト方法に基づいて印刷装置の印刷処理において使用されない前記印刷装置のノズルに関する情報を特定する特定手段と、
前記特定された前記ノズルに関する情報に基づいて、前記レイアウト方法を変更するか否かを決定する決定手段と、
を備えることを特徴とする装置。 Layout means that determine how to lay out image data for a page,
Specific means for identifying information about nozzles of the printing apparatus that are not used in the printing process of the printing apparatus based on the determined layout method.
A determinant that determines whether or not to change the layout method based on the information about the identified nozzle.
A device characterized by comprising.
前記印刷処理において使用されない前記印刷装置のノズルの数が閾値以下である場合、前記決定手段は、前記レイアウト方法を変更しないと決定し、
前記印刷処理において使用されない前記印刷装置のノズルの数が前記閾値以下でない場合、前記決定手段は、前記レイアウト方法を変更すると決定することを特徴とする請求項1に記載の装置。 The information about the identified nozzles is information about the number of nozzles of the printing apparatus that are not used in the printing process.
When the number of nozzles of the printing apparatus not used in the printing process is equal to or less than the threshold value, the determining means determines that the layout method is not changed.
The apparatus according to claim 1, wherein when the number of nozzles of the printing apparatus not used in the printing process is not equal to or less than the threshold value, the determining means determines to change the layout method.
前記印刷処理において使用されない前記印刷装置のノズルの使用頻度が閾値以下である場合、前記決定手段は、前記レイアウト方法を変更しないと決定し、
前記印刷処理において使用されない前記印刷装置のノズルの使用頻度が閾値以下でない場合、前記決定手段は、前記レイアウト方法を変更すると決定することを特徴とする請求項1に記載の装置。 The identified information about the nozzle is information about the frequency of use of the nozzle of the printing apparatus that is not used in the printing process.
When the frequency of use of the nozzles of the printing apparatus not used in the printing process is equal to or less than the threshold value, the determining means determines that the layout method is not changed.
The apparatus according to claim 1, wherein when the frequency of use of the nozzles of the printing apparatus not used in the printing process is not equal to or less than a threshold value, the determining means determines to change the layout method.
前記印刷処理において使用されない前記印刷装置の前記不使用時間が閾値以下である場合、前記決定手段は、前記レイアウト方法を変更しないと決定し、
前記印刷処理において使用されない前記印刷装置の前記不使用時間が閾値以下でない場合、前記決定手段は、前記レイアウト方法を変更すると決定することを特徴とする請求項1に記載の装置。 The information regarding the specified nozzle is information regarding the non-use time of the nozzle of the printing apparatus that is not used in the printing process.
When the non-use time of the printing apparatus not used in the printing process is equal to or less than the threshold value, the determining means determines that the layout method is not changed.
The apparatus according to claim 1, wherein when the non-use time of the printing apparatus not used in the printing process is not equal to or less than a threshold value, the determining means determines to change the layout method.
前記アルバムの見開きページのうち少なくとも1つの見開きページについて、前記第2のレイアウト方法を使用することを決定することを特徴とする請求項1乃至4のいずれか1項に記載の装置。 The layout means is a first layout method in which an image is arranged so as to have a margin at an end as a method of laying out image data for a spread page of an album, and a nozzle corresponding to the width of the entire rectangle of the spread page. Determined with a second layout method in which the images were arranged so that all were used,
The apparatus according to any one of claims 1 to 4, wherein it is determined to use the second layout method for at least one spread page of the double-page spread of the album.
前記幅は、前記搬送方向と垂直な方向の幅であることを特徴とする請求項5に記載の装置。 The album is created by the recording device transporting the recording medium along the transport direction and recording on the recording medium.
The device according to claim 5, wherein the width is a width in a direction perpendicular to the transport direction.
見開きページの全体に背景画像として1つの画像データが配置されているか、
見開きページを構成する2ページのうち何れかの全面に1つの画像データが配置されているか、又は
矩形の画像と矩形の余白とが交互に配置されている
ことを特徴とする請求項5又は6に記載の装置。 In the second layout method,
Is one image data arranged as a background image on the entire spread page?
Claim 5 or 6 characterized in that one image data is arranged on the entire surface of any one of the two pages constituting the spread page, or rectangular images and rectangular margins are arranged alternately. The device described in.
前記決定されたレイアウト方法に基づいて印刷装置の印刷処理において使用されない前記印刷装置のノズルに関する情報を特定するステップと、
前記特定された前記ノズルに関する情報に基づいて、前記レイアウト方法を変更するか否かを決定するステップと、
を備えることを特徴とする方法。 Steps to determine how to lay out image data for a page,
A step of identifying information about nozzles of the printing device that are not used in the printing process of the printing device based on the determined layout method.
A step of deciding whether or not to change the layout method based on the information about the identified nozzle.
A method characterized by providing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019112700A JP7408304B2 (en) | 2019-06-18 | 2019-06-18 | Apparatus, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019112700A JP7408304B2 (en) | 2019-06-18 | 2019-06-18 | Apparatus, method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020204944A true JP2020204944A (en) | 2020-12-24 |
JP7408304B2 JP7408304B2 (en) | 2024-01-05 |
Family
ID=73837039
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019112700A Active JP7408304B2 (en) | 2019-06-18 | 2019-06-18 | Apparatus, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7408304B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008137253A (en) * | 2006-12-01 | 2008-06-19 | Seiko Epson Corp | Printer, printer control program and control method of printer, image processor, image processing program and method for processing image, and storage medium that memorized the program |
JP2012101516A (en) * | 2010-11-12 | 2012-05-31 | Seiko Epson Corp | Printing apparatus and method |
JP2014226816A (en) * | 2013-05-20 | 2014-12-08 | 株式会社リコー | Image forming apparatus and power supply control method |
-
2019
- 2019-06-18 JP JP2019112700A patent/JP7408304B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008137253A (en) * | 2006-12-01 | 2008-06-19 | Seiko Epson Corp | Printer, printer control program and control method of printer, image processor, image processing program and method for processing image, and storage medium that memorized the program |
JP2012101516A (en) * | 2010-11-12 | 2012-05-31 | Seiko Epson Corp | Printing apparatus and method |
JP2014226816A (en) * | 2013-05-20 | 2014-12-08 | 株式会社リコー | Image forming apparatus and power supply control method |
Also Published As
Publication number | Publication date |
---|---|
JP7408304B2 (en) | 2024-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6938422B2 (en) | Image processing equipment, image processing methods, and programs | |
JP7224774B2 (en) | Image processing device, image processing method, and program | |
US11570312B2 (en) | Image processing apparatus, image processing method, and storage medium to select an image to be arranged in an added page in an album | |
JP6711937B2 (en) | Image processing device, image processing method, and program | |
US11627227B2 (en) | Image processing apparatus, image processing method, and storage medium | |
CN108377351B (en) | Image processing apparatus and image processing method for laying out images on template | |
JP6702900B2 (en) | Information processing apparatus, display control method, and program | |
US11470209B2 (en) | Image processing apparatus, method of controlling image processing apparatus, and storage medium for editing an album | |
US20220262054A1 (en) | Storage medium, image processing apparatus, and image processing method | |
US20220262057A1 (en) | Storage medium, image processing apparatus, and image processing method | |
US20220262055A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2020140567A (en) | Device, method, and program | |
US20140009796A1 (en) | Information processing apparatus and control method thereof | |
JP2022123213A (en) | Image processing apparatus, method for controlling the same, and program | |
JP2020140557A (en) | Image processing device, control method, and program | |
JP7336209B2 (en) | Image processing device, control method, and program | |
US8417068B2 (en) | Image processing apparatus | |
US11509777B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP7027101B2 (en) | Information processing equipment, control methods, and programs | |
US11979523B2 (en) | Storage medium, image processing method, and image processing apparatus | |
JP7408304B2 (en) | Apparatus, method, and program | |
JP2021149196A (en) | Image processing apparatus, image processing method, and program | |
US11978133B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP7336212B2 (en) | Image processing device, control method, and program | |
JP7336210B2 (en) | Image processing device, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231220 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7408304 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |