JP4877074B2 - Image processing apparatus, image processing method, and computer program - Google Patents

Image processing apparatus, image processing method, and computer program Download PDF

Info

Publication number
JP4877074B2
JP4877074B2 JP2007141382A JP2007141382A JP4877074B2 JP 4877074 B2 JP4877074 B2 JP 4877074B2 JP 2007141382 A JP2007141382 A JP 2007141382A JP 2007141382 A JP2007141382 A JP 2007141382A JP 4877074 B2 JP4877074 B2 JP 4877074B2
Authority
JP
Japan
Prior art keywords
image
processing
deformation
pixel value
quality adjustment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007141382A
Other languages
Japanese (ja)
Other versions
JP2008299365A (en
JP2008299365A5 (en
Inventor
敏恵 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2007141382A priority Critical patent/JP4877074B2/en
Publication of JP2008299365A publication Critical patent/JP2008299365A/en
Publication of JP2008299365A5 publication Critical patent/JP2008299365A5/ja
Application granted granted Critical
Publication of JP4877074B2 publication Critical patent/JP4877074B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法、および、コンピュータプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a computer program.

ディジタルスチルカメラ(DSC)やスキャナなどの撮像装置によって撮影された画像を、プリンタなどの画像出力装置で出力する方法が普及しつつある。これらの画像出力装置は、出力しようとする画像の画像タイプを判断し、画質を調整するための画像処理を自動的に施す場合があった。かかる画像処理としては、例えば、コントラスト、明るさ、色バランスの調整のように、画像を構成する画素の画素値を調整する処理(画素値処理)が挙げられる。(例えば、特許文献1)。   A method of outputting an image photographed by an imaging device such as a digital still camera (DSC) or a scanner with an image output device such as a printer is becoming widespread. In some cases, these image output apparatuses automatically perform image processing for determining the image type of an image to be output and adjusting the image quality. Examples of such image processing include processing (pixel value processing) for adjusting pixel values of pixels constituting an image, such as adjustment of contrast, brightness, and color balance. (For example, patent document 1).

また、画像データが表す画像を変形するための処理(変形処理)、例えば、顔画像の頬のラインを補正する画像処理が知られている(特許文献2)。本技術により、例えば、画像が見るものに与える印象を調整することができる。   In addition, a process for transforming an image represented by image data (deformation process), for example, an image process for correcting a cheek line of a face image is known (Patent Document 2). With this technique, for example, an impression given to what the image sees can be adjusted.

WO2004−070657WO2004-070657 特開2004−318204JP 2004-318204 A

しかしながら、画素値処理のみでは、十分な画質調整効果が得られない場合があり、同様に変形処理のみでは、十分な画質調整効果が得られない場合があった。そして、画素値調整処理と変形処理とを使いこなして、所望の画質調整効果を得ることは、容易ではなく、とりわけ、画像処理について十分な知識を持たない一般ユーザにとっては、困難な作業であった。かかる課題は、印刷時に限らずディスプレイなどに表示する場合も含め、種々の態様での画像出力に共通する。   However, the pixel value processing alone may not provide a sufficient image quality adjustment effect. Similarly, the deformation processing alone may not provide a sufficient image quality adjustment effect. Further, it is not easy to obtain a desired image quality adjustment effect by making full use of the pixel value adjustment process and the deformation process, and it is particularly difficult for general users who do not have sufficient knowledge about image processing. . Such a problem is common to image output in various modes including not only when printing but also displaying on a display or the like.

本発明は、上述の課題の少なくとも一部を解決するために以下の形態または適用例として実現することが可能である。   The present invention can be realized as the following forms or application examples in order to solve at least a part of the above-described problems.

[適用例1]画像処理装置であって、対象画像に含まれる領域を変形する変形処理を行う第1の処理部と、前記変形処理と関連付けられた処理であって、前記対象画像に含まれる画素の画素値を調整する画素値処理を行う第2の処理部と、を備える、画像処理装置。 Application Example 1 An image processing apparatus, which is a first processing unit that performs a deformation process for deforming a region included in a target image, and a process associated with the deformation process, and is included in the target image And a second processing unit that performs pixel value processing for adjusting the pixel value of the pixel.

適用例1における画像処理装置によれば、画素値処理と変形処理が互いに関連付けられているので、容易に画素値処理と変形処理を組み合わせた画質調整を行うことができる。   According to the image processing apparatus in Application Example 1, since the pixel value processing and the deformation processing are associated with each other, it is possible to easily perform image quality adjustment that combines the pixel value processing and the deformation processing.

適用例1に係る画像処理装置において、互いに関連づけられている前記変形処理と前記画素値処理は、それぞれが前記対象画像にもたらす変化のうち、少なくとも一部が同一または類似していても良い。こうすれば、同一または類似する変化をもたらす画素値処理と変形処理を組み合わせた画質調整を、容易に実行することでき、大きな変化を対象画像にもたらすことも可能となる。   In the image processing apparatus according to the application example 1, at least a part of the deformation processing and the pixel value processing that are associated with each other may be the same or similar among changes that are brought about in the target image. In this way, it is possible to easily perform image quality adjustment that combines pixel value processing and deformation processing that bring about the same or similar changes, and it is also possible to bring great changes to the target image.

適用例1に係る画像処理装置において、前記対象画像は、顔画像を含み、前記変形処理および前記画素値処理が前記対象画像にもたらす変化は、前記顔画像の印象の変化を含んでも良い。こうすれば、画素値処理と変形処理を組み合わせた画質調整により、顔画像の印象の変化を実現することができる。   In the image processing apparatus according to the application example 1, the target image may include a face image, and the change that the deformation process and the pixel value process cause to the target image may include a change in the impression of the face image. In this way, it is possible to realize a change in the impression of the face image by adjusting the image quality by combining the pixel value processing and the deformation processing.

適用例1に係る画像処理装置において、前記変形処理は、前記顔画像の印象に所定の変化をもたらすように、前記顔画像を変形する処理であり、前記画素値処理は、前記顔画像の印象に前記所定の変化と同一または類似の変化をもたらすように前記画素値を調整する処理であっても良い。こうすれば、同一または類似する印象の変化をもたらす画素値処理と変形処理を組み合わせて、顔画像の画質調整を容易に実行することでき、大きな変化を顔画像にもたらすことも可能となる。   In the image processing apparatus according to Application Example 1, the deformation process is a process of deforming the face image so as to bring a predetermined change in the impression of the face image, and the pixel value process is an impression of the face image. The pixel value may be adjusted so as to bring about a change that is the same as or similar to the predetermined change. In this way, it is possible to easily perform image quality adjustment of a face image by combining pixel value processing and deformation processing that bring about the same or similar impression change, and it is also possible to bring a big change to the face image.

適用例1に係る画像処理装置において、互いに関連づけられている前記変形処理と前記画素値処理は、それぞれが前記対象画像にもたらす変化のうち、一部を打ち消し合うように作用しても良い。こうすれば、画素値処理と変形処理を組み合わせて、所望の変化を対象画像にもたらすと共に、所望しない変化が対象画像に生じることを抑制することができる。   In the image processing apparatus according to Application Example 1, the deformation process and the pixel value process that are associated with each other may act so as to cancel out some of the changes that are brought about in the target image. In this way, it is possible to combine the pixel value processing and the deformation processing to bring a desired change to the target image and to prevent an undesired change from occurring in the target image.

適用例1に係る画像処理装置において、前記対象画像は、顔画像を含み、前記変形処理および前記画素値処理が前記対象画像にもたらす変化は、前記顔画像の印象の変化を含んでも良い。かかる場合において、前記変形処理は、前記顔画像の印象に所定の変化をもたらすように、前記顔画像を変形する処理であり、前記画素値処理は、前記顔画像の印象に前記所定の変化と相反する変化をもたらすように前記画素値を調整する処理であるこうすれば、顔画像の印象の変化を抑制しつつ、それ以外の所望の変化を対象画像にもたらすことができる。   In the image processing apparatus according to the application example 1, the target image may include a face image, and the change that the deformation process and the pixel value process cause to the target image may include a change in the impression of the face image. In such a case, the deformation process is a process of deforming the face image so as to cause a predetermined change in the impression of the face image, and the pixel value processing is performed with the predetermined change in the impression of the face image. In this way, the process of adjusting the pixel values so as to bring about a contradictory change, it is possible to bring about other desired changes to the target image while suppressing changes in the impression of the face image.

適用例1に係る画像処理装置において、前記対象画像について、画像の特徴に応じて定まる画像タイプを判定するタイプ判定部と、前記変形処理と前記画素値処理とを含む処理内容を、前記判定された画像タイプに応じて決定する処理内容決定部と、を備え、前記決定された処理内容の画質調整処理を前記対象画像に対して行っても良い。こうすれば、画像タイプに応じて、互いに関連付けられた変形処理と画素値処理とを含む処理内容を決定するので、画像タイプに応じた効果的な画質調整を容易に実現することができる。   In the image processing apparatus according to the application example 1, the processing content including the type determination unit that determines an image type determined according to the feature of the image, the deformation process, and the pixel value process is determined for the target image. A processing content determination unit that determines the image content according to the image type, and the image quality adjustment processing of the determined processing content may be performed on the target image. In this way, since the processing content including the deformation processing and the pixel value processing associated with each other is determined according to the image type, effective image quality adjustment according to the image type can be easily realized.

適用例1に係る画像処理装置において、前記処理内容決定部は、前記変形処理と前記画素値処理とをそれぞれ含む複数種類の候補処理内容の中から前記対象画像に対して行う処理内容を選択させるための選択画面を、前記判定された画像タイプに応じて生成する選択画面生成部を含んでも良い。こうすれば、画像タイプに応じて、好ましい候補処理内容をユーザに提示することができるので、ユーザの画質調整のための操作負担を軽減することができる。   In the image processing device according to Application Example 1, the processing content determination unit selects processing content to be performed on the target image from among a plurality of types of candidate processing content each including the deformation processing and the pixel value processing. A selection screen generation unit that generates a selection screen for the purpose according to the determined image type may be included. In this way, preferable candidate processing contents can be presented to the user in accordance with the image type, so that the operation burden for adjusting the image quality of the user can be reduced.

適用例1に係る画像処理装置において、前記選択画面生成部は、前記判定された画像タイプに応じて前記複数種類の候補処理内容の優先順位を定め、前記優先順位に従って、前記選択画面を生成しても良い。こうすれば、優先順位に従って選択画面が生成されるのでユーザの画質調整のための操作負担をより軽減することができる。   In the image processing apparatus according to the application example 1, the selection screen generation unit determines a priority order of the plurality of types of candidate processing contents according to the determined image type, and generates the selection screen according to the priority order. May be. In this way, since the selection screen is generated according to the priority order, the operation burden for the user to adjust the image quality can be further reduced.

適用例1に係る画像処理装置において、前記選択画面生成部は、前記判定された画像タイプに応じて、前記複数種類の候補処理内容のうちの一部を指定し、前記指定した候補処理内容を選択可能な前記選択画面を生成しても良い。こうすれば、候補処理内容を一部に絞り込んで、ユーザに提示するので、ユーザの画質調整のための操作負担をより軽減することができる。   In the image processing apparatus according to Application Example 1, the selection screen generation unit specifies a part of the plurality of types of candidate process contents according to the determined image type, and the specified candidate process contents are determined. The selectable selection screen may be generated. In this way, the candidate processing content is narrowed down to a part and presented to the user, so that it is possible to further reduce the operation burden for the user to adjust the image quality.

適用例1に係る画像処理装置において、前記選択画面を介して行われた選択を学習する選択学習部を備え、前記選択画面生成部は、前記判定された画像タイプに加えて、前記学習の結果を用いて、前記選択画面を生成しても良い。こうすれば、ユーザの選択傾向を考慮して、選択画面を生成することができるので、ユーザの画質調整のための操作負担をより軽減することができる。   The image processing apparatus according to the application example 1 includes a selection learning unit that learns the selection performed via the selection screen, and the selection screen generation unit includes the learning result in addition to the determined image type. The selection screen may be generated using. In this way, since the selection screen can be generated in consideration of the user's selection tendency, it is possible to further reduce the operation burden for the user to adjust the image quality.

適用例1に係る画像処理装置において、前記選択画面生成部は、ユーザの指示に応じて、前記画像タイプの判定結果に関わらず、各候補処理内容を、複数種類の前記画像タイプの少なくともいずれかに対応付けて表示しても良い。   In the image processing apparatus according to the application example 1, the selection screen generation unit sets each candidate process content to at least one of a plurality of types of the image types regardless of the determination result of the image type according to a user instruction. You may display corresponding to.

[適用例2]画像処理方法であって、対象画像に含まれる領域を変形する変形処理を行い、前記変形処理と関連付けられた処理であって、対象画像に含まれる画素の画素値を調整する画素値処理を行う、画像処理方法。 Application Example 2 This is an image processing method that performs a deformation process for deforming an area included in the target image, and is a process associated with the deformation process, and adjusts the pixel value of the pixel included in the target image. An image processing method for performing pixel value processing.

[適用例3]画像処理のためのコンピュータプログラムであって、対象画像に含まれる領域を変形する変形処理を行う第1の機能と、前記変形処理と関連付けられた処理であって、対象画像に含まれる画素の画素値を調整する画素値処理を行う第2の機能と、をコンピュータに実現させる、コンピュータプログラム。 Application Example 3 A computer program for image processing, which is a first function for performing a deformation process for deforming an area included in a target image, and a process associated with the deformation process. A computer program that causes a computer to realize a second function of performing pixel value processing for adjusting pixel values of included pixels.

上記適用例2に係る画像処理方法、および、適用例3に係るコンピュータプログラムは、適用例1に係る画像処理装置と同様の作用効果を得ることができる。また、上記適用例2に係る画像処理方法、および、適用例3に係るコンピュータプログラムは、適用例1に係る画像処理装置と同様にして種々の態様にて実現され得る。   The image processing method according to the application example 2 and the computer program according to the application example 3 can obtain the same effects as the image processing apparatus according to the application example 1. In addition, the image processing method according to the application example 2 and the computer program according to the application example 3 can be realized in various modes in the same manner as the image processing apparatus according to the application example 1.

さらに、本発明は、上記適用例3に係るコンピュータプログラムを記録した記録媒体、そのコンピュータプログラムを含み搬送波内に具現化されたデータ信号、等の態様で実現することができる。   Furthermore, the present invention can be realized in the form of a recording medium that records the computer program according to Application Example 3, a data signal that includes the computer program and is embodied in a carrier wave, and the like.

次に、本発明の実施態様について、形態を実施例に基づいて以下の順序で説明する。
A.第1実施例:
・プリンタ100の構成:
図1は、本発明の第1実施例における画像処理装置としてのプリンタ100の構成を示すブロック図である。本実施例のプリンタ100は、メモリカードMC等から取得した画像データに基づき画像を印刷する、いわゆるダイレクトプリントに対応したカラーインクジェットプリンタである。プリンタ100は、プリンタ100の各部を制御するCPU110と、例えばリードオンリメモリ(ROM)やランダムアクセスメモリ(RAM)によって構成された内部メモリ120と、ボタンやタッチパネルにより構成された操作部140と、液晶ディスプレイにより構成された表示部150と、プリンタエンジン160と、カードインターフェース(カードI/F)170と、を備えている。プリンタ100は、さらに、他の機器(例えばデジタルスチルカメラ)とのデータ通信を行うためのインターフェースを備えていてもよい。プリンタ100の各構成要素は、バスを介して互いに接続されている。
Next, embodiments of the present invention will be described in the following order based on examples.
A. First embodiment:
-Configuration of the printer 100:
FIG. 1 is a block diagram showing a configuration of a printer 100 as an image processing apparatus according to the first embodiment of the present invention. The printer 100 of this embodiment is a color inkjet printer that supports so-called direct printing, in which an image is printed based on image data acquired from a memory card MC or the like. The printer 100 includes a CPU 110 that controls each unit of the printer 100, an internal memory 120 configured by, for example, a read only memory (ROM) and a random access memory (RAM), an operation unit 140 configured by buttons and a touch panel, a liquid crystal display, and the like. A display unit 150 configured by a display, a printer engine 160, and a card interface (card I / F) 170 are provided. The printer 100 may further include an interface for performing data communication with other devices (for example, a digital still camera). Each component of the printer 100 is connected to each other via a bus.

プリンタエンジン160は、印刷データに基づき印刷を行う印刷機構である。カードインターフェース170は、カードスロット172に挿入されたメモリカードMCとの間でデータのやり取りを行うためのインターフェースである。なお、本実施例において、メモリカードMCには、画像データとしてRGBデータが格納されている。   The printer engine 160 is a printing mechanism that performs printing based on print data. The card interface 170 is an interface for exchanging data with the memory card MC inserted into the card slot 172. In this embodiment, the memory card MC stores RGB data as image data.

内部メモリ120には、機能部として、画像データ取得部210と、画質調整部220と、画像タイプ判定部230と、処理内容決定部240と、表示処理部250と、印刷処理部260とが格納されている。各機能部210〜260は、CPU110により内部メモリ120から読み出され、実行されることにより、所定の機能を実現するコンピュータプログラムである。画像データ取得部210、画質調整部220、画像タイプ判定部230、処理内容決定部240は、後述する画像処理を実行する。画質調整部220は、サブモジュールとして、変形処理部222と、画素値処理部224とを備える。処理内容決定部240は、サブモジュールとして、選択画面生成部242を備える。表示処理部250は、表示部150を制御して、表示部150上に処理メニューやメッセージを表示させるディスプレイドライバである。印刷処理部260は、画像データから印刷データを生成し、プリンタエンジン160を制御して、印刷データに基づく画像の印刷を実行するためのコンピュータプログラムである。   The internal memory 120 stores an image data acquisition unit 210, an image quality adjustment unit 220, an image type determination unit 230, a processing content determination unit 240, a display processing unit 250, and a print processing unit 260 as functional units. Has been. Each of the functional units 210 to 260 is a computer program that realizes a predetermined function by being read from the internal memory 120 by the CPU 110 and executed. The image data acquisition unit 210, the image quality adjustment unit 220, the image type determination unit 230, and the processing content determination unit 240 execute image processing to be described later. The image quality adjustment unit 220 includes a deformation processing unit 222 and a pixel value processing unit 224 as submodules. The processing content determination unit 240 includes a selection screen generation unit 242 as a submodule. The display processing unit 250 is a display driver that controls the display unit 150 to display a processing menu and a message on the display unit 150. The print processing unit 260 is a computer program for generating print data from image data, controlling the printer engine 160, and printing an image based on the print data.

内部メモリ120には、さらに、画像タイプデータベース310と、処理内容データベース320を備えている。さらに、図3において破線で示すように、内部メモリ120は、選択学習データベース330を備えても良く、処理内容決定部240は、サブモジュールとして、選択学習部244を備えても良い。選択学習データベース330および選択学習部244を備える構成については、変形例として後述する。   The internal memory 120 further includes an image type database 310 and a processing content database 320. Furthermore, as indicated by a broken line in FIG. 3, the internal memory 120 may include a selection learning database 330, and the processing content determination unit 240 may include a selection learning unit 244 as a submodule. A configuration including the selection learning database 330 and the selection learning unit 244 will be described later as a modification.

図2は、画像タイプデータベース310の内容を概念的に示す図である。画像タイプデータベース310には、画像の特徴に応じて定まる画像タイプが記述されている。本実施例では、画像の撮影シーンに応じて定まる画像タイプが用いられる。例えば、「ポートレート」「風景」「夕景」「夜景」「花」といった画像タイプが記述されている(図2)。画像タイプデータベース310には、さらに、画像タイプに関連付けて、1または複数の絵作りタイプが優先順位を付けて記述されている。絵作りタイプは、画像に対して施す画質調整処理の名称であり、本実施例では、画質調整処理が画像にもたらす印象を表す言葉が名称として用いられている。具体的には、「やさしい」「きれい」「にぎやか」といった絵作りタイプが記述されている(図2)。図2において、「絵作りタイプm(mは自然数)」のmは、優先順位を表しており、mの値が小さいほど優先順位が高いことを表している。   FIG. 2 is a diagram conceptually showing the contents of the image type database 310. The image type database 310 describes image types that are determined according to image characteristics. In this embodiment, an image type that is determined according to an image shooting scene is used. For example, image types such as “portrait”, “landscape”, “evening scene”, “night scene”, and “flower” are described (FIG. 2). The image type database 310 further describes one or a plurality of picture making types with priorities in association with the image types. The picture making type is a name of an image quality adjustment process performed on an image. In this embodiment, a word representing an impression brought about by an image quality adjustment process on an image is used as the name. Specifically, picture making types such as “easy”, “beautiful”, and “lively” are described (FIG. 2). In FIG. 2, m of “picture making type m (m is a natural number)” represents a priority level, and the smaller the value of m, the higher the priority level.

図3は、処理内容データベース320の内容を概念的に示す図である。処理内容データベース320には、絵作りタイプごとに、絵作りタイプに対応する画質調整処理の具体的な処理内容が記述されている。一の絵作りタイプに対応する画質調整処理は、画素値処理と変形処理とを含んでいる。画素値処理は、画像を構成する画素の画素値を調整する処理である。画素値処理は、画像の特定の領域、本実施例では人物の顔を表す顔画像を構成する画素に対して行われる処理、例えば、肌コントラストを調整する処理や、顔の頬部分に着色する処理を含む。また、画素値処理は、画像を構成する全ての画素に対して行われる処理、例えば、コントラストや明るさを調整する処理を含む。さらに画素値処理は、画像を構成する一部の画素に対して行われる処理、例えば、エッジ領域およびその近傍の画素に対して行われるシャープネス処理を含む。変形処理は、対象画像に含まれる領域を変形する処理であり、本実施例では、上述した顔画像を変形する処理である。   FIG. 3 is a diagram conceptually showing the contents of the processing content database 320. The processing content database 320 describes specific processing content of image quality adjustment processing corresponding to the picture making type for each picture making type. Image quality adjustment processing corresponding to one picture making type includes pixel value processing and deformation processing. The pixel value process is a process for adjusting the pixel values of the pixels constituting the image. Pixel value processing is processing performed on pixels constituting a face image representing a human face in the present embodiment, in this embodiment, for example, processing for adjusting skin contrast, and coloring the cheek portion of the face. Includes processing. In addition, the pixel value processing includes processing performed on all pixels constituting the image, for example, processing for adjusting contrast and brightness. Further, the pixel value processing includes processing performed on some pixels constituting the image, for example, sharpness processing performed on the edge region and its neighboring pixels. The deformation process is a process of deforming an area included in the target image, and in the present embodiment, is a process of deforming the above-described face image.

例えば、図3に示すように、絵作りタイプ「元気」に対応する画質調整処理は、画素値処理として、コントラストを「硬調」にする処理、明るさを「普通」にする処理、彩度を「高く」する処理、カラーバランスを「普通」にする処理、シャープネスを強くする処理(シャープネス)を、含む。各処理は、また、絵作りタイプ「元気」に対応する画像処理は、顔画像に対する画素値処理として、肌コントラストを「強く」する処理、顔の頬部分に「横長の黄」の色味を付ける処理を、含む。さらに、絵作りタイプ「元気」に対応する画像処理は、顔画像の変形処理として、顔の輪郭を「縦に小さく」する処理、を「縦に大きく」する処理を含む。一の絵作りタイプに対応する画素値処理、および、変形処理は、いずれも同一または類似した印象を対象画像に付与する処理である。例えば、絵作りタイプ「元気」に対応する各画素値処理、および、各変形処理は、いずれも対象画像に「元気」な印象を与える変化をもたらす処理である。   For example, as shown in FIG. 3, the image quality adjustment processing corresponding to the picture creation type “Genki” includes pixel value processing, processing for setting contrast to “hard”, processing for setting brightness to “normal”, and saturation. This includes a process of “increasing”, a process of increasing the color balance to “normal”, and a process of increasing sharpness (sharpness). The image processing corresponding to the picture-making type “Genki” is a pixel value processing for the face image. The processing is to “strengthen” the skin contrast, and the “horizontal yellow” color is applied to the cheek part of the face. Including the process of attaching. Further, the image processing corresponding to the picture making type “Genki” includes a process of “decreasing the height of a face” and a process of “enlarging it vertically” as a face image deformation process. The pixel value processing and the deformation processing corresponding to one picture making type are both processing for giving the same or similar impression to the target image. For example, each of the pixel value processing corresponding to the picture making type “Genki” and each deformation processing are processes that bring about a change that gives a “good” impression to the target image.

・プリンタ100の動作:
プリンタ100は、メモリカードMCに格納された画像データに基づき、画像の印刷を行う。カードスロット172にメモリカードMCが挿入されると、表示処理部250により、メモリカードMCに格納された画像の一覧表示を含むユーザインターフェースが表示部150に表示される。画像には、顔画像Fを含む画像と、含まない画像がある。図4は、画像の一覧表示を含むユーザインターフェースの一例を示す説明図である。
-Operation of the printer 100:
The printer 100 prints an image based on the image data stored in the memory card MC. When the memory card MC is inserted into the card slot 172, the display processing unit 250 displays a user interface including a list display of images stored in the memory card MC on the display unit 150. The image includes an image including the face image F and an image not including the face image F. FIG. 4 is an explanatory diagram illustrating an example of a user interface including a list display of images.

本実施例のプリンタ100は、図4に示すユーザインターフェースにおいて、ユーザにより、1つ(または複数)の画像が選択されると共に印刷ボタンが選択されると、選択された画像をそのまま印刷する通常印刷処理を実行する。他方、当該ユーザインターフェースにおいて、ユーザにより、1つ(または複数)の画像が選択されると共に絵作りボタンが選択されると、プリンタ100は、選択された画像に対して、所定の画像処理を行い、画像処理後の画像を印刷・保存する処理(絵作り処理)を実行する。   The printer 100 according to the present embodiment performs normal printing in which when the user selects one (or a plurality of) images and selects a print button in the user interface shown in FIG. 4, the selected image is printed as it is. Execute the process. On the other hand, when one (or a plurality of) images are selected and a picture creation button is selected by the user in the user interface, the printer 100 performs predetermined image processing on the selected images. Then, a process (picture making process) for printing / saving the image after the image process is executed.

図5は、第1実施例のプリンタ100による絵作り処理の流れを示すフローチャートである。絵作り処理が開始されると、上述のユーザインターフェースにおいて選択された画像を対象画像として画像処理を実行する(ステップS100)。   FIG. 5 is a flowchart illustrating the flow of the picture making process performed by the printer 100 according to the first embodiment. When the picture making process is started, the image process is executed using the image selected in the above-described user interface as a target image (step S100).

図6は、第1実施例における画像処理の流れを示すフローチャートである。画像処理が開始されると、画像データ取得部210は、対象画像の画像データをカードスロット172から読み出して取得する(ステップS110)。取得された画像データは、内部メモリ120の所定領域に格納される。   FIG. 6 is a flowchart showing the flow of image processing in the first embodiment. When the image processing is started, the image data acquisition unit 210 reads out and acquires the image data of the target image from the card slot 172 (step S110). The acquired image data is stored in a predetermined area of the internal memory 120.

画像タイプ判定部230は、取得された画像データを解析して、対象画像の画像タイプを判定する(ステップS120)。本実施例では、画像タイプは、上述したとおり、「ポートレート」「風景」「夜景」などの撮影シーンに応じて定められる。このため、本実施例では、画像データの解析により対象画像の撮影シーンを特定する処理(シーン特定処理)により、画像タイプを判定することができる。シーン特定処理は、様々な公知または周知の方法を用いることができる。例えば、対象画像を特徴付ける色相(特徴的色相)と、特徴的色相を有する画素領域の周波数特性とを用いて撮影シーンを特定する処理を用いることができる。   The image type determination unit 230 analyzes the acquired image data and determines the image type of the target image (step S120). In the present embodiment, as described above, the image type is determined according to the shooting scene such as “portrait”, “landscape”, “night view”, and the like. For this reason, in the present embodiment, the image type can be determined by the process of specifying the shooting scene of the target image by analyzing the image data (scene specifying process). Various known or well-known methods can be used for the scene specifying process. For example, it is possible to use a process for specifying a shooting scene using a hue (characteristic hue) that characterizes the target image and a frequency characteristic of a pixel region having the characteristic hue.

具体的には、画像タイプ判定部230は、対象画像について、青、緑、肌色、赤の各色相に属する画素数をカウントし、全画素数に対する割合を算出する。画素値(例えば、HSB値やRGB値)が所定の範囲内の値を有していれば、所定の色相であると判断される。画像タイプ判定部230は、例えば、予め用意されているマップを用いて対象画像の特徴的色相を決定する。マップには、例えば、各色相を構成する画素数の割合と特徴的色相とが対応付けて記述されている。   Specifically, the image type determination unit 230 counts the number of pixels belonging to each hue of blue, green, skin color, and red for the target image, and calculates a ratio to the total number of pixels. If the pixel value (for example, HSB value or RGB value) has a value within a predetermined range, it is determined that the color has a predetermined hue. For example, the image type determination unit 230 determines a characteristic hue of the target image using a map prepared in advance. In the map, for example, the ratio of the number of pixels constituting each hue and the characteristic hue are described in association with each other.

画像タイプ判定部230は、さらに、特徴的色相を構成する画素領域を特定し、特定した画素領域に対して周波数解析を実行する。特徴的色相を構成する画素領域は、色相情報に含まれている各画素の色相と座標位置の情報に基づいて特定される。特定された画素領域に対する周波数解析は、2次元フーリエ変換式を用いて画像データの水平方向(横方向)および垂直方向(縦方向)について実行される。この結果、対象画像における特徴的色相を有する画素領域の周波数特性が算出される。   The image type determination unit 230 further specifies a pixel region that forms a characteristic hue, and performs frequency analysis on the specified pixel region. The pixel area constituting the characteristic hue is specified based on the hue and coordinate position information of each pixel included in the hue information. The frequency analysis for the identified pixel region is executed in the horizontal direction (lateral direction) and the vertical direction (vertical direction) of the image data using a two-dimensional Fourier transform formula. As a result, the frequency characteristic of the pixel region having a characteristic hue in the target image is calculated.

画像タイプ判定部230は、特徴的色相と、特徴的色相領域の周波数特性を用いて、対象画像の撮影シーンを特定する。例えば、撮影シーンは、以下のように特定される。撮影シーンが特定されれば、図2から解るように、撮影画像の画像タイプを判定することができる。
(1)特徴的色相が緑であり、周波数特性として高周波成分が多い場合には、山、平原といった緑を中心とした「風景」であると特定される。
(2)特徴的色相が青であり、周波数特性として低周波が多い場合には、空を中心とした「風景」であると特定される。
(3)特徴的色相が青であり、周波数特性として高周波が多い場合には、海を中心とした「風景」であると特定される。
(4)特徴的色相が肌色であり、周波数特性として低周波が多い場合には、人を中心とした「ポートレート」であると特定される。
(5)特徴的色相が肌色であり、周波数特性として高周波が多い場合には、浜辺もしくはそれに類する「風景」であると特定される。
(6)特徴的色相がグレーであり、周波数特性として低周波が多い場合には、「夜景」であると特定される。
(7)特徴的色相が赤であり、周波数特性として低周波が多い場合には、「夕景」であると特定される。
(8)特徴的色相として特定の色相が大半を占め、周波数特性として高周波成分があまり多くない場合には、マクロ撮影(接写)であると決定され、さらに、高彩度の領域が多い場合や、緑の色相領域が見られる場合には、マクロ撮影の中でも「花」の撮影シーンであると特定される。
The image type determination unit 230 specifies the shooting scene of the target image using the characteristic hue and the frequency characteristics of the characteristic hue region. For example, the shooting scene is specified as follows. If the shooting scene is specified, the image type of the shot image can be determined as can be seen from FIG.
(1) When the characteristic hue is green and there are many high-frequency components as frequency characteristics, it is specified as “landscape” centering on green such as mountains and plains.
(2) When the characteristic hue is blue and there are many low frequencies as frequency characteristics, it is specified as “landscape” centering on the sky.
(3) When the characteristic hue is blue and the frequency characteristic has a high frequency, it is identified as a “landscape” centered on the sea.
(4) When the characteristic hue is skin color and there are many low frequencies as frequency characteristics, it is specified as a “portrait” centering on a person.
(5) When the characteristic hue is skin color and there are many high frequencies as frequency characteristics, it is specified as a beach or similar “landscape”.
(6) When the characteristic hue is gray and there are many low frequencies as frequency characteristics, it is specified as “night scene”.
(7) When the characteristic hue is red and there are many low frequencies as frequency characteristics, it is specified as “evening scene”.
(8) When a specific hue occupies most of the characteristic hues and the high frequency component is not so many as the frequency characteristics, it is determined that the image is macro photography (close-up photography). When the hue area is seen, it is specified that the scene is “flower” in macro photography.

撮影シーンを特定することにより画像タイプが判定されると、処理内容決定部240の選択画面生成部242は、絵作りタイプの候補を取得する(ステップS130)。具体的には、選択画面生成部242は、画像タイプデータベース310を検索して、ステップS120において特定された画像タイプに関連付けられた絵作りタイプを、優先順位と共に、候補として取得する。例えば、画像タイプが「ポートレート」である場合には、取得される絵作り候補は、優先順位の高い順に、「やさしい」「かわいい」「きれい」「にぎやか」「元気」である。   When the image type is determined by specifying the shooting scene, the selection screen generation unit 242 of the processing content determination unit 240 acquires a picture making type candidate (step S130). Specifically, the selection screen generation unit 242 searches the image type database 310 and acquires the picture making type associated with the image type specified in step S120 as a candidate together with the priority order. For example, when the image type is “portrait”, the acquired picture creation candidates are “easy”, “cute”, “beautiful”, “lively”, and “good” in descending order of priority.

絵作りの候補が取得されると、複数の絵作りの候補の中から、対象画像に対して行う絵作りを選択させるための選択画面が生成・表示される(ステップS140)。図7は、選択画面の一例を示す図である。具体的には、選択画面生成部242は、図7に示すように、取得された絵作り候補の名称を、優先順位の高い順番に表示する選択画面の画像データを生成する。表示処理部250は、生成された画像データを用いて選択画面を表示部150に表示する。ユーザは、前候補ボタンまたは次候補ボタンを押下することによりカーソルCSを操作し、所望の絵作りを選択する。図7(a)における矢印AR1は、表示されている絵作り候補以外に、優先順位の低い他の絵作り候補があることを表し、図7(b)における矢印AR2は、表示されている絵作り候補以外に、優先順位の高い他の絵作り候補があることを表す。選択画面は、図7において、破線で示す一覧表示ボタンを備えても良い。一覧表示ボタンを有する場合については、変形例として後述する。   When a picture creation candidate is acquired, a selection screen for selecting a picture creation to be performed on the target image from a plurality of picture creation candidates is generated and displayed (step S140). FIG. 7 is a diagram illustrating an example of the selection screen. Specifically, as illustrated in FIG. 7, the selection screen generation unit 242 generates image data of a selection screen that displays the acquired names of picture creation candidates in order of priority. The display processing unit 250 displays a selection screen on the display unit 150 using the generated image data. The user operates the cursor CS by pressing the previous candidate button or the next candidate button, and selects a desired picture creation. An arrow AR1 in FIG. 7A indicates that there is another picture making candidate with a lower priority in addition to the displayed picture making candidate, and an arrow AR2 in FIG. 7B indicates the displayed picture. In addition to the creation candidates, there is another picture creation candidate with a high priority. The selection screen may include a list display button indicated by a broken line in FIG. The case of having a list display button will be described later as a modified example.

処理内容決定部240は、選択画面を介して、ユーザから1つの絵作りタイプを選択する入力を受け付けて、絵作りタイプを決定する(ステップS150)。これにより、対象画像に対して行われる画質調整処理の処理内容が決定する(図3)。   The processing content determination unit 240 receives an input for selecting one picture making type from the user via the selection screen, and determines the picture making type (step S150). Thereby, the processing content of the image quality adjustment processing performed on the target image is determined (FIG. 3).

絵作りタイプが決定されると、画質調整部220は、対象画像に対する画質調整処理を実行する(ステップS160)。図8は、画質調整処理の流れを示すフローチャートである。画質調整処理が開始されると、画質調整部220は、対象画像における顔領域FAを検出する(ステップS161)。ここで、顔領域FAとは対象画像上の人物の顔に対応する領域を意味している。画質調整部220による顔領域FAの検出は、例えばテンプレートを利用したパターンマッチングによる方法(特開2004−318204参照)といった公知の顔検出方法を用いて実行される。   When the picture making type is determined, the image quality adjustment unit 220 executes image quality adjustment processing for the target image (step S160). FIG. 8 is a flowchart showing the flow of image quality adjustment processing. When the image quality adjustment process is started, the image quality adjustment unit 220 detects the face area FA in the target image (step S161). Here, the face area FA means an area corresponding to a human face on the target image. The detection of the face area FA by the image quality adjustment unit 220 is executed using a known face detection method such as a pattern matching method using a template (see Japanese Patent Application Laid-Open No. 2004-318204).

顔領域FAが検出されなかった場合には(ステップS162:NO)、画素値処理のみが行われる(ステップS165)。顔領域FAが検出された場合には(ステップS162:YES)、画素値処理(ステップS163)と、顔画像の変形処理(顔変形処理)(ステップS164)とが行われる。   If the face area FA is not detected (step S162: NO), only pixel value processing is performed (step S165). When the face area FA is detected (step S162: YES), pixel value processing (step S163) and face image deformation processing (face deformation processing) (step S164) are performed.

画質調整部220の画素値処理部224は、ステップS150において決定された絵作りタイプに対応する画素値処理の処理内容を処理内容データベース320から取得する。画素値処理部224は、取得された処理内容に従って、画素値処理を実行する。例えば、決定された絵作りタイプが「元気」である場合は、画素値処理部224は、コントラストを「硬調」にする処理、明るさを「普通」にする処理、彩度を「高く」する処理、カラーバランスを「普通」にする処理、シャープネスを強くする処理(シャープネス処理)を実行する。例えば、明るさ「普通」に対応する明度の目標値Baimが予め定められている。明るさを「普通」にする処理は、対象画像を構成する全画素の平均明度Baveが目標値Baimになるように、以下に示すトーンカーブを用いて各画素の明度を調整することにより、実行される。   The pixel value processing unit 224 of the image quality adjustment unit 220 acquires the processing content of the pixel value processing corresponding to the picture making type determined in step S150 from the processing content database 320. The pixel value processing unit 224 performs pixel value processing according to the acquired processing content. For example, when the determined picture making type is “Genki”, the pixel value processing unit 224 performs a process of setting the contrast to “high contrast”, a process of setting the brightness to “normal”, and “higher” the saturation. Processing, processing for setting the color balance to “normal”, processing for increasing sharpness (sharpness processing) are executed. For example, a brightness target value Baim corresponding to the brightness “normal” is determined in advance. The process of setting the brightness to “normal” is executed by adjusting the brightness of each pixel using the tone curve shown below so that the average brightness Bave of all the pixels constituting the target image becomes the target value Baim. Is done.

図9は、画素値処理の一例を説明する第一の図である。図9(a)は、明るさを調整する処理に用いられるトーンカーブの一例を示している。図9(a)において、横軸は明度の入力値に、縦軸は明度の出力値に、それぞれ対応している。明度は、例えば、HSB色空間のB(Brightness)の値が用いられる。明るさの調整では、対象画像の全画素に対して、かかるトーンカーブを用いた明度の変換が行われる。明るさの調整の程度は、本実施例では、基準明度Brefを入力した場合に出力される明度値の変化量により定められる。例えば、図9(a)に示すように、変化量を正の値b+に設定すれば、トーンカーブは上に凸の曲線となり、b+の絶対値が大きいほど画像は明るくなる。逆に変化量を負の値b−に設定すれば、トーンカーブは下に凸の曲線となり、b−の絶対値が大きいほど画像は暗くなる。   FIG. 9 is a first diagram illustrating an example of pixel value processing. FIG. 9A shows an example of a tone curve used for the process of adjusting the brightness. In FIG. 9A, the horizontal axis corresponds to the lightness input value, and the vertical axis corresponds to the lightness output value. As the brightness, for example, a value of B (Brightness) in the HSB color space is used. In the brightness adjustment, brightness conversion using such a tone curve is performed on all pixels of the target image. In this embodiment, the degree of brightness adjustment is determined by the amount of change in brightness value output when the reference brightness Bref is input. For example, as shown in FIG. 9A, if the amount of change is set to a positive value b +, the tone curve becomes a convex curve, and the larger the absolute value of b +, the brighter the image. Conversely, if the amount of change is set to a negative value b−, the tone curve becomes a downwardly convex curve, and the larger the absolute value of b−, the darker the image.

図9(b)は、コントラストを調整する処理に用いられるトーンカーブの一例を示している。図9(a)と同様に、図9(b)において、横軸は明度の入力値に、縦軸は明度の出力値に、それぞれ対応している。コントラストの調整では、明度の調整と同様に、対象画像の全画素に対して、かかるトーンカーブを用いた明度の変換が行われる。コントラストの調整の程度は、本実施例では、基準明度Brefを入力した場合に出力される明度値の変化量により定められる。例えば、図9(b)に示すように、変化量を正の値k+に設定すれば、トーンカーブはS字状の曲線となり、k+の絶対値が大きいほど画像のコントラストが強く(硬調に)なる。逆に変化量を負の値k−に設定すれば、トーンカーブは逆S字状の曲線となり、k−の絶対値が大きいほど画像のコントラストは弱く(軟調に)なる。   FIG. 9B shows an example of a tone curve used for the process of adjusting the contrast. Similarly to FIG. 9A, in FIG. 9B, the horizontal axis corresponds to the lightness input value, and the vertical axis corresponds to the lightness output value. In contrast adjustment, lightness conversion using such a tone curve is performed on all pixels of the target image, as in lightness adjustment. In this embodiment, the degree of contrast adjustment is determined by the amount of change in the brightness value output when the reference brightness Bref is input. For example, as shown in FIG. 9B, when the amount of change is set to a positive value k +, the tone curve becomes an S-shaped curve, and the larger the absolute value of k +, the stronger the contrast of the image (in high contrast). Become. Conversely, if the amount of change is set to a negative value k−, the tone curve becomes an inverted S-shaped curve, and the contrast of the image becomes weaker (softer) as the absolute value of k− increases.

彩度の調整は、例えば、彩度値(例えば、HSB色空間のS(Saturation)の値)に対して、図9(a)と同様のトーンカーブを用いた変換を行うことにより実行される。   For example, the saturation is adjusted by performing conversion using a tone curve similar to that shown in FIG. 9A on the saturation value (for example, the value of S (Saturation) in the HSB color space). .

カラーバランスの調整は、例えば、画像を構成する全画素の画素値(例えば、RGB値)の平均値が所定の目標色を表す値になるように各色成分を調整する方法が用いられる。例えば、カラーバランスを「普通」に調整する場合には、目標色は、無彩色(白やグレー)に設定される。カラーバランスを「黄色」に調整する場合には、目標色は、無彩色に黄色の色味(成分)を加えた色に設定される。   For the adjustment of the color balance, for example, a method of adjusting each color component so that an average value of pixel values (for example, RGB values) of all pixels constituting the image becomes a value representing a predetermined target color is used. For example, when the color balance is adjusted to “normal”, the target color is set to an achromatic color (white or gray). When the color balance is adjusted to “yellow”, the target color is set to a color obtained by adding a yellow color (component) to an achromatic color.

シャープネス処理は、アンシャープマスクを利用する方法を用いることができる。この方法は、明度値の変化がなまった(アンシャープ)データを用意し、原データからアンシャープデータを差し引いた差分値に係数を掛けて、原データに足し合わせる方法である。これにより、明度値の変化を鋭敏化させることができる。アンシャープデータは、原データの各画素の明度値を、その周りの画素の明度値を用いて平均化すること(平滑化処理)によって得ることができる。平滑化処理は、例えば、対象画素に近い画素の輝度値ほどより大きい重みで平均を計算する方法を用いることができる。このような重み関数として、対象画素を中心とした2次元ガウス関数を用いることがきる。   For the sharpness processing, a method using an unsharp mask can be used. This method is a method in which data with no change in brightness value (unsharp) is prepared, and a difference value obtained by subtracting unsharp data from the original data is multiplied by a coefficient to add to the original data. Thereby, the change of the brightness value can be sensitized. Unsharp data can be obtained by averaging the brightness values of each pixel of the original data using the brightness values of surrounding pixels (smoothing process). For the smoothing process, for example, a method of calculating an average with a greater weight as the luminance value of the pixel closer to the target pixel can be used. As such a weight function, a two-dimensional Gaussian function centered on the target pixel can be used.

ソフトフォーカス処理は、上述したアンシャープデータを原データに置き換えることにより行うことができる。シャープネス処理およびソフトフォーカス処理は、対象画像の全ての画素に対して行う必要はなく、例えば、エッジ領域およびその周辺の画素に対してのみ行って良い。   The soft focus process can be performed by replacing the unsharp data described above with the original data. The sharpness process and the soft focus process do not need to be performed on all the pixels of the target image, and may be performed only on the edge region and its surrounding pixels, for example.

ビネット処理は、画像の4隅近傍の画素の明度を低下させる処理である。ビネット処理により画像にレトロ調の印象を与えることができる。   The vignette process is a process for reducing the brightness of pixels near the four corners of the image. Vignette processing can give the image a retro-like impression.

ノイズ処理は、例えば、画像を構成する各画素の明度値に所定のノイズを加える処理である。このようなノイズには、ガウス分布によるノイズ、均等分布によるノイズが用いられ得る。ノイズ処理により画像には粒状感(ざらつき感)が付与され、例えば、ビネット処理と共に用いることにより、画像に懐かしい印象を与えることができる。   The noise process is a process for adding predetermined noise to the brightness value of each pixel constituting the image, for example. As such noise, noise by Gaussian distribution or noise by uniform distribution can be used. The image is given a graininess (roughness) by the noise processing. For example, when used together with the vignette processing, a nostalgic impression can be given to the image.

顔領域FAが検出された場合には、画素値処理部224は、さらに、取得された処理内容に従って、顔画像に対する画素値処理を実行する。例えば、決定された絵作りタイプが「元気」である場合は、画素値処理部224は、肌コントラストを「強く」する処理、顔画像の頬の部分に「横長に黄」の着色を施す処理(頬着色処理)を実行する。   When the face area FA is detected, the pixel value processing unit 224 further executes pixel value processing on the face image according to the acquired processing content. For example, when the determined picture making type is “Genki”, the pixel value processing unit 224 performs a process of “strengthening” the skin contrast and a process of coloring “horizontally yellow” on the cheek portion of the face image. (Cheek coloring process) is executed.

肌コントラストを調整する処理は、顔画像の肌に対応する画素のコントラストを調整する処理である。具体的には、画素値処理部224は、顔領域FAの内部やその近傍の画素のうち、所定の肌色の色相を有する画素に対して、図9(b)に示すトーンカーブを用いてコントラストの調整を行う。   The process for adjusting the skin contrast is a process for adjusting the contrast of the pixels corresponding to the skin of the face image. Specifically, the pixel value processing unit 224 uses the tone curve shown in FIG. 9B to contrast the pixels having a predetermined skin color hue among the pixels in the face area FA and in the vicinity thereof. Make adjustments.

図10は、頬着色処理を説明するための図である。「横長に」着色する頬着色処理は、図10(a)に示すように、両目のそれぞれの下側の横長の領域Ch1の画素の画素値に所定の色味(本実施例では、赤または黄)を加える処理である。「縦長に」着色する頬着色処理は、図10(b)に示すように、両目のそれぞれの下側の縦長の領域Ch2の画素の画素値に所定の色味を加える処理である。領域Ch1およびCh2は、例えば、検出された顔領域FAの内部において、さらに、目や口などの器官を検出して、これらの器官との位置関係から決定される。   FIG. 10 is a diagram for explaining the cheek coloring process. As shown in FIG. 10A, the cheek coloring process of “horizontally long” is performed by adding a predetermined color (in this embodiment, red or red) to the pixel value of the pixel in the horizontally long region Ch1 below each eye. Yellow). As shown in FIG. 10B, the cheek coloring process for coloring “vertically long” is a process of adding a predetermined color to the pixel value of the pixel in the vertically long region Ch2 on the lower side of each eye. The areas Ch1 and Ch2 are determined from the positional relationship with these organs, for example, by further detecting organs such as eyes and mouth within the detected face area FA.

顔領域FAが検出された場合には、画素値処理が終了すると、画質調整部220の変形処理部222は、顔変形処理を行う(ステップS164)。図11は、顔変形処理の流れを示すフローチャートである。変形処理部222は、顔変形処理を開始すると、顔画像の一部または全部を含む変形領域TAを設定する(ステップS1642)。   When the face area FA is detected, when the pixel value processing ends, the deformation processing unit 222 of the image quality adjustment unit 220 performs face deformation processing (step S164). FIG. 11 is a flowchart showing the flow of the face deformation process. When the deformation processing unit 222 starts the face deformation processing, the deformation processing unit 222 sets a deformation area TA including part or all of the face image (step S1642).

図12は、変形領域の設定について説明する図である。図12に示すように、本実施例では、顔領域FAは、対象画像上の顔画像の目と鼻と口の画像を含む矩形の領域が顔領域FAとして検出される。なお、図12に示した基準線RLは、顔領域FAの高さ方向(上下方向)を定義すると共に、顔領域FAの幅方向(左右方向)の中心を示す線である。すなわち、基準線RLは、矩形の顔領域FAの重心を通り、顔領域FAの高さ方向(上下方向)に沿った境界線に平行な直線である。変形領域TAは、対象画像上の領域であって顔形状補正のための画像変形処理の対象となる領域である。図12に示すように、本実施例では、変形領域TAは、顔領域FAを基準線RLと平行な方向(高さ方向)および基準線RLに直行する方向(幅方向)に伸張(または短縮)した領域として設定される。具体的には、顔領域FAの高さ方向の大きさをHf、幅方向の大きさをWfとすると、顔領域FAを、上方向にm1・Hf、下方向にm2・Hfだけ伸ばすと共に、左右にそれぞれm3・Wfだけ伸ばした領域が、変形領域TAとして設定される。なお、m1,m2,m3は、所定の係数である。   FIG. 12 is a diagram illustrating the setting of the deformation area. As shown in FIG. 12, in the present embodiment, the face area FA is detected as a face area FA including a rectangular area including the eyes, nose and mouth images of the face image on the target image. Note that the reference line RL shown in FIG. 12 is a line that defines the height direction (vertical direction) of the face area FA and the center in the width direction (horizontal direction) of the face area FA. That is, the reference line RL is a straight line that passes through the center of gravity of the rectangular face area FA and is parallel to the boundary line along the height direction (vertical direction) of the face area FA. The deformation area TA is an area on the target image and is a target of image deformation processing for face shape correction. As shown in FIG. 12, in this embodiment, the deformation area TA extends (or shortens) the face area FA in a direction (height direction) parallel to the reference line RL and a direction (width direction) perpendicular to the reference line RL. ). Specifically, assuming that the size in the height direction of the face area FA is Hf and the size in the width direction is Wf, the face area FA is extended by m1 · Hf upward and m2 · Hf downward, A region extended by m3 · Wf to the left and right is set as the deformation region TA. Note that m1, m2, and m3 are predetermined coefficients.

このように変形領域TAが設定されると、顔領域FAの高さ方向の輪郭線に平行な直線である基準線RLは、変形領域TAの高さ方向の輪郭線にも平行な直線となる。また、基準線RLは、変形領域TAの幅を半分に分割する直線となる。   When the deformation area TA is set in this way, the reference line RL, which is a straight line parallel to the contour line in the height direction of the face area FA, becomes a straight line parallel to the contour line in the height direction of the deformation area TA. . The reference line RL is a straight line that divides the width of the deformation area TA in half.

図12に示すように、変形領域TAは、高さ方向に関しては、概ね顎から額までの画像を含み、幅方向に関しては、左右の頬の画像を含むような領域として設定される。すなわち、本実施例では、変形領域TAが概ねそのような範囲の画像を含む領域となるように、顔領域FAの大きさとの関係に基づき、上述の係数m1,m2,m3が予め設定されている。   As shown in FIG. 12, the deformation area TA is set as an area that generally includes an image from the jaw to the forehead in the height direction and includes images of the left and right cheeks in the width direction. That is, in the present embodiment, the above-described coefficients m1, m2, and m3 are set in advance based on the relationship with the size of the face area FA so that the deformation area TA is an area that includes an image in such a range. Yes.

変形領域TAが設定されると、変形処理部222は、変形領域TAを複数の小領域に分割する(ステップS1644)。図13は、変形領域TAの小領域への分割方法の一例を示す説明図である。変形処理部222は、変形領域TAに複数の分割点Dを配置し、分割点Dを結ぶ直線を用いて変形領域TAを複数の小領域に分割する。   When the deformation area TA is set, the deformation processing unit 222 divides the deformation area TA into a plurality of small areas (step S1644). FIG. 13 is an explanatory diagram illustrating an example of a method of dividing the deformation area TA into small areas. The deformation processing unit 222 arranges a plurality of division points D in the deformation area TA, and divides the deformation area TA into a plurality of small areas using a straight line connecting the division points D.

分割点Dの配置(分割点Dの個数および位置)は、顔画像の変形の態様に応じて予め定められたパターンで行われる。例えば、顔画像の変形の態様と対応付けて配置パターンが記録されたパターンテーブル(図示省略)を予め容易しておき、変形処理部222は、かかるパターンテーブルを参照して変形の態様に応じて分割点Dを配置する。以下では、変形の態様が、顔画像における輪郭を「横に小さく」変形する場合を具体例として説明を進める。   The arrangement of the dividing points D (the number and position of the dividing points D) is performed in a pattern determined in advance according to the deformation mode of the face image. For example, a pattern table (not shown) in which an arrangement pattern is recorded in association with a deformation mode of a face image is facilitated in advance, and the deformation processing unit 222 refers to the pattern table and changes the pattern according to the deformation mode. Dividing points D are arranged. In the following, description will be given by taking as an example a case in which the deformation mode deforms the outline of the face image “smallly in the horizontal direction”.

図13に示すように、分割点Dは、水平分割線Lhと垂直分割線Lvとの交点と、水平分割線Lhおよび垂直分割線Lvと変形領域TAの外枠との交点とに配置される。ここで、水平分割線Lhおよび垂直分割線Lvは、変形領域TA内に分割点Dを配置するための基準となる線である。図13に示すように、輪郭「横に小さく」変形する場合には、基準線RLと直行する3本の水平分割線Lhと、基準線RLに平行な4本の垂直分割線Lvとが設定される。3本の水平分割線Lhを、変形領域TAの下方から順に、Lh1,Lh2,Lh3と呼ぶ。また、4本の垂直分割線Lvを、変形領域TAの左から順に、Lv1,Lv2,Lv3,Lv4と呼ぶ。   As shown in FIG. 13, the division points D are arranged at the intersections of the horizontal division line Lh and the vertical division line Lv and at the intersections of the horizontal division line Lh and the vertical division line Lv and the outer frame of the deformation area TA. . Here, the horizontal dividing line Lh and the vertical dividing line Lv are reference lines for arranging the dividing points D in the deformation area TA. As shown in FIG. 13, in the case of deforming the outline “smallly laterally”, three horizontal dividing lines Lh perpendicular to the reference line RL and four vertical dividing lines Lv parallel to the reference line RL are set. Is done. The three horizontal dividing lines Lh are referred to as Lh1, Lh2, and Lh3 in order from the bottom of the deformation area TA. The four vertical dividing lines Lv are referred to as Lv1, Lv2, Lv3, and Lv4 in order from the left of the deformation area TA.

水平分割線Lh1は、変形領域TAにおいて、顎の画像より下方に配置され、水平分割線Lh2は、目の画像のすぐ下付近に配置される。水平分割線Lh3は、目の画像のすぐ上付近に配置されている。また、垂直分割線Lv1およびLv4は、頬のラインの画像の外側に配置され、垂直分割線Lv2およびLv3は、目尻の画像の外側に配置される。なお、水平分割線Lhおよび垂直分割線Lvの配置は、水平分割線Lhおよび垂直分割線Lvと画像との位置関係が結果的に上述の位置関係となるように予め設定された変形領域TAの大きさとの対応関係に従い実行される。   The horizontal dividing line Lh1 is arranged below the chin image in the deformation area TA, and the horizontal dividing line Lh2 is arranged near the eye image. The horizontal dividing line Lh3 is arranged in the vicinity immediately above the eye image. The vertical dividing lines Lv1 and Lv4 are arranged outside the cheek line image, and the vertical dividing lines Lv2 and Lv3 are arranged outside the eye corner image. The horizontal dividing line Lh and the vertical dividing line Lv are arranged in the deformation area TA set in advance so that the positional relationship between the horizontal dividing line Lh and the vertical dividing line Lv and the image becomes the above-described positional relationship as a result. It is executed according to the correspondence with the size.

上述した水平分割線Lhと垂直分割線Lvとの配置に従い、水平分割線Lhと垂直分割線Lvとの交点と、水平分割線Lhおよび垂直分割線Lvと変形領域TAの外枠との交点とに、分割点Dが配置される。図13に示すように、水平分割線Lhi(i=1または2)上に位置する分割点Dを、左から順に、D0i,D1i,D2i,D3i,D4i,D5iと呼ぶものとする。例えば、水平分割線Lh1上に位置する分割点Dは、D01,D11,D21,D31,D41,D51と呼ばれる。同様に、垂直分割線Lvj(j=1,2,3,4のいずれか)上に位置する分割点Dを、下から順に、Dj0,Dj1,Dj2,Dj3と呼ぶものとする。例えば、垂直分割線Lv1上に位置する分割点Dは、D10,D11,D12,D13と呼ばれる。   According to the arrangement of the horizontal dividing line Lh and the vertical dividing line Lv described above, the intersection of the horizontal dividing line Lh and the vertical dividing line Lv, and the intersection of the horizontal dividing line Lh and the vertical dividing line Lv and the outer frame of the deformation area TA In addition, the dividing point D is arranged. As shown in FIG. 13, the division points D located on the horizontal division line Lhi (i = 1 or 2) are referred to as D0i, D1i, D2i, D3i, D4i, and D5i in order from the left. For example, the dividing points D located on the horizontal dividing line Lh1 are called D01, D11, D21, D31, D41, D51. Similarly, the dividing points D located on the vertical dividing line Lvj (j = 1, 2, 3, 4) are called Dj0, Dj1, Dj2, Dj3 in order from the bottom. For example, the division points D located on the vertical division line Lv1 are called D10, D11, D12, and D13.

なお、図13に示すように、本実施例における分割点Dの配置は、基準線RLに対して対称の配置となっている。   As shown in FIG. 13, the arrangement of the dividing points D in the present embodiment is symmetrical with respect to the reference line RL.

変形処理部222は、配置された分割点Dを結ぶ直線(すなわち水平分割線Lhおよび垂直分割線Lv)により、変形領域TAを複数の小領域に分割する。本実施例では、図13に示すように、変形領域TAが20個の矩形の小領域に分割される。   The deformation processing unit 222 divides the deformation area TA into a plurality of small areas by a straight line connecting the arranged dividing points D (that is, the horizontal dividing line Lh and the vertical dividing line Lv). In the present embodiment, as shown in FIG. 13, the deformation area TA is divided into 20 rectangular small areas.

変形処理部222は、対象画像の変形領域TAを対象とした画像の変形を行う(ステップS1646)。画像の変形は、変形領域TA内に配置された分割点Dの位置を移動して、小領域を変形することにより行われる。   The deformation processing unit 222 performs image deformation on the deformation area TA of the target image (step S1646). The image is deformed by moving the position of the dividing point D arranged in the deformation area TA and deforming the small area.

変形のための各分割点Dの位置の移動態様(移動方向および移動距離)は、変形の態様に応じて、予め定められている。変形処理部222は、予め定められた移動方向および移動距離で、分割点Dの位置を移動する。   The movement mode (movement direction and movement distance) of the position of each division point D for deformation is determined in advance according to the deformation mode. The deformation processing unit 222 moves the position of the dividing point D with a predetermined moving direction and moving distance.

図14は、分割点Dの位置の移動の一例を示す説明図である。図15は、予め定められた移動方向および移動距離の一例を示す第1の説明図である。図15は、顔画像における輪郭を「横に小さく」変形する場合の移動方向および移動距離を示している。図15には、各分割点Dについて、基準線RLと直行する方向(H方向)および基準線RLと平行な方向(V方向)に沿った移動量が示されている。かかるデータを、例えば、テーブルの形式で予め内部メモリ120上に記憶しておけば、変形処理部222は、容易に様々な態様の変形を行うことができる。なお、図15に示す移動量の単位は、対象画像の画素ピッチPPである。また、H方向については、向かって右側への移動量が正の値として表され、向かって左側への移動量が負の値として表され、V方向については、上方への移動量が正の値として表され、下方への移動量が負の値として表される。例えば、分割点D11は、H方向に沿って右側に画素ピッチPPの7倍の距離だけ移動され、V方向に沿っては移動されない(画素ピッチPPの0倍)。また、例えば分割点D22は、H方向およびV方向共に移動量がゼロであるため、移動されない。   FIG. 14 is an explanatory diagram illustrating an example of movement of the position of the dividing point D. As illustrated in FIG. FIG. 15 is a first explanatory diagram illustrating an example of a predetermined moving direction and moving distance. FIG. 15 shows a moving direction and a moving distance when the contour in the face image is deformed “sideways small”. FIG. 15 shows the amount of movement of each division point D along the direction perpendicular to the reference line RL (H direction) and the direction parallel to the reference line RL (V direction). If such data is stored in the internal memory 120 in advance in the form of a table, for example, the deformation processing unit 222 can easily perform various modifications. The unit of the movement amount shown in FIG. 15 is the pixel pitch PP of the target image. For the H direction, the amount of movement to the right side is represented as a positive value, the amount of movement to the left side is represented as a negative value, and for the V direction, the amount of movement upward is positive. It is expressed as a value, and the downward movement amount is expressed as a negative value. For example, the dividing point D11 is moved to the right along the H direction by a distance of 7 times the pixel pitch PP, and is not moved along the V direction (0 times the pixel pitch PP). For example, the division point D22 is not moved because the movement amount is zero in both the H direction and the V direction.

なお、本実施例では、変形領域TAの内外の画像間の境界が不自然とならないように、変形領域TAの外枠上に位置する分割点D(例えば図13に示す分割点D10等)の位置は移動されないものとしている。従って、図15には、変形領域TAの外枠上に位置する分割点Dについての移動態様は定義されていない。   In this embodiment, the division points D (for example, the division points D10 shown in FIG. 13) located on the outer frame of the deformation area TA are set so that the boundary between the inner and outer images of the deformation area TA does not become unnatural. The position is not moved. Therefore, in FIG. 15, the movement mode for the dividing point D located on the outer frame of the deformation area TA is not defined.

図14では、移動前の分割点Dは白抜きの丸で、移動後の分割点Dや位置の移動の無い分割点Dは黒丸で示されている。また、移動後の分割点Dは分割点D’と呼ばれるものとする。例えば分割点D11の位置は、図14において右方向に移動され、分割点D’11となる。   In FIG. 14, the division point D before the movement is indicated by a white circle, and the division point D after the movement or the division point D without the movement of the position is indicated by a black circle. Further, the divided point D after the movement is referred to as a divided point D ′. For example, the position of the dividing point D11 is moved rightward in FIG. 14 to become a dividing point D′ 11.

なお、本実施例では、基準線RLに対して対称な位置関係にある2つの分割点Dの組み合わせ(例えば分割点D11とD41との組み合わせ)のすべてが、分割点Dの移動後も、基準線RLに対して対称な位置関係を維持するように、移動態様が定められている。   In the present embodiment, all combinations of two division points D (for example, combinations of division points D11 and D41) that are in a symmetric positional relationship with respect to the reference line RL are the same after the movement of the division point D. The movement mode is determined so as to maintain a symmetrical positional relationship with respect to the line RL.

変形処理部222は、変形領域TAを構成する各小領域について、分割点Dの位置移動前の状態における小領域の画像が、分割点Dの位置移動により新たに定義された小領域の画像となるように、画像の変形処理を行う。例えば、図14において、分割点D11,D21,D22,D12を頂点とする小領域(ハッチングを付して示す小領域)の画像は、分割点D’11,D’21,D22,D’12を頂点とする小領域の画像に変形される。   For each small area constituting the deformation area TA, the deformation processing unit 222 determines that the small area image in the state before the position movement of the dividing point D is the image of the small area newly defined by the position movement of the dividing point D. In this way, an image deformation process is performed. For example, in FIG. 14, an image of a small region (small region indicated by hatching) having vertices at the division points D11, D21, D22, and D12 is divided into points D′ 11, D′ 21, D22, and D′ 12. Is transformed into an image of a small area with the vertex at.

図16は、画像の変形方法の概念を示す説明図である。図16では、分割点Dを黒丸で示している。図16では、説明を簡略化するために、4つの小領域について、左側に分割点Dの位置移動前の状態を、右側に分割点Dの位置移動後の状態を、それぞれ示している。図16の例では、中央の分割点Daが分割点Da’の位置に移動され、その他の分割点Dの位置は移動されない。これにより、例えば、分割点Dの移動前の分割点Da,Db,Dc,Ddを頂点とする矩形の小領域(以下「変形前注目小領域BSA」とも呼ぶ)の画像は、分割点Da’,Db,Dc,Ddを頂点とする矩形の小領域(以下「変形後注目小領域ASA」とも呼ぶ)の画像に変形される。   FIG. 16 is an explanatory diagram showing the concept of the image deformation method. In FIG. 16, the dividing point D is indicated by a black circle. In FIG. 16, for simplification of description, regarding the four small regions, the state before the position movement of the dividing point D is shown on the left side, and the state after the position movement of the dividing point D is shown on the right side. In the example of FIG. 16, the central division point Da is moved to the position of the division point Da ′, and the positions of the other division points D are not moved. Thereby, for example, an image of a rectangular small area (hereinafter also referred to as “pre-deformation noticeable small area BSA”) having the vertices at the division points Da, Db, Dc, Dd before the movement of the division point D is obtained from the division point Da ′. , Db, Dc, and Dd are transformed into an image of a rectangular small area (hereinafter also referred to as “the noticed small area ASA after deformation”).

本実施例では、矩形の小領域を小領域の重心CGを用いて4つの三角形領域に分割し、三角形領域単位で画像の変形処理を行っている。図の例では、変形前注目小領域BSAが、変形前注目小領域BSAの重心CGを頂点の1つとする4つの三角形領域に分割される。同様に、変形後注目小領域ASAが、変形後注目小領域ASAの重心CG’を頂点の1つとする4つの三角形領域に分割される。そして、分割点Daの移動前後のそれぞれの状態において対応する三角形領域毎に、画像の変形処理が行われる。例えば、変形前注目小領域BSA中の分割点Da,Ddおよび重心CGを頂点とする三角形領域の画像が、変形後注目小領域ASA中の分割点Da’,Ddおよび重心CG’を頂点とする三角形領域の画像に変形される。   In this embodiment, a rectangular small region is divided into four triangular regions using the center of gravity CG of the small region, and image deformation processing is performed in units of triangular regions. In the example of the figure, the pre-deformation attention small area BSA is divided into four triangular areas having the centroid CG of the pre-deformation attention small area BSA as one vertex. Similarly, the post-deformation attention small area ASA is divided into four triangular areas having the centroid CG ′ of the post-deformation attention small area ASA as one vertex. Then, image deformation processing is performed for each corresponding triangular area in each state before and after the movement of the dividing point Da. For example, an image of a triangular area having vertices at the division points Da and Dd and the center of gravity CG in the attention small area BSA before deformation has a vertex at the division points Da ′ and Dd and the center of gravity CG ′ in the attention small area ASA after deformation. It is transformed into an image of a triangular area.

図17は、三角形領域における画像の変形処理方法の概念を示す説明図である。図17の例では、点s,t,uを頂点とする三角形領域stuの画像が、点s’,t’,u’を頂点とする三角形領域s’t’u’の画像に変形される。画像の変形は、変形後の三角形領域s’t’u’の画像中のある画素の位置が、変形前の三角形領域stuの画像中のどの位置に相当するかを算出し、算出された位置における変形前の画像における画素値を変形後の画像の画素値とすることにより行う。   FIG. 17 is an explanatory diagram showing the concept of an image deformation processing method in a triangular area. In the example of FIG. 17, the image of the triangular area stu with the points s, t, u as vertices is transformed into the image of the triangular area s′t′u ′ with the points s ′, t ′, u ′ as vertices. . For the deformation of the image, the position of a certain pixel in the image of the triangular area s't'u 'after the deformation corresponds to the position in the image of the triangular area stu before the deformation, and the calculated position This is performed by using the pixel value in the image before deformation in step S4 as the pixel value of the image after deformation.

例えば、図17において、変形後の三角形領域s’t’u’の画像中の注目画素p’の位置は、変形前の三角形領域stuの画像中の位置pに相当するものとする。位置pの算出は、以下のように行う。まず、注目画素p’の位置を、下記の式(1)のようにベクトルs’t’とベクトルs’u’との和で表現するための係数m1およびm2を算出する。   For example, in FIG. 17, the position of the pixel of interest p ′ in the image of the triangular area s′t′u ′ after deformation corresponds to the position p in the image of the triangular area stu before deformation. The position p is calculated as follows. First, coefficients m1 and m2 for expressing the position of the target pixel p ′ by the sum of the vector s′t ′ and the vector s′u ′ as shown in the following equation (1) are calculated.

Figure 0004877074
Figure 0004877074

次に、算出された係数m1およびm2を用いて、下記の式(2)により、変形前の三角形領域stuにおけるベクトルstとベクトルsuとの和を算出することにより、位置pが求まる。   Next, by using the calculated coefficients m1 and m2, the position p is obtained by calculating the sum of the vector st and the vector su in the triangular area stu before deformation by the following equation (2).

Figure 0004877074
Figure 0004877074

変形前の三角形領域stuにおける位置pが、変形前の画像の画素中心位置に一致した場合には、当該画素の画素値が変形後の画像の画素値とされる。一方、変形前の三角形領域stuにおける位置pが、変形前の画像の画素中心位置からはずれた位置となった場合には、位置pの周囲の画素の画素値を用いたバイキュービック等の補間演算により、位置pにおける画素値を算出し、算出された画素値が変形後の画像の画素値とされる。   When the position p in the triangular area stu before deformation coincides with the pixel center position of the image before deformation, the pixel value of the pixel is set as the pixel value of the image after deformation. On the other hand, when the position p in the triangular area stu before deformation is shifted from the pixel center position of the image before deformation, an interpolation operation such as bicubic using the pixel values of the pixels around the position p. Thus, the pixel value at the position p is calculated, and the calculated pixel value is set as the pixel value of the image after deformation.

変形後の三角形領域s’t’u’の画像中の各画素について上述のように画素値を算出することにより、三角形領域stuの画像から三角形領域s’t’u’の画像への画像変形処理を行うことができる。変形処理部222は、図13に示した変形領域TAを構成する各小領域について、上述したように三角形領域を定義して変形処理を行い、変形領域TA内の画像を変形する。   Image deformation from the image of the triangular area stu to the image of the triangular area s't'u 'by calculating the pixel value for each pixel in the image of the triangular area s't'u' after the deformation as described above Processing can be performed. The deformation processing unit 222 performs a deformation process by defining a triangular area as described above for each small area constituting the deformation area TA shown in FIG. 13 and deforms an image in the deformation area TA.

以上、顔画像における輪郭「横に小さく」変形する場合を具体例として、顔変形処理を説明したが、他の変形の態様については、図15に示す移動方向および移動距離を、変形の態様に応じて変更することにより、容易に実行することができる。図18は、予め定められた移動方向および移動距離の一例を示す第2の説明図である。図18には、顔画像における輪郭を「縦に小さく」変形する場合、顔画像における目を「縦に大きく」変形する場合、顔画像における目を「縦横に大きく」変形する場合、の移動方向および移動距離をそれぞれ示している。   As described above, the face deformation process has been described by taking the case where the contour of the face image is “smallly laterally” deformed as a specific example. However, for other deformation modes, the movement direction and the movement distance shown in FIG. By changing it accordingly, it can be executed easily. FIG. 18 is a second explanatory diagram illustrating an example of a predetermined moving direction and moving distance. FIG. 18 shows the movement direction when the contour of the face image is “smallly vertically” deformed, when the eyes of the face image are “largely vertically” deformed, and when the eyes of the face image are “largely vertically and horizontally” deformed. And the moving distance are shown respectively.

画質調整処理が終了すると、画質調整部220は、画質調整後の対象画像を表示部150に表示するよう表示処理部250に指示する。図19は、画質調整後の対象画像が表示された表示部150の一例を示す説明図である。画質調整後の対象画像が表示された表示部150により、ユーザは、選択した絵作りタイプに応じた画質調整の結果を確認することができる。ユーザが画質調整結果に満足し、「保存」ボタンを選択した場合には(図5:ステップS200)、これに応じて、画質調整後の対象画像を表す画像データの保存処理が行われる(ステップS400)。例えば、画質調整後の対象画像(ビットマップデータ)を、JPEGなどの所定の形式に圧縮し、EXIFなどの所定のファイル形式に従って、画像ファイルとして保存する。かかる画像ファイルは、例えば、挿入されているメモリカードMCに保存されても良い。かかる場合、画質調整後の対象画像の画像ファイルは、画質調整前の対象画像の画像ファイルに上書きされても良いし、異なる画像ファイルとして保存されても良い。   When the image quality adjustment process is completed, the image quality adjustment unit 220 instructs the display processing unit 250 to display the target image after the image quality adjustment on the display unit 150. FIG. 19 is an explanatory diagram illustrating an example of the display unit 150 on which a target image after image quality adjustment is displayed. The display unit 150 on which the target image after the image quality adjustment is displayed allows the user to confirm the result of the image quality adjustment according to the selected picture making type. When the user is satisfied with the image quality adjustment result and selects the “save” button (FIG. 5: step S200), the image data representing the target image after image quality adjustment is saved accordingly (step S200). S400). For example, the target image (bitmap data) after image quality adjustment is compressed into a predetermined format such as JPEG and stored as an image file according to a predetermined file format such as EXIF. Such an image file may be stored in, for example, the inserted memory card MC. In such a case, the image file of the target image after image quality adjustment may be overwritten on the image file of the target image before image quality adjustment, or may be stored as a different image file.

ユーザが画質調整結果に満足し、「印刷」ボタンを選択した場合には(図5:ステップS200)、印刷処理部260は、画質調整後の対象画像の印刷処理(ステップS300)を実行する。図20は、印刷処理の流れを示すフローチャートである。印刷処理部260は、画質調整後の対象画像の画像データの解像度を、プリンタエンジン160による印刷処理に適した解像度に変換し(ステップS310)、解像度変換後の画像データを、プリンタエンジン160における印刷に用いられる複数のインク色で階調表現されたインク色画像データに変換する(ステップS320)。なお、本実施例では、プリンタエンジン160における印刷に用いられる複数のインク色は、シアン(C)、マゼンタ(M)、イエロー(Y)、ブラック(K)の4色であるものとする。さらに、印刷処理部260は、インク色画像データにおける各インク色の階調値に基づいてハーフトーン処理を実行することによって、印刷画素毎のインクドットの形成状態を示すドットデータを生成し(ステップS330)、ドットデータを配列して印刷データを生成する(ステップS340)。印刷処理部260は、生成された印刷データをプリンタエンジン160に供給し、プリンタエンジン160に対象画像の印刷を行わせる(ステップS350)。これにより、画質調整後の対象画像の印刷が完了する。   When the user is satisfied with the image quality adjustment result and selects the “print” button (FIG. 5: step S200), the print processing unit 260 executes a print process of the target image after the image quality adjustment (step S300). FIG. 20 is a flowchart showing the flow of the printing process. The print processing unit 260 converts the resolution of the image data of the target image after the image quality adjustment to a resolution suitable for the printing process by the printer engine 160 (step S310), and prints the image data after the resolution conversion in the printer engine 160. Is converted into ink color image data expressed in gradation with a plurality of ink colors used in step S320. In this embodiment, it is assumed that the plurality of ink colors used for printing in the printer engine 160 are four colors of cyan (C), magenta (M), yellow (Y), and black (K). Furthermore, the print processing unit 260 generates dot data indicating the ink dot formation state for each print pixel by executing halftone processing based on the gradation value of each ink color in the ink color image data (step S330), dot data is arranged to generate print data (step S340). The print processing unit 260 supplies the generated print data to the printer engine 160, and causes the printer engine 160 to print the target image (step S350). Thereby, the printing of the target image after the image quality adjustment is completed.

ユーザが結果に満足せず「戻る」ボタンを選択した場合には、例えば表示部150に図7に示した絵作りタイプの選択画面が表示され、ユーザによる絵作りタイプの選択が再度実行される(図示省略)。   If the user is not satisfied with the result and selects the “Return” button, for example, the display unit 150 displays the picture creation type selection screen shown in FIG. 7, and the user selects the picture creation type again. (Not shown).

以上説明した第1実施例によれば、顔画像を変形する変形処理と、画素値を調整する画素値処理が1つの画質調整処理として関連付けられているため、ユーザは、画質調整処理を選択するだけで、容易に画素値処理と変形処理を組み合わせた画質調整を利用することができる。   According to the first embodiment described above, since the deformation process for deforming the face image and the pixel value process for adjusting the pixel value are associated as one image quality adjustment process, the user selects the image quality adjustment process. Therefore, image quality adjustment that combines pixel value processing and deformation processing can be easily used.

さらに、本実施例では、顔画像を変形する変形処理と、画素値を調整する画素値処理との組み合わせから成る1つの画質調整処理は、「かわいい」「やさしい」「にぎやか」など、当該画質調整処理が対象画像にもたらす印象を表す名称の絵作りタイプと関連付けられている。この結果、ユーザは、変形処理と画素値処理の好ましい組み合わせを感覚的に用いることができる。例えば、顔画像に「かわいい」印象を付与するには、肌コントラストを弱めにする画素値処理と、顔の輪郭を縦に細くする顔変形処理を組み合わせると効果的である。しかし、画像処理やカメラの知識が十分でないユーザには、このような組み合わせを適切に用いて、所望の印象を有するように対象画像に画質調整処理を施すことは容易ではない。本実施例によれば、同一または類似の印象を対象画像にもたらす複数の処理のセットを一の画質調整処理として提供するので、ユーザは、容易に、かかる画質調整処理を利用して、所望の印象を有する画像を得ることができる。   Further, in the present embodiment, one image quality adjustment process including a combination of a deformation process for deforming a face image and a pixel value process for adjusting a pixel value includes the image quality adjustments such as “cute”, “easy”, and “lively”. It is associated with a picture making type having a name representing the impression that the process brings to the target image. As a result, the user can sensuously use a preferable combination of the deformation process and the pixel value process. For example, in order to give a “cute” impression to a face image, it is effective to combine a pixel value process that weakens skin contrast and a face deformation process that thins the face outline vertically. However, it is not easy for a user who does not have sufficient knowledge of image processing or camera to appropriately use such a combination and perform image quality adjustment processing on a target image so as to have a desired impression. According to the present embodiment, a set of a plurality of processes that bring the same or similar impression to the target image is provided as one image quality adjustment process. Therefore, the user can easily use the image quality adjustment process to perform a desired process. An image having an impression can be obtained.

さらに、本実施例では、対象画像の画像タイプを自動的に判定して、画像タイプに適した画質調整処理を、実施可能な多数の画質調整処理の中からいくつか指定し、指定された画質調整処理(に対応する絵作りタイプ)を優先順位に従って表示する選択画面を、ユーザインターフェースとして提供する(図7)。これにより、ユーザが対象画像に適した画質調整処理を選択する負担を軽減することができる。画像処理装置では、多種多様な画質調整処理を実行可能であることが望まれる一方で、利用可能な画質調整処理が増加すると、ユーザの操作負担が増大するという不都合があるが、本実施例では、このような不都合を軽減することができる。   Furthermore, in this embodiment, the image type of the target image is automatically determined, and several image quality adjustment processes suitable for the image type are specified from among a number of image quality adjustment processes that can be performed. A selection screen for displaying the adjustment process (the corresponding picture making type) according to the priority order is provided as a user interface (FIG. 7). Thereby, it is possible to reduce a burden of the user selecting an image quality adjustment process suitable for the target image. The image processing apparatus is desired to be able to execute a wide variety of image quality adjustment processes. On the other hand, if the available image quality adjustment processes increase, there is a disadvantage that the operation burden on the user increases. Such inconvenience can be reduced.

B.第1実施例の変形例:
・第1実施例の第1変形例:
上記第1実施例では、画像タイプデータベース310を参照して、選択画面を生成しているが、これに代えて、あるいは、これと共に、選択画面を介して行われた選択を学習し、学習結果を用いて、選択画面を生成しても良い。
B. Modification of the first embodiment:
First modification of the first embodiment:
In the first embodiment, the selection screen is generated with reference to the image type database 310. However, instead of this, the selection made through the selection screen is learned, and the learning result is obtained. May be used to generate a selection screen.

本変形例に係るプリンタは、第1実施例に係るプリンタ100の構成に加えて、図1において破線で示すように、選択学習部244と、選択学習データベース330とを備える。本変形例に係るプリンタの他の構成は、第1実施例に係るプリンタ100の構成と同一であるので、同一の構成要素については、第1実施例に係るプリンタ100と同一の符号(図1)を用いることとし、その説明を省略する。   In addition to the configuration of the printer 100 according to the first embodiment, the printer according to this modification includes a selection learning unit 244 and a selection learning database 330 as indicated by a broken line in FIG. Since the other configuration of the printer according to the present modification is the same as that of the printer 100 according to the first embodiment, the same components are denoted by the same reference numerals as those of the printer 100 according to the first embodiment (FIG. 1). ), And the description thereof is omitted.

図21は、選択学習データベースの内容の一例を示す図である。選択学習データベース330には、ユーザによる絵作りタイプの選択結果が、選択回数の形で、対象画像の画像タイプと対応付けて記録されている。例えば、図21に示す例では、画像タイプが「風景」である対象画像に対して、絵作りタイプ「やさしい」が5回、「元気」が1回選択されたことが記録されている。   FIG. 21 is a diagram illustrating an example of the contents of the selection learning database. In the selection learning database 330, the selection result of the picture making type by the user is recorded in association with the image type of the target image in the form of the number of selections. For example, in the example shown in FIG. 21, it is recorded that the picture making type “easy” is selected 5 times and “Genki” is selected once for the target image whose image type is “landscape”.

図22は、本変形例における絵作り処理の流れを示すフローチャートである。本変形例における絵作り処理のステップS100〜S400までは、図5に示す第1実施例における絵作り処理のステップS100〜S400までと同一であるので、説明を省略する。   FIG. 22 is a flowchart showing the flow of the picture making process in this modification. Steps S100 to S400 of the picture making process in the present modification are the same as steps S100 to S400 of the picture making process in the first embodiment shown in FIG.

本変形例における絵作り処理では、対象画像の印刷処理(ステップS300)、または、保存(ステップS400)終了すると、処理内容決定部240の選択学習部244は、絵作り選択結果を学習する(ステップS500)。具体的には、選択学習部244は、ユーザにより選択され、最終的に保存または印刷された対象画像に適用された絵作りタイプを、対象画像の画像タイプと共に、選択学習データベース330に記録する。   In the picture making process in the present modification, when the printing process (step S300) or storage (step S400) of the target image ends, the selection learning unit 244 of the processing content determination unit 240 learns the picture making selection result (steps). S500). Specifically, the selection learning unit 244 records the picture creation type applied to the target image selected by the user and finally stored or printed together with the image type of the target image in the selection learning database 330.

処理内容決定部240は、絵作り選択結果を学習すると、選択学習データベース330の変更に伴い、必要に応じて画像タイプデータベース310を更新する(ステップS600)。例えば、選択学習データベース330において、ある画像タイプについて5回以上選択された絵作りタイプがある場合には、処理内容決定部240は、画像タイプデータベース310において、その絵作りタイプを、その画像タイプに関連付けられる最も優先順位の高い絵作りタイプとして記録する。処理内容決定部240は、5回以上選択された絵作りタイプが複数ある場合には、選択回数が多い順に優先順位を定めて、画像タイプデータベース310に記録する。画像タイプデータベース310にデフォルトで記録されている絵作りタイプは、5回以上選択された絵作りタイプに続いて、優先順位を下げて記録される。   When learning the picture creation selection result, the processing content determination unit 240 updates the image type database 310 as necessary in accordance with the change of the selection learning database 330 (step S600). For example, when there is a picture making type selected five or more times for a certain image type in the selection learning database 330, the processing content determination unit 240 sets the picture making type as the image type in the image type database 310. Record as the highest priority painting type associated. When there are a plurality of picture making types selected five or more times, the processing content determination unit 240 determines the priority order in descending order of the number of selections and records it in the image type database 310. The picture creation type recorded by default in the image type database 310 is recorded with a lower priority following the picture creation type selected five or more times.

選択学習データベース330の変更に伴って、画像タイプデータベース310を更新することにより、次回の絵作り処理では、更新後の画像タイプデータベース310を参照して選択画面が生成される。この結果、選択画面生成部242は、ユーザの選択結果を考慮に入れた選択画面を生成することができる。従って、本変形例によれば、さらに、画質調整処理の選択のためのユーザの操作負担を軽減することができる。   By updating the image type database 310 in accordance with the change of the selection learning database 330, a selection screen is generated with reference to the updated image type database 310 in the next picture making process. As a result, the selection screen generation unit 242 can generate a selection screen that takes into account the user's selection results. Therefore, according to this modification, it is possible to further reduce the user's operation burden for selecting the image quality adjustment process.

上述の選択学習データベース330の態様は一例であり、ユーザの選択結果を学習する態様、あるいは、選択学習データベース330に記録された学習結果を、選択画面の生成に反映させるアルゴリズムは、様々な変形が可能である。例えば、選択学習データベース330には、顔画像に表される人物ごとに、ユーザに選択された絵作りタイプが記録されても良い。具体的には、選択学習データベース330には、人物の特徴(例えば、顔画像の目、口、輪郭などの構成要素の位置、大きさ、方向を表すベクトルで表される)と人物の識別子とが関連付けて記録される。選択学習データベース330には、さらに、人物の識別子と対応付けて、人物の識別子によって特定される顔画像を含む対象画像に対して選択された絵作りタイプが選択回数の形で記録される。選択学習部244は、対象画像に顔領域FAが検出されている場合、顔領域FAに対応する顔画像の目、口、輪郭などの構成要素をさらに検出し、人物の特徴を算出する。選択学習部244は、算出された人物の特徴と、選択学習データベース330に識別子が記録された人物の特徴とを比較する。同一人物が既に選択学習データベース330に記録されていれば、その人物の識別子と対応付けて絵作りタイプの選択結果を記録する。同一人物が選択学習データベース330に記録されていない場合は、新たにその人物の特徴を識別子と共に記録すると共に、その識別子と対応付けてユーザが選択した絵作りタイプを記録する。選択画面生成部242は、対象画像に含まれる顔画像の人物の特徴を算出して顔画像の人物を特定し、選択学習データベース330を参照することにより、絵作りタイプの選択の傾向を、対象画像に含まれる顔画像に表された人物ごとに考慮して、選択画面を生成することができる。   The above-described aspect of the selection learning database 330 is an example, and various modifications may be made to the aspect for learning the user's selection result or the algorithm for reflecting the learning result recorded in the selection learning database 330 in the generation of the selection screen. Is possible. For example, the selection learning database 330 may record the picture making type selected by the user for each person represented in the face image. Specifically, the selection learning database 330 includes person characteristics (e.g., represented by vectors representing positions, sizes, and directions of components such as eyes, mouths, and contours of face images) and person identifiers. Are recorded in association with each other. In the selection learning database 330, the picture making type selected for the target image including the face image specified by the person identifier is recorded in the form of the number of selections in association with the person identifier. When the face area FA is detected in the target image, the selection learning unit 244 further detects components such as eyes, mouths, and contours of the face image corresponding to the face area FA, and calculates the characteristics of the person. The selection learning unit 244 compares the calculated feature of the person with the feature of the person whose identifier is recorded in the selection learning database 330. If the same person is already recorded in the selection learning database 330, the picture creation type selection result is recorded in association with the identifier of the person. When the same person is not recorded in the selection learning database 330, the feature of the person is newly recorded together with the identifier, and the picture making type selected by the user is recorded in association with the identifier. The selection screen generation unit 242 calculates the characteristics of the person in the face image included in the target image, identifies the person in the face image, and refers to the selection learning database 330 to determine the tendency of selection of the picture making type. The selection screen can be generated in consideration of each person represented in the face image included in the image.

・第1実施例の第2変形例:
上記実施例における選択画面に、図7において破線で示すように、一覧表示ボタンを設けても良い。一覧表示ボタンは、画像タイプの判定結果に関わらず、可能な絵作りタイプの候補を、表示するため指示を受け付けるためユーザインターフェースである。かかる一覧表示ボタンをユーザが選択すると、図23に示す選択画面が表示部150に表示される。
Second modification of the first embodiment:
A list display button may be provided on the selection screen in the above embodiment as indicated by a broken line in FIG. The list display button is a user interface for accepting an instruction to display possible picture creation type candidates regardless of the image type determination result. When the user selects such a list display button, a selection screen shown in FIG.

図23は、選択画面の他の例を示す第1の図である。図23に示す選択画面では、ユーザが選択可能な絵作りタイプの候補が、画像タイプと対応付けて一覧表示される。図23の例では、画像タイプ「ポートレート」「風景」と対応付けられた絵作りタイプの候補が表示されている。かかる選択画面で、ユーザが次候補ボタンを選択すると、続いて、画像タイプ「夕景」「夜景」と対応付けられた絵作りタイプの候補が表示されるというように、この選択画面を操作することにより、ユーザは、画像タイプデータベース310に記録されている全ての絵作りタイプを選択することができる。このような選択画面をユーザの指示に応じて表示可能にすることにより、例えば、画像タイプに応じて絞り込んだ絵作りタイプ候補(図7)の中に、ユーザが望む絵作りタイプが含まれなかった場合に、対応することができる。   FIG. 23 is a first diagram illustrating another example of the selection screen. In the selection screen shown in FIG. 23, candidates for picture making types that can be selected by the user are displayed in a list in association with image types. In the example of FIG. 23, the candidates for the picture making type associated with the image types “portrait” and “landscape” are displayed. On this selection screen, when the user selects the next candidate button, the selection screen is operated such that the image creation type candidates associated with the image types “evening scene” and “night scene” are displayed. Thus, the user can select all picture making types recorded in the image type database 310. By making such a selection screen displayable in accordance with a user instruction, for example, the picture making type desired by the user is not included in the picture making type candidates narrowed down according to the image type (FIG. 7). Can respond.

・第1実施例の第3変形例:
図6のフローチャートで示される第1実施例に係る画像処理に代えて、図24のフローチャートで示される画像処理を行うこととしても良い。
-Third modification of the first embodiment:
Instead of the image processing according to the first embodiment shown in the flowchart of FIG. 6, the image processing shown in the flowchart of FIG. 24 may be performed.

図24は、第1実施例の第3変形例の画像処理の流れを示すフローチャートである。図24において、末尾が「0」であるステップS110、S120、S130、S160の処理は、図6に示す同名・同一符号のステップの処理と同一であるので、そのステップの説明を省略する。   FIG. 24 is a flowchart illustrating the flow of image processing according to the third modification of the first embodiment. In FIG. 24, the processing of steps S110, S120, S130, and S160 ending with “0” is the same as the processing of the step having the same name and the same sign shown in FIG.

本変形例における画像処理では、絵作りタイプの候補が取得される(ステップS130)と、処理内容決定部240は、取得された絵作りタイプの候補の中から、優先順位が高い順に採用する絵作りタイプを決定する(ステップS155)。例えば、画像タイプが「ポートレート」である場合には、取得される絵作り候補は、優先順位の高い順に、「やさしい」「かわいい」「きれい」「にぎやか」「元気」である(図2)ので、先ず、「やさしい」が採用される絵作りタイプとして決定される。   In the image processing according to this modification, when a picture making type candidate is acquired (step S130), the processing content determination unit 240 selects pictures to be adopted in descending order of priority from the acquired picture making type candidates. The making type is determined (step S155). For example, when the image type is “portrait”, the acquired picture creation candidates are “friendly”, “cute”, “beautiful”, “lively”, and “good” in descending order of priority (FIG. 2). Therefore, first, “friendly” is determined as a picture making type to be adopted.

絵作りタイプが決定されると、第1実施例における画質調整処理(図6:ステップS160)と同様に、画質調整部220は、対象画像に対して、決定された絵作りタイプに対応する画質調整処理を実行する(ステップS160)。   When the picture creation type is determined, the image quality adjustment unit 220 performs image quality corresponding to the determined picture creation type for the target image, as in the image quality adjustment process (FIG. 6: step S160) in the first embodiment. Adjustment processing is executed (step S160).

画質調整処理が終了すると、画質調整後の対象画像と共に、絵作りタイプをユーザが選択するための選択画面が表示される(ステップS175)。具体的には、選択画面生成部242が、画質調整後の対象画像を含む選択画面を生成し、表示処理部250が生成された選択画面を表示する。   When the image quality adjustment process is completed, a selection screen for the user to select a picture making type is displayed together with the target image after the image quality adjustment (step S175). Specifically, the selection screen generation unit 242 generates a selection screen including the target image after the image quality adjustment, and the display processing unit 250 displays the generated selection screen.

図25は、選択画面の他の例を示す第2の図である。図25に示す選択画面において、ユーザが決定ボタンを選択すると、本変形例における画像処理は終了され、保存または印刷処理に移る(図5)。一方、図25に示す選択画面において、ユーザが次候補ボタンを選択すると、ステップS155に戻って、前回のステップS155において決定された絵作りタイプの次に優先順位の高い絵作りタイプの候補を、採用する絵作りタイプとして新たに決定する。以下、ユーザが選択画面において、決定ボタンを選択するまで、ステップS155〜S185の処理を繰り返す。   FIG. 25 is a second diagram illustrating another example of the selection screen. When the user selects the determination button on the selection screen shown in FIG. 25, the image processing in the present modification is terminated, and the process proceeds to saving or printing (FIG. 5). On the other hand, when the user selects the next candidate button on the selection screen shown in FIG. 25, the process returns to step S155 to select a picture making type candidate with the next highest priority from the picture making type determined in the previous step S155. It is newly decided as a picture making type to be adopted. Thereafter, the processes in steps S155 to S185 are repeated until the user selects the determination button on the selection screen.

以上説明した本変形例によれば、絵作りタイプの候補に対応する画質調整処理が施された対象画像が、画像タイプに応じて定められた優先順位に従って選択画面に表示される。このため、ユーザが所望する画質調整処理が施された対象画像が、早い段階で選択画面に表示される可能性が高く、ユーザは効率良く、所望の画質調整処理を選択することができる。また、ユーザは候補である画質調整処理が施された対象画像を順次に見ながら、最終的に対象画像に施す画質調整処理を選択することができる。   According to the present modification described above, the target image subjected to the image quality adjustment process corresponding to the picture creation type candidate is displayed on the selection screen according to the priority order determined according to the image type. Therefore, there is a high possibility that the target image on which the image quality adjustment process desired by the user has been performed is displayed on the selection screen at an early stage, and the user can efficiently select the desired image quality adjustment process. Further, the user can select an image quality adjustment process to be finally applied to the target image while sequentially viewing the target images that have been subjected to the image quality adjustment process as candidates.

なお、図25に示す選択画面では、1つずつ画質調整後の対象画像が表示されるが、例えば、表示部150の大きさに応じて、任意の数ずつ異なる画質調整処理を行った対象画像を表示することとしても良い。   In the selection screen shown in FIG. 25, the target image after the image quality adjustment is displayed one by one. For example, the target image that has been subjected to an arbitrary number of different image quality adjustment processes depending on the size of the display unit 150 May be displayed.

・第1実施例の第4変形例:
上記実施例では、対象画像を表す画像データを解析して、対象画像の画像タイプを判定しているが、これに代えて、様々な手法で判定することができる。例えば、対象画像の画像データの付属情報を用いても良い。図26は、画像データと共に、画像データと関連付けられた付属情報を含む画像ファイルの一例を概念的に示す説明図である。画像ファイル500は、画像データを格納する画像データ格納領域501と、付属情報を格納する付属情報格納領域502を備えている。付属情報は、例えば、TIFF(Tagged Image File Format)形式に従って、タグを用いて、付属情報としての各種パラメータを特定できるように格納されている。図26において拡大して示す付属情報は、EXIF(Exchangeable Image File Format)規格で定められた情報(EXIF情報)である。EXIF情報は、例えば、デジタルカメラなどの画像データ生成装置において、画像データが生成された時(撮影時)の画像に関する情報である。かかるEXIF情報は、図26に示すように、撮影シーンの種別を表す撮影シーンタイプ情報を含む場合がある。撮影シーンタイプ情報には、「人物」「風景」「夜景」などが記述される。
-4th modification of 1st Example:
In the above embodiment, the image data representing the target image is analyzed to determine the image type of the target image, but instead, it can be determined by various methods. For example, information attached to the image data of the target image may be used. FIG. 26 is an explanatory diagram conceptually illustrating an example of an image file including image data and attached information associated with the image data. The image file 500 includes an image data storage area 501 for storing image data and an attached information storage area 502 for storing attached information. The attached information is stored so that various parameters as attached information can be specified using a tag in accordance with, for example, a TIFF (Tagged Image File Format) format. The attached information shown enlarged in FIG. 26 is information (EXIF information) defined by the EXIF (Exchangeable Image File Format) standard. The EXIF information is information relating to an image when image data is generated (at the time of shooting) in an image data generation device such as a digital camera. Such EXIF information may include shooting scene type information indicating the type of shooting scene, as shown in FIG. In the shooting scene type information, “person”, “landscape”, “night view”, and the like are described.

対象画像の画像データに、撮影シーンタイプ情報が付属情報として関連付けられている場合には、画像タイプ判定部230は、かかる撮影シーン情報を取得して、対象画像の撮影シーンを認識することにより、画像タイプを判定しても良い。   When shooting scene type information is associated with the image data of the target image as attached information, the image type determination unit 230 acquires the shooting scene information and recognizes the shooting scene of the target image. The image type may be determined.

画像タイプの判定に用いられる付属情報は、EXIF情報に限られない。例えば、付属情報格納領域502には、プリンタなどの画像出力装置の制御情報、具体的には、シャープネスやコントラストなどの画質調整処理の補正レベルを指定するプリンタ制御情報が格納されている場合がある。このような画像出力装置の制御情報は、例えば、付属情報格納領域502の内部に設定されたMakerNoteデータ格納領域に格納されている。MakerNoteデータ格納領域は、画像データ生成装置あるいは画像出力装置などのメーカーに開放されている未定義領域である。このような画像出力装置の制御情報を、単独で、あるいは、画像データの解析やEXIF情報と組み合わせて、画像タイプの判定に用いても良い。   The attached information used for determining the image type is not limited to EXIF information. For example, the attached information storage area 502 may store control information of an image output device such as a printer, specifically, printer control information that specifies a correction level of image quality adjustment processing such as sharpness and contrast. . Such control information of the image output apparatus is stored in, for example, a MakerNote data storage area set in the attached information storage area 502. The MakerNote data storage area is an undefined area that is open to manufacturers such as an image data generation apparatus or an image output apparatus. Such image output device control information may be used alone or in combination with image data analysis or EXIF information for image type determination.

C.第2実施例:
・構成:
図27は、本発明の第2実施例における画像処理装置としてのプリンタ100aの構成を示すブロック図である。第2実施例のプリンタ100aのハードウエア構成は、第1実施例のプリンタ100(図1)と同様であるので、同一の構成要素については、図27において図1と同一の符号を付し、その説明を省略する。
C. Second embodiment:
·Constitution:
FIG. 27 is a block diagram showing a configuration of a printer 100a as an image processing apparatus in the second embodiment of the present invention. Since the hardware configuration of the printer 100a of the second embodiment is the same as that of the printer 100 (FIG. 1) of the first embodiment, the same reference numerals as those in FIG. The description is omitted.

第2実施例のプリンタ100aは、内部メモリ120に備えられた機能部(コンピュータプログラム)の構成が、第1実施例のプリンタ100と異なっている。プリンタ100aの内部メモリ120には、画像データ取得部210と、画質調整部220と、画像タイプ判定部230と、処理内容決定部240aと、表示処理部250と、印刷処理部260とが格納されている。これらのうち、第1実施例のプリンタ100の内部メモリ120に格納された機能部と同一符号で表される画像データ取得部210と、画質調整部220と、画像タイプ判定部230と、表示処理部250と、印刷処理部260は、第1実施例における同一符号の機能部と同様であるので、その説明を省略する。   The printer 100a of the second embodiment is different from the printer 100 of the first embodiment in the configuration of functional units (computer programs) provided in the internal memory 120. In the internal memory 120 of the printer 100a, an image data acquisition unit 210, an image quality adjustment unit 220, an image type determination unit 230, a processing content determination unit 240a, a display processing unit 250, and a print processing unit 260 are stored. ing. Among these, the image data acquisition unit 210, the image quality adjustment unit 220, the image type determination unit 230, and the display processing represented by the same reference numerals as the functional units stored in the internal memory 120 of the printer 100 of the first embodiment. Since the unit 250 and the print processing unit 260 are the same as the functional units having the same reference numerals in the first embodiment, the description thereof is omitted.

第2実施例における処理内容決定部240aは、第1実施例における選択画面生成部242に代えて、画質調整UI生成部248を備えている。画質調整UI生成部248は、後述するように、コントラストおよび明るさを動的に調整する画質調整処理を、ユーザが操作するためのユーザインターフェース(画質調整UI)を提供する。   The processing content determination unit 240a in the second embodiment includes an image quality adjustment UI generation unit 248 instead of the selection screen generation unit 242 in the first embodiment. As will be described later, the image quality adjustment UI generation unit 248 provides a user interface (image quality adjustment UI) for the user to operate image quality adjustment processing for dynamically adjusting contrast and brightness.

・動作
第2実施例のプリンタ100aは、第1実施例のプリンタ100と同様に、カードスロット172にメモリカードMCが挿入されると、表示処理部250により、メモリカードMCに格納された画像の一覧表示を含むユーザインターフェース(図7)が表示部150に表示される。当該ユーザインターフェースにおいて、ユーザにより、1つ(または複数)の画像が選択されると共に絵作りボタンが選択されると、第2実施例のプリンタ100aは、選択された画像に対して、所定の画像処理を行い、画像処理後の画像を印刷・保存する処理(絵作り処理)を実行する。
Operation As in the printer 100 of the first embodiment, when the memory card MC is inserted into the card slot 172, the printer 100a of the second embodiment displays the image stored in the memory card MC by the display processing unit 250. A user interface (FIG. 7) including a list display is displayed on the display unit 150. In the user interface, when one (or a plurality) of images are selected by the user and a picture creation button is selected, the printer 100a of the second embodiment performs a predetermined image on the selected image. Processing is performed, and processing (picture making processing) for printing and saving the image after image processing is executed.

図28は、第2実施例のプリンタ100aによる絵作り処理の流れを示すフローチャートである。絵作り処理が開始されると、画質調整UIが表示される(ステップS1000)。具体的には、処理内容決定部240aの画質調整UI生成部248が画質調整UIを生成し、表示処理部250が生成された画質調整UIを表示部150に表示する。   FIG. 28 is a flowchart illustrating a flow of a picture making process performed by the printer 100a according to the second embodiment. When the picture making process is started, an image quality adjustment UI is displayed (step S1000). Specifically, the image quality adjustment UI generation unit 248 of the processing content determination unit 240 a generates an image quality adjustment UI, and the display processing unit 250 displays the generated image quality adjustment UI on the display unit 150.

図29は、第2実施例における画質調整UIの一例を示す説明図である。図29に示すように、図29に示す画質調整UIは、対象画像と共に、コントラストの調整レベルの指示をユーザから受け付けるためのインタフェースである第1のレベルバーLB1と、明るさの調整レベルの指示をユーザから受け付けるためのインタフェースである第2のレベルバーLB2を含んでいる。画質調整UIは、さらに、対象画像の印象を維持する指示をユーザから受け付けるためのインタフェースである第1のチェックボックスCB1とを含んでいる。   FIG. 29 is an explanatory diagram illustrating an example of an image quality adjustment UI according to the second embodiment. As shown in FIG. 29, the image quality adjustment UI shown in FIG. 29 includes a first level bar LB1 that is an interface for accepting an instruction of a contrast adjustment level from a user together with a target image, and an instruction of an adjustment level of brightness. Includes a second level bar LB2 that is an interface for receiving from the user. The image quality adjustment UI further includes a first check box CB1 that is an interface for receiving an instruction to maintain the impression of the target image from the user.

次に、処理内容決定部240aは、画質調整UIを介して、ユーザからの指示を受け付けたか否かを判断する(ステップS1010)。ユーザが画質調整UI上で決定ボタンを選択すると、処理内容決定部240aは、現在、画質調整UIに表示されている状態の対象画像の画像データを印刷・保存する処理を行い(ステップS1050)、絵作り処理を終了する。   Next, the processing content determination unit 240a determines whether or not an instruction from the user has been received via the image quality adjustment UI (step S1010). When the user selects the determination button on the image quality adjustment UI, the processing content determination unit 240a performs a process of printing and saving the image data of the target image currently displayed on the image quality adjustment UI (step S1050), The picture making process ends.

一方、ユーザが画質調整UIを介して、ユーザから、明るさ、または、コントラストの調整レベルを変更する指示を受け付けると、処理内容決定部240aは、受け付けた調整レベルに応じて、明るさ、または、コントラストを調整する画素値処理を、画質調整部220の画素値処理部224に実行させる(ステップS1020)。具体的には、処理内容決定部240aは、明るさの調整レベルの変更を受け付けた場合には、調整レベルの変更に応じて、図9(a)に示す変化量を示す値b+またはb−を決定する。また、処理内容決定部240aは、コントラストの調整レベルの変更を受け付けた場合には、調整レベルの変更に応じて、図9(b)に示す変化量を示す値k+またはk−を決定する。画素値処理部224は、決定された値b+またはb−、あるいは、値k+またはk−を用いて、トーンカーブの形状を決定し、対象画像の原画像データ(画質調整を行っていない画像データ)の全画素値に対して、明度、または、コントラストを調整する画素値処理を実行する。   On the other hand, when the user receives an instruction to change the brightness or contrast adjustment level from the user via the image quality adjustment UI, the processing content determination unit 240a determines whether the brightness or the Then, the pixel value processing unit 224 of the image quality adjustment unit 220 executes pixel value processing for adjusting the contrast (step S1020). Specifically, when the change of the brightness adjustment level is received, the processing content determination unit 240a has a value b + or b− indicating the amount of change shown in FIG. 9A according to the change of the adjustment level. To decide. In addition, when the change of the contrast adjustment level is received, the processing content determination unit 240a determines a value k + or k− indicating the change amount illustrated in FIG. 9B according to the change of the adjustment level. The pixel value processing unit 224 determines the shape of the tone curve using the determined value b + or b− or the value k + or k−, and the original image data of the target image (image data that has not undergone image quality adjustment). The pixel value processing for adjusting the brightness or contrast is executed for all the pixel values.

画素値処理が行われると、処理内容決定部240aは、画質調整UI上の第1のチェックボックスCB1にチェックがなされているかを検出することにより、印象維持の指示がなされているか否かを判断する(ステップS1030)。処理内容決定部240aは、第1のチェックボックスCB1にチェックがない場合、すなわち、印象維持が指示されていない場合には(ステップS1030:NO)、ステップS1000に処理をリターンする。   When the pixel value processing is performed, the processing content determination unit 240a determines whether or not an impression maintenance instruction has been issued by detecting whether or not the first check box CB1 on the image quality adjustment UI is checked. (Step S1030). When the first check box CB1 is not checked, that is, when the impression maintenance is not instructed (step S1030: NO), the processing content determination unit 240a returns the processing to step S1000.

一方、第1のチェックボックスCB1にチェックがない場合、すなわち、印象維持が指示されていない場合には(ステップS1030:YES)、顔画像が見る者に与える印象を維持するように顔画像を変形する顔変形処理が実行される(ステップS1040)。   On the other hand, when the first check box CB1 is not checked, that is, when the impression maintenance is not instructed (step S1030: YES), the face image is deformed so as to maintain the impression the face image gives to the viewer. The face deformation process is executed (step S1040).

図30は、明るさおよびコントラストと、顔画像の印象との関係を説明するための図である。図31は、印象維持のための顔変形処理について説明する第1の図である。図32は、印象維持のための顔変形処理について説明する第2の図である。   FIG. 30 is a diagram for explaining the relationship between brightness and contrast and the impression of a face image. FIG. 31 is a first diagram illustrating face deformation processing for maintaining an impression. FIG. 32 is a second diagram illustrating face deformation processing for maintaining an impression.

顔画像において、変形を行わずに明るさを変化させると、図30において矢印で概念的に示すように、暗いほど顔画像は細く見え、明るいほど顔画像は太く見えることが、経験的に解っている。また、変形を行わずにコントラストを変化させると、図30において矢印で概念的に示すように、コントラストが硬調である(強い)ほど顔画像は細く見え、軟調である(弱い)ほど顔画像は太く見えることが、経験的に解っている。   It is empirically understood that when the brightness is changed without deformation in the face image, the face image looks thinner as it becomes darker and the face image appears thicker as it becomes brighter, as conceptually shown by arrows in FIG. ing. Further, when the contrast is changed without being deformed, the face image looks finer as the contrast is harder (stronger), and the face image becomes softer (weaker) as conceptually indicated by the arrows in FIG. Experience has shown that it looks thick.

図31に示す第1のマップにおいて、線CL1は、コントラストに関する顔印象維持線である。顔の横幅の変形量とコントラストの調整レベルとの第1の組み合わせと、第2の組み合わせとが、同一の顔印象維持線CL1上にある場合、第1の組み合わせの画質調整処理が施された顔画像と、第2の組み合わせの画質調整処理が施された顔画像とは、顔の太さに関する印象が(現実の画像上の太さとは異なる)が同じように見える。顔の横幅の変形量が正の値である場合、顔画像は太く変形され、負の値である場合、顔画像は細く変形される。図32に示す第2のマップにおいて、線CL2は、明るさに関する顔印象維持線である。顔の横幅の変形量と明るさの調整レベルとの第1の組み合わせと、第2の組み合わせとが、同一の顔印象維持線CL2上にある場合、第1の組み合わせの画質調整処理が施された顔画像と、第2の組み合わせの画質調整処理が施された顔画像とは、顔の太さに関する印象が(現実の画像上の太さとは異なる)が同じように見える。   In the first map shown in FIG. 31, a line CL1 is a face impression maintaining line related to contrast. When the first combination of the deformation amount of the face width and the adjustment level of the contrast and the second combination are on the same face impression maintenance line CL1, the image quality adjustment processing of the first combination is performed. The face image and the face image that has been subjected to the image quality adjustment processing of the second combination appear to have the same impression regarding the thickness of the face (different from the thickness on the actual image). When the amount of deformation of the face width is a positive value, the face image is deformed thickly. When the amount of deformation is negative, the face image is deformed thinly. In the second map shown in FIG. 32, a line CL2 is a face impression maintenance line related to brightness. When the first combination of the deformation amount of the face width and the adjustment level of the brightness and the second combination are on the same face impression maintenance line CL2, the image quality adjustment processing of the first combination is performed. The face image that has been subjected to the image quality adjustment processing of the second combination appears to have the same impression regarding the thickness of the face (different from the thickness on the actual image).

第2実施例における顔変形処理では、ステップS1020の画素値処理による明るさ、または、コントラストの変更がもたらす顔画像の印象の変化(図30)と相反する変化を顔画像にもたらすように顔を変形する。具体的には、処理内容決定部240aは、図31に示す第1のマップおよび図32に示す第2のマップを記憶している。ステップS1020の画素値処理において、対象画像のコントラストを調整レベルk1から調整レベルk2に変化させた場合を具体例として説明する(図31)。処理内容決定部240aは、コントラストの調整レベルk1と、現在の顔の変形量(図31の例では0)とで定まる第1のマップ(図31)上の点P1と、コントラストの調整レベルk2と、顔変形処理後の顔の変形量n1とで定まる第1のマップ上の点P2とが、同一の顔印象維持線CL1上に位置するように、顔変形処理後の顔の変形量n1を算出する。   In the face deformation process in the second embodiment, the face is changed so as to bring a change in the face image opposite to the brightness change by the pixel value process in step S1020 or the change in the impression of the face image caused by the change in contrast (FIG. 30). Deform. Specifically, the processing content determination unit 240a stores a first map shown in FIG. 31 and a second map shown in FIG. A case where the contrast of the target image is changed from the adjustment level k1 to the adjustment level k2 in the pixel value processing in step S1020 will be described as a specific example (FIG. 31). The processing content determination unit 240a has a point P1 on the first map (FIG. 31) determined by the contrast adjustment level k1 and the current face deformation amount (0 in the example of FIG. 31), and the contrast adjustment level k2. And the face deformation amount n1 after the face deformation process so that the point P2 on the first map determined by the face deformation amount n1 after the face deformation process is positioned on the same face impression maintenance line CL1. Is calculated.

変形量n1が決定されると、画質調整部220の変形処理部222は、変形量n1を用いて、ステップS1020において画素値処理がなされた顔画像を変形する。顔画像の変形の具体的な手法は、第1実施例において図11〜図18を参照して説明したとおりである。図15に示す分割点の移動方向および移動距離を、決定された変形量n1に応じて、変更すれば顔画像の巾を所定のレベルに変形することができることが解る。   When the deformation amount n1 is determined, the deformation processing unit 222 of the image quality adjustment unit 220 uses the deformation amount n1 to deform the face image that has been subjected to the pixel value processing in step S1020. A specific method of deforming the face image is as described with reference to FIGS. 11 to 18 in the first embodiment. It can be seen that the width of the face image can be deformed to a predetermined level by changing the moving direction and moving distance of the dividing points shown in FIG. 15 according to the determined deformation amount n1.

次に、ステップS1020の画素値処理において、対象画像の明るさを調整レベルb1から調整レベルb2に変化させた場合についてを具体例として説明する(図32)。処理内容決定部240aは、明るさの調整レベルb1と、現在の顔の変形量(図32の例ではn3)とで定まる第2のマップ(図32)上の点P3と、明るさの調整レベルb2と、顔変形処理後の顔の変形量n2とで定まる第2のマップ上の点P4とが、同一の顔印象維持線CL2上に位置するように、顔変形処理後の顔の変形量n4を算出する。変形量n4が決定されると、変形処理部222は、決定された変形量n4を用いて、ステップS1020において画素値処理がなされた顔画像を変形する。   Next, a case where the brightness of the target image is changed from the adjustment level b1 to the adjustment level b2 in the pixel value processing in step S1020 will be described as a specific example (FIG. 32). The processing content determination unit 240a adjusts the brightness of the point P3 on the second map (FIG. 32) determined by the brightness adjustment level b1 and the current face deformation amount (n3 in the example of FIG. 32). Deformation of the face after the face deformation process so that the point P4 on the second map determined by the level b2 and the deformation amount n2 of the face after the face deformation process is located on the same face impression maintenance line CL2 The quantity n4 is calculated. When the deformation amount n4 is determined, the deformation processing unit 222 deforms the face image that has been subjected to the pixel value processing in step S1020, using the determined deformation amount n4.

以上の説明から解るように本実施例における顔変形処理(顔の巾)と画素値処理(明るさ、コントラスト)は、それぞれが対象画像にもたらす変化のうち、顔画像の太さの印象(見え方)の変化を互いに打ち消し合うように作用する。例えば、画像を明るくする画素値処理を施すと、顔画像は太くなったように見えるので、顔画像を細くするように顔変形処理が行われる。また、画像のコントラストを強くする画素値処理を施すと、顔画像は細くなったように見えるので、顔画像を太くするように顔変形処理が行われる。   As understood from the above description, the face deformation process (face width) and the pixel value process (brightness, contrast) in this embodiment are the impressions of the thickness of the face image (appearance) among the changes that each brings to the target image. Act to cancel each other's changes. For example, when pixel value processing for brightening an image is performed, the face image appears to be thick, and thus face deformation processing is performed to make the face image thinner. Further, when the pixel value process for increasing the contrast of the image is performed, the face image appears to be thinned, so that the face deformation process is performed so that the face image is thickened.

顔変形処理が終了すると、処理は、ステップS1000にリターンされ、ステップS1000では、画質調整後の対象画像を表示するように更新された画質調整UIが表示部150に表示される。このようにして、画質調整UIを介して受け付けられたユーザの画質調整に関する指示が、対象画像に動的に反映される。   When the face transformation process ends, the process returns to step S1000, and the image quality adjustment UI updated to display the target image after the image quality adjustment is displayed on the display unit 150 in step S1000. In this manner, the user's instruction regarding image quality adjustment received via the image quality adjustment UI is dynamically reflected in the target image.

以上説明した第2実施例によれば、ユーザは、顔変形処理と画素値処理とを組み合わせた画像処理を容易に利用することができる。例えば、従来、ユーザがお気に入りのポートレート画像(人物の顔が主要被写体の画像)を、少し明るくしたいと考え、単に明るさを明るくする画質調整処理を指示した場合、ポートレートの顔画像の印象が変わり、ユーザは違和感を抱いてしまう場合がある。かかる場合は、ユーザは顔画像の印象が変わったのは、画像を明るくしたことにより顔画像が太めに見えているためであることを認識して、顔を細くする変形処理を行えば良いのであるが、画像処理の知識が不十分なユーザは、顔画像が太めに見えているためであることを、認識することすら困難である場合がある。また、顔画像が太めに見えているためであることを認識しても、顔画像をどの程度細く変形処理をすれば良いかを判断することは容易ではない。本実施例によれば、画素値処理と、顔変形処理が、顔画像の太さに関する印象を維持するように、予め関連付けられている(図31:第1のマップ、図32:第2のマップ)ので、第1のチェックボックスCB1にチェックを入れて、画素値処理(本実施例では、明るさ、または、コントラストの調整)を行えば、顔変形処理と画素値処理とを組み合わせて、容易に顔画像の印象を維持することができる。   According to the second embodiment described above, the user can easily use image processing that combines face deformation processing and pixel value processing. For example, in the past, when a user wants to slightly brighten a favorite portrait image (an image of a person's face being a main subject) and simply instructs an image quality adjustment process to increase the brightness, the impression of the portrait face image May change and the user may feel uncomfortable. In such a case, the user can recognize that the impression of the face image has changed because the face image looks thicker due to the brightening of the image, and can perform deformation processing to narrow the face. However, there are cases where it is difficult for a user who has insufficient knowledge of image processing to recognize that the face image looks thick. Even if it is recognized that the face image appears to be thick, it is not easy to determine how much the face image should be deformed. According to the present embodiment, the pixel value processing and the face deformation processing are associated in advance so as to maintain the impression regarding the thickness of the face image (FIG. 31: first map, FIG. 32: second). Map), if the first check box CB1 is checked and pixel value processing (in this embodiment, adjustment of brightness or contrast) is performed, the face deformation processing and pixel value processing are combined, The impression of the face image can be easily maintained.

D.第2実施例の変形例:
・第2実施例の第1変形例:
上記第2実施例では、画素値処理が対象画像にもたらす印象の変化と、顔変形処理が対象にもたらす印象の変化とが、互いに打ち消し合うように、画素値処理と顔変形処理とが互いに関連付けられているが、これに限られない。例えば、画素値処理が対象画像にもたらす印象の変化と、顔変形処理が対象にもたらす印象の変化とが、互いに同一または類似となるように、画素値処理と顔変形処理とを関連付けても良い。このような例を第2実施例の第1変形例として以下に説明する。
D. Modification of the second embodiment:
First modification of the second embodiment:
In the second embodiment, the pixel value process and the face deformation process are associated with each other so that the change in impression that the pixel value process brings to the target image and the change in impression that the face deformation process brings to the object cancel each other. However, it is not limited to this. For example, the pixel value process and the face deformation process may be associated with each other so that the change in the impression that the pixel value process brings to the target image and the change in the impression that the face deformation process brings to the object are the same or similar to each other. . Such an example will be described below as a first modification of the second embodiment.

図33は、第2実施例の第1変形例の絵作り処理の流れを示すフローチャートである。図34は、第2実施例の第1変形例における画質調整UIの一例を示す説明図である。図35は、顔画像の変形量およびコントラストと、顔画像の印象との関係を説明するための図である。   FIG. 33 is a flowchart showing the flow of the picture making process according to the first modification of the second embodiment. FIG. 34 is an explanatory diagram illustrating an example of an image quality adjustment UI according to the first modification of the second embodiment. FIG. 35 is a diagram for explaining the relationship between the deformation amount and contrast of a face image and the impression of the face image.

本変形例に係るプリンタの構成は、上述した第2実施例におけるプリンタ100a(図27)と同一であるので、その説明を省略し、絵作り処理についてのみ説明する。   Since the configuration of the printer according to this modification is the same as that of the printer 100a (FIG. 27) in the second embodiment described above, description thereof will be omitted and only the picture making process will be described.

本変形例における絵作り処理が開始されると、図31に示す画質調整UIが表示される(ステップS2010)。図31に示すように、図31に示す画質調整UIは、対象画像と共に、対象画像の顔画像に「きれい」な印象を付与する画質調整処理(印象付与処理)の調整レベルの指示をユーザから受け付けるためのインタフェースである第3のレベルバーLB3を含んでいる。図31に示す画質調整UIは、さらに、1.コントラストを維持する、2.顔巾を維持する、3.特に限定を設けない、のうちのいずれか1つの指示を排他的にユーザから受け付けるためのインタフェースであるラジオボタンRB1〜RB3を含んでいる。   When the picture making process in this modification is started, an image quality adjustment UI shown in FIG. 31 is displayed (step S2010). As shown in FIG. 31, the image quality adjustment UI shown in FIG. 31 instructs the adjustment level of the image quality adjustment process (impression application process) to give a “beautiful” impression to the face image of the target image together with the target image from the user. A third level bar LB3 which is an interface for receiving is included. The image quality adjustment UI shown in FIG. 1. Maintain contrast. 2. Maintain face width. Radio buttons RB <b> 1 to RB <b> 3, which are interfaces for accepting any one of the instructions exclusively from the user without any limitation, are included.

次に、処理内容決定部240aは、画質調整UIを介して、ユーザからの指示を受け付けたか否かを判断する(ステップS2020)。ユーザが画質調整UI上で決定ボタンを選択すると、処理内容決定部240aは、現在、画質調整UIに表示されている状態の対象画像の画像データを印刷・保存する処理を行い(ステップS2080)、絵作り処理を終了する。   Next, the processing content determination unit 240a determines whether or not an instruction from the user has been received via the image quality adjustment UI (step S2020). When the user selects the determination button on the image quality adjustment UI, the processing content determination unit 240a performs a process of printing / saving the image data of the target image currently displayed on the image quality adjustment UI (step S2080), The picture making process ends.

一方、ユーザが画質調整UIを介して、ユーザから、印象付与処理の調整レベルを変更する指示を受け付けると、処理内容決定部240aは、画質調整UI上のラジオボタンRB1〜RB3が選択されているかを検出することにより、画質調整処理に対する限定の有無を判断する(ステップS2030)。   On the other hand, when the user receives an instruction to change the adjustment level of the impression imparting process from the user via the image quality adjustment UI, the processing content determination unit 240a determines whether the radio buttons RB1 to RB3 on the image quality adjustment UI are selected. Is detected to determine whether or not the image quality adjustment processing is limited (step S2030).

処理内容決定部240aは、ラジオボタンRB1が選択されている場合、すなわち、コントラストの維持が指示されている場合には、画質調整部220の変形処理部222に顔変形処理による印象付与処理を実行させる(ステップS2040)。処理内容決定部240aは、ラジオボタンRB2が選択されている場合、すなわち、顔巾の維持が指示されている場合には、画素値処理部224に画素値処理による印象付与処理を実行させる(ステップS2070)。処理内容決定部240aは、ラジオボタンRB3が選択されている場合、すなわち、限定がない場合には、変形処理部222と画素値処理部224に顔変形処理と画素値処理とを組み合わせた印象付与処理を実行させる(ステップS2050およびS2060)。   When the radio button RB1 is selected, that is, when the maintenance of the contrast is instructed, the processing content determination unit 240a executes the impression imparting process by the face deformation process to the deformation processing unit 222 of the image quality adjustment unit 220. (Step S2040). When the radio button RB2 is selected, that is, when the maintenance of the face width is instructed, the processing content determination unit 240a causes the pixel value processing unit 224 to execute the impression imparting processing by the pixel value processing (Step S1). S2070). When the radio button RB3 is selected, that is, when there is no limitation, the processing content determination unit 240a gives an impression that combines the facial deformation processing and the pixel value processing in the deformation processing unit 222 and the pixel value processing unit 224. The process is executed (steps S2050 and S2060).

図35に破線の矢印で概念的に示すように、顔画像のコントラストを所定の範囲で硬調にする(強くする)と顔画像に「きれい」な印象を付与することができ、顔画像を所定の範囲で細くする(変形量を負の値にする)と顔画像に「きれい」な印象を付与することができることが経験的に解っている。   As conceptually shown by the broken-line arrows in FIG. 35, when the contrast of the face image is hardened (intensified) within a predetermined range, a “beautiful” impression can be given to the face image, and the face image It has been empirically understood that a “beautiful” impression can be given to a face image by making it thin within a range of (making the deformation amount a negative value).

顔変形処理のみによる印象付与処理(ステップS2040)は、図35に矢印BE1で示すように、指示された調整レベルに応じて顔画像の変形量を負の値に設定して、顔画像を細く変形することにより実行され、コントラストは維持される。画素値処理のみによる印象付与処理(ステップS2070)は、図35に矢印BE2で示すように、指示された調整レベルに応じてコントラストを硬調にする(強くする)ことにより実行され、顔巾は維持される。   In the impression imparting process only by the face deformation process (step S2040), as shown by an arrow BE1 in FIG. 35, the face image deformation amount is set to a negative value according to the designated adjustment level, and the face image is thinned. This is done by deforming and the contrast is maintained. The impression imparting process (step S2070) based only on the pixel value process is executed by increasing (intensifying) the contrast according to the instructed adjustment level as shown by the arrow BE2 in FIG. 35, and the face width is maintained. Is done.

そして、顔変形処理と画素値処理とを組み合わせた印象付与処理(ステップS2050およびS2060)は、図35に矢印BE3で示すように、指示された調整レベルに応じて顔画像の変形量を負の値に設定して、顔画像を細く変形すると共に、指示された調整レベルに応じてコントラストを硬調にする(強くする)ことにより実行される。   Then, in the impression imparting process (steps S2050 and S2060) that combines the face deformation process and the pixel value process, as shown by an arrow BE3 in FIG. The value is set to a value, and the face image is deformed finely, and the contrast is hardened (strengthened) according to the instructed adjustment level.

印象付与処理が終了すると、処理は、ステップS2010にリターンされ、ステップS2010では、印象付与処理後の対象画像を表示するように更新された画質調整UIが表示部150に表示される。このようにして、画質調整UIを介して受け付けられたユーザの印象付与処理に関する指示が、対象画像に動的に反映される。   When the impression imparting process ends, the process returns to step S2010. In step S2010, the image quality adjustment UI updated to display the target image after the impression imparting process is displayed on the display unit 150. In this way, the user's instruction regarding impression processing received through the image quality adjustment UI is dynamically reflected in the target image.

以上説明した本変形例によっても、ユーザは、顔変形処理と画素値処理とを組み合わせた画像処理を容易に利用することができる。また、同一または類似している変化(本変形例では「きれい」という印象の付与)をもたらす顔変形処理と画素値処理が関連付けられているので、顔変形処理と画素値処理のうちのいずれか一方のみで、画質調整を行うより、大きな変化を所望の方向に対象画像に対して付与することができる。例えば、ユーザが顔画像に「きれい」な印象を付与したいと考えた場合、コントラストを硬調にする処理と、顔画像の横巾を細くする処理を組み合わせることで、大きな効果を得られるが、画像処理の知識が不十分なユーザは、このような組み合わせを正しく判断することは難しい。誤って、顔画像に「きれい」な印象を付与する画素値処理と、顔画像に「かわいい」印象を付与する顔変形処理を組み合わせてしまうと所望の効果を得ることはできない。本実施例によれば、「きれい」な印象を付与するための印象付与処理として、画素値処理と、顔変形処理が、予め関連付けられているので、顔変形処理と画素値処理とを組み合わせて、容易に顔画像の印象を変更することができる。   Also according to this modification described above, the user can easily use image processing that combines face deformation processing and pixel value processing. In addition, since the face deformation process and the pixel value process that cause the same or similar change (in this modification example, the impression of “beautiful”) is associated, either the face deformation process or the pixel value process With only one of them, a larger change can be applied to the target image in a desired direction than when image quality adjustment is performed. For example, when a user wants to give a “beautiful” impression to a face image, a great effect can be obtained by combining a process of making contrast high and a process of reducing the width of the face image. It is difficult for a user with insufficient processing knowledge to correctly determine such a combination. If a pixel value process that gives a “beautiful” impression to a face image is mistakenly combined with a face deformation process that gives a “cute” impression to the face image, a desired effect cannot be obtained. According to the present embodiment, since the pixel value processing and the face deformation process are associated in advance as the impression imparting process for imparting a “beautiful” impression, the face deformation process and the pixel value process are combined. , You can easily change the impression of the face image.

・第2実施例の第2変形例:
上記第2実施例、および、第2実施例の第1変形例における顔変形処理と画素値処理との組み合わせは一例であり、他にも様々な組み合わせを用いることができる。例えば、顔画像のコントラストを弱くする画素値処理と、顔画像を縦方向に小さくし、顔画像の目を縦方向に小さくする顔変形処理とを組み合わせて、「かわいい」印象を顔画像に付与する印象付与処理を行うこととしても良い。
-Second modification of the second embodiment:
The combination of the face deformation process and the pixel value process in the second embodiment and the first modification of the second embodiment is an example, and various other combinations can be used. For example, a pixel value process that reduces the contrast of the face image and a face deformation process that reduces the face image vertically and reduces the face image vertically reduces the impression of the face image. It is good also as performing the impression provision process.

E.その他の変形例:
上記実施例およびその変形例において、その処理内容をフローチャートで示しているが、あくまで一例であり、各ステップの順番を変更したり、一部のステップの実行を省略したりしてもよい。例えば、図28に示す第2実施例における絵作り処理では、画素値処理(図28:ステップS1020)の前に、印象維持のチェックボックスのチェックの有無を判断し(図28:ステップS1030)、顔変形処理(図28:ステップS1040)を行った後に、画素値処理を行っても良い。かかる場合は、顔変形処理を行ってから、顔変形処理が画像変形にもたらす変化を打ち消すように、相反する印象の変化をもたらす画素値処理を行うこととなる。
E. Other variations:
In the above-described embodiment and its modifications, the processing content is shown by a flowchart, but this is only an example, and the order of each step may be changed or execution of some steps may be omitted. For example, in the picture making process in the second embodiment shown in FIG. 28, before or after the pixel value process (FIG. 28: step S1020), it is determined whether or not the impression maintenance check box is checked (FIG. 28: step S1030). Pixel value processing may be performed after performing face deformation processing (FIG. 28: step S1040). In such a case, after the face deformation process is performed, the pixel value process that causes a conflicting impression change is performed so as to cancel the change that the face deformation process causes to the image deformation.

画素値処理と顔変形処理との関連付けは、一方を主とし、他方を従とするように関連付けられても良いし、互いに対等に関連付けても良い。例えば、第1実施例や、第2実施例の第1変形例では、「かわいい」「きれい」などの印象を対象画像に付与するため、画素値処理と顔変形処理は、対等に関連付けられていると考えることができるかもしれない。第2実施例では、所望の変化(画像を明るくするなど)を得るために画素値処理を行った際に、付随的に対象画像にもたらされてしまう所望しない変化(顔が太く見えてしまう)を打ち消すように顔変形処理を行うので、画素値処理が主であり、顔変形処理が従であると考えることができるかもしれない。   The association between the pixel value processing and the face deformation processing may be associated with one as the main and the other as the subordinate, or may be associated with each other on an equal basis. For example, in the first modification of the first embodiment and the second embodiment, the pixel value process and the face deformation process are associated with each other in order to give an impression such as “cute” or “beautiful” to the target image. You might be able to think that In the second embodiment, when pixel value processing is performed in order to obtain a desired change (such as brightening an image), an undesired change (face appears to be thick) that is incidentally introduced into the target image. Since the face deformation process is performed so as to cancel out (), it may be considered that the pixel value process is the main and the face deformation process is the sub.

また、絵作り処理の前に、印刷処理の内の解像度変換や色変換(図20のステップS310やS320)が実行されるとしてもよい。また、図33に示す第2実施例における絵作り処理では、画素値処理(ステップS2050)と顔変形処理(ステップS2060)とを入れ替えても良い。   Also, resolution conversion and color conversion (steps S310 and S320 in FIG. 20) in the printing process may be executed before the picture making process. In the picture making process in the second embodiment shown in FIG. 33, the pixel value process (step S2050) and the face deformation process (step S2060) may be interchanged.

また上記実施例では、顔領域FAの検出が実行されるが、顔領域FAの検出の代わりに、例えばユーザ指定を介した顔領域FAの情報の取得が行われるとしてもよい。   In the above-described embodiment, the detection of the face area FA is executed. However, instead of the detection of the face area FA, for example, acquisition of information on the face area FA through user designation may be performed.

上記実施例およびその変形例では、画像処理装置としてのプリンタ100、100aによる絵作り処理を説明したが、絵作り処理の一部または全部は、例えば、印刷処理を除き、デジタルカメラなどの画像データ生成機器の制御コンピュータあるいは画像処理チップにより実行されても良し、パーソナルコンピュータにより実行されても良い。また、プリンタ100、100aはインクジェットプリンタに限らず、他の方式のプリンタ、例えばレーザプリンタや昇華型プリンタであるとしてもよい。   In the above-described embodiment and its modifications, the picture making process by the printers 100 and 100a as the image processing apparatus has been described. However, part or all of the picture making process is, for example, image data such as a digital camera except for the printing process. It may be executed by a control computer or an image processing chip of the generation device, or may be executed by a personal computer. The printers 100 and 100a are not limited to ink jet printers, and may be other types of printers such as laser printers and sublimation printers.

上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしても良い。   In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware.

以上、本発明の実施例および変形例について説明したが、本発明はこれらの実施例および変形例になんら限定されるものではなく、その要旨を逸脱しない範囲内において種々の態様での実施が可能である。   As mentioned above, although the Example and modification of this invention were demonstrated, this invention is not limited to these Example and modification at all, and implementation in a various aspect is possible within the range which does not deviate from the summary. It is.

ところで、上述した実施例および変形例を参照して説明した実施態様を、特に、複数種類の画質調整処理の中から、対象画像に適用される適用処理を選択するためのユーザの負担を軽減する観点から抽象的に表現するとすれば、例えば、以下のように表現できる。
画像処理装置であって、
複数種類の画質調整処理を実行可能な画質調整部と、
前記対象画像について、画像の特徴に応じて定まる画像タイプを判定するタイプ判定部と、
前記複数種類の画質調整処理の中から前記対象画像に適用される適用処理を選択させるための選択画面を、前記判定された画像タイプに応じて生成する選択画面生成部と、
を備える、画像処理装置。
By the way, the embodiment described with reference to the above-described embodiments and modification examples, particularly, reduces the burden on the user for selecting an application process to be applied to the target image from among a plurality of types of image quality adjustment processes. If it is expressed abstractly from the viewpoint, for example, it can be expressed as follows.
An image processing apparatus,
An image quality adjustment unit capable of executing multiple types of image quality adjustment processing;
About the target image, a type determination unit that determines an image type determined according to image characteristics;
A selection screen generating unit for generating a selection screen for selecting an application process to be applied to the target image from among the plurality of types of image quality adjustment processes, according to the determined image type;
An image processing apparatus comprising:

第1実施例における画像処理装置としてのプリンタ100の構成を示すブロック図。1 is a block diagram illustrating a configuration of a printer 100 as an image processing apparatus according to a first embodiment. 画像タイプデータベースの内容を概念的に示す図。The figure which shows the content of an image type database notionally. 処理内容データベースの内容を概念的に示す図。The figure which shows the content of the process content database notionally. 画像の一覧表示を含むユーザインターフェースの一例を示す説明図。Explanatory drawing which shows an example of the user interface containing the list display of an image. 第1実施例のプリンタによる絵作り処理の流れを示すフローチャート。3 is a flowchart showing a flow of picture making processing by the printer of the first embodiment. 第1実施例の画像処理の流れを示すフローチャート。3 is a flowchart showing a flow of image processing according to the first embodiment. 第1実施例の選択画面の一例を示す図。The figure which shows an example of the selection screen of 1st Example. 第1実施例の画質調整処理の流れを示すフローチャート。6 is a flowchart illustrating a flow of image quality adjustment processing according to the first embodiment. 画素値処理の一例を説明する第一の図。The 1st figure explaining an example of pixel value processing. 頬着色処理を説明するための図。The figure for demonstrating a cheek coloring process. 第1実施例の顔変形処理の流れを示すフローチャート。The flowchart which shows the flow of the face deformation process of 1st Example. 変形領域の設定について説明する図。The figure explaining the setting of a deformation | transformation area | region. 変形領域の小領域への分割方法の一例を示す説明図。Explanatory drawing which shows an example of the division | segmentation method into a small area | region of a deformation | transformation area | region. 分割点の位置の移動の一例を示す説明図。Explanatory drawing which shows an example of the movement of the position of a dividing point. 予め定められた移動方向および移動距離の一例を示す第1の説明図。The 1st explanatory view showing an example of a predetermined moving direction and moving distance. 画像の変形方法の概念を示す説明図。Explanatory drawing which shows the concept of the deformation | transformation method of an image. 三角形領域における画像の変形処理方法の概念を示す説明図。Explanatory drawing which shows the concept of the deformation | transformation processing method of the image in a triangular area | region. 予め定められた移動方向および移動距離の一例を示す第2の説明図。The 2nd explanatory view which shows an example of a predetermined moving direction and moving distance. 画質調整後の対象画像が表示された表示部の一例を示す説明図。Explanatory drawing which shows an example of the display part on which the target image after image quality adjustment was displayed. 印刷処理の流れを示すフローチャート。6 is a flowchart showing a flow of printing processing. 選択学習データベースの内容の一例を示す図。The figure which shows an example of the content of the selection learning database. 第1実施例の第1変形例における絵作り処理の流れを示すフローチャート。The flowchart which shows the flow of the picture making process in the 1st modification of 1st Example. 選択画面の他の例を示す第1の図。The 1st figure which shows the other example of a selection screen. 第1実施例の第3変形例の画像処理の流れを示すフローチャート。10 is a flowchart showing a flow of image processing according to a third modification of the first embodiment. 選択画面の他の例を示す第2の図。The 2nd figure which shows the other example of a selection screen. 画像データと共に画像データと関連付けられた付属情報を含む画像ファイルの一例を概念的に示す説明図。Explanatory drawing which shows notionally an example of the image file containing the attached information linked | related with image data with image data. 第2実施例における画像処理装置としてのプリンタの構成を示すブロック図。FIG. 9 is a block diagram illustrating a configuration of a printer as an image processing apparatus according to a second embodiment. 第2実施例のプリンタによる絵作り処理の流れを示すフローチャート。10 is a flowchart showing a flow of picture making processing by the printer of the second embodiment. 第2実施例における画質調整UIの一例を示す説明図である。It is explanatory drawing which shows an example of the image quality adjustment UI in 2nd Example. 明るさおよびコントラストと顔画像の印象との関係を説明するための図。The figure for demonstrating the relationship between brightness and contrast, and the impression of a face image. 印象維持のための顔変形処理について説明する第1の図。The 1st figure explaining the face deformation process for impression maintenance. 印象維持のための顔変形処理について説明する第2の図。The 2nd figure explaining the face deformation | transformation process for impression maintenance. 第2実施例の第1変形例の絵作り処理の流れを示すフローチャート。The flowchart which shows the flow of the picture making process of the 1st modification of 2nd Example. 第2実施例の第1変形例における画質調整UIの一例を示す説明図。Explanatory drawing which shows an example of the image quality adjustment UI in the 1st modification of 2nd Example. 顔画像の変形量およびコントラストと顔画像の印象との関係を説明するための図。The figure for demonstrating the relationship between the deformation amount and contrast of a face image, and the impression of a face image.

符号の説明Explanation of symbols

100、100a…プリンタ
110…CPU
120…内部メモリ
140…操作部
150…表示部
160…プリンタエンジン
170…カードインターフェース
172…カードスロット
210…画像データ取得部
220…画質調整部
222…変形処理部
224…画素値処理部
230…画像タイプ判定部
240、240a…処理内容決定部
242…選択画面生成部
244…選択学習部
248…画質調整UI生成部
250…表示処理部
260…印刷処理部
310…画像タイプデータベース
320…処理内容データベース
330…選択学習データベース
500…画像ファイル
501…画像データ格納領域
502…付属情報格納域
MC…メモリカード
100, 100a ... Printer 110 ... CPU
DESCRIPTION OF SYMBOLS 120 ... Internal memory 140 ... Operation part 150 ... Display part 160 ... Printer engine 170 ... Card interface 172 ... Card slot 210 ... Image data acquisition part 220 ... Image quality adjustment part 222 ... Deformation processing part 224 ... Pixel value processing part 230 ... Image type Determination unit 240, 240a ... Processing content determination unit 242 ... Selection screen generation unit 244 ... Selection learning unit 248 ... Image quality adjustment UI generation unit 250 ... Display processing unit 260 ... Print processing unit 310 ... Image type database 320 ... Processing content database 330 ... Selective learning database 500 ... Image file 501 ... Image data storage area 502 ... Attached information storage area MC ... Memory card

Claims (6)

画像処理装置であって、
対象画像に含まれる領域を変形する変形処理を行う第1の処理部と、
前記対象画像に含まれる画素の画素値を調整する画素値処理を行う第2の処理部と、
前記対象画像について、画像の特徴に応じて定まる画像タイプを判定するタイプ判定部と、
前記変形処理と前記画素値処理とを含む処理内容を、前記判定された画像タイプに応じて決定する処理内容決定部と、を備え、
前記変形処理と前記画素値処理とは、1つの画質調整処理として互いに関連づけられ、
前記1つの画質調整処理として行なわれる前記変形処理と前記画素値処理とは、前記処理内容決定部によって決定された処理内容の画質調整処理であって、それぞれ前記対象画像の少なくとも一部に同一の印象を与えるような画質調整処理である、画像処理装置。
An image processing apparatus,
A first processing unit that performs a deformation process for deforming an area included in the target image;
A second processing unit that performs a pixel value process for adjusting a pixel value of a pixel included in the target image;
About the target image, a type determination unit that determines an image type determined according to image characteristics;
A processing content determination unit that determines processing content including the deformation processing and the pixel value processing according to the determined image type ;
The deformation process and the pixel value process are associated with each other as one image quality adjustment process,
The deformation processing and the pixel value processing performed as the one image quality adjustment processing are image quality adjustment processing of the processing content determined by the processing content determination unit, and are respectively the same as at least a part of the target image. An image processing apparatus that is an image quality adjustment process that gives an impression.
請求項1に記載の画像処理装置において、
前記対象画像は、顔画像を含み、
前記変形処理および前記画素値処理はそれぞれ同一の印象を前記顔画像にもたらすよう処理である、画像処理装置。
The image processing apparatus according to claim 1.
The target image includes a face image,
The deformation processing and the pixel value processing is a processing that result same impression to each of the facial image, the image processing apparatus.
請求項1又は請求項2に記載の画像処理装置において、
前記処理内容決定部は、前記変形処理と前記画素値処理とをそれぞれ含む複数種類の候補処理内容の中から前記対象画像に対して行う処理内容を選択させるための選択画面を、前記判定された画像タイプに応じて生成する選択画面生成部を含む、画像処理装置。
The image processing apparatus according to claim 1 or 2 ,
The processing content determination unit determines the selection screen for selecting a processing content to be performed on the target image from a plurality of types of candidate processing content each including the deformation processing and the pixel value processing. An image processing apparatus including a selection screen generation unit that generates according to an image type.
請求項に記載の画像処理装置において、
前記選択画面生成部は、前記判定された画像タイプに応じて前記複数種類の候補処理内容の優先順位を定め、前記優先順位に従って、前記選択画面を生成する、画像処理装置。
The image processing apparatus according to claim 3 .
The selection screen generating unit determines an order of priority of the plurality of types of candidate processing contents according to the determined image type, and generates the selection screen according to the priority order.
画像処理方法であって、
対象画像に含まれる領域を変形する変形処理を行う変形処理工程と、
前記対象画像に含まれる画素の画素値を調整する画素値処理を行う画素値処理工程と、
前記対象画像について、画像の特徴に応じて定まる画像タイプを判定する判定工程と、
前記変形処理と前記画素値処理とを含む処理内容を、前記判定された画像タイプに応じて決定する決定工程と、を備え、
前記変形処理と前記画素値処理とは、1つの画質調整処理として互いに関連づけられ、
前記1つの画質調整処理として行なわれる前記変形処理と前記画素値処理とは、前記決定工程により決定された処理内容の画質調整処理であって、それぞれ前記対象画像の少なくとも一部に同一の印象を与えるような画質調整処理である、画像処理方法。
An image processing method comprising:
A deformation process step of performing a deformation process to deform an area included in the target image;
A pixel value processing step for performing pixel value processing for adjusting a pixel value of a pixel included in the target image;
For the target image, a determination step of determining an image type determined according to image characteristics;
Determining a process content including the deformation process and the pixel value process according to the determined image type ,
The deformation process and the pixel value process are associated with each other as one image quality adjustment process,
The deformation processing and the pixel value processing performed as the one image quality adjustment processing are image quality adjustment processing of processing contents determined by the determination step, and each has the same impression on at least a part of the target image. An image processing method that is image quality adjustment processing.
画像処理のためのコンピュータプログラムであって、
対象画像に含まれる領域を変形する変形処理を行う第1の機能と、
前記対象画像に含まれる画素の画素値を調整する画素値処理を行う第2の機能と、
前記対象画像について、画像の特徴に応じて定まる画像タイプを判定する第3の機能と、 前記変形処理と前記画素値処理とを含む処理内容を、前記判定された画像タイプに応じて決定する第4の機能と、をコンピュータに実現させる、コンピュータプログラムであって、
前記第1の機能による前記変形処理と前記第2の機能による前記画素値処理とは、1つの画質調整処理として互いに関連づけられ、
前記1つの画質調整処理として行なわれる前記変形処理と前記画素値処理とは、前記第4の機能によって決定される処理内容の画質調整処理であって、それぞれ前記対象画像の少なくとも一部に同一の印象を与えるような画質調整処理である、コンピュータプログラム。
A computer program for image processing,
A first function for performing deformation processing for deforming an area included in the target image;
A second function of performing a pixel value process for adjusting a pixel value of a pixel included in the target image;
A third function for determining an image type determined in accordance with an image characteristic for the target image; and a processing content including the deformation process and the pixel value process according to the determined image type. 4 is a computer program for causing a computer to realize the functions of
The deformation process by the first function and the pixel value process by the second function are associated with each other as one image quality adjustment process,
The deformation process and the pixel value process performed as the one image quality adjustment process are image quality adjustment processes whose contents are determined by the fourth function, and are identical to at least a part of the target image. A computer program that is an image quality adjustment process that gives an impression.
JP2007141382A 2007-05-29 2007-05-29 Image processing apparatus, image processing method, and computer program Expired - Fee Related JP4877074B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007141382A JP4877074B2 (en) 2007-05-29 2007-05-29 Image processing apparatus, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007141382A JP4877074B2 (en) 2007-05-29 2007-05-29 Image processing apparatus, image processing method, and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011192391A Division JP2012022704A (en) 2011-09-05 2011-09-05 Image processing system, image processing method and computer program

Publications (3)

Publication Number Publication Date
JP2008299365A JP2008299365A (en) 2008-12-11
JP2008299365A5 JP2008299365A5 (en) 2010-03-11
JP4877074B2 true JP4877074B2 (en) 2012-02-15

Family

ID=40172878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007141382A Expired - Fee Related JP4877074B2 (en) 2007-05-29 2007-05-29 Image processing apparatus, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP4877074B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5436029B2 (en) * 2009-04-28 2014-03-05 キヤノン株式会社 Image processing apparatus and image processing method
JP5719608B2 (en) * 2010-04-02 2015-05-20 オリンパスイメージング株式会社 Photography equipment
JP5710940B2 (en) * 2010-11-09 2015-04-30 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP5646318B2 (en) * 2010-12-28 2014-12-24 オリンパスイメージング株式会社 Imaging apparatus and imaging program
JP5761843B2 (en) * 2011-02-03 2015-08-12 株式会社タムロン Video camera
JP6483580B2 (en) * 2015-09-18 2019-03-13 富士フイルム株式会社 Image processing apparatus, image processing method, image processing program, and recording medium storing the program
WO2020241856A1 (en) * 2019-05-31 2020-12-03 富士フイルム株式会社 Image processing device, image processing system, image processing method, and image processing program
JP2023154753A (en) * 2022-04-08 2023-10-20 株式会社豊田中央研究所 Design supporting device, design supporting method, and computer program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262399A (en) * 1994-03-22 1995-10-13 Casio Comput Co Ltd Method and device for processing image
JPH096573A (en) * 1995-06-14 1997-01-10 Toshiba Corp Method and system for adjusting image picture color scheme
JP3582458B2 (en) * 2000-06-07 2004-10-27 花王株式会社 Makeup advice system
JP2002324126A (en) * 2001-04-25 2002-11-08 Sharp Corp Providing system for make-up advise information
JP2006203528A (en) * 2005-01-20 2006-08-03 Canon Inc Image processor, image processing program, and recording medium
JP2007028555A (en) * 2005-07-21 2007-02-01 Sony Corp Camera system, information processing device, information processing method, and computer program
JP4682373B2 (en) * 2005-11-01 2011-05-11 株式会社国際電気通信基礎技術研究所 Face image synthesis device, face image synthesis method, and face image synthesis program
JP2007193730A (en) * 2006-01-23 2007-08-02 Seiko Epson Corp Printer, image processor, printing method and image processing method

Also Published As

Publication number Publication date
JP2008299365A (en) 2008-12-11

Similar Documents

Publication Publication Date Title
JP4924264B2 (en) Image processing apparatus, image processing method, and computer program
JP4345757B2 (en) Image data color correction
JP4877074B2 (en) Image processing apparatus, image processing method, and computer program
JP4725057B2 (en) Generation of image quality adjustment information and image quality adjustment using image quality adjustment information
JP4831212B2 (en) Apparatus, method and computer program
US7864362B2 (en) Color image and monochrome image imaging process
JP2005328845A6 (en) Method, apparatus and computer program for converting a digital color image
JP2005328845A (en) Methods, apparatus and computer for transforming digital colour images
US20090231628A1 (en) Image Processing Apparatus, Image Processing Method, Computer Program for Image Processing
US7899269B2 (en) Method and device for image quality adjustment of multiple subject image data on layout locations in ornamental image data
JP2009237977A (en) Image output control device, image output control method, image output control program, and printer
JP4581999B2 (en) Image processing apparatus and image processing method
JP4539778B2 (en) Image data color correction
JP2009033249A (en) Image processing device, image processing method, and computer program
JP2009031855A (en) Image processor, image processing method and computer program
JP2001155174A (en) Method and device for image processing
JP2012022704A (en) Image processing system, image processing method and computer program
JP2007251473A (en) Correction of color in image data
JP3994280B2 (en) Red-eye correction device, red-eye correction method, and red-eye correction program
JP4635916B2 (en) Image data color correction
JP2009081631A (en) Image processing apparatus, method and program
JP3833170B2 (en) Gray line setting method, image processing apparatus and image processing method
JP2006072743A (en) Catch light composition method and device
JP2009237978A (en) Image output control device, image output control method, image output control program, and printer
JP2002209090A (en) Test print generating method and photo image print method employing it

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111114

R150 Certificate of patent or registration of utility model

Ref document number: 4877074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees