JP2017054406A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2017054406A
JP2017054406A JP2015179271A JP2015179271A JP2017054406A JP 2017054406 A JP2017054406 A JP 2017054406A JP 2015179271 A JP2015179271 A JP 2015179271A JP 2015179271 A JP2015179271 A JP 2015179271A JP 2017054406 A JP2017054406 A JP 2017054406A
Authority
JP
Japan
Prior art keywords
image
face
unit
component
unprocessed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015179271A
Other languages
Japanese (ja)
Other versions
JP6668646B2 (en
Inventor
敬輔 島田
Keisuke Shimada
敬輔 島田
石井 克典
Katsunori Ishii
克典 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015179271A priority Critical patent/JP6668646B2/en
Publication of JP2017054406A publication Critical patent/JP2017054406A/en
Application granted granted Critical
Publication of JP6668646B2 publication Critical patent/JP6668646B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To simply correct a portion of a face constitution part of a processed face image.SOLUTION: An imaging device 100 includes: a face constitution part specification part 9c for specifying a face constitution part designated by a user from either one of a first portrait image subjected to image processing with a first face image as an object or the first face image; a second image acquisition part 9d for acquiring a second face image including the specified face constitution part; and a portrait image correction part 9f for correcting a face constitution part in the first portrait image on the basis of a face constitution part image corresponding to the face constitution part in the acquired second face image.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、目、鼻、口、耳、顔輪郭等の顔部品の特徴点を用いて似顔絵を作成する似顔絵作成装置が知られている(例えば、特許文献1参照)。また、各部位ごとに予め用意されているパーツオブジェクトを組み合わせてキャラクタを作成するゲーム装置が知られている(例えば、特許文献2参照)。   2. Description of the Related Art Conventionally, there is known a portrait creation device that creates a portrait using feature points of facial parts such as eyes, nose, mouth, ears, and face contour (see, for example, Patent Document 1). There is also known a game device that creates a character by combining part objects prepared in advance for each part (see, for example, Patent Document 2).

特開2004−145625号公報JP 2004-145625 A 特開2008−61896号公報JP 2008-61896 A

ところで、写真画像を元に生成された似顔絵画像内の一部の顔構成部が気に入らなかった場合に、再び写真撮影して新たに取得した顔画像全体を元に似顔絵画像を生成すると、修正したい顔構成部以外の部分も変更されてしまうといった問題がある。
なお、修正したい顔構成部について対応する部品画像をユーザが手動で選択するという手法も考えられるが、多くの部品画像の中から選択することは煩雑であり、また、必ずしもユーザ所望の形状や大きさの部品画像を選択できるとは限らないといった問題もある。
By the way, if you don't like some of the facial features in the caricature image that was generated based on the photo image, you would like to correct it if you generate a caricature image based on the entire newly acquired face image by taking a photo again There is a problem that parts other than the face constituting part are also changed.
Although a method in which the user manually selects a component image corresponding to the face component to be corrected is conceivable, it is complicated to select from many component images, and the shape and size desired by the user are not necessarily required. There is also a problem that it is not always possible to select the part image.

本発明の課題は、処理済み顔画像の一部分の顔構成部の修正を簡便に行うことができる画像処理装置、画像処理方法及びプログラムを提供することである。   An object of the present invention is to provide an image processing apparatus, an image processing method, and a program capable of easily correcting a face configuration part of a part of a processed face image.

上記課題を解決するため、本発明に係る画像処理装置は、
第1の未処理顔画像を対象として画像処理が施された処理済み顔画像及び前記第1の未処理顔画像の何れか一方から、ユーザにより指定された顔構成部を特定する特定手段と、
前記特定手段により特定された前記顔構成部が含まれる第2の未処理顔画像を取得する取得手段と、
前記取得手段により取得された前記第2の未処理顔画像における前記顔構成部に対応する顔構成部画像に基づいて、前記処理済み顔画像内の前記顔構成部を修正する修正手段と、
を備えたことを特徴としている。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
A specifying means for specifying a face component designated by a user from either one of the processed face image subjected to image processing for the first unprocessed face image and the first unprocessed face image;
Obtaining means for obtaining a second unprocessed face image including the face constituting unit identified by the identifying means;
Correcting means for correcting the face constituent part in the processed face image based on a face constituent part image corresponding to the face constituent part in the second unprocessed face image acquired by the acquiring means;
It is characterized by having.

また、本発明に係る画像処理方法は、
画像処理装置を用いた画像処理方法であって、
第1の未処理顔画像を対象として画像処理が施された処理済み顔画像及び前記第1の未処理顔画像の何れか一方から、ユーザにより指定された顔構成部を特定するステップと、
特定された前記顔構成部が含まれる第2の未処理顔画像を取得するステップと、
取得された前記第2の未処理顔画像における前記顔構成部に対応する顔構成部画像に基づいて、前記処理済み顔画像内の前記顔構成部を修正するステップと、
を含むことを特徴としている。
The image processing method according to the present invention includes:
An image processing method using an image processing apparatus,
Identifying a face component designated by the user from either one of the processed face image subjected to image processing on the first unprocessed face image and the first unprocessed face image;
Obtaining a second unprocessed face image including the identified face component;
Correcting the face component in the processed face image based on a face component image corresponding to the face component in the acquired second unprocessed face image;
It is characterized by including.

また、本発明に係るプログラムは、
画像処理装置のコンピュータを、
第1の未処理顔画像を対象として画像処理が施された処理済み顔画像及び前記第1の未処理顔画像の何れか一方から、ユーザにより指定された顔構成部を特定する特定手段、
前記特定手段により特定された前記顔構成部が含まれる第2の未処理顔画像を取得する取得手段、
前記取得手段により取得された前記第2の未処理顔画像における前記顔構成部に対応する顔構成部画像に基づいて、前記処理済み顔画像内の前記顔構成部を修正する修正手段、
として機能させることを特徴としている。
The program according to the present invention is
The computer of the image processing device
A specifying means for specifying a face component designated by a user from either one of the processed face image subjected to image processing for the first unprocessed face image and the first unprocessed face image;
Obtaining means for obtaining a second unprocessed face image including the face constituting part specified by the specifying means;
Correcting means for correcting the face constituent part in the processed face image based on a face constituent part image corresponding to the face constituent part in the second unprocessed face image acquired by the acquiring means;
It is characterized by making it function as.

本発明によれば、処理済み顔画像の一部分の顔構成部の修正を簡便に行うことができる。   According to the present invention, it is possible to easily perform correction of a face constituent part of a part of a processed face image.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 図1の撮像装置による似顔絵画像生成処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to a portrait image generation process performed by the imaging apparatus of FIG. 1. 図2の似顔絵画像生成処理を説明するための図である。It is a figure for demonstrating the portrait image generation process of FIG. 図2の似顔絵画像生成処理を説明するための図である。It is a figure for demonstrating the portrait image generation process of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
図1に示すように、本実施形態の撮像装置100は、具体的には、中央制御部1と、メモリ2と、撮像部3と、画像データ生成部4と、画像処理部5と、表示部6と、操作入力部7と、記憶部8と、似顔絵処理部9とを備えている。
また、中央制御部1、メモリ2、撮像部3、画像データ生成部4、画像処理部5、表示部6、操作入力部7、記憶部8及び似顔絵処理部9は、バスライン10を介して接続されている。
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment to which the present invention is applied.
As shown in FIG. 1, the imaging apparatus 100 according to the present embodiment specifically includes a central control unit 1, a memory 2, an imaging unit 3, an image data generation unit 4, an image processing unit 5, and a display. Unit 6, operation input unit 7, storage unit 8, and portrait processing unit 9.
The central control unit 1, the memory 2, the imaging unit 3, the image data generation unit 4, the image processing unit 5, the display unit 6, the operation input unit 7, the storage unit 8, and the portrait processing unit 9 are connected via a bus line 10. It is connected.

なお、撮像装置100は、公知のものを適用可能であり、本実施形態のように、主要な機能を撮影機能とするデジタルカメラだけでなく、主要な機能としないものの撮影機能を具備する携帯電話機、スマートフォン等の携帯端末なども含む。   Note that a known device can be applied to the imaging device 100, and not only a digital camera having a main function as a shooting function but also a mobile phone having a shooting function that is not a main function as in the present embodiment. And mobile terminals such as smartphones.

中央制御部1は、撮像装置100の各部を制御するものである。具体的には、中央制御部1は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 1 controls each unit of the imaging device 100. Specifically, although not shown, the central control unit 1 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), and includes various processing programs (illustrated) for the imaging apparatus 100. Various control operations are performed according to (omitted).

メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部1や画像処理部5や似顔絵処理部9等の各部によって処理されるデータ等を一時的に格納する。   The memory 2 is constituted by, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data processed by each unit such as the central control unit 1, the image processing unit 5, and the portrait processing unit 9.

撮像部3は、被写体を撮影する。具体的には、撮像部3は、レンズ部3aと、電子撮像部3bと、撮像制御部3cとを備えている。   The imaging unit 3 captures a subject. Specifically, the imaging unit 3 includes a lens unit 3a, an electronic imaging unit 3b, and an imaging control unit 3c.

レンズ部3aは、例えば、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
The lens unit 3a includes a plurality of lenses such as a zoom lens and a focus lens, for example.
The electronic imaging unit 3b is composed of an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), and converts an optical image that has passed through various lenses of the lens unit 3a into a two-dimensional image signal. To do.
In addition, although illustration is abbreviate | omitted, the imaging part 3 may be provided with the aperture_diaphragm | restriction which adjusts the quantity of the light which passes the lens part 3a.

撮像制御部3cは、撮像部3による被写体の撮影を制御する。すなわち、撮像制御部3cは、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3cは、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、所定周期毎に光学像を電子撮像部3bにより二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像を読み出して画像データ生成部4に出力させる。
なお、撮像制御部3cは、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮影する際の条件の調整制御を行っても良い。
The imaging control unit 3 c controls the shooting of the subject by the imaging unit 3. That is, the imaging control unit 3c includes a timing generator, a driver, and the like, although not shown. Then, the imaging control unit 3c scans and drives the electronic imaging unit 3b with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 3b every predetermined period, and the electronic imaging unit 3b. The frame image is read from the imaging area for each screen and is output to the image data generation unit 4.
Note that the imaging control unit 3c may perform adjustment control of conditions when photographing a subject such as AF (automatic focusing process), AE (automatic exposure process), and AWB (automatic white balance).

画像データ生成部4は、撮像部3の電子撮像部3bから転送されたフレーム画像のアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。また、画像データ生成部4は、生成された輝度信号Y及び色差信号Cb,Crをバッファメモリとして使用されるメモリ2に出力する。   The image data generation unit 4 appropriately adjusts the gain for each color component of RGB with respect to the analog value signal of the frame image transferred from the electronic image pickup unit 3b of the image pickup unit 3, and then performs a sample with a sample hold circuit (not shown). After being held and converted into digital data by an A / D converter (not shown), color process processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y And color difference signals Cb and Cr (YUV data) are generated. In addition, the image data generation unit 4 outputs the generated luminance signal Y and color difference signals Cb and Cr to the memory 2 used as a buffer memory.

画像処理部5は、画像を記憶する際には、メモリ2から輝度信号Y及び色差信号Cb,Crを取得し、所定の符号化方式(例えば、JPEG形式、モーションJPEG形式、MPEG形式等)で符号化して記憶部8に出力する。
また、画像処理部5は、画像を再生表示する場合には、メモリ2や記憶部8から読み出された表示対象に係る静止画像や動画像の画像データを対応する所定の符号化方式に従って復号して表示部6に出力する。このとき、画像処理部5は、例えば、表示パネル6bの表示解像度等に基づいて所定サイズ(例えば、VGAやQVGAサイズ)に縮小して表示部6に出力しても良い。
When storing the image, the image processing unit 5 acquires the luminance signal Y and the color difference signals Cb and Cr from the memory 2 and uses a predetermined encoding method (for example, JPEG format, motion JPEG format, MPEG format, etc.). Encode and output to the storage unit 8.
When the image is reproduced and displayed, the image processing unit 5 decodes still image data or moving image image data read from the memory 2 or the storage unit 8 according to a predetermined encoding method. And output to the display unit 6. At this time, for example, the image processing unit 5 may reduce the image processing unit 5 to a predetermined size (for example, VGA or QVGA size) based on the display resolution of the display panel 6 b and output the reduced size to the display unit 6.

表示部6は、表示制御部6aと、表示パネル6bとを具備している。   The display unit 6 includes a display control unit 6a and a display panel 6b.

表示制御部6aは、メモリ2や記憶部8から読み出され画像処理部5により復号された所定サイズの画像データに基づいて、所定の画像を表示パネル6bの表示領域に表示させる制御を行う。具体的には、表示制御部6aは、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、画像処理部5により復号されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレートで読み出して、これらのデータを元にビデオ信号を発生して表示パネル6bに出力する。   The display control unit 6a performs control to display a predetermined image in the display area of the display panel 6b based on image data of a predetermined size read from the memory 2 or the storage unit 8 and decoded by the image processing unit 5. Specifically, the display control unit 6a includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. The digital video encoder reads out the luminance signal Y and the color difference signals Cb and Cr decoded by the image processing unit 5 and stored in the VRAM (not shown) from the VRAM through the VRAM controller at a predetermined reproduction frame rate. Based on these data, a video signal is generated and output to the display panel 6b.

表示パネル6bは、表示制御部6aからのビデオ信号に基づいて撮像部3により撮像された画像(例えば、第1顔画像P1(図3(a)参照)等)などを表示領域内に表示する。具体的には、表示パネル6bは、静止画の撮影モードや動画像の撮影モードにて、撮像部3による被写体の撮影により生成された複数のフレーム画像を所定のフレームレートで逐次更新しながらライブビュー画像を表示する。また、表示パネル6bは、記憶部8に記憶される被写体の静止画像(レックビュー画像)を表示したり、撮影中の被写体の動画像を表示する。
なお、表示パネル6bとしては、例えば、液晶表示パネルや有機EL(Electro-Luminescence)表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。
The display panel 6b displays an image (for example, the first face image P1 (see FIG. 3A), etc.) captured by the imaging unit 3 based on the video signal from the display control unit 6a in the display area. . Specifically, the display panel 6b performs live updating while sequentially updating a plurality of frame images generated by photographing an object by the imaging unit 3 in a still image shooting mode or a moving image shooting mode. Display the view image. Further, the display panel 6b displays a still image (rec view image) of the subject stored in the storage unit 8, or displays a moving image of the subject being shot.
Examples of the display panel 6b include a liquid crystal display panel and an organic EL (Electro-Luminescence) display panel. However, the display panel 6b is an example and is not limited thereto.

操作入力部7は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部7は、被写体の撮影指示に係るシャッタボタン、撮影モードや機能等の選択指示に係る選択決定ボタン、ズーム量の調整指示に係るズームボタン等(何れも図示略)の操作部を備えている。
そして、ユーザにより各種ボタンが操作されると、操作入力部7は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部7から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮影等)を各部に実行させる。
The operation input unit 7 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 7 includes a shutter button related to an instruction to shoot a subject, a selection determination button related to an instruction to select a shooting mode and a function, a zoom button related to an instruction to adjust the zoom amount, and the like (all not shown). The operation part is provided.
When various buttons are operated by the user, the operation input unit 7 outputs an operation instruction corresponding to the operated button to the central control unit 1. The central control unit 1 causes each unit to execute a predetermined operation (for example, photographing a subject) according to an operation instruction output from the operation input unit 7 and input.

また、操作入力部7は、表示部6の表示パネル6bと一体となって設けられたタッチパネル7aを有している。
タッチパネル7aは、表示パネル6bの表示領域をなす表示画面に直接的若しくは間接的に接触するタッチペンやユーザの指(手)等の接触位置を検出する。すなわち、タッチパネル7aは、例えば、表示画面上或いは当該表示画面よりも内側に設けられ、抵抗膜方式、超音波表面弾性波方式、静電容量方式等の各種方式により、表示画面上における接触位置のXY座標を検出する。そして、タッチパネル7aは、接触位置のXY座標に係る位置信号を中央制御部1や似顔絵処理部9に出力する。
具体的には、タッチパネル7aは、例えば、表示パネル6bに表示された第1似顔絵画像Q1内で、ユーザにより接触操作された接触位置のXY座標に係る位置信号を似顔絵処理部9に出力する。
The operation input unit 7 includes a touch panel 7 a provided integrally with the display panel 6 b of the display unit 6.
The touch panel 7a detects a contact position of a touch pen or a user's finger (hand) that directly or indirectly contacts a display screen forming the display area of the display panel 6b. That is, the touch panel 7a is provided, for example, on the display screen or inside the display screen, and the touch position of the touch position on the display screen by various methods such as a resistive film method, an ultrasonic surface acoustic wave method, and a capacitance method. XY coordinates are detected. Then, the touch panel 7 a outputs a position signal related to the XY coordinates of the contact position to the central control unit 1 and the portrait processing unit 9.
Specifically, for example, the touch panel 7a outputs a position signal related to the XY coordinates of the contact position touched by the user in the first portrait image Q1 displayed on the display panel 6b to the portrait processing unit 9.

なお、タッチパネル7aによる表示画面上における接触位置の検出精度は、適宜任意に変更可能であり、例えば、厳密に一の画素を接触位置としても良いし、一の画素を中心とする所定範囲内の複数の画素を接触位置としても良い。   Note that the detection accuracy of the contact position on the display screen by the touch panel 7a can be arbitrarily changed as appropriate. For example, one pixel may be strictly set as the contact position, or within a predetermined range centered on one pixel. A plurality of pixels may be used as the contact position.

記憶部8は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部5により所定の符号化方式で符号化された静止画像や動画像の記憶用の画像データを記憶する。   The storage unit 8 is configured by, for example, a non-volatile memory (flash memory) or the like, and stores still image and image data for storing moving images encoded by the image processing unit 5 using a predetermined encoding method.

また、記憶部8は、主要な顔構成部の部品画像8aを記憶している。
部品画像8aは、例えば、各似顔絵作者が描画した複数の似顔絵画像の各々から抽出された、例えば、目、鼻、口、眉、顔輪郭等の主要な顔構成部毎の複数の部品画像8a、…に係るデータである。また、複数の部品画像8aは、例えば、形状や大きさが類似するものどうしをグループ化し、各グループを代表する代表画像と対応付けられていても良い。
In addition, the storage unit 8 stores a component image 8a of a main face constituent unit.
For example, the component image 8a is extracted from each of a plurality of portrait images drawn by each portrait painter, for example, a plurality of component images 8a for each major face component such as eyes, nose, mouth, eyebrows, and face contour. ,... The plurality of component images 8a may be associated with, for example, representative images that represent groups that are similar in shape and size.

なお、記憶部8は、例えば、記憶媒体(図示略)が着脱自在に構成され、装着された記憶媒体からのデータの読み出しや記憶媒体に対するデータの書き込みを制御する構成であっても良い。   The storage unit 8 may be configured, for example, such that a storage medium (not shown) is detachable and controls reading of data from the mounted storage medium and writing of data to the storage medium.

似顔絵処理部9は、第1画像取得部9aと、似顔絵画像生成部9bと、顔構成部特定部9cと、第2画像取得部9dと、抽出部9eと、似顔絵画像修正部9fとを具備している。
なお、似顔絵処理部9の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The portrait processing unit 9 includes a first image acquisition unit 9a, a portrait image generation unit 9b, a face configuration unit specification unit 9c, a second image acquisition unit 9d, an extraction unit 9e, and a portrait image correction unit 9f. doing.
Each unit of the portrait processing unit 9 is configured by a predetermined logic circuit, for example, but the configuration is an example and the present invention is not limited thereto.

第1画像取得部9aは、似顔絵画像生成処理の処理対象の元画像として第1顔画像(第1の未処理顔画像)P1(図3(a)参照)を取得する。
すなわち、第1画像取得部9aは、例えば、撮像部3による被写体の顔の撮影の際に、画像データ生成部4により生成された静止画像(例えば、写真画像等)の画像データ(RGBデータやYUVデータ)の複製をメモリ2から取得したり、記憶部8に記憶されている静止画像の画像データの複製を第1顔画像P1として取得する。
The first image acquisition unit 9a acquires a first face image (first unprocessed face image) P1 (see FIG. 3A) as an original image to be processed in the portrait image generation process.
That is, for example, the first image acquisition unit 9a captures image data (RGB data, etc.) of a still image (for example, a photographic image) generated by the image data generation unit 4 when the imaging unit 3 captures the face of the subject. (YUV data) is acquired from the memory 2, or a copy of still image data stored in the storage unit 8 is acquired as the first face image P1.

なお、第1画像取得部9aは、動画像を構成する複数のフレーム画像の中から自動的に特定された一のフレーム画像、或いは、ユーザによる操作入力部7の所定操作に基づいて指定された一のフレーム画像を第1顔画像P1として取得しても良い。
また、後述する似顔絵処理部9による各処理は、第1顔画像P1の画像データ自体に対して行われても良いし、必要に応じて第1顔画像P1の画像データを所定の比率で縮小した所定サイズ(例えば、VGAサイズ等)の縮小画像データに対して行われても良い。
The first image acquisition unit 9a is specified based on one frame image automatically specified from a plurality of frame images constituting the moving image or a predetermined operation of the operation input unit 7 by the user. One frame image may be acquired as the first face image P1.
Further, each process by the portrait processing unit 9 to be described later may be performed on the image data itself of the first face image P1, and the image data of the first face image P1 is reduced at a predetermined ratio as necessary. It may be performed on reduced image data of a predetermined size (for example, VGA size).

似顔絵画像生成部9bは、元となる第1顔画像P1を似顔絵で表した第1似顔絵画像Q1(図3(b)参照)を生成する。
すなわち、似顔絵画像生成部9bは、第1顔画像P1に対して所定の画像処理を施して第1似顔絵画像(処理済み顔画像)Q1を生成する。
具体的には、似顔絵画像生成部9bは、第1画像取得部9aにより取得された第1顔画像P1の画像データに対して所定の顔検出処理を行って顔領域を検出し、例えば、AAM(Active Appearance Model)を用いた処理により、目、鼻、口、眉、顔輪郭等の主要な顔構成部を検出する。ここで、AAMとは、視覚的事象のモデル化の一手法であり、任意の顔領域の画像のモデル化を行う処理である。例えば、似顔絵画像生成部9bは、複数のサンプル顔画像における所定の特徴部位(例えば、目じりや鼻頭やフェイスライン等)の位置や画素値(例えば、輝度値)の統計的分析結果を所定の登録手段に登録しておく。そして、似顔絵画像生成部9bは、上記の特徴部位の位置を基準として、顔の形状を表す形状モデルや平均的な形状における「Appearance」を表すテクスチャーモデルを設定し、これらのモデルを用いて顔領域の画像をモデル化する。これにより、第1顔画像P1内で目、鼻、口、眉、顔輪郭等の顔構成部がモデル化される。
そして、似顔絵画像生成部9bは、記憶部8に記憶されている複数の部品画像8a、…の中で、検出された主要な顔構成部の各々に対応する部品画像8aを特定する。ここで、顔構成部に対応する部品画像8aの特定手法としては、以下の手法が挙げられる。すなわち、似顔絵画像生成部9bは、例えば、顔構成部と部品画像8aの各々に制御点を設定して、これら制御点間の距離が最小二乗法で最も小さくなるパラメータを算出し、算出されたパラメータでの制御点間の距離の総和を当該部品画像8aの評価値とする。似顔絵画像生成部9bは、算出された複数の部品画像8a、…の評価値を比較して、各顔構成部と最も合致する部品画像8aをそれぞれ特定する。
続けて、似顔絵画像生成部9bは、特定された各部品画像8aの制御点を各顔構成部の制御点に対応させるように部品画像8aを変形させ、所定の髪型画像と組み合わせて第1似顔絵画像Q1を生成する。
ここで、似顔絵画像生成部9bは、第1似顔絵画像Q1の所定の部分(例えば、目、口、眉等の顔構成部等)に所定の色を付けて表した画像を生成しても良い。
The portrait image generation unit 9b generates a first portrait image Q1 (see FIG. 3B) that represents the original first face image P1 as a portrait.
That is, the portrait image generation unit 9b performs predetermined image processing on the first face image P1 to generate a first portrait image (processed face image) Q1.
Specifically, the portrait image generation unit 9b performs a predetermined face detection process on the image data of the first face image P1 acquired by the first image acquisition unit 9a to detect a face area. For example, AAM Major face components such as eyes, nose, mouth, eyebrows, and face contour are detected by processing using (Active Appearance Model). Here, AAM is a technique for modeling a visual event, and is a process for modeling an image of an arbitrary face region. For example, the caricature image generation unit 9b performs predetermined registration of statistical analysis results of positions and pixel values (for example, luminance values) of predetermined characteristic parts (for example, eyes, nasal heads, face lines, etc.) in a plurality of sample face images. Register with the means. Then, the caricature image generation unit 9b sets a shape model representing the shape of the face and a texture model representing “Appearance” in the average shape with reference to the position of the feature part, and uses these models to Model the image of the region. As a result, the face components such as eyes, nose, mouth, eyebrows, and face contour are modeled in the first face image P1.
Then, the portrait image generation unit 9b specifies a component image 8a corresponding to each of the detected main face constituting units among the plurality of component images 8a, ... stored in the storage unit 8. Here, as a method for specifying the component image 8a corresponding to the face constituting unit, the following method may be mentioned. That is, for example, the caricature image generation unit 9b sets a control point for each of the face composing unit and the component image 8a, and calculates a parameter in which the distance between the control points is minimized by the least square method. The sum of the distances between the control points in the parameters is set as the evaluation value of the component image 8a. The portrait image generation unit 9b compares the calculated evaluation values of the plurality of component images 8a,... To identify the component image 8a that most closely matches each face component.
Subsequently, the portrait image generation unit 9b deforms the component image 8a so that the control point of each identified component image 8a corresponds to the control point of each face component, and combines the first portrait image with a predetermined hairstyle image. An image Q1 is generated.
Here, the portrait image generation unit 9b may generate an image represented by adding a predetermined color to a predetermined part of the first portrait image Q1 (for example, a face component such as an eye, a mouth, or an eyebrow). .

なお、顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。また、AAMを用いて顔構成部の検出を行うようにしたが、一例であってこれに限られるものではなく、例えば、エッジ抽出処理、非等方拡散処理、テンプレートマッチング等適宜任意に変更可能である。
また、上記した第1似顔絵画像Q1を生成する手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、各顔構成部に対応する部品画像8aを自動的に特定するようにしたが、一例であってこれに限られるものではなく、ユーザによる操作入力部7の所定操作に基づいて複数の部品画像8a、…の中からユーザ所望の部品画像8aを指定しても良い。さらに、部品画像8aを自動的に特定して似顔絵画像を生成する処理と、ユーザにより選択された部品画像8aを用いて似顔絵画像を生成する処理の両方を実行可能とし、これら二つの処理の中で、ユーザによる操作入力部7の所定操作に基づいて実行する処理を切り替えるようにしても良い。
Since the face detection process is a known technique, detailed description thereof is omitted here. In addition, detection of the face component using AAM is an example, but the present invention is not limited to this. For example, edge extraction processing, anisotropic diffusion processing, template matching, etc. can be arbitrarily changed. It is.
Further, the above-described method for generating the first portrait image Q1 is an example and is not limited to this, and can be arbitrarily changed as appropriate. For example, the component image 8a corresponding to each face component is automatically specified. However, this is only an example, and the present invention is not limited to this. A plurality of components based on a predetermined operation of the operation input unit 7 by the user. A part image 8a desired by the user may be designated from the images 8a,. Furthermore, both the process of automatically identifying the part image 8a and generating the portrait image and the process of generating the portrait image using the part image 8a selected by the user can be executed. Thus, the process to be executed may be switched based on a predetermined operation of the operation input unit 7 by the user.

顔構成部特定部(特定手段)9cは、第1顔画像P1を対象として画像処理が施された第1似顔絵画像Q1から、ユーザにより指定された顔構成部を特定する。
すなわち、顔構成部特定部9cは、表示制御部6aにより表示パネル6bの表示領域に表示された第1似顔絵画像Q1内で、ユーザによる操作入力部7の所定操作に基づいて指定された顔構成部(例えば、左目El等)を特定する(図3(c)参照)。具体的には、例えば、表示パネル6bに表示された第1似顔絵画像Q1内でユーザによるタッチパネル7aの接触操作に基づいて顔構成部が指定されると、顔構成部特定部9cは、接触操作された位置のXY座標に係る位置信号を取得して、第1似顔絵画像Q1内でユーザにより指定された顔構成部を特定する。
The face component specifying unit (specifying unit) 9c specifies the face component specified by the user from the first portrait image Q1 that has been subjected to image processing on the first face image P1.
In other words, the face component specifying unit 9c is configured based on a predetermined operation of the operation input unit 7 by the user in the first portrait image Q1 displayed in the display area of the display panel 6b by the display controller 6a. A part (for example, the left eye El) is specified (see FIG. 3C). Specifically, for example, when the face component is specified based on the touch operation of the touch panel 7a by the user in the first portrait image Q1 displayed on the display panel 6b, the face component specifying unit 9c A position signal related to the XY coordinates of the determined position is acquired, and the face constituting unit designated by the user in the first portrait image Q1 is specified.

ここで、顔構成部の指定は、例えば、顔構成部の中心付近の点を指定するような手法で行われても良いし、顔構成部の略全体を囲繞するような線で指定するような手法で行われても良い。
また、顔構成部の指定を、タッチパネル7aを用いて行うようにしたが、一例であってこれに限られるものではなく、操作入力部7の他のボタン、例えば、上下左右移動キーなどを用いて行っても良いし、装置本体に外部接続された選択用のデバイス(図示略)を用いて行っても良い。
Here, the designation of the face component may be performed by a method that designates a point near the center of the face component, for example, or may be designated by a line that surrounds substantially the entire face component. It may be performed by various methods.
In addition, although the face component is specified using the touch panel 7a, this is merely an example and the present invention is not limited to this. Other buttons of the operation input unit 7, such as up / down / left / right movement keys, are used. Alternatively, a selection device (not shown) externally connected to the apparatus main body may be used.

第2画像取得部9dは、第2顔画像(第2の未処理顔画像)P2を取得する。
すなわち、第2画像取得部(取得手段)9dは、顔構成部特定部9cにより特定された顔構成部(例えば、左目El等)が含まれる第2顔画像P2(図4(a)参照)を取得する。具体的には、顔構成部特定部9cにより顔構成部が特定されると、撮像部3により当該顔構成部が少なくとも含まれる静止画像の撮像が行われ、第2画像取得部9dは、画像データ生成部4により生成された静止画像の画像データ(RGBデータやYUVデータ)の複製を第2顔画像P2としてメモリ2から取得する。
なお、第2画像取得部9dは、例えば、記憶部8に記憶されている第1顔画像P1とは異なる静止画像の画像データの複製を第2顔画像P2として取得しても良い。また、第2顔画像P2は、顔構成部特定部9cにより特定された顔構成部が含まれていれば良く、例えば、顔構成部のみの画像であっても良いし、顔全体の画像であっても良い。
The second image acquisition unit 9d acquires a second face image (second unprocessed face image) P2.
That is, the second image acquisition unit (acquisition unit) 9d includes the second face image P2 including the face configuration unit (for example, the left eye El) specified by the face configuration unit specification unit 9c (see FIG. 4A). To get. Specifically, when the face component is specified by the face component specifying unit 9c, the imaging unit 3 captures a still image including at least the face component, and the second image acquisition unit 9d A copy of still image data (RGB data or YUV data) generated by the data generation unit 4 is acquired from the memory 2 as the second face image P2.
Note that the second image acquisition unit 9d may acquire, for example, a copy of still image data different from the first face image P1 stored in the storage unit 8 as the second face image P2. The second face image P2 only needs to include the face component specified by the face component specifying unit 9c. For example, the second face image P2 may be an image of only the face component or an image of the entire face. There may be.

抽出部9eは、顔構成部画像を抽出する。
すなわち、抽出部(抽出手段)9eは、第2顔画像P2から顔構成部特定部9cにより特定された顔構成部(例えば、左目El等)に対応する顔構成部画像を抽出する。具体的には、抽出部9eは、第2画像取得部9dにより取得された第2顔画像P2内で、例えば、AAMを用いた処理により各顔構成部を検出し、顔構成部特定部9cにより特定された顔構成部に対応する顔構成部画像を特定して抽出する。
The extraction unit 9e extracts a face component image.
That is, the extraction unit (extraction unit) 9e extracts a face component image corresponding to the face component (for example, the left eye El) specified by the face component specifying unit 9c from the second face image P2. Specifically, the extraction unit 9e detects each face component from the second face image P2 acquired by the second image acquisition unit 9d, for example, by processing using AAM, and the face component specifying unit 9c. The face constituent image corresponding to the face constituent specified by the above is specified and extracted.

似顔絵画像修正部9fは、第1似顔絵画像Q1内の顔構成部に対応する修正部分を修正する。
すなわち、似顔絵画像修正部(修正手段)9fは、第2画像取得部9dにより取得された第2顔画像P2内の顔構成部特定部9cにより特定された顔構成部(例えば、左目El等)に対応する顔構成部画像に基づいて、第1似顔絵画像Q1内の顔構成部に対応する修正部分を修正したり変更したりする。
具体的には、似顔絵画像修正部9fは、記憶部8に記憶されている複数の部品画像8a、…の中で、抽出部9eにより抽出された顔構成部画像に対応し、当該顔構成部画像を絵で表した部品画像8a(図4(b)参照)を特定して取得する。そして、似顔絵画像修正部9fは、第1似顔絵画像Q1の修正部分に含まれる部品画像8aを消去するとともに、当該部品画像8aの基準位置(例えば、中心位置等)に、特定された新たな部品画像8aの基準位置を重ね合わせるようにして、新たな部品画像8aに変更する。これにより、似顔絵画像修正部9fは、第1似顔絵画像Q1内の修正すべき顔構成部画像の形状や大きさ等を修正した第2似顔絵画像Q2(図4(c)参照)を生成する。
The portrait image correcting unit 9f corrects a correction portion corresponding to the face constituting unit in the first portrait image Q1.
That is, the portrait image correcting unit (correcting unit) 9f is a face composing unit (for example, the left eye El) specified by the face composing unit specifying unit 9c in the second face image P2 acquired by the second image acquiring unit 9d. Based on the face component image corresponding to, the correction portion corresponding to the face component in the first portrait image Q1 is corrected or changed.
Specifically, the portrait image correcting unit 9f corresponds to the face component image extracted by the extracting unit 9e among the plurality of component images 8a,. The component image 8a (see FIG. 4B) representing the image as a picture is specified and acquired. Then, the portrait image correcting unit 9f deletes the component image 8a included in the corrected portion of the first portrait image Q1, and also specifies a new component specified at the reference position (for example, the center position) of the component image 8a. The image 8a is changed to a new component image 8a so that the reference positions of the images 8a are overlapped. Thereby, the portrait image correcting unit 9f generates a second portrait image Q2 (see FIG. 4C) in which the shape and size of the face component image to be corrected in the first portrait image Q1 is corrected.

なお、顔構成部画像に対応する部品画像8aの特定手法は、上記した似顔絵画像生成部9bによる処理内容と略同様であり、詳細な説明は省略するが、大きさの異なる部品画像8aに変更する場合には、似顔絵画像修正部9fは、抽出部9eにより抽出された顔構成部画像及び当該顔構成部画像の大きさを表す情報に基づいて、第1似顔絵画像Q1内の顔構成部に対応する修正部分を修正する。
具体的には、似顔絵画像修正部9fは、顔構成部特定部9cにより第1似顔絵画像Q1内で特定された顔構成部の他の顔構成部(例えば、顔輪郭等)に対する相対的な大きさを表す情報を取得する。また、似顔絵画像修正部9fは、抽出部9eにより第2顔画像P2内から抽出された顔構成部画像に係る顔構成部の他の顔構成部(例えば、顔輪郭等)に対する相対的な大きさを表す情報を取得する。そして、似顔絵画像修正部9fは、取得された第1似顔絵画像Q1内での顔構成部の大きさを表す情報及び第2顔画像P2内での顔構成部画像の大きさを表す情報に基づいて、第1似顔絵画像Q1及び第2顔画像P2内の各顔構成部画像の大きさを正規化し、抽出部9eにより抽出された顔構成部画像の大きさに対応する大きさの部品画像8aを特定する。
Note that the method for specifying the component image 8a corresponding to the face component image is substantially the same as the processing content by the portrait image generator 9b described above, and detailed description is omitted, but the component image 8a is changed to a component image 8a having a different size. In the case of doing so, the portrait image correcting unit 9f applies the face component image in the first portrait image Q1 based on the face component image extracted by the extracting unit 9e and the information indicating the size of the face component image. Correct the corresponding correction part.
Specifically, the portrait image correcting unit 9f is relatively large with respect to other face components (for example, a face contour) specified by the face component specifying unit 9c in the first portrait image Q1. Get information that represents In addition, the portrait image correcting unit 9f is relatively large with respect to other face components (for example, a face contour) related to the face component related to the face component image extracted from the second face image P2 by the extracting unit 9e. Get information that represents Then, the portrait image correcting unit 9f is based on the acquired information indicating the size of the face component in the first portrait image Q1 and the information indicating the size of the face component image in the second face image P2. Then, the size of each face component image in the first portrait image Q1 and the second face image P2 is normalized, and the component image 8a having a size corresponding to the size of the face component image extracted by the extraction unit 9e. Is identified.

<似顔絵画像生成処理>
次に、撮像装置100による似顔絵画像生成処理について、図2〜図4を参照して説明する。
図2は、似顔絵画像生成処理に係る動作の一例を示すフローチャートである。また、図3(a)は、第1顔画像P1の一例を示し、図3(b)は、第1顔画像P1を似顔絵で表した第1似顔絵画像Q1の一例を示し、図3(c)は、表示パネル6bの表示領域に表示された第1似顔絵画像Q1の一例を示している。また、図4(a)は、第2顔画像P2の一例を示し、図4(b)は、顔構成部画像に対応する部品画像8aの一例を示し、図4(c)は、第2似顔絵画像Q2の一例を示している。
<Caricature image generation processing>
Next, a portrait image generation process performed by the imaging apparatus 100 will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the portrait image generation process. 3A shows an example of the first face image P1, FIG. 3B shows an example of the first portrait image Q1 representing the first face image P1 as a portrait, and FIG. ) Shows an example of the first portrait image Q1 displayed in the display area of the display panel 6b. 4A shows an example of the second face image P2, FIG. 4B shows an example of the component image 8a corresponding to the face component image, and FIG. 4C shows the second face image P2. An example of the portrait image Q2 is shown.

似顔絵画像生成処理は、ユーザによる操作入力部7の選択決定ボタンの所定操作に基づいて、メニュー画面に表示された複数の動作モードの中から似顔絵画像生成モードが選択指示された場合に、中央制御部1の制御下にて当該撮像装置100の各部、特に似顔絵処理部9により実行される処理である。   The portrait image generation processing is performed when the portrait image generation mode is selected from a plurality of operation modes displayed on the menu screen based on a predetermined operation of the selection determination button of the operation input unit 7 by the user. This process is executed by each unit of the imaging apparatus 100, particularly the portrait processing unit 9, under the control of the unit 1.

図2に示すように、先ず、撮像部3は、被写体のライブビュー画像を撮像する処理を開始して、表示制御部6aは、画像処理部5により生成された表示用の画像データに基づいて、ライブビュー画像を表示パネル6bに表示させる(ステップS1)。
その後、ユーザによる操作入力部7のシャッタボタンの所定操作に基づいて、撮像部3は、被写体を撮影し、画像データ生成部4は、被写体の静止画像の画像データを生成してメモリ2に出力する(ステップS2)。そして、第1画像取得部9aは、メモリ2から静止画像の画像データの複製を第1顔画像P1(図3(a)参照)として取得する(ステップS3)。
なお、第1顔画像P1の撮像は、所謂、自分撮りであっても良いし、ユーザ以外の第三者によりシャッタボタンが操作されても良い。
As shown in FIG. 2, first, the imaging unit 3 starts a process of capturing a live view image of a subject, and the display control unit 6 a is based on the display image data generated by the image processing unit 5. The live view image is displayed on the display panel 6b (step S1).
Thereafter, based on a predetermined operation of the shutter button of the operation input unit 7 by the user, the imaging unit 3 captures a subject, and the image data generation unit 4 generates image data of a still image of the subject and outputs it to the memory 2. (Step S2). Then, the first image acquisition unit 9a acquires a copy of the image data of the still image from the memory 2 as the first face image P1 (see FIG. 3A) (step S3).
The first face image P1 may be captured by so-called self-portrait, or the shutter button may be operated by a third party other than the user.

続けて、似顔絵画像生成部9bは、第1画像取得部9aにより取得された第1顔画像P1を元に第1似顔絵画像Q1(図3(b)参照)を生成する(ステップS4)。具体的には、似顔絵画像生成部9bは、先ず、第1顔画像P1の顔領域内で、例えば、AAMを用いた処理により、目、鼻、口、眉、顔輪郭等の主要な顔構成部を検出する。次に、似顔絵画像生成部9bは、記憶部8に記憶されている複数の部品画像8a、…の中で、検出された主要な顔構成部の各々に対応する部品画像8aを特定する。そして、似顔絵画像生成部9bは、特定された各部品画像8aを各顔構成部に対応させるように変形させ、所定の髪型画像と組み合わせて第1似顔絵画像Q1を生成する。
その後、表示制御部6aは、似顔絵画像生成部9bにより生成された第1似顔絵画像Q1の画像データに基づいて表示パネル6bの表示領域に当該第1似顔絵画像Q1を表示させる(ステップS5;図3(c)参照)。
Subsequently, the portrait image generation unit 9b generates a first portrait image Q1 (see FIG. 3B) based on the first face image P1 acquired by the first image acquisition unit 9a (step S4). Specifically, the caricature image generation unit 9b first performs main face composition such as eyes, nose, mouth, eyebrows, and face contour in the face area of the first face image P1, for example, by processing using AAM. Part. Next, the portrait image generating unit 9b specifies a component image 8a corresponding to each of the detected main face constituting units among the plurality of component images 8a stored in the storage unit 8. Then, the portrait image generating unit 9b deforms the identified component images 8a so as to correspond to the respective face constituting units, and generates a first portrait image Q1 in combination with a predetermined hairstyle image.
Thereafter, the display control unit 6a displays the first portrait image Q1 in the display area of the display panel 6b based on the image data of the first portrait image Q1 generated by the portrait image generation unit 9b (step S5; FIG. 3). (See (c)).

次に、操作入力部7は、表示パネル6bに表示された第1似顔絵画像Q1内でユーザによるタッチパネル7aの接触操作が行われたか否かを判定する(ステップS6)。
ここで、ユーザによるタッチパネル7aの接触操作が行われていないと判定されると(ステップS6;NO)、中央制御部1のCPUは、当該似顔絵画像生成処理を終了させる。
Next, the operation input unit 7 determines whether or not the user has performed a touch operation on the touch panel 7a in the first portrait image Q1 displayed on the display panel 6b (step S6).
If it is determined that the touch operation on the touch panel 7a is not performed by the user (step S6; NO), the CPU of the central control unit 1 ends the portrait image generation process.

一方、ステップS6にて、ユーザによるタッチパネル7aの接触操作が行われたと判定されると(ステップS6;YES)、顔構成部特定部9cは、タッチパネル7aの接触操作された位置のXY座標に係る位置信号を取得して、第1似顔絵画像Q1内でユーザにより指定された顔構成部(例えば、左目El等)を特定する(ステップS7;図3(c)参照)。
その後、中央制御部1のCPUは、動作モードを静止画像の撮影モードに設定し、ユーザによる操作入力部7のシャッタボタンの所定操作に基づいて、撮像部3は、顔構成部特定部9cにより特定された顔構成部が少なくとも含まれる構図で被写体を再び撮影し、画像データ生成部4は、被写体の静止画像の画像データを生成してメモリ2に出力する(ステップS8)。そして、第2画像取得部9dは、メモリ2から静止画像の画像データの複製を第2顔画像P2(図4(a)参照)として取得する(ステップS9)。
ここで、第2顔画像P2の撮像に際して、表示パネル6bは、ライブビュー画像を表示するようになっており、後述するように修正すべき顔構成部の表情等を確認しながら、所謂、自分撮りを行うことができる。また、表示制御部6aは、修正すべき顔構成部が含まれる部分を拡大した画像を表示パネル6bに表示させても良い。
On the other hand, when it is determined in step S6 that the touch operation on the touch panel 7a by the user has been performed (step S6; YES), the face constituting unit specifying unit 9c relates to the XY coordinates of the touched position on the touch panel 7a. A position signal is acquired, and the face constituent part (for example, left eye El etc.) designated by the user in the first portrait image Q1 is specified (step S7; see FIG. 3C).
Thereafter, the CPU of the central control unit 1 sets the operation mode to the still image shooting mode, and based on a predetermined operation of the shutter button of the operation input unit 7 by the user, the image pickup unit 3 is operated by the face component specifying unit 9c. The subject is photographed again with a composition including at least the identified face component, and the image data generation unit 4 generates image data of a still image of the subject and outputs it to the memory 2 (step S8). Then, the second image acquisition unit 9d acquires a copy of the image data of the still image from the memory 2 as the second face image P2 (see FIG. 4A) (step S9).
Here, when the second face image P2 is captured, the display panel 6b displays a live view image. While confirming the facial expression of the face component to be corrected as described later, so-called self-viewing is performed. You can take a picture. Further, the display control unit 6a may display on the display panel 6b an image obtained by enlarging a part including the face component to be corrected.

次に、抽出部9eは、第2画像取得部9dにより取得された第2顔画像P2の顔領域内で、例えば、AAMを用いた処理により各顔構成部を検出し、顔構成部特定部9cにより特定された顔構成部に対応する顔構成部画像を特定して抽出する(ステップS10)。
続けて、似顔絵画像修正部9fは、記憶部8に記憶されている複数の部品画像8a、…の中で、抽出部9eにより抽出された顔構成部画像に対応する部品画像8a(図4(b)参照)を特定して取得する(ステップS11)。そして、似顔絵画像修正部9fは、第1似顔絵画像Q1内の顔構成部特定部9cにより特定された顔構成部(例えば、左目El等)に対応する修正部分を、特定された新たな部品画像8aに変更して、第1似顔絵画像Q1内の修正すべき顔構成部画像の形状や大きさ等を修正した第2似顔絵画像Q2を生成する(ステップS12;図4(c)参照)。
Next, the extracting unit 9e detects each face constituent unit in the face area of the second face image P2 acquired by the second image acquiring unit 9d, for example, by processing using AAM, and a face constituent unit specifying unit A face constituent image corresponding to the face constituent specified by 9c is specified and extracted (step S10).
Subsequently, the portrait image correcting unit 9f selects a component image 8a corresponding to the face component image extracted by the extracting unit 9e among the plurality of component images 8a stored in the storage unit 8 (FIG. 4 ( b) See) is specified and acquired (step S11). Then, the portrait image correcting unit 9f specifies the corrected part corresponding to the face component (for example, the left eye El) specified by the face component specifying unit 9c in the first portrait image Q1 and identifies the new component image. 8a is generated, and a second portrait image Q2 in which the shape and size of the face component image to be corrected in the first portrait image Q1 is corrected is generated (step S12; see FIG. 4C).

その後、表示制御部6aは、似顔絵画像修正部9fにより生成された第2似顔絵画像Q2の画像データに基づいて表示パネル6bの表示領域に当該第2似顔絵画像Q2を表示させる(ステップS13)。
このとき、表示制御部6aは、第2似顔絵画像Q2の他に、第1似顔絵画像Q1を表示パネル6bに表示させても良く、これにより、ユーザは、修正前の第1似顔絵画像Q1と修正後の第2似顔絵画像Q2とを比較することができる。
Thereafter, the display control unit 6a displays the second portrait image Q2 in the display area of the display panel 6b based on the image data of the second portrait image Q2 generated by the portrait image correction unit 9f (step S13).
At this time, the display control unit 6a may display the first portrait image Q1 on the display panel 6b in addition to the second portrait image Q2, thereby allowing the user to correct the first portrait image Q1 before correction. The subsequent second portrait image Q2 can be compared.

次に、操作入力部7は、表示パネル6bに表示された第2似顔絵画像Q2内でユーザによるタッチパネル7aの接触操作が行われたか否かを判定する(ステップS14)。
ここで、ユーザによるタッチパネル7aの接触操作が行われたと判定されると(ステップS14;YES)、似顔絵処理部9は、処理をステップS7に戻し、それ以降の各処理を実行する。すなわち、第2似顔絵画像Q2内で修正済みの顔構成部(例えば、左目El等)の再修正や、他の顔構成部(例えば、口等)の修正等を行うことができる。
なお、複数の顔構成部(例えば、左目Elと口等)の修正を行う場合、似顔絵画像修正部9fは、これら複数の顔構成部の何れか一、或いは、全てを修正した場合の全ての組み合わせに対応する複数の第2似顔絵画像Q2、…を生成し、表示制御部6aは、複数の第2似顔絵画像Q2、…の全てを表示パネル6bに表示させても良い。これにより、ユーザは、複数の第2似顔絵画像Q2、…を比較する(見比べる)ことができ、より良い修正内容の第2似顔絵画像Q2を選択可能となる。
Next, the operation input unit 7 determines whether or not the user has performed a touch operation on the touch panel 7a in the second portrait image Q2 displayed on the display panel 6b (step S14).
Here, if it is determined that the touch operation of the touch panel 7a by the user has been performed (step S14; YES), the portrait processing unit 9 returns the process to step S7, and executes the subsequent processes. That is, it is possible to recorrect a face component (for example, the left eye El) that has been corrected in the second portrait image Q2 or to correct another face component (for example, the mouth).
When correcting a plurality of face constituent parts (for example, the left eye El and the mouth), the portrait image correcting part 9f selects all or one of the plurality of face constituent parts when all the face constituent parts are corrected. A plurality of second portrait images Q2,... Corresponding to the combinations may be generated, and the display control unit 6a may cause the display panel 6b to display all of the plurality of second portrait images Q2,. Accordingly, the user can compare (view) a plurality of second portrait images Q2,..., And can select the second portrait image Q2 having better correction contents.

一方、ステップS14にて、ユーザによるタッチパネル7aの接触操作が行われていないと判定されると(ステップS14;NO)、中央制御部1のCPUは、当該似顔絵画像生成処理を終了させる。   On the other hand, when it is determined in step S14 that the user has not performed the touch operation on the touch panel 7a (step S14; NO), the CPU of the central control unit 1 ends the portrait image generation process.

以上のように、本実施形態の撮像装置100によれば、第1似顔絵画像(処理済み顔画像)Q1内でユーザにより指定された顔構成部が含まれる第2顔画像P2を取得し、取得された第2顔画像P2における顔構成部に対応する顔構成部画像に基づいて、第1似顔絵画像Q1内の顔構成部に対応する修正部分を修正するので、第1顔画像P1から生成された第1似顔絵画像Q1内の一部の顔構成部が気に入らない場合に第1似顔絵画像Q1内の修正すべき顔構成部に対応する部分のみを修正することができ、例えば、新たに顔画像全体を取得して似顔絵画像を生成したり、修正したい顔構成部に対応する部品画像8aをユーザが手動で選択したりする必要がなくなり、処理済み顔画像の一部分の顔構成部の修正を簡便に行うことができる。
特に、表示パネル6bの表示領域に第1似顔絵画像Q1を表示し、ユーザによる操作入力部7の所定操作に基づいて修正すべき顔構成部が指定されるだけで良いため、第1似顔絵画像Q1の一部分の顔構成部の修正をより簡便に行うことができる。
As described above, according to the imaging apparatus 100 of the present embodiment, the second facial image P2 including the facial component designated by the user in the first portrait image (processed facial image) Q1 is obtained and obtained. The correction portion corresponding to the face component in the first portrait image Q1 is corrected based on the face component image corresponding to the face component in the second face image P2 thus generated, and thus generated from the first face image P1. When a part of the face composition part in the first portrait image Q1 is not liked, only the part corresponding to the face composition part to be corrected in the first portrait image Q1 can be corrected, for example, a new face image It is not necessary to acquire the entire image to generate a portrait image or to manually select a component image 8a corresponding to the face component to be corrected, and to easily correct a part of the face component of the processed face image Can be done.
In particular, the first portrait image Q1 is displayed because the first portrait image Q1 is displayed in the display area of the display panel 6b, and the face component to be corrected is specified based on a predetermined operation of the operation input unit 7 by the user. It is possible to more easily correct a part of the face constituting part.

また、撮像部3により撮像された修正すべき顔構成部が含まれる第2顔画像P2から顔構成部に対応する顔構成部画像を抽出し、抽出された顔構成部画像に基づいて、第1似顔絵画像Q1内の顔構成部に対応する修正部分を修正することができる。具体的には、抽出された顔構成部画像に対応する部品画像8aを取得し、第1似顔絵画像Q1内の顔構成部に対応する修正部分を取得された部品画像8aに変更して、第1似顔絵画像Q1内の修正すべき顔構成部画像の形状や大きさ等を修正した第2似顔絵画像Q2を生成することができる。
このとき、抽出された顔構成部画像及び当該顔構成部画像の大きさを表す情報に基づいて、第1似顔絵画像Q1内の顔構成部に対応する修正部分を修正するので、第2顔画像P2から抽出された修正すべき顔構成部に対応する顔構成部画像を用いる場合に、当該顔構成部画像の大きさを考慮して対応する部品画像8aを取得することができる。そして、第1似顔絵画像Q1内の顔構成部に対応する修正部分を大きさを考慮して取得された部品画像8aに変更することで、第1似顔絵画像Q1内の修正すべき顔構成部画像の大きさの修正を適正に行うことができる。
Further, a face component image corresponding to the face component is extracted from the second face image P2 including the face component to be corrected, which is captured by the imaging unit 3, and based on the extracted face component image, the second face image P2 is extracted. The correction part corresponding to the face constituent part in the one portrait image Q1 can be corrected. Specifically, the component image 8a corresponding to the extracted face component image is acquired, the modified portion corresponding to the face component in the first portrait image Q1 is changed to the acquired component image 8a, and the first It is possible to generate a second portrait image Q2 in which the shape and size of the face component image to be corrected in the first portrait image Q1 is corrected.
At this time, since the correction portion corresponding to the face component in the first portrait image Q1 is corrected based on the extracted face component image and information indicating the size of the face component image, the second face image When the face component image corresponding to the face component to be corrected extracted from P2 is used, the corresponding component image 8a can be acquired in consideration of the size of the face component image. Then, the face component image to be corrected in the first portrait image Q1 is changed by changing the corrected portion corresponding to the face component in the first portrait image Q1 to the component image 8a acquired in consideration of the size. Can be appropriately corrected.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態にあっては、第1似顔絵画像Q1と同一の被写体を撮影した第2顔画像を用いるようにしたが、一例であってこれに限られるものではなく、異なる被写体を撮影した顔画像を用いて、複数のヒトの顔構成部を組み合わせた顔画像を生成するようにしても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above embodiment, the second facial image obtained by photographing the same subject as the first portrait image Q1 is used. However, the second facial image is not limited to this example, and a different subject is photographed. You may make it produce | generate the face image which combined the some human face structure part using the face image.

また、上記実施形態にあっては、第1似顔絵画像Q1内でユーザにより指定された顔構成部を特定するようにしたが、これに限られるものではなく、元画像の第1顔画像P1内でユーザにより指定された顔構成部を特定するようにしても良い。第1似顔絵画像Q1において、修正したい顔構成部がある場合、修正したい顔構成部の指定は、第1似顔絵画像Q1内であっても、元画像の第1顔画像P1内であっても良い。   In the above embodiment, the face component designated by the user in the first portrait image Q1 is specified. However, the present invention is not limited to this. In the first face image P1 of the original image The face component designated by the user may be specified. When there is a face component to be corrected in the first portrait image Q1, the designation of the face component to be corrected may be in the first portrait image Q1 or in the first face image P1 of the original image. .

さらに、上記実施形態にあっては、第1似顔絵画像Q1や第2似顔絵画像Q2を生成するようにしたが、必ずしも第1似顔絵画像Q1や第2似顔絵画像Q2を生成する必要はなく、似顔絵画像生成部9bや似顔絵画像修正部9fを具備するか否かは適宜任意に変更可能である。   Furthermore, in the above embodiment, the first portrait image Q1 and the second portrait image Q2 are generated. However, it is not always necessary to generate the first portrait image Q1 and the second portrait image Q2, and the portrait image. Whether or not to include the generation unit 9b and the portrait image correction unit 9f can be arbitrarily changed as appropriate.

また、上記実施形態にあっては、処理済み顔画像として、第1似顔絵画像Q1や第2似顔絵画像Q2を例示したが、一例であってこれに限られるものではなく、例えば、二値化処理した画像やエッジ抽出処理した画像等適宜任意に変更可能である。   Moreover, in the said embodiment, although 1st portrait image Q1 and 2nd portrait image Q2 were illustrated as a processed face image, it is an example and it is not restricted to this, For example, binarization processing The image that has been processed and the image that has been subjected to the edge extraction processing can be arbitrarily changed.

さらに、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。また、画像処理装置として、撮像装置100を例示したが、これに限られるものではなく、本発明に係る画像処理を実行可能なものであれば如何なる構成であっても良い。   Furthermore, the configuration of the imaging apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto. Further, the imaging apparatus 100 has been exemplified as the image processing apparatus, but the present invention is not limited to this, and any configuration may be used as long as the image processing according to the present invention can be executed.

加えて、上記実施形態にあっては、特定手段、取得手段、修正手段としての機能を、中央制御部1のCPUの制御下にて、顔構成部特定部9c、第2画像取得部9d、似顔絵画像修正部9fが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
すなわち、プログラムを記憶するプログラムメモリ(図示略)に、特定処理ルーチン、取得処理ルーチン、修正処理ルーチンを含むプログラムを記憶しておく。そして、特定処理ルーチンにより中央制御部1のCPUを、第1の未処理顔画像(第1顔画像P1)を対象として画像処理が施された処理済顔画像(第1似顔絵画像Q1)及び第1の未処理顔画像の何れか一方から、ユーザにより指定された顔構成部を特定する手段として機能させるようにしても良い。また、取得処理ルーチンにより中央制御部1のCPUを、特定された顔構成部が含まれる第2の未処理顔画像(第2顔画像P2)を取得する手段として機能させるようにしても良い。また、修正処理ルーチンにより中央制御部1のCPUを、取得された第2の未処理顔画像における顔構成部に対応する顔構成部画像に基づいて、処理済み顔画像内の顔構成部を修正する手段として機能させるようにしても良い。
In addition, in the above-described embodiment, the functions as the specifying unit, the acquiring unit, and the correcting unit are controlled under the control of the CPU of the central control unit 1 by the face configuration unit specifying unit 9c, the second image acquiring unit 9d, Although the configuration realized by driving the portrait image correcting unit 9f is not limited thereto, the configuration may be realized by executing a predetermined program or the like by the CPU of the central control unit 1. .
That is, a program including a specific process routine, an acquisition process routine, and a correction process routine is stored in a program memory (not shown) that stores the program. Then, the CPU of the central control unit 1 uses the specific processing routine to process the processed face image (first portrait image Q1) subjected to image processing on the first unprocessed face image (first face image P1) and the first. You may make it function as a means to identify the face structure part designated by the user from any one of 1 unprocessed face images. Further, the CPU of the central control unit 1 may function as a means for acquiring a second unprocessed face image (second face image P2) including the specified face component by an acquisition process routine. Further, the CPU of the central control unit 1 corrects the face component in the processed face image based on the face component image corresponding to the face component in the acquired second unprocessed face image by the correction processing routine. You may make it function as a means to do.

同様に、抽出手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, the extraction means may be configured to be realized by executing a predetermined program or the like by the CPU of the central control unit 1.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
第1の未処理顔画像を対象として画像処理が施された処理済み顔画像及び前記第1の未処理顔画像の何れか一方から、ユーザにより指定された顔構成部を特定する特定手段と、
前記特定手段により特定された前記顔構成部が含まれる第2の未処理顔画像を取得する取得手段と、
前記取得手段により取得された前記第2の未処理顔画像における前記顔構成部に対応する顔構成部画像に基づいて、前記処理済み顔画像内の前記顔構成部を修正する修正手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記第2の未処理顔画像から前記顔構成部に対応する顔構成部画像を抽出する抽出手段を更に備え、
前記修正手段は、前記抽出手段により抽出された顔構成部画像に基づいて、前記処理済み顔画像内の前記顔構成部を修正することを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記修正手段は、前記抽出手段により抽出された顔構成部画像に対応する部品画像を取得し、前記処理済み顔画像内の前記顔構成部を前記部品画像に変更することを特徴とする請求項2に記載の画像処理装置。
<請求項4>
前記部品画像は、前記顔構成部画像を絵で表わした画像であることを特徴とする請求項3に記載の画像処理装置。
<請求項5>
前記処理済み顔画像は、前記第1の未処理顔画像を似顔絵で表した画像であることを特徴とする請求項1〜4の何れか一項に記載の画像処理装置。
<請求項6>
前記第1の未処理顔画像及び前記第2の未処理顔画像は、同一の被写体の顔画像であることを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。
<請求項7>
画像処理装置を用いた画像処理方法であって、
第1の未処理顔画像を対象として画像処理が施された処理済み顔画像及び前記第1の未処理顔画像の何れか一方から、ユーザにより指定された顔構成部を特定するステップと、
特定された前記顔構成部が含まれる第2の未処理顔画像を取得するステップと、
取得された前記第2の未処理顔画像における前記顔構成部に対応する顔構成部画像に基づいて、前記処理済み顔画像内の前記顔構成部を修正するステップと、
を含むことを特徴とする画像処理方法。
<請求項8>
画像処理装置のコンピュータを、
第1の未処理顔画像を対象として画像処理が施された処理済み顔画像及び前記第1の未処理顔画像の何れか一方から、ユーザにより指定された顔構成部を特定する特定手段、
前記特定手段により特定された前記顔構成部が含まれる第2の未処理顔画像を取得する取得手段、
前記取得手段により取得された前記第2の未処理顔画像における前記顔構成部に対応する顔構成部画像に基づいて、前記処理済み顔画像内の前記顔構成部を修正する修正手段、
として機能させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
A specifying means for specifying a face component designated by a user from either one of the processed face image subjected to image processing for the first unprocessed face image and the first unprocessed face image;
Obtaining means for obtaining a second unprocessed face image including the face constituting unit identified by the identifying means;
Correcting means for correcting the face constituent part in the processed face image based on a face constituent part image corresponding to the face constituent part in the second unprocessed face image acquired by the acquiring means;
An image processing apparatus comprising:
<Claim 2>
An extraction means for extracting a face component image corresponding to the face component from the second unprocessed face image;
The image processing apparatus according to claim 1, wherein the correcting unit corrects the face constituent unit in the processed face image based on the face constituent unit image extracted by the extracting unit.
<Claim 3>
The correction unit acquires a component image corresponding to the face component image extracted by the extraction unit, and changes the face component in the processed face image to the component image. 2. The image processing apparatus according to 2.
<Claim 4>
The image processing apparatus according to claim 3, wherein the component image is an image representing the face component image as a picture.
<Claim 5>
The image processing apparatus according to claim 1, wherein the processed face image is an image of the first unprocessed face image represented by a portrait.
<Claim 6>
The image processing apparatus according to claim 1, wherein the first unprocessed face image and the second unprocessed face image are face images of the same subject.
<Claim 7>
An image processing method using an image processing apparatus,
Identifying a face component designated by the user from either one of the processed face image subjected to image processing on the first unprocessed face image and the first unprocessed face image;
Obtaining a second unprocessed face image including the identified face component;
Correcting the face component in the processed face image based on a face component image corresponding to the face component in the acquired second unprocessed face image;
An image processing method comprising:
<Claim 8>
The computer of the image processing device
A specifying means for specifying a face component designated by a user from either one of the processed face image subjected to image processing for the first unprocessed face image and the first unprocessed face image;
Obtaining means for obtaining a second unprocessed face image including the face constituting part specified by the specifying means;
Correcting means for correcting the face constituent part in the processed face image based on a face constituent part image corresponding to the face constituent part in the second unprocessed face image acquired by the acquiring means;
A program characterized by functioning as

100 撮像装置
1 中央制御部
3 撮像部
6 表示部
6a 表示制御部
6b 表示パネル
7 操作入力部
7a タッチパネル
8 記憶部
8a 部品画像
9 似顔絵処理部
9a 第1画像取得部
9b 似顔絵画像生成部
9c 顔構成部特定部
9d 第2画像取得部
9e 抽出部
9f 似顔絵画像修正部
P1 第1顔画像
P2 第2顔画像
Q1 第1似顔絵画像
Q2 第2似顔絵画像
DESCRIPTION OF SYMBOLS 100 Imaging device 1 Central control part 3 Imaging part 6 Display part 6a Display control part 6b Display panel 7 Operation input part 7a Touch panel 8 Storage part 8a Component image 9 Caricature processing part 9a 1st image acquisition part 9b Caricature image generation part 9c Face structure Part specifying part 9d Second image acquisition part 9e Extraction part 9f Caricature image correction part P1 First face image P2 Second face image Q1 First caricature image Q2 Second caricature image

Claims (8)

第1の未処理顔画像を対象として画像処理が施された処理済み顔画像及び前記第1の未処理顔画像の何れか一方から、ユーザにより指定された顔構成部を特定する特定手段と、
前記特定手段により特定された前記顔構成部が含まれる第2の未処理顔画像を取得する取得手段と、
前記取得手段により取得された前記第2の未処理顔画像における前記顔構成部に対応する顔構成部画像に基づいて、前記処理済み顔画像内の前記顔構成部を修正する修正手段と、
を備えたことを特徴とする画像処理装置。
A specifying means for specifying a face component designated by a user from either one of the processed face image subjected to image processing for the first unprocessed face image and the first unprocessed face image;
Obtaining means for obtaining a second unprocessed face image including the face constituting unit identified by the identifying means;
Correcting means for correcting the face constituent part in the processed face image based on a face constituent part image corresponding to the face constituent part in the second unprocessed face image acquired by the acquiring means;
An image processing apparatus comprising:
前記第2の未処理顔画像から前記顔構成部に対応する顔構成部画像を抽出する抽出手段を更に備え、
前記修正手段は、前記抽出手段により抽出された顔構成部画像に基づいて、前記処理済み顔画像内の前記顔構成部を修正することを特徴とする請求項1に記載の画像処理装置。
An extraction means for extracting a face component image corresponding to the face component from the second unprocessed face image;
The image processing apparatus according to claim 1, wherein the correcting unit corrects the face constituent unit in the processed face image based on the face constituent unit image extracted by the extracting unit.
前記修正手段は、前記抽出手段により抽出された顔構成部画像に対応する部品画像を取得し、前記処理済み顔画像内の前記顔構成部を前記部品画像に変更することを特徴とする請求項2に記載の画像処理装置。   The correction unit acquires a component image corresponding to the face component image extracted by the extraction unit, and changes the face component in the processed face image to the component image. 2. The image processing apparatus according to 2. 前記部品画像は、前記顔構成部画像を絵で表わした画像であることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the component image is an image representing the face component image as a picture. 前記処理済み顔画像は、前記第1の未処理顔画像を似顔絵で表した画像であることを特徴とする請求項1〜4の何れか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the processed face image is an image of the first unprocessed face image represented by a portrait. 前記第1の未処理顔画像及び前記第2の未処理顔画像は、同一の被写体の顔画像であることを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first unprocessed face image and the second unprocessed face image are face images of the same subject. 画像処理装置を用いた画像処理方法であって、
第1の未処理顔画像を対象として画像処理が施された処理済み顔画像及び前記第1の未処理顔画像の何れか一方から、ユーザにより指定された顔構成部を特定するステップと、
特定された前記顔構成部が含まれる第2の未処理顔画像を取得するステップと、
取得された前記第2の未処理顔画像における前記顔構成部に対応する顔構成部画像に基づいて、前記処理済み顔画像内の前記顔構成部を修正するステップと、
を含むことを特徴とする画像処理方法。
An image processing method using an image processing apparatus,
Identifying a face component designated by the user from either one of the processed face image subjected to image processing on the first unprocessed face image and the first unprocessed face image;
Obtaining a second unprocessed face image including the identified face component;
Correcting the face component in the processed face image based on a face component image corresponding to the face component in the acquired second unprocessed face image;
An image processing method comprising:
画像処理装置のコンピュータを、
第1の未処理顔画像を対象として画像処理が施された処理済み顔画像及び前記第1の未処理顔画像の何れか一方から、ユーザにより指定された顔構成部を特定する特定手段、
前記特定手段により特定された前記顔構成部が含まれる第2の未処理顔画像を取得する取得手段、
前記取得手段により取得された前記第2の未処理顔画像における前記顔構成部に対応する顔構成部画像に基づいて、前記処理済み顔画像内の前記顔構成部を修正する修正手段、
として機能させることを特徴とするプログラム。
The computer of the image processing device
A specifying means for specifying a face component designated by a user from either one of the processed face image subjected to image processing for the first unprocessed face image and the first unprocessed face image;
Obtaining means for obtaining a second unprocessed face image including the face constituting part specified by the specifying means;
Correcting means for correcting the face constituent part in the processed face image based on a face constituent part image corresponding to the face constituent part in the second unprocessed face image acquired by the acquiring means;
A program characterized by functioning as
JP2015179271A 2015-09-11 2015-09-11 Image processing apparatus, image processing method, and program Active JP6668646B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015179271A JP6668646B2 (en) 2015-09-11 2015-09-11 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015179271A JP6668646B2 (en) 2015-09-11 2015-09-11 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2017054406A true JP2017054406A (en) 2017-03-16
JP6668646B2 JP6668646B2 (en) 2020-03-18

Family

ID=58316754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015179271A Active JP6668646B2 (en) 2015-09-11 2015-09-11 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6668646B2 (en)

Also Published As

Publication number Publication date
JP6668646B2 (en) 2020-03-18

Similar Documents

Publication Publication Date Title
JP5880182B2 (en) Image generating apparatus, image generating method, and program
JP6961797B2 (en) Methods and devices for blurring preview photos and storage media
WO2018176925A1 (en) Hdr image generation method and apparatus
US9135726B2 (en) Image generation apparatus, image generation method, and recording medium
JP2006319870A (en) Photographic device, method and program
JP5110098B2 (en) Display processing apparatus and program
US9437026B2 (en) Image creating device, image creating method and recording medium
US20140233858A1 (en) Image creating device, image creating method and recording medium storing program
EP4072121A1 (en) Photographing method and apparatus, storage medium, and electronic device
US8971636B2 (en) Image creating device, image creating method and recording medium
US9600735B2 (en) Image processing device, image processing method, program recording medium
JP6668646B2 (en) Image processing apparatus, image processing method, and program
JP2006128793A (en) Image pickup device and control method thereof
JP2014174855A (en) Image processor, image processing method and program
JP2020191546A (en) Image processing apparatus, image processing method, and program
JP6260094B2 (en) Image processing apparatus, image processing method, and program
JP6476811B2 (en) Image generating apparatus, image generating method, and program
JP6606935B2 (en) Image processing apparatus, image processing method, and program
JP6354118B2 (en) Image processing apparatus, image processing method, and program
JP2017021393A (en) Image generator, image generation method, and program
JP5927972B2 (en) Image generating apparatus, image generating method, and program
JP6142604B2 (en) Image processing apparatus, image processing method, and program
JP2014186404A (en) Image processing apparatus, image processing method, and program
JP2014182722A (en) Image processing device, image processing method, and program
JP2014048767A (en) Image generating device, image generating method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200210

R150 Certificate of patent or registration of utility model

Ref document number: 6668646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150