JP6606935B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6606935B2
JP6606935B2 JP2015180314A JP2015180314A JP6606935B2 JP 6606935 B2 JP6606935 B2 JP 6606935B2 JP 2015180314 A JP2015180314 A JP 2015180314A JP 2015180314 A JP2015180314 A JP 2015180314A JP 6606935 B2 JP6606935 B2 JP 6606935B2
Authority
JP
Japan
Prior art keywords
image
background
face
portrait
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015180314A
Other languages
Japanese (ja)
Other versions
JP2017058708A (en
Inventor
克典 石井
敬輔 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015180314A priority Critical patent/JP6606935B2/en
Publication of JP2017058708A publication Critical patent/JP2017058708A/en
Application granted granted Critical
Publication of JP6606935B2 publication Critical patent/JP6606935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、目、鼻、口、耳、顔輪郭等の顔部品の特徴点を用いて似顔絵を作成する似顔絵作成装置が知られている(例えば、特許文献1参照)。また、各部位ごとに予め用意されているパーツオブジェクトを組み合わせてキャラクタを作成するゲーム装置が知られている(例えば、特許文献2参照)。   2. Description of the Related Art Conventionally, there is known a portrait creation device that creates a portrait using feature points of facial parts such as eyes, nose, mouth, ears, and face contour (see, for example, Patent Document 1). There is also known a game device that creates a character by combining part objects prepared in advance for each part (see, for example, Patent Document 2).

特開2004−145625号公報JP 2004-145625 A 特開2008−61896号公報JP 2008-61896 A

ところで、似顔絵画像を自動的に生成する場合、背景については色や模様が予め規定されていたり、ユーザが所定操作により選択した色や模様で表したりするようになっており、新たに生成される似顔絵画像の内容に相応しくない背景となってしまうといった問題がある。   By the way, when a portrait image is automatically generated, a color or pattern is specified in advance for the background, or it is represented by a color or pattern selected by a user through a predetermined operation. There is a problem that the background becomes unsuitable for the content of the portrait image.

本発明の課題は、新たに生成される顔画像の背景を適正なものとすることができる画像処理装置、画像処理方法及びプログラムを提供することである。   An object of the present invention is to provide an image processing apparatus, an image processing method, and a program that can make the background of a newly generated face image appropriate.

上記課題を解決するため、本発明に係る画像処理装置は、
複数の顔構成部のそれぞれに対応する複数の第1の部品画像並びに第1の背景を有する第1の顔画像と、複数の顔構成部のそれぞれに対応する複数の第2の部品画像並びに第2の背景を有する第2の顔画像とに基づいて、新たな顔画像を生成するために前記第1及び第2の部品画像をそれぞれ少なくとも一つ取得する第1取得手段と、
前記第1取得手段により取得された前記第1の部品画像と前記第1の背景とを関連付ける第1の背景情報と、取得された前記第2の部品画像と前記第2の背景とを関連付ける第2の背景情報とに基づいて、前記新たな顔画像の背景を生成する背景生成手段と、
を備えたことを特徴としている。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
A plurality of first component images corresponding to each of the plurality of face constituent parts, a first face image having a first background, a plurality of second part images corresponding to each of the plurality of face constituent parts, and a first one. First acquisition means for acquiring at least one of each of the first and second component images to generate a new face image based on a second face image having two backgrounds;
First background information for associating the first part image acquired by the first acquisition means with the first background, and the second background image for associating the acquired second part image with the second background. Background generating means for generating a background of the new face image based on the background information of 2;
It is characterized by having.

また、本発明に係る画像処理方法は、
画像処理装置を用いた画像処理方法であって、
複数の顔構成部のそれぞれに対応する複数の第1の部品画像並びに第1の背景を有する第1の顔画像と、複数の顔構成部のそれぞれに対応する複数の第2の部品画像並びに第2の背景を有する第2の顔画像とに基づいて、新たな顔画像を生成するために前記第1及び第2の部品画像をそれぞれ少なくとも一つ取得する処理と、
取得された前記第1の部品画像と前記第1の背景とを関連付ける第1の背景情報と、取得された前記第2の部品画像と前記第2の背景とを関連付ける第2の背景情報とに基づいて、前記新たな顔画像の背景を生成する処理と、
を含むことを特徴としている。
The image processing method according to the present invention includes:
An image processing method using an image processing apparatus,
A plurality of first component images corresponding to each of the plurality of face constituent parts, a first face image having a first background, a plurality of second part images corresponding to each of the plurality of face constituent parts, and a first one. A process of acquiring at least one of the first and second component images to generate a new face image based on a second face image having two backgrounds;
First background information that associates the acquired first part image with the first background, and second background information that associates the acquired second part image with the second background. Based on the process of generating a background of the new face image,
It is characterized by including.

また、本発明に係るプログラムは、
画像処理装置のコンピュータを、
複数の顔構成部のそれぞれに対応する複数の第1の部品画像並びに第1の背景を有する第1の顔画像と、複数の顔構成部のそれぞれに対応する複数の第2の部品画像並びに第2の背景を有する第2の顔画像とに基づいて、新たな顔画像を生成するために前記第1及び第2の部品画像をそれぞれ少なくとも一つ取得する第1取得手段、
前記第1取得手段により取得された前記第1の部品画像と前記第1の背景とを関連付ける第1の背景情報と、取得された前記第2の部品画像と前記第2の背景とを関連付ける第2の背景情報とに基づいて、前記新たな顔画像の背景を生成する背景生成手段、
として機能させることを特徴としている。
The program according to the present invention is
The computer of the image processing device
A plurality of first component images corresponding to each of the plurality of face constituent parts, a first face image having a first background, a plurality of second part images corresponding to each of the plurality of face constituent parts, and a first one. First acquisition means for acquiring at least one of the first and second component images to generate a new face image based on a second face image having two backgrounds,
First background information for associating the first part image acquired by the first acquisition means with the first background, and the second background image for associating the acquired second part image with the second background. Background generating means for generating a background of the new face image based on the background information of 2;
It is characterized by making it function as.

本発明によれば、新たに生成される顔画像の背景を適正なものとすることができる。   According to the present invention, the background of a newly generated face image can be made appropriate.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 図1の撮像装置に記憶されている似顔絵画像の一例を模式的に示す図である。It is a figure which shows typically an example of the portrait image memorize | stored in the imaging device of FIG. 図1の撮像装置に記憶されている部品重要度テーブルの一例を示す図である。FIG. 2 is a diagram illustrating an example of a component importance level table stored in the imaging apparatus in FIG. 1. 図1の撮像装置による似顔絵画像生成処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to a portrait image generation process performed by the imaging apparatus of FIG. 1. 図4の似顔絵画像生成処理を説明するための図である。It is a figure for demonstrating the portrait image generation process of FIG. 撮像装置の変形例の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the modification of an imaging device.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
図1に示すように、本実施形態の撮像装置100は、具体的には、中央制御部1と、メモリ2と、撮像部3と、画像データ生成部4と、画像処理部5と、表示部6と、操作入力部7と、記憶部8と、似顔絵処理部9とを備えている。
また、中央制御部1、メモリ2、撮像部3、画像データ生成部4、画像処理部5、表示部6、操作入力部7、記憶部8及び似顔絵処理部9は、バスライン10を介して接続されている。
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment to which the present invention is applied.
As shown in FIG. 1, the imaging apparatus 100 according to the present embodiment specifically includes a central control unit 1, a memory 2, an imaging unit 3, an image data generation unit 4, an image processing unit 5, and a display. Unit 6, operation input unit 7, storage unit 8, and portrait processing unit 9.
The central control unit 1, the memory 2, the imaging unit 3, the image data generation unit 4, the image processing unit 5, the display unit 6, the operation input unit 7, the storage unit 8, and the portrait processing unit 9 are connected via a bus line 10. It is connected.

なお、撮像装置100は、公知のものを適用可能であり、本実施形態のように、主要な機能を撮影機能とするデジタルカメラだけでなく、主要な機能としないものの撮影機能を具備する携帯電話機、スマートフォン等の携帯端末なども含む。   Note that a known device can be applied to the imaging device 100, and not only a digital camera having a main function as a shooting function but also a mobile phone having a shooting function that is not a main function as in the present embodiment. And mobile terminals such as smartphones.

中央制御部1は、撮像装置100の各部を制御するものである。具体的には、中央制御部1は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 1 controls each unit of the imaging device 100. Specifically, although not shown, the central control unit 1 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), and includes various processing programs (illustrated) for the imaging apparatus 100. Various control operations are performed according to (omitted).

メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部1や画像処理部5や似顔絵処理部9等の各部によって処理されるデータ等を一時的に格納する。   The memory 2 is constituted by, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data processed by each unit such as the central control unit 1, the image processing unit 5, and the portrait processing unit 9.

撮像部3は、被写体を撮影する。具体的には、撮像部3は、レンズ部3aと、電子撮像部3bと、撮像制御部3cとを備えている。   The imaging unit 3 captures a subject. Specifically, the imaging unit 3 includes a lens unit 3a, an electronic imaging unit 3b, and an imaging control unit 3c.

レンズ部3aは、例えば、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
The lens unit 3a includes a plurality of lenses such as a zoom lens and a focus lens, for example.
The electronic imaging unit 3b is composed of, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and converts an optical image that has passed through various lenses of the lens unit 3a into a two-dimensional image signal. To do.
In addition, although illustration is abbreviate | omitted, the imaging part 3 may be provided with the aperture_diaphragm | restriction which adjusts the quantity of the light which passes the lens part 3a.

撮像制御部3cは、撮像部3による被写体の撮影を制御する。すなわち、撮像制御部3cは、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3cは、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、所定周期毎に光学像を電子撮像部3bにより二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像を読み出して画像データ生成部4に出力させる。
なお、撮像制御部3cは、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮影する際の条件の調整制御を行っても良い。
The imaging control unit 3 c controls the shooting of the subject by the imaging unit 3. That is, the imaging control unit 3c includes a timing generator, a driver, and the like, although not shown. Then, the imaging control unit 3c scans and drives the electronic imaging unit 3b with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 3b every predetermined period, and the electronic imaging unit 3b. The frame image is read from the imaging area for each screen and is output to the image data generation unit 4.
Note that the imaging control unit 3c may perform adjustment control of conditions when photographing a subject such as AF (automatic focusing process), AE (automatic exposure process), and AWB (automatic white balance).

画像データ生成部4は、撮像部3の電子撮像部3bから転送されたフレーム画像のアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。また、画像データ生成部4は、生成された輝度信号Y及び色差信号Cb,Crをバッファメモリとして使用されるメモリ2に出力する。   The image data generation unit 4 appropriately adjusts the gain for each color component of RGB with respect to the analog value signal of the frame image transferred from the electronic image pickup unit 3b of the image pickup unit 3, and then performs a sample with a sample hold circuit (not shown). After being held and converted into digital data by an A / D converter (not shown), color process processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y And color difference signals Cb and Cr (YUV data) are generated. In addition, the image data generation unit 4 outputs the generated luminance signal Y and color difference signals Cb and Cr to the memory 2 used as a buffer memory.

画像処理部5は、画像を記憶する際には、メモリ2から輝度信号Y及び色差信号Cb,Crを取得し、所定の符号化方式(例えば、JPEG形式、モーションJPEG形式、MPEG形式等)で符号化して記憶部8に出力する。
また、画像処理部5は、画像を再生表示する場合には、メモリ2や記憶部8から読み出された表示対象に係る静止画像や動画像の画像データを対応する所定の符号化方式に従って復号して表示部6に出力する。このとき、画像処理部5は、例えば、表示パネル6bの表示解像度等に基づいて所定サイズ(例えば、VGAやQVGAサイズ)に縮小して表示部6に出力しても良い。
When storing the image, the image processing unit 5 acquires the luminance signal Y and the color difference signals Cb and Cr from the memory 2 and uses a predetermined encoding method (for example, JPEG format, motion JPEG format, MPEG format, etc.). Encode and output to the storage unit 8.
When the image is reproduced and displayed, the image processing unit 5 decodes still image data or moving image image data read from the memory 2 or the storage unit 8 according to a predetermined encoding method. And output to the display unit 6. At this time, for example, the image processing unit 5 may reduce the image processing unit 5 to a predetermined size (for example, VGA or QVGA size) based on the display resolution of the display panel 6 b and output the reduced size to the display unit 6.

表示部6は、表示制御部6aと、表示パネル6bとを具備している。   The display unit 6 includes a display control unit 6a and a display panel 6b.

表示制御部6aは、メモリ2や記憶部8から読み出され画像処理部5により復号された所定サイズの画像データに基づいて、所定の画像を表示パネル6bの表示領域に表示させる制御を行う。具体的には、表示制御部6aは、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、画像処理部5により復号されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレートで読み出して、これらのデータを元にビデオ信号を発生して表示パネル6bに出力する。   The display control unit 6a performs control to display a predetermined image in the display area of the display panel 6b based on image data of a predetermined size read from the memory 2 or the storage unit 8 and decoded by the image processing unit 5. Specifically, the display control unit 6a includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. The digital video encoder reads out the luminance signal Y and the color difference signals Cb and Cr decoded by the image processing unit 5 and stored in the VRAM (not shown) from the VRAM through the VRAM controller at a predetermined reproduction frame rate. Based on these data, a video signal is generated and output to the display panel 6b.

表示パネル6bは、表示制御部6aからのビデオ信号に基づいて撮像部3により撮影された画像などを表示領域内に表示する。具体的には、表示パネル6bは、静止画の撮影モードや動画像の撮影モードにて、撮像部3による被写体の撮影により生成された複数のフレーム画像を所定のフレームレートで逐次更新しながらライブビュー画像を表示する。また、表示パネル6bは、記憶部8に記憶される被写体の静止画像(レックビュー画像)を表示したり、撮影中の被写体の動画像を表示したりする。
なお、表示パネル6bとしては、例えば、液晶表示パネルや有機EL(Electro-Luminescence)表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。
The display panel 6b displays an image taken by the imaging unit 3 in the display area based on the video signal from the display control unit 6a. Specifically, the display panel 6b performs live updating while sequentially updating a plurality of frame images generated by photographing an object by the imaging unit 3 in a still image shooting mode or a moving image shooting mode. Display the view image. The display panel 6b displays a still image (rec view image) of the subject stored in the storage unit 8, or displays a moving image of the subject being shot.
Examples of the display panel 6b include a liquid crystal display panel and an organic EL (Electro-Luminescence) display panel. However, the display panel 6b is an example and is not limited thereto.

操作入力部7は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部7は、被写体の撮像指示に係るシャッタボタン、撮影モードや機能等の選択指示に係る選択決定ボタン、ズーム量の調整指示に係るズームボタン等(何れも図示略)の操作部を備えている。
そして、ユーザにより各種ボタンが操作されると、操作入力部7は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部7から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮影等)を各部に実行させる。
The operation input unit 7 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 7 includes a shutter button related to an imaging instruction of a subject, a selection determination button related to a selection instruction for a shooting mode and a function, a zoom button related to a zoom amount adjustment instruction, and the like (all not shown). The operation part is provided.
When various buttons are operated by the user, the operation input unit 7 outputs an operation instruction corresponding to the operated button to the central control unit 1. The central control unit 1 causes each unit to execute a predetermined operation (for example, photographing a subject) according to an operation instruction output from the operation input unit 7 and input.

記憶部8は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部5により所定の符号化方式で符号化された静止画像や動画像の記憶用の画像データを記憶する。   The storage unit 8 is configured by, for example, a non-volatile memory (flash memory) or the like, and stores still image and image data for storing moving images encoded by the image processing unit 5 using a predetermined encoding method.

また、記憶部8は、各似顔絵作者が描画した似顔絵画像Aを記憶している。
似顔絵画像Aは、例えば、目、鼻、口、眉、顔輪郭等の主要な顔構成部に係る複数の部品画像p、…を背景の画像と組み合わせて構成されたデータである。具体的には、例えば、第1の似顔絵作者により描画された第1似顔絵画像A1、第2の似顔絵作者により描画された第2似顔絵画像A2、第3の似顔絵作者により描画された第3似顔絵画像A3等が挙げられるが、一例であってこれに限られるものではない(図2(a)〜図2(c)参照)。
また、各似顔絵画像Aの背景は、例えば、各似顔絵作者により指定された色や模様等が表されている。具体的には、例えば、第1似顔絵画像A1では背景が青色であり、第2似顔絵画像A2では背景が黄色であり、第3似顔絵画像A3では背景が緑色であるが、一例であってこれに限られるものではない。
In addition, the storage unit 8 stores a portrait image A drawn by each portrait creator.
The caricature image A is data configured by combining a plurality of component images p,... Related to main face constituent parts such as eyes, nose, mouth, eyebrows, and face contours with a background image. Specifically, for example, a first portrait image A1 drawn by a first portrait painter, a second portrait image A2 drawn by a second portrait artist, and a third portrait image drawn by a third portrait artist A3 etc. are mentioned, but it is an example and it is not restricted to this (refer to Drawing 2 (a)-Drawing 2 (c)).
Further, the background of each portrait image A represents, for example, a color or pattern designated by each portrait artist. Specifically, for example, the first portrait image A1 has a blue background, the second portrait image A2 has a yellow background, and the third portrait image A3 has a green background. It is not limited.

なお、第1似顔絵画像A1、第2似顔絵画像A2及び第3似顔絵画像A3は、一人の似顔絵作者により描画されたものであってもよい。例えば、第4の似顔絵作者が、同一の被写体の第1〜第3似顔絵画像A1〜A3を描画したものであっても良く、例えば、被写体が喜んでいるときの似顔絵画像Aを第1似顔絵画像A1とし、被写体が笑っているときの似顔絵画像Aを第2似顔絵画像A2とし、被写体が怒っているときの似顔絵画像Aを第3似顔絵画像A3としても良い。
この場合、複数の似顔絵画像A、…を用いて新たな似顔絵画像Qを作成する際に、一人の似顔絵作者により描画された複数の似顔絵画像A、…を用いることで、似顔絵作者の一定の作風を実現することが可能となる。
なお、図2(a)〜図2(c)にあっては、背景の色の相違をパターン(模様)の相違で模式的に表している。
Note that the first portrait image A1, the second portrait image A2, and the third portrait image A3 may be drawn by one portrait creator. For example, the fourth portrait creator may draw the first to third portrait images A1 to A3 of the same subject. For example, the portrait image A when the subject is happy is used as the first portrait image. The portrait image A when the subject is laughing may be the second portrait image A2, and the portrait image A when the subject is angry may be the third portrait image A3.
In this case, when creating a new portrait image Q using a plurality of portrait images A,..., A certain style of the portrait artist is obtained by using the plurality of portrait images A,... Drawn by one portrait artist. Can be realized.
In FIG. 2A to FIG. 2C, the difference in the background color is schematically represented by the difference in the pattern (pattern).

また、記憶部8は、部品重要度テーブルTを記憶している。
部品重要度テーブルTは、似顔絵画像Qの生成に用いられる部品画像pに係る顔構成部の重要度が規定されている。具体的には、部品画像pに係る顔構成部の名称と、顔構成部の重要度と、似顔絵画像Qの背景の生成に用いられる評価値とが対応付けられている(図3参照)。
ここで、重要度は、例えば、数字が小さいほど重要度が高くなり、4段階で表している。また、評価値は、例えば、数字が大きいほど評価が高くなる。
なお、上記した部品重要度テーブルTの内容は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The storage unit 8 stores a component importance level table T.
The component importance degree table T defines the importance of the face constituting unit related to the component image p used for generating the portrait image Q. Specifically, the name of the face constituent part related to the component image p, the importance of the face constituent part, and the evaluation value used for generating the background of the portrait image Q are associated (see FIG. 3).
Here, for example, the importance is higher as the number is smaller, and is expressed in four levels. In addition, for example, the evaluation value increases as the number increases.
Note that the content of the component importance degree table T described above is an example and is not limited thereto, and can be arbitrarily changed as appropriate.

また、記憶部8は、例えば、記憶媒体(図示略)が着脱自在に構成され、装着された記憶媒体からのデータの読み出しや記憶媒体に対するデータの書き込みを制御する構成であっても良い。   The storage unit 8 may be configured, for example, such that a storage medium (not shown) is detachable and controls reading of data from the attached storage medium and writing of data to the storage medium.

似顔絵処理部9は、元画像取得部9aと、部品画像取得部9bと、関連情報取得部9cと、背景生成部9dと、似顔絵画像生成部9eとを具備している。
なお、似顔絵処理部9の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The portrait processing unit 9 includes an original image acquisition unit 9a, a component image acquisition unit 9b, a related information acquisition unit 9c, a background generation unit 9d, and a portrait image generation unit 9e.
Each unit of the portrait processing unit 9 is configured by a predetermined logic circuit, for example, but the configuration is an example and the present invention is not limited thereto.

元画像取得部9aは、似顔絵画像生成処理の処理対象の元画像(図示略)を取得する。
すなわち、元画像取得部9aは、例えば、撮像部3による被写体の顔の撮影の際に、画像データ生成部4により生成された静止画像(例えば、写真画像等)の画像データ(RGBデータやYUVデータ)の複製をメモリ2から取得したり、記憶部8に記憶されている静止画像の画像データの複製を元画像として取得したりする。そして、元画像取得部9aは、取得された静止画像を元画像として、その画像データに対して所定の顔検出処理を行って顔領域を検出する。
ここで、顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The original image acquisition unit 9a acquires an original image (not shown) to be processed in the portrait image generation process.
That is, the original image acquisition unit 9a, for example, image data (RGB data or YUV) of a still image (for example, a photographic image) generated by the image data generation unit 4 when the imaging unit 3 captures the face of the subject. Data) is acquired from the memory 2, or a copy of still image data stored in the storage unit 8 is acquired as an original image. Then, the original image acquisition unit 9a uses the acquired still image as an original image, performs a predetermined face detection process on the image data, and detects a face area.
Here, since the face detection process is a known technique, a detailed description thereof is omitted here.

なお、元画像取得部9aは、動画像を構成する複数のフレーム画像の中から自動的に特定された一のフレーム画像、或いは、ユーザによる操作入力部7の所定操作に基づいて指定された一のフレーム画像を元画像として取得しても良い。
また、後述する似顔絵処理部9による各処理は、元画像の画像データ自体に対して行われても良いし、必要に応じて元画像の画像データを所定の比率で縮小した所定サイズ(例えば、VGAサイズ等)の縮小画像データに対して行われても良い。
The original image acquisition unit 9a is one frame image that is automatically specified from a plurality of frame images constituting the moving image, or one specified based on a predetermined operation of the operation input unit 7 by the user. The frame image may be acquired as the original image.
Each process by the portrait processing unit 9 to be described later may be performed on the image data of the original image itself, or a predetermined size (for example, reduced by a predetermined ratio of the image data of the original image as necessary). It may be performed on reduced image data of VGA size or the like.

部品画像取得部9bは、部品画像pを取得する。
すなわち、部品画像取得部9bは、複数の似顔絵画像(処理済み顔画像)A、…から複数の顔構成部に対応する複数の部品画像pを取得する。具体的には、部品画像取得部(第1取得手段)9bは、複数の顔構成部のそれぞれに対応する複数の第1の部品画像(例えば、部品画像p1等)並びに第1の背景(例えば、青色の背景等)を有する第1の顔画像(例えば、第1似顔絵画像A1等)と、複数の顔構成部のそれぞれに対応する複数の第2の部品画像(例えば、部品画像p2等)並びに第2の背景(例えば、黄色色の背景等)を有する第2の顔画像(例えば、第2似顔絵画像A2等)とに基づいて、新たな似顔絵画像Qを生成するために第1及び第2の部品画像をそれぞれ少なくとも一つ取得する。
ここで、第1の顔画像と第2の顔画像とは、互いに異なる顔画像であれば良い。また、3以上の互いに異なる顔画像(例えば、第1〜第3似顔絵画像A1〜A3等)から新たな似顔絵画像Qを生成しても良い。
The component image acquisition unit 9b acquires a component image p.
That is, the component image acquisition unit 9b acquires a plurality of component images p corresponding to a plurality of face constituting units from a plurality of portrait images (processed face images) A,. Specifically, the component image acquisition unit (first acquisition unit) 9b includes a plurality of first component images (for example, the component image p1) corresponding to each of the plurality of face constituting units and a first background (for example, , A blue background, etc.) and a plurality of second component images (for example, a component image p2) corresponding to each of the plurality of face constituent parts. And a first portrait image Q to generate a new portrait image Q based on a second face image (eg, second portrait image A2) having a second background (eg, yellow background). Each of the two component images is acquired.
Here, the first face image and the second face image may be different face images. Further, a new portrait image Q may be generated from three or more different face images (for example, the first to third portrait images A1 to A3, etc.).

例えば、部品画像取得部9bは、元画像取得部9aにより取得された元画像の画像データに対して所定の顔検出処理を行って顔領域を検出し、例えば、AAM(Active Appearance Model)を用いた処理により、目、鼻、口、眉、顔輪郭等の主要な顔構成部を検出する。ここで、AAMとは、視覚的事象のモデル化の一手法であり、任意の顔領域の画像のモデル化を行う処理である。例えば、部品画像取得部9bは、複数のサンプル顔画像における所定の特徴部位(例えば、目じりや鼻頭やフェイスライン等)の位置や画素値(例えば、輝度値)の統計的分析結果を所定の登録手段に登録しておく。そして、部品画像取得部9bは、上記の特徴部位の位置を基準として、顔の形状を表す形状モデルや平均的な形状における「Appearance」を表すテクスチャーモデルを設定し、これらのモデルを用いて顔領域の画像をモデル化する。これにより、元画像内で目、鼻、口、眉、顔輪郭等の顔構成部がモデル化される。
そして、部品画像取得部9bは、検出された主要な顔構成部毎に、記憶部8に記憶されている複数の似顔絵画像A、…から、各顔構成部に対応する部品画像pを特定する。ここで、顔構成部に対応する部品画像pの特定手法としては、以下の手法が挙げられる。すなわち、部品画像取得部9bは、例えば、各顔構成部と各似顔絵画像Aを構成する部品画像pの各々に制御点を設定して、これら制御点間の距離が最小二乗法で最も小さくなるパラメータを算出し、算出されたパラメータでの制御点間の距離の総和を当該部品画像pの評価値とする。部品画像取得部9bは、算出された複数の部品画像p、…の評価値を比較して、各顔構成部と最も合致する部品画像pをそれぞれ特定する。例えば、部品画像取得部9bは、顔輪郭として、第1似顔絵画像A1を構成する顔輪郭の部品画像p1を特定し、眉として、第2似顔絵画像A2を構成する眉の部品画像p2を特定し、目として、第3似顔絵画像A3を構成する目の部品画像p3を特定し、鼻として、第1似顔絵画像A1を構成する鼻の部品画像p1を特定し、口として、第2似顔絵画像A2を構成する口の部品画像p2を特定する(図5(a)参照)。
For example, the component image acquisition unit 9b performs a predetermined face detection process on the image data of the original image acquired by the original image acquisition unit 9a to detect a face area, and uses, for example, AAM (Active Appearance Model). The main face components such as eyes, nose, mouth, eyebrows, and face contours are detected by the processing performed. Here, AAM is a technique for modeling a visual event, and is a process for modeling an image of an arbitrary face region. For example, the component image acquisition unit 9b performs predetermined registration of statistical analysis results of positions and pixel values (for example, luminance values) of predetermined characteristic parts (for example, eyes, nasal heads, and face lines) in a plurality of sample face images. Register with the means. Then, the component image acquisition unit 9b sets a shape model representing the shape of the face and a texture model representing “Appearance” in the average shape with reference to the position of the characteristic part, and uses these models to Model the image of the region. As a result, the face components such as eyes, nose, mouth, eyebrows and face contour are modeled in the original image.
And the component image acquisition part 9b specifies the component image p corresponding to each face structure part from the several portrait image A and ... memorize | stored in the memory | storage part 8 for every detected main face structure part. . Here, as a method for specifying the component image p corresponding to the face constituting unit, the following method may be mentioned. That is, for example, the component image acquisition unit 9b sets control points for each of the component images p constituting each face component and each portrait image A, and the distance between these control points is minimized by the least square method. The parameter is calculated, and the sum of the distances between the control points with the calculated parameter is set as the evaluation value of the component image p. The component image acquisition unit 9b compares the calculated evaluation values of the plurality of component images p,... To identify the component image p that most closely matches each face component. For example, the component image acquisition unit 9b identifies the component image p1 of the face contour that constitutes the first portrait image A1 as the face contour, and identifies the component image p2 of the eyebrow that constitutes the second portrait image A2 as the eyebrow. The eye part image p3 constituting the third portrait image A3 is specified as eyes, the nose part image p1 constituting the first portrait image A1 is specified as the nose, and the second portrait image A2 is specified as the mouth. The component image p2 of the mouth to be configured is specified (see FIG. 5A).

なお、顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。また、AAMを用いて顔構成部の検出を行うようにしたが、一例であってこれに限られるものではなく、例えば、エッジ抽出処理、非等方拡散処理、テンプレートマッチング等適宜任意に変更可能である。
また、各顔構成部に対応する部品画像pを自動的に特定するようにしたが、一例であってこれに限られるものではなく、例えば、ユーザによる操作入力部7の所定操作に基づいて複数の部品画像p、…の中からユーザ所望の部品画像pを指定しても良い。
Since the face detection process is a known technique, detailed description thereof is omitted here. In addition, detection of the face component using AAM is an example, but the present invention is not limited to this. For example, edge extraction processing, anisotropic diffusion processing, template matching, etc. can be arbitrarily changed. It is.
In addition, the component image p corresponding to each face component is automatically specified. However, this is only an example and the present invention is not limited to this. For example, a plurality of images may be selected based on a predetermined operation of the operation input unit 7 by the user. The part image p desired by the user may be designated from the part images p,.

関連情報取得部9cは、関連情報を取得する。
すなわち、関連情報取得部9cは、部品画像取得部9bにより取得された部品画像pと背景とを関連付けている関連情報を取得する。
ここで、記憶部8に記憶されている複数の似顔絵画像(第1及び第2の顔画像)A、…の各々は、複数の部品画像(第1及び第2の部品画像)pのそれぞれと背景(第1及び第2の背景)とが背景情報(第1及び第2の背景情報)により関連付けられている。つまり、例えば、第1似顔絵画像A1を構成する複数の部品画像p1のそれぞれと背景色「青色」等に係る背景情報が関連付けられ、また、第2似顔絵画像A2を構成する複数の部品画像p2のそれぞれと背景色「黄色」等に係る背景情報が関連付けられ、また、第3似顔絵画像A3を構成する複数の部品画像p3のそれぞれと背景色「緑色」等に係る背景情報が関連付けられている。
関連情報取得部9cは、具体的には、部品画像取得部9bにより取得された部品画像pに対応する似顔絵画像、つまり、部品画像pが構成パーツとなっている似顔絵画像の背景の色や模様等の背景情報(例えば、顔輪郭の部品画像pの場合には、第1似顔絵画像A1の背景色「青色」等)を関連情報として取得する。そして、関連情報取得部9cは、取得された全ての関連情報をまとめてパーツリストL(図5(b)参照)に登録する。
The related information acquisition unit 9c acquires related information.
That is, the related information acquisition unit 9c acquires related information that associates the component image p acquired by the component image acquisition unit 9b with the background.
Here, each of the plurality of portrait images (first and second face images) A,... Stored in the storage unit 8 is respectively a plurality of component images (first and second component images) p. The background (first and second background) is associated with the background information (first and second background information). That is, for example, each of the plurality of component images p1 constituting the first portrait image A1 is associated with the background information relating to the background color “blue” and the like, and the plurality of component images p2 constituting the second portrait image A2 are associated with each other. Background information related to the background color “yellow” or the like is associated with each other, and background information related to the background color “green” or the like is associated with each of the plurality of component images p3 constituting the third portrait image A3.
Specifically, the related information acquisition unit 9c is a portrait image corresponding to the component image p acquired by the component image acquisition unit 9b, that is, the background color or pattern of the portrait image in which the component image p is a component part. Etc. (for example, in the case of the component image p of the face outline, the background color “blue” etc. of the first portrait image A1) is acquired as related information. Then, the related information acquisition unit 9c registers all the acquired related information together in the parts list L (see FIG. 5B).

背景生成部9dは、似顔絵画像Qの背景を生成する。
すなわち、背景生成部(背景生成手段)9dは、関連情報取得部9cにより関連情報として取得された、第1の部品画像(例えば、部品画像p1等)と第1の背景(例えば、青色の背景等)とを関連付ける第1の背景情報と、取得された第2の部品画像(例えば、部品画像p2等)と第2の背景(例えば、黄色色の背景等)とを関連付ける第2の背景情報とに基づいて、部品画像取得部9bにより取得された部品画像pを用いて生成される新たな似顔絵画像Qの背景を生成する。
ここで、第1の背景情報と第2の背景情報とは、互いに異なる顔画像に対応するものであれば良い。また、3以上の互いに異なる顔画像(例えば、第1〜第3似顔絵画像A1〜A3等)に対応する背景情報に基づいて、新たな似顔絵画像Qの背景を生成しても良い。
The background generation unit 9d generates a background of the portrait image Q.
That is, the background generation unit (background generation unit) 9d acquires the first component image (for example, the component image p1) and the first background (for example, the blue background) acquired as the related information by the related information acquisition unit 9c. Etc.) and second background information for associating the acquired second component image (for example, component image p2) with the second background (for example, yellow background). Based on the above, the background of the new portrait image Q generated using the component image p acquired by the component image acquisition unit 9b is generated.
Here, the first background information and the second background information may correspond to different face images. Further, a background of a new portrait image Q may be generated based on background information corresponding to three or more different face images (for example, first to third portrait images A1 to A3).

具体的には、背景生成部9dは、記憶部8から部品重要度テーブルTを読み出して取得し、関連情報取得部9cにより取得された複数の関連情報(第1及び第2の背景情報)の各々により関連付けられている部品画像pの各々について、対応する顔構成部の重要度を特定する。また、背景生成部9dは、部品重要度テーブルTを参照して、特定された重要度に応じた評価値を特定し、パーツリストLに登録する。そして、背景生成部9dは、特定された評価値に基づいて、部品画像pを用いて生成される似顔絵画像Qの背景の色や模様等を特定して生成する。
例えば、顔輪郭の部品画像pの場合、背景生成部9dは、部品重要度テーブルTを参照して、当該顔輪郭の重要度として「3」を特定し、その評価値として「2」を特定する。そして、背景生成部9dは、特定された評価値「2」をパーツリストに登録する。また、背景生成部9dは、他の顔構成部(例えば、目、鼻、口、眉等)の部品画像pの各々についても同様の処理を行う。
そして、背景生成部9dは、各部品画像pに対応する似顔絵画像の背景情報(背景色等)毎に、特定された評価値に基づいて所定の演算(例えば、加算等)を行って各背景情報の総評価値を算出する。例えば、図5(b)に示すパーツリストLの場合、第1似顔絵画像A1の背景色「青色」については、顔輪郭の評価値「2」と鼻の評価値「1」とを加算して、総評価値「3」とし、第2似顔絵画像A2の背景色「黄色」については、眉の評価値「2」と口の評価値「5」とを加算して、総評価値「7」とし、第3似顔絵画像A3の背景色「緑色」については、目の評価値「8」のみから総評価値「8」とする。
そして、背景生成部9dは、算出された総評価値どうしを比較して、最も総評価値の高い背景情報に係る第3似顔絵画像A3の背景色「緑色」を、似顔絵画像Qの背景色として特定する。
Specifically, the background generation unit 9d reads and acquires the component importance degree table T from the storage unit 8, and acquires a plurality of pieces of related information (first and second background information) acquired by the related information acquisition unit 9c. For each of the component images p associated with each other, the importance level of the corresponding face component is specified. Further, the background generation unit 9d refers to the component importance degree table T, identifies an evaluation value corresponding to the identified importance degree, and registers it in the parts list L. Then, the background generation unit 9d specifies and generates a background color or pattern of the portrait image Q generated using the component image p based on the specified evaluation value.
For example, in the case of the face contour component image p, the background generation unit 9d refers to the component importance level table T, identifies “3” as the importance level of the face contour, and identifies “2” as the evaluation value. To do. Then, the background generation unit 9d registers the specified evaluation value “2” in the parts list. In addition, the background generation unit 9d performs the same process on each of the component images p of other face constituent units (for example, eyes, nose, mouth, eyebrows, etc.).
Then, the background generation unit 9d performs a predetermined calculation (for example, addition) on the basis of the specified evaluation value for each background information (background color, etc.) of the portrait image corresponding to each component image p. The total evaluation value of information is calculated. For example, in the case of the parts list L shown in FIG. 5B, for the background color “blue” of the first portrait image A1, the face outline evaluation value “2” and the nose evaluation value “1” are added. The total evaluation value “3”, and for the background color “yellow” of the second portrait image A2, the eyebrow evaluation value “2” and the mouth evaluation value “5” are added to obtain a total evaluation value “7”. Regarding the background color “green” of the third portrait image A3, the total evaluation value “8” is set from only the eye evaluation value “8”.
Then, the background generation unit 9d compares the calculated total evaluation values and specifies the background color “green” of the third portrait image A3 related to the background information having the highest total evaluation value as the background color of the portrait image Q. .

似顔絵画像生成部9eは、似顔絵画像Qを生成する。
すなわち、似顔絵画像生成部(似顔絵生成手段)9eは、部品画像取得部9bにより取得された部品画像(第1及び第2の部品画像)p及び背景生成部9dにより生成された背景を用いて、新たな顔画像として似顔絵画像Qを生成する。具体的には、似顔絵画像生成部9eは、部品画像取得部9bにより取得された各部品画像pの制御点を各顔構成部の制御点に対応させるように部品画像pを変形させ、所定の髪型画像と組み合わせるとともに、顔輪郭及び髪型画像の外側を背景生成部9dにより特定された背景色「緑色」として、似顔絵画像Qを生成する(図5(c)参照)。
ここで、似顔絵画像生成部9eは、似顔絵画像Qの所定の部分(例えば、目、口、眉等の顔構成部等)に所定の色を付けて表した画像を生成しても良い。
The portrait image generation unit 9e generates a portrait image Q.
That is, the portrait image generation unit (portrait generation unit) 9e uses the component images (first and second component images) p acquired by the component image acquisition unit 9b and the background generated by the background generation unit 9d, A portrait image Q is generated as a new face image. Specifically, the portrait image generation unit 9e deforms the component image p so that the control point of each component image p acquired by the component image acquisition unit 9b corresponds to the control point of each face constituent unit, and a predetermined image In addition to combining with the hairstyle image, a portrait image Q is generated with the face outline and the outside of the hairstyle image as the background color “green” specified by the background generation unit 9d (see FIG. 5C).
Here, the portrait image generation unit 9e may generate an image that represents a predetermined part of the portrait image Q (for example, a face component such as eyes, mouth, and eyebrows) with a predetermined color.

<似顔絵画像生成処理>
次に、撮像装置100による似顔絵画像生成処理について、図4及び図5を参照して説明する。
図4は、似顔絵画像生成処理に係る動作の一例を示すフローチャートである。また、図5(a)は、部品画像取得部9bにより取得された各顔構成部の部品画像pの一例を模式的に示し、図5(b)は、パーツリストLの一例を示し、図5(c)は、似顔絵画像Qの一例を模式的に示している。
<Caricature image generation processing>
Next, a portrait image generation process performed by the imaging apparatus 100 will be described with reference to FIGS. 4 and 5.
FIG. 4 is a flowchart illustrating an example of an operation related to the portrait image generation process. FIG. 5A schematically shows an example of a part image p of each face component acquired by the part image acquisition unit 9b, and FIG. 5B shows an example of a parts list L. 5 (c) schematically shows an example of the portrait image Q.

似顔絵画像生成処理は、ユーザによる操作入力部7の選択決定ボタンの所定操作に基づいて、メニュー画面に表示された複数の動作モードの中から似顔絵画像生成モードが選択指示された場合に、中央制御部1の制御下にて当該撮像装置100の各部、特に似顔絵処理部9により実行される処理である。   The portrait image generation processing is performed when the portrait image generation mode is selected from a plurality of operation modes displayed on the menu screen based on a predetermined operation of the selection determination button of the operation input unit 7 by the user. This process is executed by each unit of the imaging apparatus 100, particularly the portrait processing unit 9, under the control of the unit 1.

図4に示すように、先ず、元画像取得部9aは、似顔絵画像生成処理の処理対象の元画像(図示略)を取得する(ステップS1)。具体的には、元画像取得部9aは、例えば、撮像部3による被写体の撮影によって画像データ生成部4により生成された静止画像の画像データ(RGBデータやYUVデータ)の複製を記憶部8から取得する。   As shown in FIG. 4, first, the original image acquisition unit 9a acquires an original image (not shown) to be processed in the portrait image generation process (step S1). Specifically, the original image acquisition unit 9a, for example, copies from the storage unit 8 the image data (RGB data or YUV data) of the still image generated by the image data generation unit 4 by photographing the subject by the imaging unit 3. get.

次に、部品画像取得部9bは、元画像取得部9aにより取得された元画像内の顔構成部に対応する部品画像pを取得する(ステップS2)。具体的には、部品画像取得部9bは、先ず、元画像の顔領域内で、例えば、AAMを用いた処理により、目、鼻、口、眉、顔輪郭等の主要な顔構成部を検出する。次に、部品画像取得部9bは、記憶部8に記憶されている複数の似顔絵画像A、…から、検出された主要な顔構成部の各々に対応する部品画像pを特定する(図5(a)参照)。
そして、関連情報取得部9cは、部品画像取得部9bにより取得された部品画像pに対応する似顔絵画像の背景情報(例えば、顔輪郭の部品画像pの場合には、第1似顔絵画像A1の背景色「青色」等)を関連情報として取得する(ステップS3)。関連情報取得部9cは、取得された全ての背景情報をまとめてパーツリストL(図5(b)参照)に登録する。
Next, the component image acquisition unit 9b acquires a component image p corresponding to the face constituent unit in the original image acquired by the original image acquisition unit 9a (step S2). Specifically, the component image acquisition unit 9b first detects main face components such as eyes, nose, mouth, eyebrows, and face contours, for example, by processing using AAM in the face area of the original image. To do. Next, the component image acquisition unit 9b specifies a component image p corresponding to each of the detected main face constituent units from the plurality of portrait images A,... Stored in the storage unit 8 (FIG. 5 ( a)).
Then, the related information acquisition unit 9c outputs background information of the portrait image corresponding to the component image p acquired by the component image acquisition unit 9b (for example, in the case of the component image p having a face outline, the background of the first portrait image A1). Color “blue” or the like) is acquired as related information (step S3). The related information acquisition unit 9c collectively registers all the acquired background information in the parts list L (see FIG. 5B).

次に、背景生成部9dは、記憶部8から部品重要度テーブルTを読み出して取得し、関連情報取得部9cにより取得された複数の背景情報の各々と関連付けられている部品画像pの各々について、対応する顔構成部の重要度を特定した後、特定された重要度に応じた評価値を特定し、パーツリストLに登録する(ステップS4)。
続けて、背景生成部9dは、各部品画像pに対応する似顔絵画像の背景情報(背景の色等)毎に、特定された評価値に基づいて所定の演算(例えば、加算等)を行って各背景情報の総評価値を算出する(ステップS5)。例えば、図5(b)に示すパーツリストLの場合、第1似顔絵画像A1の背景色「青色」については、加算された総評価値「3」となり、第2似顔絵画像A2の背景色「黄色」については、加算された総評価値「7」となり、第3似顔絵画像A3の背景色「緑色」については、加算された総評価値「8」となる。
そして、背景生成部9dは、各背景情報毎に算出された総評価値どうしを比較して、最も総評価値の高い背景情報(例えば、第3似顔絵画像A3の背景色「緑色」等)から似顔絵画像Qの背景色を特定する(ステップS6)。
Next, the background generation unit 9d reads and acquires the component importance degree table T from the storage unit 8, and for each of the component images p associated with each of the plurality of background information acquired by the related information acquisition unit 9c. After identifying the importance level of the corresponding face component, an evaluation value corresponding to the identified importance level is identified and registered in the parts list L (step S4).
Subsequently, the background generation unit 9d performs a predetermined calculation (for example, addition) on the basis of the specified evaluation value for each background information (background color, etc.) of the portrait image corresponding to each component image p. A total evaluation value of each background information is calculated (step S5). For example, in the case of the parts list L shown in FIG. 5B, the background color “blue” of the first portrait image A1 becomes the added total evaluation value “3”, and the background color “yellow” of the second portrait image A2. Is the total evaluation value “7” added, and the background color “green” of the third portrait image A3 is the total evaluation value “8” added.
Then, the background generation unit 9d compares the total evaluation values calculated for each background information, and determines the portrait image from the background information having the highest total evaluation value (for example, the background color “green” of the third portrait image A3). The background color of Q is specified (step S6).

その後、似顔絵画像生成部9eは、部品画像取得部9bにより取得された各部品画像pと所定の髪型画像と組み合わせるとともに、顔輪郭及び髪型画像の外側を背景生成部9dにより特定された背景色(例えば、「緑色」等)として、似顔絵画像Qを生成する(ステップS7)。
これにより、当該似顔絵画像生成処理は終了する。
Thereafter, the portrait image generation unit 9e combines each component image p acquired by the component image acquisition unit 9b with a predetermined hairstyle image, and the background color (outside of the face outline and the hairstyle image specified by the background generation unit 9d ( For example, a portrait image Q is generated as “green” (step S7).
Thereby, the portrait image generation process ends.

以上のように、本実施形態の撮像装置100によれば、第1の顔画像(例えば、第1似顔絵画像A1等)から取得された第1の部品画像(例えば、部品画像p1等)と第1の背景とを関連付ける第1の背景情報と、第2の顔画像(例えば、第2似顔絵画像A2等)から取得された第2の部品画像(例えば、部品画像p2等)と第2の背景とを関連付ける第2の背景情報とに基づいて、新たな顔画像(例えば、似顔絵画像Q等)の背景を生成するので、部品画像pを用いて生成される画像の背景を、当該画像の生成に用いられる部品画像pそれぞれと関連付けられている背景情報を利用して生成することができる。すなわち、似顔絵画像Qの生成に用いられる部品画像pに対応する似顔絵画像(例えば、第3似顔絵画像A3)の背景色や模様等を、新たに生成される似顔絵画像Qの背景色や模様とすることができ、当該似顔絵画像Qの表現力を向上させることができる。
これにより、部品画像pを用いて新たに生成される顔画像(例えば、似顔絵画像Q等)の背景を適正なものとすることができる。
As described above, according to the imaging apparatus 100 of the present embodiment, the first component image (for example, the component image p1) acquired from the first face image (for example, the first portrait image A1) and the first image. The first background information that associates the first background, the second part image (for example, the part image p2) obtained from the second face image (for example, the second portrait image A2), and the second background. Since the background of a new face image (for example, a portrait image Q) is generated based on the second background information that associates with the image, the background of the image generated using the component image p is generated Can be generated by using background information associated with each of the component images p used in the above. That is, the background color or pattern of the portrait image (for example, the third portrait image A3) corresponding to the component image p used for generating the portrait image Q is set as the background color or pattern of the newly generated portrait image Q. And the expressive power of the portrait image Q can be improved.
Thereby, the background of the face image (for example, portrait image Q etc.) newly produced | generated using the component image p can be made appropriate.

また、関連情報取得部9cにより取得された複数の背景情報(第1及び第2の背景情報)の各々により関連付けられている部品画像pに係る顔構成部の重要度に基づいて、部品画像pを用いて生成される新たな顔画像の背景を適正に生成することができる。具体的には、関連情報取得部9cにより取得された複数の背景情報の各々により関連付けられている部品画像pに係る顔構成部の重要度に応じた評価値を特定し、特定された評価値に基づいて、部品画像pを用いて生成される新たな顔画像の背景を生成するので、似顔絵画像Qの生成に、元となった似顔絵画像(例えば、第1〜第3似顔絵画像A1〜A3等)が異なる部品画像pが複数使われる場合であっても、各部品画像pに係る顔構成部の重要度を考慮して評価値を特定することができ、部品画像pを用いて新たに生成される似顔絵画像Qの背景をより適正に生成することができる。   Further, the component image p is based on the importance of the face constituent unit related to the component image p associated by each of the plurality of background information (first and second background information) acquired by the related information acquisition unit 9c. The background of a new face image generated using can be appropriately generated. Specifically, the evaluation value according to the importance of the face constituent part related to the component image p associated by each of the plurality of background information acquired by the related information acquisition unit 9c is specified, and the specified evaluation value Since the background of a new face image generated using the component image p is generated based on the above, the portrait image Q (for example, the first to third portrait images A1 to A3) is used to generate the portrait image Q. Even when a plurality of component images p having different components are used, an evaluation value can be specified in consideration of the importance of the face constituent part related to each component image p. The background of the generated portrait image Q can be generated more appropriately.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
以下に、撮像装置100の変形例について図6を参照して説明する。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
Below, the modification of the imaging device 100 is demonstrated with reference to FIG.

この変形例の撮像装置100Aは、背景情報等の関連情報に加えて元画像の本人情報に基づいて、似顔絵画像Qの背景を生成する。
具体的には、図6に示すように、似顔絵処理部109は、元画像取得部9aと、部品画像取得部9bと、関連情報取得部9cと、背景生成部9dと、似顔絵画像生成部9eとに加えて、本人情報取得部9fを具備している。
なお、以下に説明する以外の点は、上記実施形態の撮像装置100と略同様の構成及び機能をなし、その具体的な説明は省略する。
The imaging apparatus 100A of this modification generates the background of the portrait image Q based on the original information of the original image in addition to the related information such as background information.
Specifically, as illustrated in FIG. 6, the portrait processing unit 109 includes an original image acquisition unit 9a, a component image acquisition unit 9b, a related information acquisition unit 9c, a background generation unit 9d, and a portrait image generation unit 9e. In addition to the above, a personal information acquisition unit 9f is provided.
Except for the points described below, the configuration and functions are substantially the same as those of the imaging apparatus 100 of the above-described embodiment, and the detailed description thereof is omitted.

本人情報取得部9fは、元画像の本人情報を取得する。
すなわち、本人情報取得部(第2取得手段)9fは、部品画像取得部9bにより取得された部品画像pを用いて生成される新たな似顔絵画像Qの元となる元画像(元顔画像)の本人情報を取得する。
ここで、本人情報としては、年齢、性別、服装、表情(感情)等が挙げられるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
本人情報取得部9fは、元画像取得部9aにより取得された元画像に対して各種の画像処理を行って、例えば、本人の年齢、性別、服装、表情(感情)等の本人情報を特定する。なお、画像処理による本人情報の特定は、公知の技術であり、ここでは詳細な説明は省略する。
The principal information acquisition unit 9f acquires the principal information of the original image.
That is, the principal information acquisition unit (second acquisition unit) 9f generates an original image (original face image) that is a source of a new portrait image Q generated using the component image p acquired by the component image acquisition unit 9b. Obtain identity information.
Here, the identity information includes age, sex, clothes, facial expression (emotion), etc., but is not limited to this example, and can be arbitrarily changed as appropriate.
The principal information acquisition unit 9f performs various kinds of image processing on the original image acquired by the original image acquisition unit 9a, and identifies the personal information such as the person's age, sex, clothes, facial expression (emotion), and the like. . Note that identification of personal information by image processing is a known technique, and detailed description thereof is omitted here.

そして、背景生成部9dは、関連情報取得部9cにより取得された複数の背景情報(第1及び第2の背景情報)及び本人情報取得部9fにより取得された本人情報に基づいて、部品画像取得部9bにより取得された部品画像pを用いて生成される似顔絵画像Qの背景を生成する。
具体的には、本人情報取得部9fが、例えば、本人情報として元画像の本人の年齢を取得した場合、背景生成部9dは、取得された年齢や当該年齢が含まれる年代に対応する背景色(例えば、19歳までなら黄色、20〜39歳ならオレンジ色、40〜59歳なら緑色、60歳以上なら紫色等)を特定する。続けて、背景生成部9dは、関連情報取得部9cにより取得された背景情報(背景色等)のうち、年齢や年代に対応して特定された背景色の重みを大きくして、各背景情報の総評価値を算出する。そして、背景生成部9dは、算出された総評価値どうしを比較して、最も総評価値の高い背景情報に係る背景色を似顔絵画像Qの背景色として特定する。
Then, the background generation unit 9d acquires the component image based on the plurality of background information (first and second background information) acquired by the related information acquisition unit 9c and the user information acquired by the user information acquisition unit 9f. The background of the portrait image Q generated using the component image p acquired by the unit 9b is generated.
Specifically, when the principal information acquisition unit 9f acquires, for example, the age of the original image as the principal information, the background generation unit 9d displays the background color corresponding to the acquired age and the age including the age. (For example, yellow until 19 years old, orange when 20-39 years old, green when 40-59 years old, purple when over 60 years old, etc.). Subsequently, the background generation unit 9d increases the weight of the background color specified corresponding to the age and the age among the background information (background color and the like) acquired by the related information acquisition unit 9c, and sets each background information The total evaluation value of is calculated. Then, the background generation unit 9d compares the calculated total evaluation values and specifies the background color related to the background information having the highest total evaluation value as the background color of the portrait image Q.

なお、本人情報として元画像の本人の年齢を例示したが、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、背景生成部9dは、本人情報が元画像の本人の性別の場合、取得された性別に対応する背景色(例えば、男性なら青色、女性なら赤色等)を特定し、また、本人情報が元画像の本人の服装の場合、取得された服装に対応する背景色(例えば、フォーマルなら暗めの色、カジュアルなら明るめの色等)を特定し、また、本人情報が元画像の本人の表情の場合、取得された表情に対応する背景色(例えば、怒っているなら赤色、喜んでいるなら黄色等)を特定する。   In addition, although the age of the person of the original image was illustrated as person information, it is an example and is not restricted to this, It can change arbitrarily arbitrarily. For example, when the personal information is the gender of the original image, the background generation unit 9d specifies a background color (for example, blue for men and red for women) corresponding to the acquired gender, and the personal information is In the case of the original image's clothes, the background color corresponding to the acquired clothes (for example, dark color for formal, light color for casual etc.) is specified, and the personal information is the facial expression of the original image. In this case, the background color corresponding to the acquired facial expression (for example, red if angry, yellow if happy) is specified.

従って、この変形例の撮像装置100Aによれば、部品画像pを用いて生成される画像の背景を、当該画像の生成に用いられる部品画像pと関連付けられている背景情報だけでなく、画像の元となる元画像の本人情報も利用して生成することができる。すなわち、例えば、元画像の本人の年齢、性別、服装、表情(感情)等を考慮して、新たに生成される似顔絵画像Qの背景色や模様を生成することができ、当該似顔絵画像Qの表現力をより向上させることができる。
これにより、部品画像pを用いて新たに生成される顔画像(例えば、似顔絵画像Q等)の背景をより適正なものとすることができる。
Therefore, according to the imaging apparatus 100A of this modification, the background of the image generated using the component image p is not limited to the background information associated with the component image p used to generate the image, It can also be generated using the identity information of the original image. That is, for example, the background color and pattern of the newly generated portrait image Q can be generated in consideration of the age, sex, clothes, facial expression (emotion), etc. of the original image. Expressive power can be improved.
Thereby, the background of the face image (for example, portrait image Q etc.) newly produced | generated using the component image p can be made more appropriate.

なお、上記変形例にあっては、関連情報取得部9cにより取得された背景情報と、本人情報取得部9fにより取得された元画像の本人情報のうち、何れか一方のみを基準とするように切替えて、似顔絵画像Qの背景を生成しても良い。すなわち、背景生成部9dは、本人情報取得部9fにより取得された元画像の本人情報のみに基づいて、似顔絵画像Qの背景の色や模様等を生成しても良い。   In the above modification, only one of the background information acquired by the related information acquisition unit 9c and the original information of the original image acquired by the personal information acquisition unit 9f is used as a reference. The background of the portrait image Q may be generated by switching. That is, the background generation unit 9d may generate the background color or pattern of the portrait image Q based only on the original information of the original image acquired by the personal information acquisition unit 9f.

さらに、上記実施形態にあっては、例えば、似顔絵画像Qを生成する際の日時や場所、ユーザによる撮像装置100(100A)の操作状態、ユーザが管理している各種のSNS(Social Networking Service)の記事の内容等の似顔絵画像Qを生成する際の状況、元画像の撮影日時や撮影場所等を考慮して、似顔絵画像Qの背景の色や模様等を生成しても良い。   Further, in the above embodiment, for example, the date and time when the portrait image Q is generated, the operation state of the imaging device 100 (100A) by the user, and various SNSs (Social Networking Services) managed by the user. The background color and pattern of the portrait image Q may be generated in consideration of the situation when generating the portrait image Q such as the content of the article, the shooting date and time of the original image, the shooting location, and the like.

また、上記実施形態にあっては、似顔絵画像Qを生成するようにしたが、必ずしも似顔絵画像Qを生成する必要はなく、似顔絵画像生成部9eを具備するか否かは適宜任意に変更可能である。   In the above embodiment, the portrait image Q is generated. However, it is not always necessary to generate the portrait image Q, and whether or not the portrait image generation unit 9e is provided can be arbitrarily changed as appropriate. is there.

さらに、上記実施形態にあっては、処理済み顔画像として、第1〜第3似顔絵画像A1〜A3、似顔絵画像Qを例示したが、一例であってこれに限られるものではなく、例えば、二値化処理した画像やエッジ抽出処理した画像等適宜任意に変更可能である。   Furthermore, in the said embodiment, although 1st-3rd portrait image A1-A3 and portrait image Q were illustrated as a processed face image, it is an example and it is not restricted to this, For example, two It is possible to arbitrarily change the image subjected to the value processing, the image subjected to the edge extraction processing, and the like as appropriate.

また、上記実施形態にあっては、記憶部8に、各似顔絵作者毎の似顔絵画像Aを記憶するようにしたが、一例であってこれに限られるものではなく、例えば、似顔絵作者毎に、顔の主要な顔構成部の部品画像pを対応付けて記憶しても良い。
なお、似顔絵画像Aの背景は、似顔絵画像の元の顔画像の被写体の感情(表情)に関連していても良い。例えば、悲しみを表現した似顔絵画像の背景は暗い色(彩度や明度が低い色)を用いたり、喜びを表現した似顔絵画像の背景は明るい色(彩度や明度が高い色)を用いたりしても良い。
In the above embodiment, the portrait image A for each portrait artist is stored in the storage unit 8, but is not limited to this example. For example, for each portrait artist, The component images p of the main face constituent parts of the face may be stored in association with each other.
Note that the background of the portrait image A may be related to the emotion (expression) of the subject of the original face image of the portrait image. For example, the background of a caricature image expressing sadness uses dark colors (colors with low saturation and lightness), or the background of a caricature image expressing joy uses light colors (colors with high saturation and lightness). May be.

さらに、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。また、画像処理装置として、撮像装置100を例示したが、これに限られるものではなく、本発明に係る画像処理を実行可能なものであれば如何なる構成であっても良い。   Furthermore, the configuration of the imaging apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto. Further, although the imaging apparatus 100 has been illustrated as an image processing apparatus, the present invention is not limited to this, and any configuration may be used as long as the image processing according to the present invention can be executed.

加えて、上記実施形態にあっては、第1取得手段、背景生成手段としての機能を、中央制御部1のCPUの制御下にて、部品画像取得部9b、背景生成部9dが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
すなわち、プログラムを記憶するプログラムメモリ(図示略)に、第1取得処理ルーチン、背景生成処理ルーチンを含むプログラムを記憶しておく。そして、第1取得処理ルーチンにより中央制御部1のCPUを、複数の顔構成部のそれぞれに対応する複数の第1の部品画像(例えば、部品画像p1等)並びに第1の背景を有する第1の顔画像(例えば、第1似顔絵画像A1等)と、複数の顔構成部のそれぞれに対応する複数の第2の部品画像(例えば、部品画像p2等)並びに第2の背景を有する第2の顔画像(例えば、第2似顔絵画像A2等)とに基づいて、新たな似顔絵画像Qを生成するために第1及び第2の部品画像をそれぞれ少なくとも一つ取得する手段として機能させるようにしても良い。また、背景生成処理ルーチンにより中央制御部1のCPUを、取得された第1の部品画像と第1の背景とを関連付ける第1の背景情報と、取得された第2の部品画像と第2の背景とを関連付ける第2の背景情報とに基づいて、新たな似顔絵画像の背景を生成する手段として機能させるようにしても良い。
In addition, in the above embodiment, the function as the first acquisition unit and the background generation unit is driven by the component image acquisition unit 9b and the background generation unit 9d under the control of the CPU of the central control unit 1. However, the present invention is not limited to this, and may be realized by executing a predetermined program or the like by the CPU of the central control unit 1.
That is, a program including a first acquisition process routine and a background generation process routine is stored in a program memory (not shown) that stores the program. Then, the first acquisition processing routine causes the CPU of the central control unit 1 to have a plurality of first component images (for example, component images p1 and the like) corresponding to each of the plurality of face constituting units and a first background having a first background. Face image (for example, first caricature image A1), a plurality of second component images (for example, component image p2) corresponding to each of the plurality of face components, and a second background having a second background In order to generate a new portrait image Q based on the face image (for example, the second portrait image A2 or the like), it may function as a means for acquiring at least one of the first and second component images. good. In addition, the CPU of the central control unit 1 in the background generation processing routine causes the first background information to associate the acquired first component image with the first background, the acquired second component image, and the second You may make it function as a means to produce | generate the background of a new portrait image based on 2nd background information linked | related with a background.

同様に、第2取得手段、似顔絵生成手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, the second acquisition unit and the portrait generation unit may be realized by executing a predetermined program or the like by the CPU of the central control unit 1.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
複数の顔構成部のそれぞれに対応する複数の第1の部品画像並びに第1の背景を有する第1の顔画像と、複数の顔構成部のそれぞれに対応する複数の第2の部品画像並びに第2の背景を有する第2の顔画像とに基づいて、新たな顔画像を生成するために前記第1及び第2の部品画像をそれぞれ少なくとも一つ取得する第1取得手段と、
前記第1取得手段により取得された前記第1の部品画像と前記第1の背景とを関連付ける第1の背景情報と、取得された前記第2の部品画像と前記第2の背景とを関連付ける第2の背景情報とに基づいて、前記新たな顔画像の背景を生成する背景生成手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記背景生成手段は、前記第1及び第2の背景情報のそれぞれにより関連付けられている前記第1及び第2の部品画像に係る前記第1及び第2の顔構成部の重要度に基づいて、前記新たな顔画像の背景を生成することを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記背景生成手段は、前記第1及び第2の背景情報のそれぞれにより関連付けられている前記第1及び第2の部品画像に係る顔構成部の重要度に応じた評価値を特定し、特定された評価値に基づいて、前記新たな顔画像の背景を生成することを特徴とする請求項1又は2に記載の画像処理装置。
<請求項4>
前記新たな顔画像の元となる元顔画像の本人情報を取得する第2取得手段を更に備え、
前記背景生成手段は、前記第1及び第2の背景情報並びに前記第2取得手段により取得された本人情報に基づいて、前記新たな顔画像の背景を生成することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
<請求項5>
前記第1及び第2の部品画像及び前記背景生成手段により生成された背景を用いて、前記新たな顔画像として似顔絵画像を生成する似顔絵生成手段を更に備えることを特徴とする請求項1〜4の何れか一項に記載の画像処理装置。
<請求項6>
画像処理装置を用いた画像処理方法であって、
複数の顔構成部のそれぞれに対応する複数の第1の部品画像並びに第1の背景を有する第1の顔画像と、複数の顔構成部のそれぞれに対応する複数の第2の部品画像並びに第2の背景を有する第2の顔画像とに基づいて、新たな顔画像を生成するために前記第1及び第2の部品画像をそれぞれ少なくとも一つ取得する処理と、
取得された前記第1の部品画像と前記第1の背景とを関連付ける第1の背景情報と、取得された前記第2の部品画像と前記第2の背景とを関連付ける第2の背景情報とに基づいて、前記新たな顔画像の背景を生成する処理と、
を含むことを特徴とする画像処理方法。
<請求項7>
画像処理装置のコンピュータを、
複数の顔構成部のそれぞれに対応する複数の第1の部品画像並びに第1の背景を有する第1の顔画像と、複数の顔構成部のそれぞれに対応する複数の第2の部品画像並びに第2の背景を有する第2の顔画像とに基づいて、新たな顔画像を生成するために前記第1及び第2の部品画像をそれぞれ少なくとも一つ取得する第1取得手段、
前記第1取得手段により取得された前記第1の部品画像と前記第1の背景とを関連付ける第1の背景情報と、取得された前記第2の部品画像と前記第2の背景とを関連付ける第2の背景情報とに基づいて、前記新たな顔画像の背景を生成する背景生成手段、
として機能させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
A plurality of first component images corresponding to each of the plurality of face constituent parts, a first face image having a first background, a plurality of second part images corresponding to each of the plurality of face constituent parts, and a first one. First acquisition means for acquiring at least one of each of the first and second component images to generate a new face image based on a second face image having two backgrounds;
First background information for associating the first part image acquired by the first acquisition means with the first background, and the second background image for associating the acquired second part image with the second background. Background generating means for generating a background of the new face image based on the background information of 2;
An image processing apparatus comprising:
<Claim 2>
The background generation means is based on the importance of the first and second face constituent parts related to the first and second component images associated with each of the first and second background information. The image processing apparatus according to claim 1, wherein a background of the new face image is generated.
<Claim 3>
The background generation means specifies and specifies an evaluation value according to the importance of the face constituent unit related to the first and second component images associated with each of the first and second background information. The image processing apparatus according to claim 1, wherein a background of the new face image is generated based on the evaluated value.
<Claim 4>
A second acquisition means for acquiring identity information of the original face image that is the source of the new face image;
The background generation means generates the background of the new face image based on the first and second background information and the identity information acquired by the second acquisition means. 4. The image processing device according to any one of 3.
<Claim 5>
5. A portrait generating unit that generates a portrait image as the new face image using the first and second component images and the background generated by the background generating unit. The image processing apparatus according to any one of the above.
<Claim 6>
An image processing method using an image processing apparatus,
A plurality of first component images corresponding to each of the plurality of face constituent parts, a first face image having a first background, a plurality of second part images corresponding to each of the plurality of face constituent parts, and a first one. A process of acquiring at least one of the first and second component images to generate a new face image based on a second face image having two backgrounds;
First background information that associates the acquired first part image with the first background, and second background information that associates the acquired second part image with the second background. Based on the process of generating a background of the new face image,
An image processing method comprising:
<Claim 7>
The computer of the image processing device
A plurality of first component images corresponding to each of the plurality of face constituent parts, a first face image having a first background, a plurality of second part images corresponding to each of the plurality of face constituent parts, and a first one. First acquisition means for acquiring at least one of the first and second component images to generate a new face image based on a second face image having two backgrounds,
First background information for associating the first part image acquired by the first acquisition means with the first background, and the second background image for associating the acquired second part image with the second background. Background generating means for generating a background of the new face image based on the background information of 2;
A program characterized by functioning as

100、100A 撮像装置
1 中央制御部
8 記憶部
8a 部品画像
9、109 似顔絵処理部
9a 元画像取得部
9b 部品画像取得部
9c 関連情報取得部
9d 背景生成部
9e 似顔絵画像生成部
9f 本人情報取得部
A1 第1似顔絵画像
A2 第2似顔絵画像
A3 第3似顔絵画像
Q 似顔絵画像
100, 100A Imaging device 1 Central control unit 8 Storage unit 8a Component image 9, 109 Caricature processing unit 9a Original image acquisition unit 9b Component image acquisition unit 9c Related information acquisition unit 9d Background generation unit 9e Caricature image generation unit 9f Personal information acquisition unit A1 first portrait image A2 second portrait image A3 third portrait image Q portrait image

Claims (7)

複数の顔構成部のそれぞれに対応する複数の第1の部品画像並びに第1の背景を有する第1の顔画像と、複数の顔構成部のそれぞれに対応する複数の第2の部品画像並びに第2の背景を有する第2の顔画像とに基づいて、新たな顔画像を生成するために前記第1及び第2の部品画像をそれぞれ少なくとも一つ取得する第1取得手段と、
前記第1取得手段により取得された前記第1の部品画像と前記第1の背景とを関連付ける第1の背景情報と、取得された前記第2の部品画像と前記第2の背景とを関連付ける第2の背景情報とに基づいて、前記新たな顔画像の背景を生成する背景生成手段と、
を備えたことを特徴とする画像処理装置。
A plurality of first component images corresponding to each of the plurality of face constituent parts, a first face image having a first background, a plurality of second part images corresponding to each of the plurality of face constituent parts, and a first one. First acquisition means for acquiring at least one of each of the first and second component images to generate a new face image based on a second face image having two backgrounds;
First background information for associating the first part image acquired by the first acquisition means with the first background, and the second background image for associating the acquired second part image with the second background. Background generating means for generating a background of the new face image based on the background information of 2;
An image processing apparatus comprising:
前記背景生成手段は、前記第1及び第2の背景情報のそれぞれにより関連付けられている前記第1及び第2の部品画像に係る前記第1及び第2の顔構成部の重要度に基づいて、前記新たな顔画像の背景を生成することを特徴とする請求項1に記載の画像処理装置。   The background generation means is based on the importance of the first and second face constituent parts related to the first and second component images associated with each of the first and second background information. The image processing apparatus according to claim 1, wherein a background of the new face image is generated. 前記背景生成手段は、前記第1及び第2の背景情報のそれぞれにより関連付けられている前記第1及び第2の部品画像に係る顔構成部の重要度に応じた評価値を特定し、特定された評価値に基づいて、前記新たな顔画像の背景を生成することを特徴とする請求項1又は2に記載の画像処理装置。   The background generation means specifies and specifies an evaluation value according to the importance of the face constituent unit related to the first and second component images associated with each of the first and second background information. The image processing apparatus according to claim 1, wherein a background of the new face image is generated based on the evaluated value. 前記新たな顔画像の元となる元顔画像の本人情報を取得する第2取得手段を更に備え、
前記背景生成手段は、前記第1及び第2の背景情報並びに前記第2取得手段により取得された本人情報に基づいて、前記新たな顔画像の背景を生成することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
A second acquisition means for acquiring identity information of the original face image that is the source of the new face image;
The background generation means generates the background of the new face image based on the first and second background information and the identity information acquired by the second acquisition means. 4. The image processing device according to any one of 3.
前記第1及び第2の部品画像及び前記背景生成手段により生成された背景を用いて、前記新たな顔画像として似顔絵画像を生成する似顔絵生成手段を更に備えることを特徴とする請求項1〜4の何れか一項に記載の画像処理装置。   5. A portrait generating unit that generates a portrait image as the new face image using the first and second component images and the background generated by the background generating unit. The image processing apparatus according to any one of the above. 画像処理装置を用いた画像処理方法であって、
複数の顔構成部のそれぞれに対応する複数の第1の部品画像並びに第1の背景を有する第1の顔画像と、複数の顔構成部のそれぞれに対応する複数の第2の部品画像並びに第2の背景を有する第2の顔画像とに基づいて、新たな顔画像を生成するために前記第1及び第2の部品画像をそれぞれ少なくとも一つ取得する処理と、
取得された前記第1の部品画像と前記第1の背景とを関連付ける第1の背景情報と、取得された前記第2の部品画像と前記第2の背景とを関連付ける第2の背景情報とに基づいて、前記新たな顔画像の背景を生成する処理と、
を含むことを特徴とする画像処理方法。
An image processing method using an image processing apparatus,
A plurality of first component images corresponding to each of the plurality of face constituent parts, a first face image having a first background, a plurality of second part images corresponding to each of the plurality of face constituent parts, and a first one. A process of acquiring at least one of the first and second component images to generate a new face image based on a second face image having two backgrounds;
First background information that associates the acquired first part image with the first background, and second background information that associates the acquired second part image with the second background. Based on the process of generating a background of the new face image,
An image processing method comprising:
画像処理装置のコンピュータを、
複数の顔構成部のそれぞれに対応する複数の第1の部品画像並びに第1の背景を有する第1の顔画像と、複数の顔構成部のそれぞれに対応する複数の第2の部品画像並びに第2の背景を有する第2の顔画像とに基づいて、新たな顔画像を生成するために前記第1及び第2の部品画像をそれぞれ少なくとも一つ取得する第1取得手段、
前記第1取得手段により取得された前記第1の部品画像と前記第1の背景とを関連付ける第1の背景情報と、取得された前記第2の部品画像と前記第2の背景とを関連付ける第2の背景情報とに基づいて、前記新たな顔画像の背景を生成する背景生成手段、
として機能させることを特徴とするプログラム。
The computer of the image processing device
A plurality of first component images corresponding to each of the plurality of face constituent parts, a first face image having a first background, a plurality of second part images corresponding to each of the plurality of face constituent parts, and a first one. First acquisition means for acquiring at least one of the first and second component images to generate a new face image based on a second face image having two backgrounds,
First background information for associating the first part image acquired by the first acquisition means with the first background, and the second background image for associating the acquired second part image with the second background. Background generating means for generating a background of the new face image based on the background information of 2;
A program characterized by functioning as
JP2015180314A 2015-09-14 2015-09-14 Image processing apparatus, image processing method, and program Active JP6606935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015180314A JP6606935B2 (en) 2015-09-14 2015-09-14 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015180314A JP6606935B2 (en) 2015-09-14 2015-09-14 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2017058708A JP2017058708A (en) 2017-03-23
JP6606935B2 true JP6606935B2 (en) 2019-11-20

Family

ID=58391619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015180314A Active JP6606935B2 (en) 2015-09-14 2015-09-14 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6606935B2 (en)

Also Published As

Publication number Publication date
JP2017058708A (en) 2017-03-23

Similar Documents

Publication Publication Date Title
JP5880182B2 (en) Image generating apparatus, image generating method, and program
JP4906034B2 (en) Imaging apparatus, method, and program
JP5110098B2 (en) Display processing apparatus and program
JP5949331B2 (en) Image generating apparatus, image generating method, and program
CN108810406B (en) Portrait light effect processing method, device, terminal and computer readable storage medium
US20190335077A1 (en) Systems and methods for image capture and processing
JP6111723B2 (en) Image generating apparatus, image generating method, and program
JP2006012062A (en) Image processor and its method, program and imaging device
CN103369238B (en) Image creating device and image creating method
US20160180572A1 (en) Image creation apparatus, image creation method, and computer-readable storage medium
US20160189413A1 (en) Image creation method, computer-readable storage medium, and image creation apparatus
US20220329729A1 (en) Photographing method, storage medium and electronic device
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
US20160180569A1 (en) Image creation method, a computer-readable storage medium, and an image creation apparatus
CN104935805B (en) Image processing apparatus, image processing method and recording medium
JP6606935B2 (en) Image processing apparatus, image processing method, and program
JP6668646B2 (en) Image processing apparatus, image processing method, and program
JP6476811B2 (en) Image generating apparatus, image generating method, and program
JP2014174855A (en) Image processor, image processing method and program
JP6260094B2 (en) Image processing apparatus, image processing method, and program
JP2017021393A (en) Image generator, image generation method, and program
JP5927972B2 (en) Image generating apparatus, image generating method, and program
JP5962268B2 (en) Image processing apparatus, image processing method, image generation method, and program
JP5761386B2 (en) Image processing apparatus, image processing method, and image processing program
JP6142604B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191007

R150 Certificate of patent or registration of utility model

Ref document number: 6606935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150