JP2014182673A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2014182673A
JP2014182673A JP2013057526A JP2013057526A JP2014182673A JP 2014182673 A JP2014182673 A JP 2014182673A JP 2013057526 A JP2013057526 A JP 2013057526A JP 2013057526 A JP2013057526 A JP 2013057526A JP 2014182673 A JP2014182673 A JP 2014182673A
Authority
JP
Japan
Prior art keywords
image
eye
unit
black eye
black
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013057526A
Other languages
Japanese (ja)
Other versions
JP6260094B2 (en
Inventor
Keisuke Shimada
敬輔 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013057526A priority Critical patent/JP6260094B2/en
Publication of JP2014182673A publication Critical patent/JP2014182673A/en
Application granted granted Critical
Publication of JP6260094B2 publication Critical patent/JP6260094B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To improve expressiveness of eyes in a face image generated by binarization processing.SOLUTION: An imaging device 100 comprises: an image acquisition unit 6a that acquires a processed face image generated by performing binarization processing on an original image with a predetermined threshold; an eye detection unit 6c that detects an eye in the original image; and an iris-and-pupil drawing unit 6f that newly draws an iris-and-pupil area relatively larger than the iris and pupil of the detected eye in the processed image on the basis of the detection result of the eye.

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、目、鼻、口、耳、顔輪郭等の顔部品の特徴点を用いて似顔絵を作成する似顔絵作成装置が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there is known a portrait creation device that creates a portrait using feature points of facial parts such as eyes, nose, mouth, ears, and face contour (see, for example, Patent Document 1).

特開2004−145625号公報JP 2004-145625 A

ところで、写真画像に対して二値化処理等を行って似顔絵画像を生成する手法も知られているが、この場合、顔領域に対する黒目の大きさの比率が実際の顔と略等しくなってしまい、似顔絵画像における目の表現を適正に行うことができない虞がある。   By the way, a technique for generating a portrait image by performing binarization processing etc. on a photographic image is also known, but in this case, the ratio of the size of the black eye to the face area becomes substantially equal to the actual face. There is a possibility that the eyes in the portrait image cannot be properly expressed.

そこで、本発明の課題は、二値化処理により生成された顔画像における目の表現力の向上を図ることができる画像処理装置、画像処理方法及びプログラムを提供することである。   Therefore, an object of the present invention is to provide an image processing apparatus, an image processing method, and a program capable of improving the expressiveness of eyes in a face image generated by binarization processing.

上記課題を解決するため、本発明に係る画像処理装置は、
元画像を取得する第1取得手段と、前記元画像に対して所定の閾値で二値化処理が施されることで生成された処理済み顔画像を取得する第2取得手段と、前記第1取得手段により取得された元画像内で目を検出する目検出手段と、前記目検出手段によって検出された黒目領域の大きさに基づいて、当該検出された目の黒目領域よりも相対的に大きい黒目領域を前記第2取得手段により取得された処理済み画像内に新たに描画する黒目描画手段と、を備えたことを特徴としている。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
First acquisition means for acquiring an original image, second acquisition means for acquiring a processed face image generated by performing binarization processing on the original image with a predetermined threshold, and the first Based on the eye detection means for detecting eyes in the original image acquired by the acquisition means and the size of the black eye area detected by the eye detection means, it is relatively larger than the detected black eye area. A black eye drawing unit for newly drawing a black eye region in the processed image acquired by the second acquisition unit.

また、本発明に係る画像処理方法は、
画像処理装置を用いた画像処理方法であって、元画像を取得するステップと、前記元画像に対して所定の閾値で二値化処理が施されることで生成された処理済み顔画像を取得するステップと、取得された元画像内で目を検出するステップと、検出された目の黒目領域の大きさに基づいて、当該検出された黒目領域よりも相対的に大きい黒目領域を前記処理済み画像内に新たに描画するステップと、を含むことを特徴としている。
The image processing method according to the present invention includes:
An image processing method using an image processing apparatus, the step of acquiring an original image, and a processed face image generated by performing binarization processing on the original image with a predetermined threshold And a step of detecting eyes in the acquired original image, and processing the black eye area relatively larger than the detected black eye area based on the size of the detected black eye area. And a step of newly drawing in the image.

また、本発明に係るプログラムは、
画像処理装置のコンピュータを、元画像を取得する第1取得手段、前記元画像に対して所定の閾値で二値化処理が施されることで生成された処理済み顔画像を取得する第2取得手段、前記第1取得手段により取得された元画像内で目を検出する目検出手段、前記目検出手段によって検出された黒目領域の大きさに基づいて、当該検出された目の黒目領域よりも相対的に大きい黒目領域を前記第2取得手段により取得された処理済み画像内に新たに描画する黒目描画手段、として機能させることを特徴としている。
The program according to the present invention is
First acquisition means for acquiring an original image, a second acquisition for acquiring a processed face image generated by subjecting the original image to a binarization process with a predetermined threshold. Means based on the size of the black eye area detected by the eye detection means based on the size of the black eye area detected by the eye detection means. A relatively large black eye area is functioned as black eye drawing means for newly drawing in the processed image acquired by the second acquisition means.

本発明によれば、二値化処理により生成された顔画像における目の表現力の向上を図ることができる。   According to the present invention, it is possible to improve the expressiveness of eyes in a face image generated by binarization processing.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 図1の撮像装置による画像生成処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an image generation process performed by the imaging apparatus in FIG. 1. 図2の画像生成処理を説明するための図である。It is a figure for demonstrating the image generation process of FIG. 図2の画像生成処理を説明するための図である。It is a figure for demonstrating the image generation process of FIG. 図2の画像生成処理を説明するための図である。It is a figure for demonstrating the image generation process of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
図1に示すように、本実施形態の撮像装置100は、具体的には、撮像部1と、撮像制御部2と、画像データ生成部3と、メモリ4と、画像記録部5と、画像処理部6と、表示制御部7と、表示部8と、操作入力部9と、中央制御部10とを備えている。
また、撮像部1、撮像制御部2、画像データ生成部3、メモリ4、画像記録部5、画像処理部6、表示制御部7及び中央制御部10は、バスライン11を介して接続されている。
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment to which the present invention is applied.
As shown in FIG. 1, the imaging device 100 according to the present embodiment specifically includes an imaging unit 1, an imaging control unit 2, an image data generation unit 3, a memory 4, an image recording unit 5, and an image. A processing unit 6, a display control unit 7, a display unit 8, an operation input unit 9, and a central control unit 10 are provided.
The imaging unit 1, the imaging control unit 2, the image data generation unit 3, the memory 4, the image recording unit 5, the image processing unit 6, the display control unit 7, and the central control unit 10 are connected via a bus line 11. Yes.

なお、撮像装置100は、公知のものを適用可能であり、本実施形態のように、主要な機能を撮像機能とするデジタルカメラだけでなく、主要な機能としないものの撮像機能を具備する携帯電話機、スマートフォン等の携帯端末なども含む。   Note that a known device can be applied to the imaging apparatus 100, and not only a digital camera having a main function as an imaging function, but also a mobile phone having an imaging function that is not a main function as in the present embodiment. And mobile terminals such as smartphones.

撮像部1は、撮像手段として、所定の被写体を撮像してフレーム画像を生成する。具体的には、図示は省略するが、撮像部1は、例えば、ズームレンズやフォーカスレンズ等のレンズ部と、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等の電子撮像部と、ズームレンズやフォーカスレンズを光軸方向に移動させるレンズ駆動部とを備えている。   The imaging unit 1 captures a predetermined subject and generates a frame image as an imaging unit. Specifically, although not shown, the imaging unit 1 includes a lens unit such as a zoom lens and a focus lens, and electronic imaging such as a CCD (Charge Coupled Device) and a CMOS (Complementary Metal-oxide Semiconductor). And a lens driving unit that moves the zoom lens and the focus lens in the optical axis direction.

撮像制御部2は、撮像部1による被写体の撮像を制御する。即ち、撮像制御部2は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部2は、タイミング発生器、ドライバにより電子撮像部を走査駆動して、レンズ部を通過した光学像を電子撮像部により所定周期毎に二次元の画像信号に変換させ、当該電子撮像部の撮像領域から1画面分ずつフレーム画像を読み出して画像データ生成部3に出力させる。
また、撮像制御部2は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮像する際の条件の調整制御を行っても良い。
The imaging control unit 2 controls the imaging of the subject by the imaging unit 1. That is, the imaging control unit 2 includes a timing generator, a driver, and the like, although not illustrated. Then, the imaging control unit 2 scans and drives the electronic imaging unit with a timing generator and a driver, and converts the optical image that has passed through the lens unit into a two-dimensional image signal with a predetermined period by the electronic imaging unit. A frame image for each screen is read from the imaging area of the imaging unit and output to the image data generation unit 3.
Further, the imaging control unit 2 may perform adjustment control of conditions when imaging an object such as AF (automatic focusing process), AE (automatic exposure process), AWB (automatic white balance), and the like.

画像データ生成部3は、撮像部1の電子撮像部から転送されたフレーム画像のアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用されるメモリにDMA転送される。
The image data generation unit 3 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the frame image transferred from the electronic imaging unit of the imaging unit 1, and then performs sample holding by a sample hold circuit (not shown). The A / D converter (not shown) converts it into digital data, and the color process circuit (not shown) performs color process processing including pixel interpolation processing and γ correction processing. Color difference signals Cb and Cr (YUV data) are generated.
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to a memory used as a buffer memory via a DMA controller (not shown).

メモリ4は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、画像処理部6や中央制御部10等によって処理されるデータ等を一時的に格納する。   The memory 4 is composed of, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data processed by the image processing unit 6 or the central control unit 10.

画像記録部5は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部6の符号化部(図示略)により所定の圧縮形式(例えば、JPEG形式等)で符号化された記録用の画像データを記録する。また、画像記録部5は、画像生成処理の処理対象画像として、例えば、似顔絵画像P1の画像データを元画像の画像データと対応付けて記録する。
なお、画像記録部5は、例えば、記録媒体(図示略)が着脱自在に構成され、装着された記録媒体からのデータの読み出しや記録媒体に対するデータの書き込みを制御する構成であっても良い。
The image recording unit 5 is configured by, for example, a non-volatile memory (flash memory) or the like, and is recorded by a coding unit (not shown) of the image processing unit 6 in a predetermined compression format (for example, JPEG format). Record image data for use. The image recording unit 5 records, for example, the image data of the portrait image P1 in association with the image data of the original image as the processing target image of the image generation process.
The image recording unit 5 may be configured, for example, such that a recording medium (not shown) is detachable, and controls reading of data from the loaded recording medium and writing of data to the recording medium.

画像処理部6は、画像取得部6aと、似顔絵画像生成部6bと、目検出部6cと、マスク生成部6dと、範囲設定部6eと、黒目描画部6fとを具備している。
なお、画像処理部6の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The image processing unit 6 includes an image acquisition unit 6a, a portrait image generation unit 6b, an eye detection unit 6c, a mask generation unit 6d, a range setting unit 6e, and a black eye drawing unit 6f.
Note that each unit of the image processing unit 6 is configured by, for example, a predetermined logic circuit, but the configuration is an example and is not limited thereto.

画像取得部6aは、画像生成処理の処理対象となる画像を取得する。
即ち、画像取得部(第1取得手段)6aは、元画像(例えば、写真画像等;図示略)の画像データを取得する。具体的には、第1画像取得部6aは、撮像部1及び撮像制御部2による被写体の撮像によって画像データ生成部3により生成された元画像の画像データ(RGBデータやYUVデータ)の複製をメモリ4から取得したり、画像記録部5に記録されている元画像の画像データの複製を取得する。
また、画像取得部(第2取得手段)6aは、似顔絵画像(処理済み顔画像)P1の画像データを取得する(図3(a)参照)。具体的には、画像取得部6aは、例えば、似顔絵画像生成部6bにより生成されて画像記録部5に記録されている似顔絵画像P1の画像データの複製を取得する。
なお、後述する画像処理部6による各処理は、元画像や似顔絵画像P1の画像データ自体に対して行われても良いし、必要に応じて元画像や似顔絵画像P1の画像データを所定の比率で縮小した所定サイズ(例えば、VGAサイズ等)の縮小画像データに対して行われても良い。
The image acquisition unit 6a acquires an image to be processed in the image generation process.
That is, the image acquisition unit (first acquisition unit) 6a acquires image data of an original image (for example, a photographic image; not shown). Specifically, the first image acquisition unit 6a duplicates the image data (RGB data or YUV data) of the original image generated by the image data generation unit 3 by imaging the subject by the imaging unit 1 and the imaging control unit 2. A copy of the image data of the original image acquired from the memory 4 or recorded in the image recording unit 5 is acquired.
The image acquisition unit (second acquisition unit) 6a acquires image data of the portrait image (processed face image) P1 (see FIG. 3A). Specifically, the image acquisition unit 6a acquires, for example, a copy of the image data of the portrait image P1 generated by the portrait image generation unit 6b and recorded in the image recording unit 5.
Each process by the image processing unit 6 to be described later may be performed on the image data itself of the original image or the portrait image P1, or the image data of the original image or the portrait image P1 is converted to a predetermined ratio as necessary. This may be performed on the reduced image data of a predetermined size (for example, VGA size, etc.) reduced in step (b).

似顔絵画像生成部6bは、顔を模式的に表した似顔絵画像P1を生成する。
即ち、似顔絵画像生成部6bは、元画像(図示略)に対して所定の閾値で二値化処理を施して似顔絵画像(処理済み顔画像)P1を生成する。具体的には、似顔絵画像生成部6bは、例えば、元画像(例えば、写真画像等)に対して平滑化処理やぼかし処理等を行なった後、所定の閾値で二値化処理を施して二値化画像を生成する。次に、似顔絵画像生成部6bは、例えば、所定の顔検出処理により二値化画像から顔領域を検出した後、顔領域に対して微細部抽出処理を施して、例えば、目、鼻、口、眉、髪の毛、顔の輪郭等の顔構成部を線で表した顔微細部画像(図示略)を生成する。そして、似顔絵画像生成部6bは、顔領域内の顔の輪郭内に存する顔構成部及び当該輪郭と接する顔構成部を線で表した、例えば、目、鼻、口、眉等の主要な顔構成部のパーツ画像を含む顔構成部画像(図示略)を生成する。その後、似顔絵画像生成部6bは、所定の髪型画像の顔の輪郭よりも内側にて各顔構成部のパーツ画像を重畳させる位置を特定し、当該位置に各顔構成部のパーツ画像を重畳させて、元画像を似顔絵で模式的に表した似顔絵画像P1の画像データを生成する。
ここで、似顔絵画像生成部6bは、似顔絵画像P1の所定の部分(例えば、目、口、眉等の顔構成部等)に所定の色を付けて表した画像を生成しても良い。
なお、上記した平滑化処理、ぼかし処理、二値化処理、顔検出処理等は、公知の技術であるので、ここでは詳細な説明を省略する。
The portrait image generating unit 6b generates a portrait image P1 that schematically represents the face.
In other words, the portrait image generation unit 6b performs a binarization process on the original image (not shown) with a predetermined threshold to generate a portrait image (processed face image) P1. Specifically, for example, the portrait image generation unit 6b performs smoothing processing, blurring processing, and the like on the original image (for example, a photographic image), and then performs binarization processing with a predetermined threshold value to perform binarization processing. Generate a digitized image. Next, the portrait image generation unit 6b detects a face area from the binarized image by a predetermined face detection process, for example, and then performs a fine part extraction process on the face area, for example, eyes, nose, mouth Then, a fine face portion image (not shown) in which the face constituting portions such as the eyebrows, the hair, and the face contour are represented by lines is generated. Then, the caricature image generation unit 6b represents the main face such as eyes, nose, mouth, and eyebrows, for example, with lines representing the face constituent part existing in the face contour in the face region and the face constituent part in contact with the contour. A face component image (not shown) including a part image of the component is generated. After that, the portrait image generation unit 6b specifies a position where the part image of each face component is superimposed on the inner side of the face outline of the predetermined hairstyle image, and superimposes the part image of each face component on the position. Then, the image data of the portrait image P1 schematically representing the original image with the portrait is generated.
Here, the portrait image generation unit 6b may generate an image represented by adding a predetermined color to a predetermined portion of the portrait image P1 (for example, a face component such as eyes, mouth, and eyebrows).
Note that the smoothing process, the blurring process, the binarization process, the face detection process, and the like described above are known techniques, and thus detailed description thereof is omitted here.

目検出部6cは、似顔絵画像P1内で目Eを検出する。
即ち、目検出部(目検出手段)6cは、画像取得部6aにより取得された元画像内で目Eを検出する。具体的には、目検出部6cは、例えば、AAM(Active Appearance Model)を用いた処理により目Eを構成する黒目Ea、上瞼Eb、下瞼Ecを元画像内で特定して検出する。
ここで、AAMとは、視覚的事象のモデル化の一手法であり、任意の顔領域の画像のモデル化を行う処理である。例えば、目検出部6cは、複数のサンプル顔画像における所定の特徴部位(例えば、目じりや鼻頭やフェイスライン等)の位置や画素値(例えば、輝度値)の統計的分析結果を所定の登録手段に登録しておく。そして、目検出部6cは、上記の特徴部位の位置を基準として、顔の形状を表す形状モデルや平均的な形状における「Appearance」を表すテクスチャーモデルを設定し、これらのモデルを用いて顔領域の画像をモデル化する。これにより、元画像内で目Eを構成する黒目Ea、上瞼Eb、下瞼Ecがモデル化される(図3(b)参照)。
なお、黒目とは、瞳孔の大きさを調節して網膜に入る光の量を調節する虹彩に相当する領域、即ち、目Eの白目以外の領域のことである。また、例えば、虹彩の色が黒以外である、所謂、碧眼の場合も、二値化処理により目の白目以外の領域が黒画素で表されるため、形式的に黒目と言うものとする。
The eye detection unit 6c detects the eye E in the portrait image P1.
That is, the eye detection unit (eye detection means) 6c detects the eye E in the original image acquired by the image acquisition unit 6a. Specifically, the eye detection unit 6c identifies and detects the black eye Ea, the upper eyelid Eb, and the lower eyelid Ec that constitute the eye E in the original image, for example, by processing using an AAM (Active Appearance Model).
Here, AAM is a technique for modeling a visual event, and is a process for modeling an image of an arbitrary face region. For example, the eye detection unit 6c uses predetermined registration means for statistical analysis results of positions and pixel values (for example, luminance values) of predetermined feature parts (for example, eyes, nasal heads, face lines, etc.) in a plurality of sample face images. Register with. Then, the eye detection unit 6c sets a shape model representing the shape of the face and a texture model representing “Appearance” in the average shape with reference to the position of the characteristic part, and using these models, the face region Model the image. Thereby, the black eye Ea, the upper eyelid Eb, and the lower eyelid Ec constituting the eye E in the original image are modeled (see FIG. 3B).
The black eye is a region corresponding to an iris that adjusts the amount of light entering the retina by adjusting the size of the pupil, that is, a region other than the white eye of the eye E. In addition, for example, in the case of so-called blind eyes in which the color of the iris is other than black, the region other than the white of the eyes is represented by black pixels by the binarization process, and hence it is formally referred to as a black eye.

マスク生成部6dは、似顔絵画像P1内で目E以外の他の領域を被覆するマスク画像Mを生成する。
即ち、マスク生成部(生成手段)6dは、似顔絵画像(処理済み顔画像)P1内で目検出部6cにより検出された目E以外の他の領域を被覆するマスク画像Mを生成する。具体的には、マスク生成部6dは、例えば、左右各々の目Eについて、上瞼Eb及び下瞼Ecを目Eの輪郭とするマスク領域Maを有するマスク画像Mを生成する(図4(a)参照)。
マスク生成部6dにより生成されたマスク画像Mは、左右のマスク領域Maの中心(例えば、黒目に相当する部分の中心等)が対応する目Eの黒目Eaの中心と略一致するように似顔絵画像P1に適用されることで、当該マスク画像Mによって似顔絵画像P1の目E以外の他の全ての領域が被覆された状態となる(図4(b)参照)。
The mask generation unit 6d generates a mask image M that covers a region other than the eyes E in the portrait image P1.
That is, the mask generation unit (generation unit) 6d generates a mask image M that covers a region other than the eyes E detected by the eye detection unit 6c in the portrait image (processed face image) P1. Specifically, for example, the mask generation unit 6d generates, for each of the left and right eyes E, a mask image M having a mask region Ma having the upper eyelid Eb and the lower eyelid Ec as the outline of the eye E (FIG. 4A )reference).
The mask image M generated by the mask generation unit 6d is a portrait image so that the center of the left and right mask areas Ma (for example, the center of the portion corresponding to the black eye) substantially matches the center of the corresponding black eye Ea of the eye E. By being applied to P1, all the regions other than the eyes E of the portrait image P1 are covered with the mask image M (see FIG. 4B).

範囲設定部6eは、似顔絵画像P1内で塗り潰し範囲Aを設定する。
即ち、範囲設定部(設定手段)6eは、マスク生成部6dにより生成されたマスク画像Mを用いて、似顔絵画像(処理済み顔画像)P1内で所定の色で塗り潰される塗り潰し範囲(所定範囲)Aを設定する。具体的には、範囲設定部6eは、マスク画像Mを用いて、目検出部6cにより検出された左右各々の目Eについて、目Eの輪郭(上瞼Eb及び下瞼Ec)からはみ出さないように塗り潰し範囲Aを設定する(図4(b)参照)。
例えば、範囲設定部6eは、目検出部6cにより検出された左右各々の目Eについて、似顔絵画像P1内での黒目Eaの中心の座標位置及び黒目Eaの大きさ(例えば、半径等)を算出する。そして、範囲設定部6eは、マスク画像Mを各マスク領域Maの中心が対応する目Eの黒目Eaの中心と略一致するように似顔絵画像P1に適用した後、マスク領域Maの中で、黒目Eaの中心の座標位置を中心とし、且つ、黒目Eaの半径に所定の係数(例えば、1.3等)を乗算した長さを半径とする円形状の塗り潰し範囲Aを設定する。
なお、塗り潰し範囲Aの半径を算出するために、黒目Eaの半径に乗算される所定の係数は、一例であってこれに限られるものではなく、塗り潰し範囲Aがマスク領域Maをはみ出さない範囲内で適宜任意に変更可能である。また、塗り潰し範囲Aの形状は、円形状に限られるものではなく、例えば、楕円形状等であっても良い。
The range setting unit 6e sets a filled range A in the portrait image P1.
That is, the range setting unit (setting unit) 6e uses the mask image M generated by the mask generation unit 6d to fill in a predetermined color in the portrait image (processed face image) P1 (predetermined range). Set A. Specifically, the range setting unit 6e uses the mask image M to prevent the left and right eyes E detected by the eye detection unit 6c from protruding from the contours of the eyes E (upper eye Eb and lower eyelid Ec). In this way, the filling range A is set (see FIG. 4B).
For example, the range setting unit 6e calculates, for each of the left and right eyes E detected by the eye detection unit 6c, the coordinate position of the center of the black eye Ea and the size (for example, radius) of the black eye Ea in the portrait image P1. To do. Then, the range setting unit 6e applies the mask image M to the portrait image P1 so that the center of each mask area Ma substantially coincides with the center of the black eye Ea of the corresponding eye E, and then the black eye in the mask area Ma. A circular fill range A is set with the radius being a length obtained by multiplying the radius of the black eye Ea by a predetermined coefficient (for example, 1.3) with the coordinate position of the center of Ea as the center.
The predetermined coefficient multiplied by the radius of the black eye Ea in order to calculate the radius of the filled area A is an example and is not limited to this, and the area in which the filled area A does not protrude from the mask area Ma. It can be arbitrarily changed within the scope. Further, the shape of the filling range A is not limited to the circular shape, and may be, for example, an elliptical shape.

黒目描画部6fは、似顔絵画像P1内で黒目領域A1の大きさを相対的に大きくするように変更する。
即ち、黒目描画部(黒目描画手段)6fは、目検出部6cによる目Eの検出結果に基づいて、似顔絵画像(処理済み顔画像)P1内で大きさを相対的に大きくした黒目領域A1を新たに描画する。つまり、黒目描画部6fは、目検出部6cにより検出された目Eの黒目Eaの大きさに基づいて、当該検出された黒目Eaよりも相対的に大きい黒目領域A1を似顔絵画像P1内に新たに描画する。
具体的には、黒目描画部6fは、似顔絵画像P1内で黒目領域A1の所定位置(例えば、中心)を基準とする塗り潰し範囲(所定範囲)Aを所定の色で塗り潰して、当該黒目領域A1の大きさを相対的に大きくするように新たに描画する。例えば、黒目描画部6fは、似顔絵画像P1における塗り潰し範囲Aの内側を所定の色(例えば、黒色)で塗り潰すことで、似顔絵画像P1内で黒目領域A1の大きさを相対的に大きくする(図5参照)。
The black eye drawing unit 6f changes the size of the black eye region A1 to be relatively large in the portrait image P1.
That is, the black eye drawing unit (black eye drawing unit) 6f creates a black eye region A1 having a relatively large size in the portrait image (processed face image) P1 based on the detection result of the eye E by the eye detection unit 6c. Draw a new one. That is, the black eye drawing unit 6f newly adds a black eye region A1 that is relatively larger than the detected black eye Ea to the portrait image P1 based on the size of the black eye Ea of the eye E detected by the eye detection unit 6c. To draw.
Specifically, the black-eye drawing unit 6f fills a filled range (predetermined range) A with a predetermined color based on a predetermined position (for example, the center) of the black-eye region A1 in the portrait image P1, and the black-eye region A1. New drawing is performed so that the size of is relatively large. For example, the black eye drawing unit 6f relatively enlarges the size of the black eye area A1 in the portrait image P1 by painting the inside of the painting range A in the portrait image P1 with a predetermined color (for example, black) ( (See FIG. 5).

表示制御部7は、メモリ4に一時的に格納されている表示用の画像データを読み出して表示部8に表示させる制御を行う。
具体的には、表示制御部7は、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部10の制御下にてメモリ4から読み出されてVRAM(図示略)に格納されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部8に出力する。
The display control unit 7 performs control to read display image data temporarily stored in the memory 4 and display it on the display unit 8.
Specifically, the display control unit 7 includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. The digital video encoder reads the luminance signal Y and the color difference signals Cb and Cr read from the memory 4 and stored in the VRAM (not shown) under the control of the central control unit 10 through the VRAM controller. Are periodically read out, and a video signal is generated based on these data and output to the display unit 8.

表示部8は、例えば、液晶表示パネルであり、表示制御部7からのビデオ信号に基づいて撮像部1により撮像された画像などを表示画面に表示する。具体的には、表示部8は、静止画撮像モードや動画撮像モードにて、撮像部1及び撮像制御部2による被写体の撮像により生成された複数のフレーム画像を所定のフレームレートで逐次更新しながらライブビュー画像を表示する。また、表示部8は、静止画として記録される画像(レックビュー画像)を表示したり、動画として記録中の画像を表示する。   The display unit 8 is, for example, a liquid crystal display panel, and displays an image captured by the imaging unit 1 based on a video signal from the display control unit 7 on a display screen. Specifically, the display unit 8 sequentially updates a plurality of frame images generated by imaging the subject by the imaging unit 1 and the imaging control unit 2 at a predetermined frame rate in the still image capturing mode and the moving image capturing mode. While displaying the live view image. The display unit 8 displays an image (rec view image) recorded as a still image or an image being recorded as a moving image.

操作入力部9は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部9は、被写体の撮像指示に係るシャッタボタン、撮像モードや機能等の選択指示に係る選択決定ボタン、ズーム量の調整指示に係るズームボタン等(何れも図示略)の操作部を備え、当該操作部の各ボタンの操作に応じて所定の操作信号を中央制御部10に出力する。   The operation input unit 9 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 9 includes a shutter button related to an imaging instruction of a subject, a selection determination button related to an instruction to select an imaging mode and a function, a zoom button related to an instruction to adjust the zoom amount, and the like (all not shown). And outputs a predetermined operation signal to the central control unit 10 in accordance with the operation of each button of the operation unit.

中央制御部10は、撮像装置100の各部を制御するものである。具体的には、中央制御部10は、図示は省略するが、CPU(Central Processing Unit)等を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 10 controls each unit of the imaging device 100. Specifically, although not shown, the central control unit 10 includes a CPU (Central Processing Unit) and the like, and performs various control operations according to various processing programs (not shown) for the imaging apparatus 100.

<画像生成処理>
次に、撮像装置100による画像生成処理について、図2〜図5を参照して説明する。
図2は、画像生成処理に係る動作の一例を示すフローチャートである。
<Image generation processing>
Next, image generation processing by the imaging apparatus 100 will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the image generation process.

画像生成処理は、ユーザによる操作入力部9の選択決定ボタンの所定操作に基づいて、メニュー画面に表示された複数の動作モードの中から画像生成モードが選択指示された場合に、中央制御部10の制御下にて当該撮像装置100の各部、特に画像処理部6により実行される処理である。
また、画像生成処理の処理対象となる元画像及び似顔絵画像P1の画像データは、予め画像記録部5に記録されているものとする。
The image generation process is performed when the central control unit 10 is instructed to select an image generation mode from a plurality of operation modes displayed on the menu screen based on a predetermined operation of the selection determination button of the operation input unit 9 by the user. This process is executed by each unit of the imaging apparatus 100, particularly the image processing unit 6 under the control of the above.
Further, it is assumed that the image data of the original image and the portrait image P1 to be processed in the image generation process are recorded in the image recording unit 5 in advance.

図2に示すように、先ず、画像取得部6aは、画像記録部5に記録されている複数の似顔絵画像P1の画像データの中で、ユーザによる操作入力部9の所定操作に基づいて画像生成処理の処理対象として指定された画像データを画像記録部5から読み出して取得する(ステップS1;図3(a)参照)。また、画像取得部6aは、似顔絵画像P1と対応付けられている元画像の画像データを画像記録部5から読み出して取得する。
次に、目検出部6cは、画像取得部6aにより取得された元画像の画像データに対して所定の目検出処理(例えば、AAM等)を行って、目Eを構成する黒目Ea、上瞼Eb、下瞼Ecを検出する(ステップS2;図3(b)参照)。続けて、マスク生成部6dは、目検出部6cにより検出された左右各々の目Eについて、上瞼Eb及び下瞼Ecを目Eの輪郭とするマスク領域Maを有するマスク画像Mを生成する(ステップS3;図4(a)参照)。
As shown in FIG. 2, first, the image acquisition unit 6 a generates an image based on a predetermined operation of the operation input unit 9 by the user among the image data of the plurality of portrait images P <b> 1 recorded in the image recording unit 5. Image data designated as a processing target is read out from the image recording unit 5 and acquired (step S1; see FIG. 3A). Further, the image acquisition unit 6a reads out and acquires the image data of the original image associated with the portrait image P1 from the image recording unit 5.
Next, the eye detection unit 6c performs a predetermined eye detection process (for example, AAM or the like) on the image data of the original image acquired by the image acquisition unit 6a, so that the black eye Ea and upper eye Eb and lower eyelid Ec are detected (step S2; see FIG. 3B). Subsequently, the mask generation unit 6d generates a mask image M having a mask area Ma having the upper eye Eb and the lower eyelid Ec as the outline of the eye E for each of the left and right eyes E detected by the eye detection unit 6c ( Step S3; see FIG. 4 (a)).

次に、範囲設定部6eは、目検出部6cにより検出された左右各々の目Eについて、黒目Eaの中心の座標位置及び黒目Eaの大きさ(例えば、半径等)を算出する(ステップS4)。続けて、範囲設定部6eは、マスク画像Mを各マスク領域Maの中心が対応する目Eの黒目Eaの中心と略一致するように似顔絵画像P1に適用して、マスク領域Maの中で塗り潰し範囲Aを設定する(ステップS5;図4(b)参照)。具体的には、範囲設定部6eは、黒目Eaの中心の座標位置を中心とし、且つ、黒目Eaの半径に所定の係数を乗算した長さを半径とする円形状の塗り潰し範囲Aを設定する。   Next, the range setting unit 6e calculates the coordinate position of the center of the black eye Ea and the size (for example, radius, etc.) of the black eye Ea for each of the left and right eyes E detected by the eye detection unit 6c (step S4). . Subsequently, the range setting unit 6e applies the mask image M to the portrait image P1 so that the center of each mask area Ma substantially coincides with the center of the black eye Ea of the corresponding eye E, and fills in the mask area Ma. A range A is set (step S5; see FIG. 4B). Specifically, the range setting unit 6e sets a circular filled range A with the radius being the length obtained by multiplying the radius of the black eye Ea by a predetermined coefficient around the coordinate position of the center of the black eye Ea. .

その後、黒目描画部6fは、似顔絵画像P1内で塗り潰し範囲Aの内側を所定の色(例えば、黒色)で塗り潰して、相対的に大きくした黒目領域A1を新たに描画した黒目拡大画像P2を生成する(ステップS6;図5参照)。その後、画像記録部5は、黒目拡大画像P2の画像データを取得して記録する。
これにより、画像生成処理を終了する。
Thereafter, the black-eye drawing unit 6f generates a black-eye enlarged image P2 in which a relatively large black-eye region A1 is newly drawn by filling the inside of the filling range A with a predetermined color (for example, black) in the portrait image P1. (Step S6; see FIG. 5). Thereafter, the image recording unit 5 acquires and records the image data of the black-eye enlarged image P2.
Thereby, the image generation process is terminated.

以上のように、本実施形態の撮像装置100によれば、目Eの検出結果に基づいて、所定の閾値で二値化処理が施されることで生成された似顔絵画像(処理済み顔画像)P1内で相対的に大きくした黒目領域A1を新たに描画するので、似顔絵画像P1内の目Eを全体的に大きくするのではなく、黒目領域A1を白目領域に対して相対的に大きくすることができ、二値化処理により生成された顔画像における目Eの表現力の向上を図ることができる。即ち、似顔絵画像P1は、二値化処理が施されて生成されることから、顔領域に対する黒目の大きさの比率が実際の顔と略等しくなってしまうため、似顔絵画像P1の完成度が低下してしまい、似顔絵画像P1の視認者の満足度が低下する虞があるが、白目領域に対して相対的に大きした黒目領域A1を新たに描画することで、二値化処理により生成された似顔絵画像P1における目Eの表現力を向上させて当該似顔絵画像P1の完成度を向上させることができる。   As described above, according to the imaging apparatus 100 of the present embodiment, a portrait image (processed face image) generated by performing binarization processing at a predetermined threshold based on the detection result of the eye E. Since the black eye area A1 that is relatively enlarged in P1 is newly drawn, the eye E in the portrait image P1 is not enlarged as a whole, but the black eye area A1 is made relatively larger than the white eye area. It is possible to improve the expressive power of the eyes E in the face image generated by the binarization process. That is, since the portrait image P1 is generated by performing the binarization process, the ratio of the size of the black eye to the face area becomes substantially equal to the actual face, so the degree of completeness of the portrait image P1 decreases. However, there is a possibility that the viewer's satisfaction with the portrait image P1 may be reduced, but it is generated by binarization processing by newly drawing a black eye area A1 that is relatively larger than the white eye area. The expressive power of the eyes E in the portrait image P1 can be improved and the completeness of the portrait image P1 can be improved.

また、似顔絵画像P1内で黒目領域A1の所定位置を基準とする塗り潰し範囲(所定範囲)Aを所定の色で塗り潰して、黒目領域A1を相対的に大きくするように新たに描画するので、黒目領域A1の大きさの変更を簡便な処理で適正に行うことができる。
具体的には、似顔絵画像P1内で目E以外の他の領域を被覆するマスク画像Mを用いて、当該似顔絵画像P1内で塗り潰し範囲Aを設定して、設定された塗り潰し範囲Aを所定の色で塗り潰すことで、相対的に大きくした黒目領域A1を新たに描画することができる。特に、マスク画像Mを用いて、目Eの輪郭からはみ出さないように塗り潰し範囲Aを設定するので、塗り潰し範囲Aの設定を適正に行うことができ、黒目領域A1の大きさの変更を適正に行うことができる。
Also, since the painted range (predetermined range) A based on the predetermined position of the black eye area A1 in the portrait image P1 is filled with a predetermined color, and the black eye area A1 is newly drawn to be relatively large, the black eye The size of the area A1 can be appropriately changed by simple processing.
Specifically, using the mask image M that covers a region other than the eyes E in the portrait image P1, a fill range A is set in the portrait image P1, and the set fill range A is set to a predetermined range. By painting with colors, a relatively enlarged black eye area A1 can be newly drawn. In particular, since the fill area A is set so as not to protrude from the outline of the eye E using the mask image M, the fill area A can be set appropriately and the size of the black eye area A1 can be changed appropriately. Can be done.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態にあっては、似顔絵画像P1内で設定された塗り潰し範囲Aを所定の色で塗り潰すことで、似顔絵画像P1内で黒目領域A1の大きさを相対的に大きくするようにしたが、黒目領域A1の大きさの変更の手法の一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、似顔絵画像P1内の黒目領域A1以外の白目領域の大きさを相対的に小さくすることで、黒目領域A1の大きさを相対的に大きくするようにしても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above embodiment, the size of the black eye area A1 is relatively increased in the portrait image P1 by filling the fill range A set in the portrait image P1 with a predetermined color. However, this is an example of a method for changing the size of the black eye area A1, and is not limited to this, and can be arbitrarily changed as appropriate. For example, the size of the black eye region A1 may be relatively increased by relatively reducing the size of the white eye region other than the black eye region A1 in the portrait image P1.

また、上記実施形態にあっては、似顔絵画像P1は正面顔を表した画像である必要はなく、例えば、所定の軸を中心として斜めを向くように顔が傾いた似顔絵画像P1であっても良い。この場合には、当該似顔絵画像P1の顔が正面を向くように変形させた画像を生成して用いても良い。   In the above embodiment, the portrait image P1 does not need to be an image representing the front face. For example, the portrait image P1 may be a portrait image P1 whose face is tilted around a predetermined axis. good. In this case, an image in which the face of the portrait image P1 is deformed so that the face faces the front may be generated and used.

さらに、上記実施形態にあっては、顔を模式的に表した似顔絵画像P1を生成する似顔絵画像生成部6bを具備するようにしたが、一例であってこれに限られるものではなく、必ずしも似顔絵画像生成部6bを具備する必要はない。
また、上記実施形態にあっては、画像生成処理の処理対象画像として、似顔絵画像P1を例示したが、一例であってこれに限られるものではなく、例えば、似顔絵に加工する処理前の画像、即ち、撮像部1により撮像された画像であっても良い。加えて、似顔絵に加工する処理前の画像から似顔絵画像P1を生成する際に、黒目領域A1を相対的に大きくするように新たに描画しても良い。
Furthermore, in the above embodiment, the portrait image generating unit 6b that generates the portrait image P1 schematically representing the face is provided. However, the embodiment is not limited to this example, and the portrait is not necessarily limited thereto. It is not necessary to include the image generation unit 6b.
In the above embodiment, the portrait image P1 is exemplified as the processing target image of the image generation process. However, the image is not limited to this example. For example, an image before processing to process the portrait, That is, an image captured by the imaging unit 1 may be used. In addition, when the portrait image P1 is generated from the pre-processed image to be processed into a portrait, the black eye region A1 may be newly drawn so as to be relatively large.

さらに、上記実施形態にあっては、処理済み顔画像として、似顔絵画像P1を例示したが、一例であってこれに限られるものではなく、所定の閾値で二値化処理が施されることで生成された顔画像であれば適宜任意に変更可能である。   Furthermore, in the said embodiment, although the portrait image P1 was illustrated as a processed face image, it is an example and it is not restricted to this, A binarization process is performed by a predetermined threshold value. The generated face image can be arbitrarily changed as appropriate.

また、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。また、画像処理装置として、撮像装置100を例示したが、これに限られるものではなく、本発明に係る画像処理を実行可能なものであれば如何なる構成であっても良い。   In addition, the configuration of the imaging apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto. Further, although the imaging apparatus 100 has been exemplified as the image processing apparatus, the present invention is not limited to this, and any configuration may be used as long as the image processing according to the present invention can be executed.

加えて、上記実施形態にあっては、第1取得手段、第2取得手段、目検出手段、黒目描画手段としての機能を、中央制御部10のCPUの制御下にて、画像取得部6a、目検出部6c、黒目描画部6fが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部10のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、第1取得処理ルーチン、第2取得処理ルーチン、目検出処理ルーチン、黒目描画処理ルーチンを含むプログラムを記憶しておく。そして、第1取得処理ルーチンにより中央制御部10のCPUを、元画像を取得する手段として機能させるようにしても良い。また、第2取得処理ルーチンにより中央制御部10のCPUを、元画像に対して所定の閾値で二値化処理が施されることで生成された処理済み顔画像を取得する手段として機能させるようにしても良い。また、目検出処理ルーチンにより中央制御部10のCPUを、取得された元画像内で目Eを検出する手段として機能させるようにしても良い。また、黒目描画処理ルーチンにより中央制御部10のCPUを、目Eの検出結果に基づいて、当該検出された目Eの黒目領域よりも相対的に大きい黒目領域A1を処理済み顔画像内で新たに描画する手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions of the first acquisition unit, the second acquisition unit, the eye detection unit, and the black eye drawing unit are controlled under the control of the CPU of the central control unit 10 by the image acquisition unit 6a, The configuration is realized by driving the eye detection unit 6c and the black eye drawing unit 6f. However, the configuration is not limited to this, and is realized by executing a predetermined program or the like by the CPU of the central control unit 10. It is good also as a structure.
That is, a program including a first acquisition processing routine, a second acquisition processing routine, an eye detection processing routine, and a black eye drawing processing routine is stored in a program memory (not shown) that stores the program. Then, the CPU of the central control unit 10 may function as means for acquiring the original image by the first acquisition processing routine. Further, the CPU of the central control unit 10 is caused to function as means for acquiring a processed face image generated by performing binarization processing on the original image with a predetermined threshold by the second acquisition processing routine. Anyway. Further, the CPU of the central control unit 10 may function as a means for detecting the eye E in the acquired original image by the eye detection processing routine. Further, the CPU of the central control unit 10 in the black eye drawing processing routine newly creates a black eye area A1 relatively larger than the black eye area of the detected eye E in the processed face image based on the detection result of the eye E. You may make it function as a means to draw in.

同様に、生成手段、設定手段についても、中央制御部10のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, the generation unit and the setting unit may be realized by a predetermined program executed by the CPU of the central control unit 10.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
元画像を取得する第1取得手段と、
前記元画像に対して所定の閾値で二値化処理が施されることで生成された処理済み顔画像を取得する第2取得手段と、
前記第1取得手段により取得された元画像内で目を検出する目検出手段と、
前記目検出手段によって検出された目の黒目領域の大きさに基づいて、当該検出された黒目領域よりも相対的に大きい黒目領域を前記第2取得手段により取得された処理済み画像内に新たに描画する黒目描画手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記黒目描画手段は、更に、
前記処理済み顔画像内で前記黒目領域の所定位置を基準とする所定範囲を所定の色で塗り潰して、前記黒目領域の大きさを相対的に大きくするように新たに描画することを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記処理済み顔画像内で前記目検出手段により検出された目以外の他の領域を被覆するマスク画像を生成する生成手段と、
前記生成手段により生成されたマスク画像を用いて、前記処理済み顔画像内で前記所定範囲を設定する設定手段と、を更に備え、
前記黒目描画手段は、
前記設定手段により設定された前記所定範囲を所定の色で塗り潰すことを特徴とする請求項2に記載の画像処理装置。
<請求項4>
前記設定手段は、更に、
前記マスク画像を用いて、前記目検出手段により検出された目の輪郭からはみ出さないように前記所定範囲を設定することを特徴とする請求項3に記載の画像処理装置。
<請求項5>
前記処理済み顔画像は、顔を模式的に表した似顔絵画像を含むことを特徴とする請求項1〜4の何れか一項に記載の画像処理装置。
<請求項6>
画像処理装置を用いた画像処理方法であって、
元画像を取得するステップと、
前記元画像に対して所定の閾値で二値化処理が施されることで生成された処理済み顔画像を取得するステップと、
取得された元画像内で目を検出するステップと、
検出された黒目領域の大きさに基づいて、当該検出された目の黒目領域よりも相対的に大きい黒目領域を前記処理済み画像内に新たに描画するステップと、
を含むことを特徴とする画像処理方法。
<請求項7>
画像処理装置のコンピュータを、
元画像を取得する第1取得手段、
前記元画像に対して所定の閾値で二値化処理が施されることで生成された処理済み顔画像を取得する第2取得手段、
前記第1取得手段により取得された元画像内で目を検出する目検出手段、
前記目検出手段によって検出された黒目領域の大きさに基づいて、当該検出された目の黒目領域よりも相対的に大きい黒目領域を前記第2取得手段により取得された処理済み画像内に新たに描画する黒目描画手段、
として機能させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
First acquisition means for acquiring an original image;
Second acquisition means for acquiring a processed face image generated by performing binarization processing on the original image with a predetermined threshold;
Eye detection means for detecting eyes in the original image acquired by the first acquisition means;
Based on the size of the black eye region detected by the eye detection unit, a black eye region relatively larger than the detected black eye region is newly added to the processed image acquired by the second acquisition unit. Black eye drawing means for drawing;
An image processing apparatus comprising:
<Claim 2>
The black eye drawing means further includes:
In the processed face image, a predetermined range based on a predetermined position of the black eye region is filled with a predetermined color, and a new drawing is performed so that the size of the black eye region is relatively increased. The image processing apparatus according to claim 1.
<Claim 3>
Generating means for generating a mask image covering a region other than the eyes detected by the eye detecting means in the processed face image;
Setting means for setting the predetermined range in the processed face image using the mask image generated by the generation unit;
The black eye drawing means
The image processing apparatus according to claim 2, wherein the predetermined range set by the setting unit is filled with a predetermined color.
<Claim 4>
The setting means further includes:
The image processing apparatus according to claim 3, wherein the predetermined range is set using the mask image so as not to protrude from the outline of the eye detected by the eye detection unit.
<Claim 5>
The image processing apparatus according to claim 1, wherein the processed face image includes a portrait image that schematically represents a face.
<Claim 6>
An image processing method using an image processing apparatus,
Obtaining an original image;
Obtaining a processed face image generated by subjecting the original image to a binarization process at a predetermined threshold;
Detecting an eye in the acquired original image;
Based on the size of the detected black eye region, newly drawing a black eye region that is relatively larger than the detected black eye region in the processed image;
An image processing method comprising:
<Claim 7>
The computer of the image processing device
First acquisition means for acquiring an original image;
Second acquisition means for acquiring a processed face image generated by performing binarization processing on the original image with a predetermined threshold;
Eye detection means for detecting eyes in the original image acquired by the first acquisition means;
Based on the size of the black eye area detected by the eye detection means, a black eye area relatively larger than the detected black eye area is newly added to the processed image acquired by the second acquisition means. Black eye drawing means for drawing,
A program characterized by functioning as

100 撮像装置
1 撮像部
5 画像記録部
6 画像処理部
6a 画像取得部
6c 目検出部
6d マスク生成部
6e 範囲設定部
6f 黒目描画部
10 中央制御部
DESCRIPTION OF SYMBOLS 100 Imaging device 1 Imaging part 5 Image recording part 6 Image processing part 6a Image acquisition part 6c Eye detection part 6d Mask generation part 6e Range setting part 6f Black eye drawing part 10 Central control part

Claims (7)

元画像を取得する第1取得手段と、
前記元画像に対して所定の閾値で二値化処理が施されることで生成された処理済み顔画像を取得する第2取得手段と、
前記第1取得手段により取得された元画像内で目を検出する目検出手段と、
前記目検出手段によって検出された目の黒目領域の大きさに基づいて、当該検出された黒目領域よりも相対的に大きい黒目領域を前記第2取得手段により取得された処理済み画像内に新たに描画する黒目描画手段と、
を備えたことを特徴とする画像処理装置。
First acquisition means for acquiring an original image;
Second acquisition means for acquiring a processed face image generated by performing binarization processing on the original image with a predetermined threshold;
Eye detection means for detecting eyes in the original image acquired by the first acquisition means;
Based on the size of the black eye region detected by the eye detection unit, a black eye region relatively larger than the detected black eye region is newly added to the processed image acquired by the second acquisition unit. Black eye drawing means for drawing;
An image processing apparatus comprising:
前記黒目描画手段は、更に、
前記処理済み顔画像内で前記黒目領域の所定位置を基準とする所定範囲を所定の色で塗り潰して、前記黒目領域の大きさを相対的に大きくするように新たに描画することを特徴とする請求項1に記載の画像処理装置。
The black eye drawing means further includes:
In the processed face image, a predetermined range based on a predetermined position of the black eye region is filled with a predetermined color, and a new drawing is performed so that the size of the black eye region is relatively increased. The image processing apparatus according to claim 1.
前記処理済み顔画像内で前記目検出手段により検出された目以外の他の領域を被覆するマスク画像を生成する生成手段と、
前記生成手段により生成されたマスク画像を用いて、前記処理済み顔画像内で前記所定範囲を設定する設定手段と、を更に備え、
前記黒目描画手段は、
前記設定手段により設定された前記所定範囲を所定の色で塗り潰すことを特徴とする請求項2に記載の画像処理装置。
Generating means for generating a mask image covering a region other than the eyes detected by the eye detecting means in the processed face image;
Setting means for setting the predetermined range in the processed face image using the mask image generated by the generation unit;
The black eye drawing means
The image processing apparatus according to claim 2, wherein the predetermined range set by the setting unit is filled with a predetermined color.
前記設定手段は、更に、
前記マスク画像を用いて、前記目検出手段により検出された目の輪郭からはみ出さないように前記所定範囲を設定することを特徴とする請求項3に記載の画像処理装置。
The setting means further includes:
The image processing apparatus according to claim 3, wherein the predetermined range is set using the mask image so as not to protrude from the outline of the eye detected by the eye detection unit.
前記処理済み顔画像は、顔を模式的に表した似顔絵画像を含むことを特徴とする請求項1〜4の何れか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the processed face image includes a portrait image that schematically represents a face. 画像処理装置を用いた画像処理方法であって、
元画像を取得するステップと、
前記元画像に対して所定の閾値で二値化処理が施されることで生成された処理済み顔画像を取得するステップと、
取得された元画像内で目を検出するステップと、
検出された黒目領域の大きさに基づいて、当該検出された目の黒目領域よりも相対的に大きい黒目領域を前記処理済み画像内に新たに描画するステップと、
を含むことを特徴とする画像処理方法。
An image processing method using an image processing apparatus,
Obtaining an original image;
Obtaining a processed face image generated by subjecting the original image to a binarization process at a predetermined threshold;
Detecting an eye in the acquired original image;
Based on the size of the detected black eye region, newly drawing a black eye region that is relatively larger than the detected black eye region in the processed image;
An image processing method comprising:
画像処理装置のコンピュータを、
元画像を取得する第1取得手段、
前記元画像に対して所定の閾値で二値化処理が施されることで生成された処理済み顔画像を取得する第2取得手段、
前記第1取得手段により取得された元画像内で目を検出する目検出手段、
前記目検出手段によって検出された黒目領域の大きさに基づいて、当該検出された目の黒目領域よりも相対的に大きい黒目領域を前記第2取得手段により取得された処理済み画像内に新たに描画する黒目描画手段、
として機能させることを特徴とするプログラム。
The computer of the image processing device
First acquisition means for acquiring an original image;
Second acquisition means for acquiring a processed face image generated by performing binarization processing on the original image with a predetermined threshold;
Eye detection means for detecting eyes in the original image acquired by the first acquisition means;
Based on the size of the black eye area detected by the eye detection means, a black eye area relatively larger than the detected black eye area is newly added to the processed image acquired by the second acquisition means. Black eye drawing means for drawing,
A program characterized by functioning as
JP2013057526A 2013-03-21 2013-03-21 Image processing apparatus, image processing method, and program Active JP6260094B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013057526A JP6260094B2 (en) 2013-03-21 2013-03-21 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013057526A JP6260094B2 (en) 2013-03-21 2013-03-21 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2014182673A true JP2014182673A (en) 2014-09-29
JP6260094B2 JP6260094B2 (en) 2018-01-17

Family

ID=51701303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013057526A Active JP6260094B2 (en) 2013-03-21 2013-03-21 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6260094B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6994704B1 (en) 2020-12-22 2022-01-14 株式会社スワローインキュベート Iris detection method, iris detection device, and iris detection program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104530A (en) * 2002-09-10 2004-04-02 Toshiba Corp Tickets issuing apparatus, tickets issuing method and user confirmation device, user confirmation method
JP2005031990A (en) * 2003-07-14 2005-02-03 Omron Corp Image correction device
JP2006040232A (en) * 2004-07-30 2006-02-09 Canon Inc Image processor and its method, imaging apparatus, program
JP2006053718A (en) * 2004-08-11 2006-02-23 Noritsu Koki Co Ltd Photographic processor
JP2006059092A (en) * 2004-08-19 2006-03-02 Noritsu Koki Co Ltd Catchlight synthesis method
JP2007213623A (en) * 2002-07-08 2007-08-23 Toshiba Corp Virtual makeup device and method therefor
JP2010021795A (en) * 2008-07-10 2010-01-28 Olympus Imaging Corp Image capturing apparatus, correction controller, correction control method, and program
JP2010224775A (en) * 2009-03-23 2010-10-07 Dainippon Printing Co Ltd Eye-catch synthesizing device and method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213623A (en) * 2002-07-08 2007-08-23 Toshiba Corp Virtual makeup device and method therefor
JP2004104530A (en) * 2002-09-10 2004-04-02 Toshiba Corp Tickets issuing apparatus, tickets issuing method and user confirmation device, user confirmation method
JP2005031990A (en) * 2003-07-14 2005-02-03 Omron Corp Image correction device
JP2006040232A (en) * 2004-07-30 2006-02-09 Canon Inc Image processor and its method, imaging apparatus, program
JP2006053718A (en) * 2004-08-11 2006-02-23 Noritsu Koki Co Ltd Photographic processor
JP2006059092A (en) * 2004-08-19 2006-03-02 Noritsu Koki Co Ltd Catchlight synthesis method
JP2010021795A (en) * 2008-07-10 2010-01-28 Olympus Imaging Corp Image capturing apparatus, correction controller, correction control method, and program
JP2010224775A (en) * 2009-03-23 2010-10-07 Dainippon Printing Co Ltd Eye-catch synthesizing device and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6994704B1 (en) 2020-12-22 2022-01-14 株式会社スワローインキュベート Iris detection method, iris detection device, and iris detection program
WO2022137605A1 (en) * 2020-12-22 2022-06-30 株式会社スワローインキュベート Iris detection method, iris detection device, and iris detection program
JP2022098933A (en) * 2020-12-22 2022-07-04 株式会社スワローインキュベート Iris detection method, iris detection device, and iris detection program

Also Published As

Publication number Publication date
JP6260094B2 (en) 2018-01-17

Similar Documents

Publication Publication Date Title
JP5880182B2 (en) Image generating apparatus, image generating method, and program
JP5949331B2 (en) Image generating apparatus, image generating method, and program
JP5949030B2 (en) Image generating apparatus, image generating method, and program
JP6111723B2 (en) Image generating apparatus, image generating method, and program
JP7039183B2 (en) Image processing equipment, image processing methods, and programs
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
US8971636B2 (en) Image creating device, image creating method and recording medium
US9600735B2 (en) Image processing device, image processing method, program recording medium
JP2019008408A (en) Detection apparatus, image processing apparatus, detection method, and image processing method
JP6260094B2 (en) Image processing apparatus, image processing method, and program
JP6354118B2 (en) Image processing apparatus, image processing method, and program
JP2014174855A (en) Image processor, image processing method and program
JP6142604B2 (en) Image processing apparatus, image processing method, and program
US9135687B2 (en) Threshold setting apparatus, threshold setting method and recording medium in which program for threshold setting method is stored
JP6668646B2 (en) Image processing apparatus, image processing method, and program
JP5927972B2 (en) Image generating apparatus, image generating method, and program
JP2014182722A (en) Image processing device, image processing method, and program
JP2014186404A (en) Image processing apparatus, image processing method, and program
JP6476811B2 (en) Image generating apparatus, image generating method, and program
JP2014099077A (en) Face component extraction device, face component extraction method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171127

R150 Certificate of patent or registration of utility model

Ref document number: 6260094

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150