JP2022140505A - Image processing apparatus, image processing method, and program therefor - Google Patents

Image processing apparatus, image processing method, and program therefor Download PDF

Info

Publication number
JP2022140505A
JP2022140505A JP2022113425A JP2022113425A JP2022140505A JP 2022140505 A JP2022140505 A JP 2022140505A JP 2022113425 A JP2022113425 A JP 2022113425A JP 2022113425 A JP2022113425 A JP 2022113425A JP 2022140505 A JP2022140505 A JP 2022140505A
Authority
JP
Japan
Prior art keywords
image
face
unit
feature points
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022113425A
Other languages
Japanese (ja)
Other versions
JP7409440B2 (en
Inventor
恭介 佐々木
Kyosuke Sasaki
丈晴 竹内
Takeharu Takeuchi
隆雄 中井
Takao Nakai
大己 山崎
Daiki Yamazaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2022113425A priority Critical patent/JP7409440B2/en
Publication of JP2022140505A publication Critical patent/JP2022140505A/en
Application granted granted Critical
Publication of JP7409440B2 publication Critical patent/JP7409440B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image processing method and a program therefor which decreases load of correction processing for faces in a plurality of captured images.
SOLUTION: An image processing apparatus has an image receiving unit 401, a face detecting unit 402, a feature point detecting unit 403, a representative pixel value determining unit 404, a first object position specifying unit 405, and a movement amount calculating unit 406. A second object position specifying unit 407 specifies a position of an object in each of images from the second image through the nth image based on the position of an object of the first image and a movement amount of a feature point between a first image and each of images from the second image through the nth image. A pixel value rewriting unit 409 rewrites, to a representative pixel value, pixel values of pixels of the objects in the images of objects in the images from the first image through the nth image. A through image generating unit 410 generates through images from rewritten images from the first image through the nth images.
SELECTED DRAWING: Figure 3
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.

デジタルカメラ等で撮影され、記録された画像について、その画像に含まれる人物の顔に、ほくろ等の除去、美白処理など顔に対する補正処理を施すことが普及している(例えば、特許文献1)。 2. Description of the Related Art It is widely used to subject a person's face included in an image captured and recorded by a digital camera or the like to face correction processing such as removal of moles and whitening processing (for example, Patent Document 1). .

特開平11-73498号公報JP-A-11-73498

しかしながら、上記の顔に対する補正処理を、複数撮像された画像に対して画像毎に処理を施すには、処理負荷が大きい問題があった。 However, there is a problem in that the processing load is large when performing the face correction process for each of a plurality of captured images.

本発明は、複数撮像された画像への顔に対する補正処理の負荷を軽減する画像処理装置、画像処理方法およびプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus, an image processing method, and a program that reduce the load of face correction processing on a plurality of captured images.

本発明の目的を達成するため、本発明に係る画像処理装置は、
顔画像を逐次取得する画像取得手段と、
前記画像取得手段によって取得された第1の画像と前記第1の画像の取得後に取得された第2の画像とについて、前記顔画像の顔領域内の特徴点を検出し、該特徴点の位置を検出する特徴点位置検出手段と、
前記画像取得手段によって取得された前記第1の画像について、前記顔画像の顔領域内のオブジェクトを検出し、該オブジェクトの位置を特定するオブジェクト位置特定手段と、
前記特徴点位置検出手段により検出された前記第1の画像の前記特徴点の位置と前記第2の画像の前記特徴点の位置とを比較する比較手段と、
前記比較手段による比較結果と前記オブジェクト位置特定手段によって特定された前記第1の画像の前記オブジェクトの位置とに基づいて前記第2の画像の前記オブジェクトの位置を特定するための情報を生成する情報生成手段と、
前記情報生成手段によって生成された前記第2の画像の前記オブジェクトの位置を特定するための情報に基づいて特定された、前記第2の画像の前記オブジェクトの位置の画素値を書き換える書換手段と、
を備えることを特徴とする。
In order to achieve the object of the present invention, an image processing apparatus according to the present invention includes:
an image acquiring means for sequentially acquiring face images;
Detecting feature points in the face region of the face images in the first image acquired by the image acquisition means and the second image acquired after the acquisition of the first image, and detecting the positions of the feature points feature point position detection means for detecting
an object position identifying means for detecting an object within the face area of the face image in the first image obtained by the image obtaining means and identifying the position of the object;
comparison means for comparing the positions of the feature points of the first image and the positions of the feature points of the second image detected by the feature point position detection means;
Information for generating information for specifying the position of the object in the second image based on the comparison result by the comparing means and the position of the object in the first image specified by the object position specifying means a generating means;
rewriting means for rewriting a pixel value of the position of the object in the second image specified based on the information for specifying the position of the object in the second image generated by the information generating means;
characterized by comprising

本発明によれば、複数撮像された画像への顔に対する補正処理の負荷を軽減する画像処理装置、画像処理方法およびプログラムを提供することができる。 According to the present invention, it is possible to provide an image processing device, an image processing method, and a program that reduce the load of face correction processing on a plurality of captured images.

本発明の実施の形態1に係るデジタルカメラの外観背面図である。1 is an external rear view of a digital camera according to Embodiment 1 of the present invention; FIG. デジタルカメラの構成を示すブロック図である。1 is a block diagram showing the configuration of a digital camera; FIG. 画像処理部の構成を示すブロック図である。3 is a block diagram showing the configuration of an image processing unit; FIG. デジタルカメラで撮影された人の顔のオブジェクトを示す図である。FIG. 2 is a diagram showing a human face object photographed by a digital camera; デジタルカメラで撮影された人の顔のオブジェクトの画素値を示す図であり、(a)は領域Aの画素値、(b)は領域Bの画素値、(c)は領域Cの画素値を示す。FIG. 3 is a diagram showing pixel values of a human face object captured by a digital camera, where (a) is the pixel value of area A, (b) is the pixel value of area B, and (c) is the pixel value of area C; show. デジタルカメラで撮影された画像のオブジェクトと特徴点の位置を示す図である。FIG. 2 is a diagram showing the positions of objects and feature points in an image captured by a digital camera; 各オブジェクトの第1の画像での位置を示すテーブルを示す図である。FIG. 11 shows a table indicating the position of each object in the first image; 第1の画像から第nの画像までの、特徴点とオブジェクトの位置の変化を示す図であり、(a)は第1の画像、(b)は第2の画像、(c)は第3の画像、(d)は第nの画像のそれぞれの変化を示す。FIG. 4 is a diagram showing changes in the positions of feature points and objects from the first image to the n-th image, where (a) is the first image, (b) is the second image, and (c) is the third image. , and (d) shows the respective changes in the nth image. 各特徴点の第1の画像から第nの画像までの位置の変化を示すテーブルを示す図である。FIG. 10 is a diagram showing a table showing changes in position of each feature point from the first image to the n-th image; 撮影処理のフローチャートを示す図である。It is a figure which shows the flowchart of a photography process. 撮影処理のフローチャートを示す図である。It is a figure which shows the flowchart of a photography process. 本発明の実施の形態2に係るデジタルカメラの撮影処理のフローチャートを示す図である。FIG. 10 is a diagram showing a flowchart of photographing processing of the digital camera according to Embodiment 2 of the present invention; デジタルカメラの撮影画像を示す図である。FIG. 4 is a diagram showing an image captured by a digital camera; 複数のユーザの個人データを示すテーブルを示す図である。FIG. 10 is a diagram showing a table showing personal data of multiple users;

以下、本発明について図面を参照して具体的な実施の態様を説明する。本発明である画像処理装置は、撮像された顔画像に、人物等の顔を補正する補正処理を施す機能を備える撮像装置に用いられる。撮像装置は、美肌モードと化粧モードの2つのモードを備える。美肌モードは、ほくろ、しみ、しわ、肌荒れ等を除去するモードであり、化粧モードは、瞳にキャッチライトを付加する、または唇の明るさや色を調整するいわゆるグロスを唇に付与するモードである。以下の実施の形態では、美肌モードと化粧モードの双方のモードを備える撮像装置について説明する。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. INDUSTRIAL APPLICABILITY An image processing apparatus according to the present invention is used in an imaging apparatus having a function of performing correction processing for correcting the face of a person or the like on a captured face image. The imaging device has two modes, a skin-beautifying mode and a makeup mode. The skin-beautifying mode is a mode for removing moles, spots, wrinkles, rough skin, etc., and the makeup mode is a mode for adding a catch light to the eyes or giving the lips a so-called gloss that adjusts the brightness and color of the lips. . In the following embodiments, an imaging apparatus having both a beautiful skin mode and a makeup mode will be described.

(実施の形態1)
図1は、本発明の一実施の形態の撮像装置の一例であるデジタルカメラ1の背面図である。デジタルカメラ1は、カメラ本体2と、カメラ本体2の上部に配設された電源スイッチ3と、カメラ本体2の上部の電源スイッチ3に隣接して配設されたレリーズスイッチ4と、カメラ本体2の背面に配設されたモード設定キー5と、撮影モードと再生モードを切り替える再生キー6と、画像を表示する液晶画面7とを備える。レリーズスイッチ4は、例えば、二段階式の押下ボタンであり、半押しされると露出と焦点を固定し、全押しされると画像をキャプチャーするスイッチである。図示はしないが、カメラ本体2の前面には、フラッシュや撮影レンズが配設されている。
(Embodiment 1)
FIG. 1 is a rear view of a digital camera 1 that is an example of an imaging device according to an embodiment of the invention. The digital camera 1 includes a camera body 2, a power switch 3 arranged on the top of the camera body 2, a release switch 4 arranged adjacent to the power switch 3 on the top of the camera body 2, and the camera body 2. A mode setting key 5 arranged on the rear surface of the camera, a reproduction key 6 for switching between a photographing mode and a reproduction mode, and a liquid crystal screen 7 for displaying an image. The release switch 4 is, for example, a two-stage push button that fixes the exposure and focus when pressed halfway, and captures an image when fully pressed. Although not shown, a flash and a photographing lens are arranged on the front surface of the camera body 2 .

デジタルカメラ1において、電源スイッチ3を押して電源を投入すると、デジタルカメラ1は、撮影可能な状態(撮影モード)となる。撮影モードでは、撮影レンズを通して入射する被写体像が1フレーム(例えば1/30秒)毎に出力され、被写体像が、スルー画像として連続して液晶画面7に表示される。ユーザは、スルー画像を見ながら、レリーズスイッチ4を押して、画像をキャプチャー画像として固定して撮影する。 In the digital camera 1, when the power switch 3 is pressed to turn on the power, the digital camera 1 enters a photographable state (photographing mode). In the photographing mode, a subject image incident through the photographing lens is output every frame (for example, 1/30 second), and the subject images are continuously displayed on the liquid crystal screen 7 as a through image. While viewing the through image, the user presses the release switch 4 to fix the image as a captured image and shoot it.

図2は、デジタルカメラ1の概略構成示す図である。図2に示すように、デジタルカメラ1は、撮影レンズ10、撮像素子20、撮像処理部30、画像処理部40、DRAM(Dynamic Random Access Memory)50、フラッシュメモリ60、画像表示部70、操作入力部80、CPU(Central Processing Unit)90を備える。 FIG. 2 is a diagram showing a schematic configuration of the digital camera 1. As shown in FIG. As shown in FIG. 2, the digital camera 1 includes a photographing lens 10, an image sensor 20, an image processing unit 30, an image processing unit 40, a DRAM (Dynamic Random Access Memory) 50, a flash memory 60, an image display unit 70, an operation input A section 80 and a CPU (Central Processing Unit) 90 are provided.

撮影レンズ10は、図示しない複数のレンズから構成され、ズームレンズやフォーカスレンズを備える。撮影レンズ10には、図示しないレンズ駆動回路が接続され、撮影レンズ10を光軸方向に沿って駆動させる。 The photographing lens 10 is composed of a plurality of lenses (not shown), and includes a zoom lens and a focus lens. A lens driving circuit (not shown) is connected to the photographing lens 10 to drive the photographing lens 10 along the optical axis direction.

撮像素子20は、具体的には、CCD(Charge Coupled Device)やCMOS(Complememtary Metal-Oxide Semiconductor)から構成され、撮影レンズ10の各レンズを通過した被写体像を二次元の画像信号に変換する。 The imaging device 20 is specifically composed of a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), and converts an object image that has passed through each lens of the photographing lens 10 into a two-dimensional image signal.

撮像処理部30は、図示しないタイミング発生器、垂直ドライバ、水平ドライバを備え、タイミング発生器、垂直ドライバ、水平ドライバにより撮像素子20を駆動させ、所定の周期毎に被写体像を撮像素子20により二次元の画像信号に変換させ、撮像素子20の撮像領域から1画面分ずつ画像フレームを読み出して画像処理部40に出力する。 The imaging processing unit 30 includes a timing generator, a vertical driver, and a horizontal driver (not shown). The image signals are converted into dimensional image signals, and image frames corresponding to one screen are read from the imaging area of the imaging device 20 and output to the image processing unit 40 .

画像処理部40は、撮像素子20から転送されたフレーム画像のアナログデータをデジタルデータに変換する処理、ホワイトバランスを調整する処理、カラープロセス処理等をおこなって、輝度信号Y及び色差信号Cb、Crを生成する。 The image processing unit 40 converts the analog data of the frame image transferred from the imaging element 20 into digital data, performs white balance adjustment processing, color processing processing, etc., and outputs a luminance signal Y and color difference signals Cb and Cr. to generate

DRAM50は、撮像処理部30から出力される画像データや画像処理部40による画像処理中のデータを一時的に記録する。 The DRAM 50 temporarily records image data output from the imaging processing unit 30 and data being processed by the image processing unit 40 .

フラッシュメモリ60は、例えば、電気的に書き換えが可能な不揮発性メモリであり、デジタルカメラ1を動作させ、デジタルカメラ1の機能を実現するためのプログラム、カメラプログラムが実行中に使用されるデータ等が予め記録されている。 The flash memory 60 is, for example, an electrically rewritable non-volatile memory, and stores a program for operating the digital camera 1 and realizing the functions of the digital camera 1, data used while the camera program is running, and the like. is pre-recorded.

画像表示部70は、表示処理部70aと、表示部70bとを備える。表示処理部70aは、DRAM50に一時的に記録されている表示用データを読み出し、表示部70bに表示する制御を行う。具体的は、表示処理部70aは、CPU90の制御のもと、DRAM50から輝度信号Y及び色差信号Cb、Crを読み出し、図示しないVRAMに記憶し、VRAMから定期的に読み出して、ビデオ信号を表示部70bに出力する。 The image display unit 70 includes a display processing unit 70a and a display unit 70b. The display processing unit 70a reads display data temporarily recorded in the DRAM 50 and controls display on the display unit 70b. Specifically, under the control of the CPU 90, the display processing unit 70a reads out the luminance signal Y and the color difference signals Cb and Cr from the DRAM 50, stores them in a VRAM (not shown), periodically reads them out from the VRAM, and displays the video signals. Output to unit 70b.

表示部70bは、表示処理部70aからのビデオ信号に基づいて、撮像素子20により撮像された画像を表示画面である液晶画面7に表示する。撮影モードにあるときは、画像処理部40によって周期的に作成されるスルー画像を表示し、記録画像の再生時には、フラッシュメモリから読み出され、伸長されたキャプチャー画像を表示する。 The display unit 70b displays an image captured by the imaging element 20 on the liquid crystal screen 7, which is a display screen, based on the video signal from the display processing unit 70a. When in the photographing mode, a through image periodically created by the image processing unit 40 is displayed, and when reproducing a recorded image, a captured image read out from the flash memory and decompressed is displayed.

操作入力部80は、撮影指示、再生指示、電源投入指示、電源遮断指示というデジタルカメラの動作指示、撮影モードや再生モードというデジタルカメラの動作モードに関する設定操作、撮影条件の設定操作など、ユーザによる各種操作を入力するためのものであり、操作入力に応じた操作信号をCPU90に出力する。操作入力部80には、各種機能が割り当てられ、図1の電源スイッチ3、レリーズスイッチ4、モード設定キー5、再生キー6等で実現される。 The operation input unit 80 receives operation instructions of the digital camera such as shooting instructions, playback instructions, power-on instructions, and power-off instructions, setting operations related to the operation modes of the digital camera, such as shooting mode and playback mode, and shooting conditions setting operations by the user. It is for inputting various operations, and outputs an operation signal to the CPU 90 according to the operation input. Various functions are assigned to the operation input unit 80 and realized by the power switch 3, the release switch 4, the mode setting key 5, the playback key 6, and the like in FIG.

CPU90は、操作入力部80からの入力を受け付け、フラッシュメモリ60に記憶されたプログラムに従ってデジタルカメラ1の全体の処理を制御する。 The CPU 90 receives input from the operation input section 80 and controls the overall processing of the digital camera 1 according to the program stored in the flash memory 60 .

画像処理部40の機能ブロック図を、図3に示す。画像処理部40は、画像受信部401、顔検出部402、特徴点検出部403、代表画素値決定部404、第1のオブジェクト位置特定部405、移動量算出部406、第2のオブジェクト位置特定部407、領域調整部408、画素値書換部409、スルー画像作成部410、第1のキャプチャー画像作成部411、第2のキャプチャー画像作成部412、及び切換部413を備える。 A functional block diagram of the image processing section 40 is shown in FIG. The image processing unit 40 includes an image receiving unit 401, a face detection unit 402, a feature point detection unit 403, a representative pixel value determination unit 404, a first object position identification unit 405, a movement amount calculation unit 406, and a second object position identification unit. It includes a section 407 , an area adjustment section 408 , a pixel value rewriting section 409 , a through image creation section 410 , a first capture image creation section 411 , a second capture image creation section 412 , and a switching section 413 .

画像受信部401は、撮像処理部30から、第1の画像から第nの画像(nは正の整数)までの画像を受信する。本実施の形態において、第1の画像とは、第2の画像から第nの画像におけるオブジェクトの位置を特定するための基準となる画像をいう。第1の画像は、第2の画像から第nの画像までのオブジェクトの位置を特定するための、後述する代表画素値の決定、代表画素値に基づいてオブジェクトの位置を特定する処理が行われる画像である。第2の画像から第nの画像に対しては、代表画素値の決定、オブジェクトの位置を特定する処理をしない。また、画像受信部401と撮像処理部30で画像取得手段を形成する。 The image receiving unit 401 receives images from the first image to the n-th image (n is a positive integer) from the imaging processing unit 30 . In the present embodiment, the first image refers to an image that serves as a reference for specifying the position of the object in the second to n-th images. For the first image, a process of determining a representative pixel value and identifying the position of the object based on the representative pixel value, which will be described later, is performed in order to specify the position of the object from the second image to the n-th image. It is an image. For the second to n-th images, the process of determining the representative pixel value and specifying the position of the object is not performed. Also, the image receiving unit 401 and the imaging processing unit 30 form an image acquiring unit.

顔検出部402は、画像受信部401により受信された第1の画像から第nの画像に、顔領域があるか否かを検出する。具体的には、予め記憶されている一般的な人の顔の特徴データ(目、眉毛、鼻、口、耳、顔の輪郭等の特徴データ)と受信された画像データを比較照合することにより、所定値以上の顔の特徴データと一致する領域を顔領域であると検出する。また、各画像から特徴点を抽出し、特徴点に基づいて顔領域を検出してもよい。特徴点の検出は、例えば、Harrisのコーナー検出アルゴリズムを用いたり、AAA(Active Appearace Model)を用いたりする処理により、実現される。顔検出部402により顔検出手段を形成する。 The face detection unit 402 detects whether or not there is a face area in the first to n-th images received by the image reception unit 401 . Specifically, by comparing and collating general human face feature data (feature data such as eyes, eyebrows, nose, mouth, ears, facial contour, etc.) stored in advance with the received image data , an area that matches face feature data equal to or greater than a predetermined value is detected as a face area. Alternatively, feature points may be extracted from each image, and the face area may be detected based on the feature points. Feature point detection is realized by processing using, for example, the Harris corner detection algorithm or AAA (Active Appearance Model). The face detection unit 402 forms face detection means.

特徴点検出部403は、顔領域内の特徴点を検出する。特徴点は、人の固有の構成要素である目、鼻、口、顔の輪郭、若しくはその他の顔領域内において特徴点を検出可能な構成要素である。顔検出部402により顔領域を検出したときに特徴点を用いた場合には、この時に利用した特徴点を用いて、顔領域内の特徴点としてもよい。 A feature point detection unit 403 detects feature points in the face area. Feature points are features that can be detected within a person's unique features such as eyes, nose, mouth, facial contours, or other facial regions. If the feature points are used when the face detection unit 402 detects the face area, the feature points used at this time may be used as the feature points in the face area.

検出された特徴点は、図6に示すように、XY座標において位置を特定される。具体的には、左目の中心点を第1の特徴点の位置とし(X、Y)として、右目の中心点を第2の特徴点の位置とし(X、Y)として、鼻の頭を第3の特徴点の位置とし(X、Y)として、口の中心点を第4の特徴点の位置とし(X、Y)として特定される。この特徴点の位置の値は、図9に示すテーブルに保存される。 The detected feature points are located in XY coordinates, as shown in FIG. Specifically, the center point of the left eye is the position of the first feature point (X 1 , Y 1 ), and the center point of the right eye is the position of the second feature point (X 2 , Y 2 ). The head of the mouth is specified as the position of the third feature point (X 3 , Y 3 ), and the center point of the mouth is specified as the position of the fourth feature point (X 4 , Y 4 ). The value of the position of this feature point is stored in the table shown in FIG.

代表画素値決定部404は、ユーザにより美肌モードが選択された場合には、顔領域の画素値を測定して、代表画素値を決定する。本実施の形態では、具体的には、第1の画像の顔領域の中にサンプリング領域を設定し、サンプリング領域内の画素値をサンプリングする。サンプリング領域として、鼻筋や頬の部分など、影が生じにくく、目や鼻孔など肌色以外の部分が含まれない領域を指定する。そして、検出した顔の肌色を示す画素の代表画素値を決定する。サンプリング領域の形状は、矩形、円形、又は多角形などサンプリングする顔の位置に応じて決定する。本実施の形態では、顔の鼻筋にサンプリング領域を指定する。サンプリング領域は16×16ピクセルの領域に、256個のサンプリング点を、画素と重なるように配置する。 When the user selects the beautiful skin mode, the representative pixel value determining unit 404 measures the pixel values of the face area and determines the representative pixel value. Specifically, in this embodiment, a sampling area is set in the face area of the first image, and pixel values in the sampling area are sampled. As a sampling area, specify an area such as the bridge of the nose and cheeks where shadows are less likely to occur and where areas other than skin color such as eyes and nostrils are not included. Then, the representative pixel value of the pixels indicating the skin color of the detected face is determined. The shape of the sampling area is determined according to the position of the face to be sampled, such as rectangular, circular, or polygonal. In the present embodiment, the sampling area is specified for the nasal bridge of the face. The sampling area is a 16×16 pixel area, and 256 sampling points are arranged so as to overlap the pixels.

そして、サンプリング点が配置された画素のそれぞれについて、Y成分、Cb成分、Cr成分を取得し、それぞれの値のヒストグラムを生成する。生成された3つのヒストグラムについて、平均値μを算出し、3つの値が平均値μを中心とする所定の範囲に属する画素のみを抽出し、サンプリング画素とする。例えば、2σ法を用いて、(σは標準偏差)、±2σの範囲に存在する画素をサンプリング画素とする。さらに、サンプリング画素のY成分(輝度成分)、Cb成分(色差成分)、Cr成分(色差成分)の各平均値を用いて代表画素値を決定する。 Then, the Y component, the Cb component, and the Cr component are obtained for each pixel in which the sampling points are arranged, and a histogram of each value is generated. An average value μ is calculated for the three generated histograms, and only pixels whose three values fall within a predetermined range centered on the average value μ are extracted and used as sampling pixels. For example, using the 2σ method, pixels existing within a range of ±2σ (where σ is the standard deviation) are taken as sampling pixels. Furthermore, a representative pixel value is determined using each average value of the Y component (luminance component), Cb component (color difference component), and Cr component (color difference component) of the sampled pixels.

化粧モードが選択された場合には、あらかじめフラッシュメモリ60に記憶された化粧の程度に応じて代表画素値が決定される。化粧モードは、化粧をする顔の部位をユーザに選択させることで実行される。例えば、化粧をする部位として唇が選択された場合には、リップグロス処理が施される。そして、リップグロス処理として、輝度の相違する化粧の程度が選択できるようになっており、ユーザが選択した化粧の程度に応じて代表画素値が決定される。 When the makeup mode is selected, the representative pixel value is determined according to the extent of makeup stored in the flash memory 60 in advance. The makeup mode is executed by allowing the user to select the part of the face on which makeup is to be applied. For example, when the lips are selected as a part to be made up, lip gloss processing is performed. As the lip gloss processing, the degree of makeup with different brightness can be selected, and the representative pixel value is determined according to the degree of makeup selected by the user.

第1のオブジェクト位置特定部405は、決定された代表画素値に基づいて、第1の画像の顔領域内の画素の画素値と代表画素値とを比較して、代表画素値との差が所定値以上である画素値を有する画素から構成されるオブジェクトを検出する。ここで、オブジェクトとは、ほくろ、しみ、皺、肌荒れなど美肌モードの処理対象となるもの、又は唇、目など化粧モードの対象となるものである。 Based on the determined representative pixel value, the first object position specifying unit 405 compares the pixel value of the pixels in the face region of the first image with the representative pixel value, and finds a difference between the representative pixel value and the representative pixel value. Objects composed of pixels having pixel values greater than or equal to a predetermined value are detected. Here, the object is an object to be processed in the skin beautifying mode, such as a mole, blemish, wrinkles, or rough skin, or an object to be processed in the makeup mode, such as lips or eyes.

具体的には、顔領域内を所定の格子状の複数の分割領域に分割し、分割領域毎に画素の代表値を決定する。1つの分割領域は、i×j個の画素で定められ(i=j)、例えば6×6の画素で定められる領域を分割領域とする。各々の分割領域毎に画素値の平均値、最頻値、又は重心値を求め、その値を分割領域の画素の代表値(以下、「領域画素値」という。)とする。そして、顔領域の代表画素値と、各分割領域の領域画素値とを比較して、画素値の差異が所定の閾値以上であるかを判断する。 Specifically, the inside of the face area is divided into a plurality of predetermined lattice-like divided areas, and the representative value of the pixels is determined for each divided area. One divided area is defined by i×j pixels (i=j), and a divided area is defined by, for example, 6×6 pixels. An average value, a mode value, or a centroid value of pixel values is obtained for each divided area, and the obtained value is used as a representative value of the pixels of the divided area (hereinafter referred to as "area pixel value"). Then, the representative pixel value of the face area and the area pixel value of each divided area are compared to determine whether the difference between the pixel values is equal to or greater than a predetermined threshold.

美肌モードが選択された場合には、肌の領域の領域画素値と代表画素値とを比較し、化粧モードが選択された場合には、化粧を施す領域、例えば目や唇を含む領域の領域画素値と代表画素値とを比較する。 When the skin-beautifying mode is selected, the area pixel value of the skin area is compared with the representative pixel value, and when the makeup mode is selected, the area where makeup is applied, for example, the area including the eyes and lips. A pixel value and a representative pixel value are compared.

顔領域の代表画素値と、領域画素値と、所定の閾値の関係は以下の式1により示される。
|Li-Lr|≧Lth(式1)
ここで、Lrは顔領域の代表画素値、Liは領域画素値、Lthは所定の閾値である。この式を満たす領域画素値を有する画素から構成される領域を、オブジェクトの領域と特定する。
The relationship between the representative pixel value of the face area, the area pixel value, and the predetermined threshold is expressed by Equation 1 below.
|Li−Lr|≧Lth (equation 1)
Here, Lr is the representative pixel value of the face area, Li is the area pixel value, and Lth is a predetermined threshold value. A region composed of pixels having a region pixel value that satisfies this formula is specified as an object region.

オブジェクトの位置を特定する方法を、美肌モードを例に具体的に説明する。代表画素値の値が200、閾値が70であった場合、閾値70以上の画素値である画素が配置された領域をオブジェクトの領域と特定する。式1から|Li-200|≧70となり、この式を満足するLiの値の画素値を示す画素を特定する。 A method for specifying the position of an object will be specifically described using the beautiful skin mode as an example. If the representative pixel value is 200 and the threshold is 70, then the area in which pixels with pixel values equal to or higher than the threshold of 70 are arranged is identified as the object area. From Equation 1, |Li−200|≧70, and pixels exhibiting a pixel value of Li that satisfies this equation are identified.

図4に、撮影された顔に第1のオブジェクト41、第2のオブジェクト42、第3のオブジェクト43がある画像の例を示す。第1のオブジェクト41は顔領域の領域Aにあり、第2のオブジェクト42は顔領域の領域Bにあり、第3のオブジェクト43は顔領域の領域Cにある。それぞれの領域の拡大図も合わせて示す。 FIG. 4 shows an example of an image having a first object 41, a second object 42, and a third object 43 on a photographed face. A first object 41 is in area A of the facial area, a second object 42 is in area B of the facial area, and a third object 43 is in area C of the facial area. An enlarged view of each region is also shown.

領域A、領域B、領域Cを構成する画素の画素値を、図5(a)~(c)に示す。ここで示す画素値は、輝度Yである。画素値として、他の色要素の値を併用してもよい。式1を満たす領域を、図5(a)~(c)の太線で囲われた領域として示す。図5(a)の太線で囲われた領域が第1のオブジェクト41、図5(b)の太線で囲われた領域が第2のオブジェクト42、図5(c)の太線で囲われた領域が第3のオブジェクト43である。 The pixel values of the pixels forming area A, area B, and area C are shown in FIGS. The pixel value shown here is the luminance Y. FIG. Values of other color elements may also be used as pixel values. Regions satisfying Equation 1 are shown as regions surrounded by thick lines in FIGS. 5(a) to 5(c). The area surrounded by thick lines in FIG. 5(a) is the first object 41, the area surrounded by thick lines in FIG. 5(b) is the second object 42, and the area surrounded by thick lines in FIG. 5(c). is the third object 43 .

第1のオブジェクト位置特定部405は、第1のオブジェクト41、第2のオブジェクト42、第3のオブジェクト43の各々の中心の画素の位置を、オブジェクトの位置と定める。図6に示すように、XY座標系で、第1のオブジェクト41の位置を(Xb1、Yb1)、第2のオブジェクト42の位置を(Xb2、Yb2)、第3のオブジェクト43の位置を(Xb3、Yb3)、と定め、図7に示すテーブルに保存される。 The first object position specifying unit 405 determines the position of the central pixel of each of the first object 41, the second object 42, and the third object 43 as the position of the object. As shown in FIG. 6, in the XY coordinate system, the position of the first object 41 is (Xb1, Yb1), the position of the second object 42 is (Xb2, Yb2), and the position of the third object 43 is (Xb3 , Yb3), and stored in the table shown in FIG.

化粧モードが選択された場合には、唇等のオブジェクトの位置は、顔検出部402により顔領域を検出したときのデータを使用して決定してもよい。 When the makeup mode is selected, the position of an object such as lips may be determined using data obtained when the face detection unit 402 detects the face area.

移動量算出部406は、第1の画像の特徴点の位置と、第2の画像から第nの画像までの特徴点の位置に基づき、第1の画像と、第2の画像から第nの画像の各々の画像までの移動量を算出する。移動量算出部406は、特徴点検出部403により検出された複数の特徴点の各々について、第1の画像の特徴点の位置から第nの画像までの特徴点の位置を検出する。 Based on the positions of the feature points of the first image and the positions of the feature points from the second image to the n-th image, the movement amount calculation unit 406 calculates the first image and the n-th image from the second image. Calculate the amount of movement of the image to each image. The movement amount calculation unit 406 detects the positions of the feature points from the position of the feature point of the first image to the n-th image for each of the plurality of feature points detected by the feature point detection unit 403 .

移動量の算出方法について、任意の特徴点の移動を例に、図8を参照して説明する。図中、黒丸は特徴点を示し、複数の画素で示した領域はオブジェクトの領域である。特徴点は、XY座標において、第1の画像801では、図8(a)に示すように、第1の位置(Xr-1、Yr-1)にある。移動量算出部406は、特徴点が、第2の画像802では、図8(b)に示すように第2の位置(Xr-2、Yr-2)に、第3の画像803では、図8(c)に示すように第3の位置(Xr-3、Yr-3)に、第nの画像804では、図8(d)に示すように第nの位置(Xr-n、Yr-n)にあることを検出する。これらの座標位置に基づいて、第1の画像と、第2の画像から第nの画像の各々の画像の第1の特徴点の移動量を算出する。すなわち、特徴点の第1の画像から第2の画像への移動量は、((Xr-1)-(Xr-2),(Yr-1)-(Yr-2))であり、(Δx1,Δy1)として求められる。同様にして、第1の画像と第3の画像との間の特徴点の移動量を、(Δx2,Δy2)と求める。移動量の算出は、第1の画像の特徴点の位置と、各画像の特徴点の位置とに基づいて算出してもよいし、各画像間における移動量を積算して、第1の画像の特徴点から各画像への移動量を算出してもよい。 A method of calculating the amount of movement will be described with reference to FIG. 8, taking the movement of an arbitrary feature point as an example. In the figure, black circles indicate feature points, and areas indicated by a plurality of pixels are object areas. The feature point is located at the first position (Xr-1, Yr-1) in the XY coordinates in the first image 801, as shown in FIG. 8(a). The movement amount calculation unit 406 determines that the feature point is located at the second position (Xr-2, Yr-2) in the second image 802 as shown in FIG. 8(c) at the third position (Xr-3, Yr-3), and in the nth image 804, at the nth position (Xr-n, Yr-3) as shown in FIG. 8(d). n). Based on these coordinate positions, the amount of movement of the first feature point of each of the first image and the second to n-th images is calculated. That is, the amount of movement of the feature point from the first image to the second image is ((Xr-1)-(Xr-2), (Yr-1)-(Yr-2)), and (Δx1 , Δy1). Similarly, the movement amount of the feature point between the first image and the third image is obtained as (Δx2, Δy2). The amount of movement may be calculated based on the position of the feature point of the first image and the position of the feature point of each image, or the amount of movement between the images may be integrated to obtain the first image. may be calculated from the feature point to each image.

上述した移動量の求め方を、移動量算出部406は、第1の特徴点から第4の特徴点のそれぞれの特徴点について実行し、特徴点毎の第1の画像から第nの画像までの位置を求めて、図9に示すテーブルに保存する。そして、図9に示すテーブルの位置データを用いて、第1の特徴点から第4の特徴点の移動量を算出する。 The movement amount calculation unit 406 executes the method of calculating the movement amount described above for each of the first to fourth feature points, and calculates the first to n-th images for each feature point. is obtained and stored in the table shown in FIG. Then, using the position data of the table shown in FIG. 9, the amount of movement from the first feature point to the fourth feature point is calculated.

移動量は、複数の特徴点を検出して各特徴点の移動を追跡して求めてもよいし、1つの特徴点を検出して移動を追跡して求めてもよい。1つの特徴点の移動を追跡する場合には、2以上の特徴点を追跡するより処理は軽い。一方、2つ以上の特徴点を追跡する場合には、顔の向きや傾きを考慮して、オブジェクトを特定することができる。また、移動量を算出するときに、基準となるフレームを定め、基準となるフレームから次のフレームまでの動きをベクトルとして表現する動きベクトルの情報を求めて利用してもよい。 The amount of movement may be obtained by detecting a plurality of feature points and tracking the movement of each feature point, or may be obtained by detecting one feature point and tracking the movement. Tracking the movement of one feature point requires less processing than tracking two or more feature points. On the other hand, when two or more feature points are tracked, the object can be identified by considering the orientation and tilt of the face. Further, when calculating the amount of movement, a reference frame may be determined, and motion vector information expressing the motion from the reference frame to the next frame as a vector may be obtained and used.

第2のオブジェクト位置特定部407は、第1の画像のオブジェクトの位置と、第1の画像と前記第2の画像から第nの画像の各々の画像との間の特徴点の移動量と、に基づき、第2の画像から第n画像の各々の画像におけるオブジェクトの位置を特定する。 The second object position specifying unit 407 determines the position of the object in the first image, the amount of movement of the feature points between the first image and each of the second to n-th images, to identify the position of the object in each of the second to n-th images based on .

具体的には、第1のオブジェクト41、第2のオブジェクト42、及び第3のオブジェクト43の、第2の画像から第nの画像の位置を、特徴点の移動量に基づいて特定する。例えば、第1のオブジェクト41の第2の画像における位置を、第1の特徴点の移動量(Δx1,Δy1)に基づいて特定する。 Specifically, the positions of the second to n-th images of the first object 41, the second object 42, and the third object 43 are specified based on the amount of movement of the feature points. For example, the position of the first object 41 in the second image is specified based on the movement amount (Δx1, Δy1) of the first feature point.

また、第1の画像において、特徴点とオブジェクトの位置関係を紐づけることにより、移動後のオブジェクトの位置を正確に特定することができる。図8(a)に示すように、特徴点とオブジェクトの間の距離のdを算出して、オブジェクトと特徴点の位置を紐付けることができる。例えば、顔の輪郭の一つの特徴点の位置と、オブジェクトであるほくろの位置との間の距離を算出し、この距離を考慮して、第2の画像以降の画像におけるオブジェクトの位置を特定することができる。 Further, by linking the positional relationship between the feature points and the object in the first image, the position of the object after movement can be specified accurately. As shown in FIG. 8A, the distance d between the feature point and the object can be calculated and the positions of the object and the feature point can be linked. For example, the distance between the position of one feature point of the contour of the face and the position of the mole, which is the object, is calculated, and the position of the object in the second and subsequent images is specified in consideration of this distance. be able to.

画素値書換部409は、第1の画像から第nの画像までのオブジェクトの画素の画素値を、代表画素値で書き換える。例えば、第1の画像から第nの画像までの第1のオブジェクト41の画素値を代表画素値である200で書き換える。画素値の書き換えは、第1のオブジェクト41を構成する各画素の画素値を個別に書き換えてもよいし、第1のオブジェクト41を構成するオブジェクトの領域を代表画素値とした部分画像を作成し、この部分画像を元の画像に合成してもよい。 A pixel value rewriting unit 409 rewrites the pixel values of the pixels of the object from the first image to the n-th image with representative pixel values. For example, the pixel values of the first object 41 from the first image to the n-th image are rewritten with 200, which is the representative pixel value. The rewriting of the pixel values may be performed by individually rewriting the pixel values of the pixels that make up the first object 41, or by creating a partial image with the area of the object that makes up the first object 41 as the representative pixel value. , this partial image may be synthesized with the original image.

画素値書換部409は、移動量算出部406により算出された移動量が第1の所定の移動量以下の場合には、オブジェクトを構成する画素の画素値の書き換え処理を行わない。例えば、第1の画像から第2の画像におけるオブジェクトの移動量がゼロ、また表示画像内で移動が認識されない程度の移動量の場合には、移動先のオブジェクトの画素の画素値の書き換えは行わない。したがって、第1の画像のオブジェクトを構成する画素を代表画素値で書き換えた場合において、第1の画像から第2の画像におけるオブジェクトの移動がない場合には、第2の画像のオブジェクトは、第1の画像で既に代表画素値に書き換えた画像を利用することができる。したがって、処理の負担を軽減することができる。また、移動量算出部406により算出された移動量が第2の所定の移動量以上の場合には、画像受信部401により第1の画像が受信される。例えば、移動量が大きすぎる場合には、オブジェクトの追跡が困難であるため、第1の画像を受信する処理に戻る。 The pixel value rewriting unit 409 does not rewrite the pixel values of the pixels forming the object when the movement amount calculated by the movement amount calculation unit 406 is equal to or less than the first predetermined movement amount. For example, if the amount of movement of the object from the first image to the second image is zero, or if the amount of movement is such that the movement cannot be recognized in the displayed image, the pixel values of the pixels of the destination object are not rewritten. do not have. Therefore, when the pixels constituting the object of the first image are rewritten with the representative pixel values, if there is no movement of the object from the first image to the second image, the object of the second image is It is possible to use an image that has already been rewritten to the representative pixel value in one image. Therefore, the processing load can be reduced. Further, when the movement amount calculated by the movement amount calculation unit 406 is equal to or greater than the second predetermined movement amount, the image reception unit 401 receives the first image. For example, if the amount of movement is too large, it is difficult to track the object, so the processing returns to receiving the first image.

領域調整部408は、画素値書換部409により書き換えられるオブジェクトの領域を調整する。オブジェクト領域と同一領域に配置された画素のみを書き換えると、スルー画像またはキャップチャー画像において、書き換えた画素と隣接する画素との間に画素値の差がある場合には、不自然な見え方となる場合がある。 A region adjusting unit 408 adjusts the region of the object to be rewritten by the pixel value rewriting unit 409 . Rewriting only the pixels located in the same area as the object area may result in an unnatural appearance if there is a difference in pixel value between the rewritten pixels and adjacent pixels in the through image or captured image. may become.

書き換えた画素と隣接する画素との間の画素値の差により不自然な見え方を解消するために、例えば、第1のオブジェクト位置特定部405によりオブジェクトの位置を特定するときに検索したデータに基づき、特定したオブジェクトの周囲の画素の画素値を記憶して、周囲の画素値と代表画素値とが所定以上の差異があるときには、画素値を書き換える領域をオブジェクトの領域より広く設定する。 In order to eliminate the unnatural appearance due to the difference in pixel value between the rewritten pixels and the adjacent pixels, for example, the first object position specifying unit 405 may add Based on this, the pixel values of the pixels surrounding the specified object are stored, and when there is a difference of a predetermined value or more between the surrounding pixel value and the representative pixel value, the pixel value rewriting area is set wider than the object area.

例えば、ほくろのオブジェクトの画素値を代表画素値に書き換える場合において、ほくろの周囲の画素値と代表画素値との間の画素値に所定の差異がある場合には、書き換えた部分が浮き立って表示されることになる。したがって、ほくろの周囲の画素値と代表画素値との画素値の差が徐々に変化するように、書き換える画素値の領域を、オブジェクトの領域より広げるように調整して、代表画素値オブジェクトの領域より外側に向かって徐々に変化してほくろの周囲の画素値となるようにする。 For example, when the pixel values of a mole object are rewritten to representative pixel values, if there is a predetermined difference between the pixel values around the mole and the representative pixel values, the rewritten portion is highlighted. will be Therefore, the area of pixel values to be rewritten is adjusted to be wider than the area of the object so that the difference between the pixel values around the mole and the pixel value of the representative pixel value gradually changes, and the area of the representative pixel value object Pixel values around the mole are gradually changed toward the outside.

また、領域調整部408は、ユーザの意図を反映して書き換える画素の範囲をオブジェクトの領域より大きく又は小さくすることもできる。書換える画素の範囲を定めるには、書換える領域を選択する、図示しない選択部を設けて、ユーザに画素を書換える領域範囲を決定させる。領域調整部408は、選択部から受信したユーザの選択信号に応じて、書き換える画素の範囲を決定する。例えば、グロス処理を施す場合、グロス処理を施す唇の範囲をユーザにより選択させ、画素値書換部409により、選択された唇の範囲の画素値を代表画素値に書き換える。 Also, the area adjustment unit 408 can make the range of pixels to be rewritten reflecting the user's intention larger or smaller than the area of the object. In order to determine the range of pixels to be rewritten, a selection unit (not shown) for selecting the area to be rewritten is provided to allow the user to determine the area range in which the pixels are to be rewritten. The region adjustment unit 408 determines the range of pixels to be rewritten according to the user's selection signal received from the selection unit. For example, when performing gloss processing, the user selects a lip range to be subjected to gloss processing, and the pixel value rewriting unit 409 rewrites the pixel values of the selected lip range to representative pixel values.

スルー画像作成部410は、第1の画像から第nの画像までのオブジェクトの画素値を代表画素値で書き換えたスルー画像を作成する。作成されたスルー画像は、DRAM50に一時的に記録されるとともに、表示部70bにより液晶画面7に連続的に表示される。スルー画像は、撮像素子20に結像されている被写体像の画像データを、間引きして読み出されて作成される。スルー画像は、所定のフレームレート(ここでは30fps)で更新され、連続して表示される動画として表示される。 The through image creating unit 410 creates a through image by rewriting the pixel values of the objects from the first image to the n-th image with representative pixel values. The created through image is temporarily recorded in the DRAM 50 and continuously displayed on the liquid crystal screen 7 by the display section 70b. The through image is created by thinning out and reading out the image data of the subject image formed on the imaging device 20 . The through image is updated at a predetermined frame rate (here, 30 fps) and displayed as a continuously displayed moving image.

なお、特徴点検出部403、代表画素値決定部404、第1のオブジェクト位置特定部405、第2のオブジェクト位置特定部407により補正情報生成手段を形成する。また、第1のオブジェクト位置特定部405、第2のオブジェクト位置特定部407によりオブジェクト検出手段を形成する。特徴点検出部403は特徴点検出手段に対応し、代表画素値決定部404が代表画素値決定手段に対応する。 Note that the feature point detection unit 403, the representative pixel value determination unit 404, the first object position identification unit 405, and the second object position identification unit 407 form correction information generation means. Also, the first object position specifying unit 405 and the second object position specifying unit 407 form object detection means. The feature point detection unit 403 corresponds to feature point detection means, and the representative pixel value determination unit 404 corresponds to representative pixel value determination means.

領域調整部408、画素値書換部409、移動量算出部406により加工手段を形成する。また、移動量算出部406は移動量算出手段に対応し、比較手段を含む。画素値書換部409、スルー画像作成部410、領域調整部408が、オブジェクト加工手段を形成する。画素値書換部409が、画素値書換手段に対応する。 The area adjusting unit 408, the pixel value rewriting unit 409, and the movement amount calculating unit 406 form processing means. Further, the movement amount calculation unit 406 corresponds to movement amount calculation means and includes comparison means. The pixel value rewriting unit 409, through image creating unit 410, and area adjusting unit 408 form object processing means. The pixel value rewriting unit 409 corresponds to pixel value rewriting means.

第1のキャプチャー画像作成部411は、ユーザがレリーズスイッチ4を押したことにより撮影画像を取得し、第1のキャプチャー画像を作成する。具体的には、画像受信部401により、撮影画像を受信し、顔検出部402により撮影画像の顔領域を検出し、特徴点検出部403により顔領域の特徴点を検出し、代表画素値決定部404により顔領域の代表画素値を決定し、第1のオブジェクト位置特定部405により撮影画像のオブジェクトの位置を特定する。そして第1のキャプチャー画像作成部411は、第2画像以降の画像のオブジェクト領域の画素値を代表画素値で書き換えられたキャプチャー画像を作成する。第1のキャプチャー画像作成部411が第1のキャプチャー画像作成手段に対応する。 A first captured image creation unit 411 acquires a photographed image when the user presses the release switch 4 and creates a first captured image. Specifically, an image receiving unit 401 receives a captured image, a face detection unit 402 detects a face area of the captured image, a feature point detection unit 403 detects feature points of the face area, and determines a representative pixel value. A representative pixel value of the face area is determined by the unit 404, and the position of the object in the captured image is specified by the first object position specifying unit 405. FIG. Then, the first capture image creation unit 411 creates a capture image in which the pixel values of the object regions of the second and subsequent images are rewritten with the representative pixel values. The first captured image creating section 411 corresponds to first captured image creating means.

第2のキャプチャー画像作成部412は、ユーザがレリーズスイッチ4を押したことにより撮影画像を取得し、第2のキャプチャー画像を作成する。具体的には、画像受信部401により撮影画像を受信し、受信した撮影画像に、レリーズスイッチ4を押したときに受信した画像から作成されたスルー画像に用いられた代表画素値、オブジェクトの位置に基づいて、オブジェクトの領域の画素の画素値を代表画素値で書き換える。第2のキャプチャー画像作成部411が第2のキャプチャー画像作成手段412に対応する。 A second captured image creation unit 412 acquires a photographed image when the user presses the release switch 4 and creates a second captured image. Specifically, the captured image is received by the image receiving unit 401, and the representative pixel value and the position of the object used in the through image created from the image received when the release switch 4 is pressed are added to the received captured image. Based on, the pixel values of the pixels in the object area are rewritten with the representative pixel values. The second captured image creating section 411 corresponds to the second captured image creating means 412 .

切換部413は、画像受信部401、顔検出部402、特徴点検出部403、代表画素値決定部404、第1のオブジェクト位置特定部405、及び第2のオブジェクト位置特定部407によりスルー画像を作成するときの処理負荷に応じて、第1のキャプチャー画像作成部411と、第2のキャプチャー画像作成部412の実行処理を切り換える。具体的には、スルー画像を作成するときの処理負荷が重い場合には、第2のキャプチャー画像作成部412を実行されるように切換え、スルー画像を作成するときの処理が軽い場合には、第1のキャプチャー画像作成部411が実行されるように切り換える。切換部413が、切換手段に対応する。 The switching unit 413 uses the image receiving unit 401, the face detection unit 402, the feature point detection unit 403, the representative pixel value determination unit 404, the first object position identification unit 405, and the second object position identification unit 407 to select the through image. Execution processing of the first captured image creation unit 411 and the second capture image creation unit 412 is switched according to the processing load at the time of creation. Specifically, when the processing load when creating a through image is heavy, the second captured image creation unit 412 is switched to be executed, and when the processing when creating a through image is light, Switching is performed so that the first capture image creation unit 411 is executed. The switching unit 413 corresponds to switching means.

次に、デジタルカメラ1において、美肌モードが選択された場合の動作を、図10のフローチャートに従って説明する。 Next, the operation of the digital camera 1 when the beautiful skin mode is selected will be described with reference to the flowchart of FIG.

デジタルカメラ1の電源スイッチ3が押されると撮影モードとなり、撮像素子20及び撮像処理部30を介してフレーム画像が連続して取得される。ユーザによりモード設定キー5が操作され、美肌モードが選択される。連続して取得されたフレーム画像の信号は、画像処理部40の画像受信部401により受信される。(ステップS101)。第1の画像の信号が受信されると、顔検出部402は、第1の画像中の顔領域を検出する(ステップS102)。特徴点検出部403が検出された顔領域から口、鼻、目などの特徴点を抽出する(ステップS103)。 When the power switch 3 of the digital camera 1 is pressed, the camera enters the shooting mode, and frame images are continuously acquired via the image pickup device 20 and the image pickup processing section 30 . The user operates the mode setting key 5 to select the beautiful skin mode. Signals of frame images obtained in succession are received by the image receiving unit 401 of the image processing unit 40 . (Step S101). When the signal of the first image is received, face detection section 402 detects a face area in the first image (step S102). The feature point detection unit 403 extracts feature points such as the mouth, nose, and eyes from the detected face area (step S103).

次に、代表画素値決定部404は、第1の画像の顔領域の画素の代表画素値をサンプリング画素から求める(ステップS104)。そして、第1のオブジェクト位置特定部405は、第1の画像のオブジェクトの領域を特定し、オブジェクトの位置を特定する(ステップS105)。画素値書換部409は、オブジェクトの領域の画素の画素値を代表画素値で書き換え、(ステップS106)、スルー画像作成部410は、第1の画像のスルー画像を作成する(ステップS107)。 Next, the representative pixel value determining unit 404 obtains the representative pixel value of the pixels in the face area of the first image from the sampled pixels (step S104). Then, the first object position identifying unit 405 identifies the area of the object in the first image and identifies the position of the object (step S105). The pixel value rewriting unit 409 rewrites the pixel values of the pixels in the object area with the representative pixel values (step S106), and the through image creating unit 410 creates a through image of the first image (step S107).

次に、画像受信部401は、第2の画像を受信し(ステップS109)、顔検出部402が第2の画像の顔領域を検出する(ステップS110)。特徴点検出部403は、第2の画像の特徴点を検出し(ステップS111)、移動量算出部406が第1の画像から第2の画像での特徴点の移動量を算出する(ステップS112)。移動量が大きすぎるか否かを移動量が第2の所定値以上であるか否かで判断し(ステップS113)、第2の所定値以上でなければ(ステップS113:NO)、第2のオブジェクト位置特定部407が第1の画像から第2の画像までの移動量に基づいて、第2の画像におけるオブジェクトの位置を特定する(ステップS114)。移動量が第2の所定値以上であれば(ステップS113:YES)、第1画像を受信するステップS101に戻る。 Next, the image receiving unit 401 receives the second image (step S109), and the face detection unit 402 detects the face area of the second image (step S110). The feature point detection unit 403 detects feature points of the second image (step S111), and the movement amount calculation unit 406 calculates the amount of movement of the feature points from the first image to the second image (step S112). ). Whether or not the movement amount is too large is determined by determining whether or not the movement amount is equal to or greater than a second predetermined value (step S113). The object position specifying unit 407 specifies the position of the object in the second image based on the amount of movement from the first image to the second image (step S114). If the amount of movement is greater than or equal to the second predetermined value (step S113: YES), the process returns to step S101 for receiving the first image.

次に、画素値書換部409は、第2の画像におけるオブジェクトの領域の画素の画素値を代表画素値で書き換え(ステップS115)、スルー画像作成部410が画素を書き換え第2の画像のスルー画像を作成する(ステップS116)。なお、移動量が第1の所定値以下であれば画素の書き換えはしない。 Next, the pixel value rewriting unit 409 rewrites the pixel values of the pixels in the area of the object in the second image with the representative pixel values (step S115), and the through image creating unit 410 rewrites the pixels to create a through image of the second image. is created (step S116). Note that if the amount of movement is equal to or less than the first predetermined value, the pixels are not rewritten.

ステップS109からステップS116までの処理を、第2の画像から第nの画像まで繰り返す。 The processing from step S109 to step S116 is repeated from the second image to the n-th image.

次に、レリーズスイッチ4がONとなっているか否かを判断する(ステップS117)。レリーズスイッチ4がONとなっていれば(ステップS117;YES)、Aの処理へ進み、レリーズスイッチ4がONとなっていなければ(ステップS117;NO)、処理を終了する。 Next, it is determined whether or not the release switch 4 is ON (step S117). If the release switch 4 is ON (step S117; YES), the process proceeds to A, and if the release switch 4 is not ON (step S117; NO), the process ends.

レリーズスイッチ4がONとなった場合には、Aの処理に進み、図11に示すように、撮影画像が受信される(ステップS118)。CPU90は、レリーズスイッチ4が半押しの状態であれば、ピント合わせが固定された焦点調節状態とする。そして、レリーズスイッチ4が全押しの状態になると、露出が制御され画像データの画素の読み出し処理が行なわれる。 When the release switch 4 is turned on, the process proceeds to A, and as shown in FIG. 11, a photographed image is received (step S118). When the release switch 4 is half-pressed, the CPU 90 sets the focus adjustment state in which the focus is fixed. Then, when the release switch 4 is fully depressed, the exposure is controlled and the image data pixels are read out.

そして、レリーズスイッチ4が全押しされたタイミングの撮影画像の画像データが、画像受信部401により受信される(ステップS118)。次に、顔検出部402が撮影画像の顔領域を検出し(ステップS119)、特徴点検出部403が顔領域内の特徴点を検出する(ステップS120)。 Then, the image data of the captured image at the timing when the release switch 4 is fully pressed is received by the image receiving section 401 (step S118). Next, the face detection unit 402 detects the face area of the captured image (step S119), and the feature point detection unit 403 detects feature points within the face area (step S120).

次に、代表画素値決定部404が、顔領域内の画素の代表画素値を決定し(ステップS121)、第1のオブジェクト位置特定部405が撮影画像内のオブジェクトの位置を特定する(ステップS122)。そして、画素値書換部409が、撮影画像内のオブジェクトの領域の画素の画素値を、代表画素値で書き換え(ステップS123)、第1のキャプチャー画像作成部411又は第2のキャプチャー画像作成部412が、キャプチャー画像を作成する(ステップS124)。作成されたキャプチャー画像は、表示部70bにより液晶画面7に表示される。作成されたキャプチャー画像は、記憶媒体に記録され、処理が終了する。 Next, the representative pixel value determining unit 404 determines representative pixel values of pixels in the face area (step S121), and the first object position identifying unit 405 identifies the position of the object in the captured image (step S122). ). Then, the pixel value rewriting unit 409 rewrites the pixel values of the pixels in the area of the object in the captured image with the representative pixel values (step S123), and the first captured image creating unit 411 or the second captured image creating unit 412 creates a captured image (step S124). The created captured image is displayed on the liquid crystal screen 7 by the display section 70b. The created captured image is recorded in the storage medium, and the process ends.

本実施の形態によれば、第1の画像で検出された特徴点の、第1の画像から第2画像以降の各画像への移動量と、第1の画像で特定されたオブジェクトの位置とから、第2画像以降の各画像におけるオブジェクトの位置を特定することができる。したがって、第2画像以降の各画像におけるオブジェクトの位置を個別に検出する必要がないので、画像処理の負荷を軽減することができる。 According to the present embodiment, the amount of movement of the feature point detected in the first image from the first image to each image after the second image, and the position of the object specified in the first image. , it is possible to specify the position of the object in each image after the second image. Therefore, since it is not necessary to individually detect the position of the object in each image after the second image, the load of image processing can be reduced.

本実施の形態によれば、第1の画像から第nの画像までのオブジェクトの位置を特定してスルー画像と、キャプチャー画像を作成したので、スルー画像とキャプチャー画像とで、修正後のオブジェクトの見え方に大きな差異が生ずることがない。したがって、ユーザにスルー画像とキャプチャー画像とで違和感を与えることがない。 According to the present embodiment, since the through image and the captured image are created by specifying the position of the object from the first image to the n-th image, the through image and the captured image can be used to represent the corrected object. No big difference in appearance. Therefore, the user does not feel uncomfortable between the through image and the captured image.

本実施の形態によれば、第1の画像における複数のオブジェクトを特定して、オブジェクトの移動後の位置を特定することができるので、各人に固有なオブジェクトである、ほくろ、シミ、皺などをまとめて処理することができる。 According to the present embodiment, it is possible to specify a plurality of objects in the first image and to specify the positions of the objects after movement. can be processed together.

本実施の形態によれば、デジタルカメラ1が、第1のキャプチャー画像作成部411と、第2のキャプチャー画像作成部412と、これらの作成部を切り替える切換部413と、を備えるので、全体の処理負荷との関係で処理を切り換えることができ、処理の効率化を実現できる。 According to the present embodiment, digital camera 1 includes first captured image creation unit 411, second capture image creation unit 412, and switching unit 413 for switching between these creation units. Processing can be switched in relation to the processing load, and processing efficiency can be improved.

本実施の形態によれば、領域調整部408を設けたので、オブジェクトの修正後の画像を自然な見え方あるいはユーザが希望する見え方に調整することができる。 According to the present embodiment, since the area adjustment unit 408 is provided, the corrected image of the object can be adjusted to look natural or desired by the user.

(実施の形態2)
実施の形態1においては、第1画像を取得して、特徴点とオブジェクトの位置を検索していたが、予めユーザの顔領域のデータを記録媒体に保存しておき、顔検出部402により検出された顔が保存された顔領域のデータと一致することで、ユーザを特定してもよい。そして、当該ユーザの特徴点とオブジェクトの位置を個人登録データとして登録し、個人登録データを利用してスルー画像を作成してもよい。
(Embodiment 2)
In Embodiment 1, the first image is obtained and the positions of feature points and objects are searched. The user may be identified by matching the captured face with the stored face region data. Then, the feature points of the user and the position of the object may be registered as personal registration data, and the through image may be created using the personal registration data.

DRAM50又は図示しない着脱自在な記録媒体に、事前に撮影したユーザの顔領域を特定するための画像データ及び、図14に示すテーブルに、ユーザの特徴点の位置、オブジェクトの位置、代表画素値の値を、個人登録データとしてユーザに紐付けて記憶する。 The DRAM 50 or a detachable recording medium (not shown) contains image data for identifying the user's face area photographed in advance, and a table shown in FIG. The value is stored in association with the user as personal registration data.

個人登録データを用いた場合の画像処理のフローチャートを図12に示す。 FIG. 12 shows a flowchart of image processing when personal registration data is used.

ユーザが電源スイッチ3をONにすることで、画像処理がスタートする。第1の画像が撮像素子20により取得され、画像受信部401が第1の画像の画像信号を受信する(ステップS201)。そして、顔検出部402により第1の画像中の顔領域が検出され(ステップS202)、検出された顔領域に基づき、図示しない検索部により記録媒体等に記憶された個人登録データを検索して(ステップS203)、検出された顔領域と保存された顔領域が一致するかを判断する(ステップS204)。一致する顔領域のデータがある場合(ステップS204;YES)には、個人を特定し、特定されたユーザの特徴点の位置、オブジェクトの位置、代表画素値に基づき、オブジェクトの画素の画素値を代表画素値に書き換え、第1のスルー画像を作成する(ステップS205)。一致する顔領域のデータがない場合には(ステップS204;NO)、第1の画像を新たに受信する。 Image processing starts when the user turns on the power switch 3 . A first image is acquired by the imaging element 20, and the image receiving unit 401 receives an image signal of the first image (step S201). A face area in the first image is detected by the face detection unit 402 (step S202), and personal registration data stored in a recording medium or the like is searched by a search unit (not shown) based on the detected face area. (Step S203), it is determined whether the detected face area and the saved face area match (Step S204). If there is matching face area data (step S204; YES), the individual is specified, and the pixel values of the pixels of the object are calculated based on the specified user's feature point positions, object positions, and representative pixel values. The representative pixel value is rewritten to create a first through image (step S205). If there is no matching face area data (step S204; NO), the first image is newly received.

次に、第2の画像から第nの画像までのオブジェクトの位置を、実施の形態1と同様に特定し、オブジェクトの領域を代表画素値で書き換える。具体的には、画像受信部401により、第2画像の画像を受信し(ステップS206)、顔検出部402が第2の画像の顔領域を検出し(ステップS207)、特徴点検出部403が画像から特徴点を検出する(ステップS208)。移動量算出部406が特徴点の移動量を算出する(ステップS209)。移動量が大きすぎるか否かを、移動量が第2の所定値以上であるか否かで判断し(ステップS210)、第2の所定値以下であれば(ステップS210:NO)、第2のオブジェクト位置特定部407が第2画像におけるオブジェクトの位置を特定する(ステップS211)。移動量が第2の所定値以上であれば(ステップS210:YES)、第1画像を受信する処理に戻る。画素書換部409が特定されたオブジェクトの領域を代表画素値で書き換え(ステップS212)、スルー画像作成部410がスルー画像を作成する(ステップS213)。この処理を、第2の画像から第nの画像まで繰り返す。ユーザによりレリーズスイッチ4が押されたとき(ステップS214;YES)、図11に示すキャプチャー画像作成する処理に移行する。ユーザによりレリーズスイッチ4が押されてないときは(ステップS214;NO)、処理を終了する。 Next, the position of the object from the second image to the n-th image is specified in the same manner as in the first embodiment, and the object area is rewritten with the representative pixel value. Specifically, the image receiving unit 401 receives the image of the second image (step S206), the face detection unit 402 detects the face area of the second image (step S207), and the feature point detection unit 403 Feature points are detected from the image (step S208). The movement amount calculation unit 406 calculates the movement amount of the feature point (step S209). Whether or not the amount of movement is too large is determined by determining whether or not the amount of movement is equal to or greater than a second predetermined value (step S210). , the object position specifying unit 407 specifies the position of the object in the second image (step S211). If the amount of movement is greater than or equal to the second predetermined value (step S210: YES), the process returns to the process of receiving the first image. The pixel rewriting unit 409 rewrites the specified object area with the representative pixel value (step S212), and the through image creating unit 410 creates a through image (step S213). This process is repeated from the second image to the nth image. When the release switch 4 is pressed by the user (step S214; YES), the process proceeds to the capture image creation process shown in FIG. If the release switch 4 is not pressed by the user (step S214; NO), the process is terminated.

記憶されるユーザの個人登録データは、一人のユーザに限定されずに、複数のユーザのデータを記憶することもできる。図13に示すように、ひとつの画面に3人の人物が表示されている場合にも、一人のユーザの個人データが登録されている場合と、同様な処理をすることができる。例えば、図14のテーブルに示すようにユーザX、ユーザY、ユーザZについて、それぞれのユーザの個人登録データを記憶することで、3人の人物それぞれについて、第2の画像から第nの画像までのオブジェクトの位置を特定することができる。 The user's personal registration data to be stored is not limited to one user, and data of a plurality of users can also be stored. As shown in FIG. 13, even when three persons are displayed on one screen, the same processing as when personal data of one user is registered can be performed. For example, as shown in the table of FIG. 14, for user X, user Y, and user Z, by storing the personal registration data of each user, the second image to the n-th image for each of the three persons can be obtained. object can be located.

図13(a)は第1の画像131の表示画面を示し、図13(b)は第2の画像132の表示画面を示す。第1の画像131の3人の人物X、Y、Zが、第2の画像132内で移動しても、それぞれの個人登録データに基づいて、各人を特定することができる。したがって、人物の位置が入れ替わっても、各人の位置を特定でき、各人の移動に応じたオブジェクトの位置を容易に特定することができる。 13(a) shows the display screen of the first image 131, and FIG. 13(b) shows the display screen of the second image 132. FIG. Even if the three persons X, Y, Z in the first image 131 move within the second image 132, each person can be identified based on their personal registration data. Therefore, even if the positions of the persons are changed, the positions of the persons can be identified, and the positions of the objects corresponding to the movements of the persons can be easily identified.

本実施の形態によれば、予め、顔領域、オブジェクトの位置、特徴点の位置を記憶しておくことで、第1の画像における顔領域、オブジェクトの位置、特徴点の位置を容易に特定することができ、処理の負担が軽減される。 According to this embodiment, by storing the face region, the position of the object, and the position of the feature point in advance, the face region, the position of the object, and the position of the feature point in the first image can be easily specified. can reduce the processing load.

実施の形態1、2において、XY座標における特徴点の座標位置に基づいて移動量を算出していた。本発明は、このような移動量の算出方法に更に追加の情報を加味することもできる。 In Embodiments 1 and 2, the amount of movement is calculated based on the coordinate position of the feature point in the XY coordinates. In the present invention, additional information can be added to such a method of calculating the amount of movement.

具体的には、顔の特徴点の間の距離、顔の向き、顔の傾きなど情報を考慮してもよい。例えば、特徴点である両目の位置情報から、両目の間の距離を算出し、距離の大小に応じて、画像の拡大又は縮小率を求め、拡大又は縮小率を移動量に反映させてもよい。また、両目の中心点を結んだ線と水平線とのなす角度から顔の傾きを求め、移動量に反映させてもよい。さらに、片目のみ検出されたときには、顔が横を向いていると判断し、移動量は算出しないこともできる。 Specifically, information such as the distance between facial feature points, the orientation of the face, and the tilt of the face may be considered. For example, the distance between the eyes may be calculated from the positional information of both eyes, which is the feature point, the enlargement or reduction ratio of the image may be obtained according to the distance, and the enlargement or reduction ratio may be reflected in the movement amount. . Alternatively, the inclination of the face may be obtained from the angle formed by the line connecting the center points of both eyes and the horizontal line and reflected in the amount of movement. Furthermore, when only one eye is detected, it is possible to determine that the face is turned sideways and not calculate the amount of movement.

このように追加の情報を用いることで、オブジェクトの位置を正確に特定できるとともに、処理の負担を軽減することができる。 By using the additional information in this way, the position of the object can be accurately specified, and the processing burden can be reduced.

実施の形態1、2において、第1の画像は、第2の画像以降の画像におけるオブジェクトの位置を特定する基準となる画像であると説明した。どの画像を第1の画像とすべきかは、顔領域の検出、特徴点の検出が容易である画像であることを基準として定められる。例えば、第1の画像として、被写体の人物が正面を向いたタイミングで撮影された画像、所定の期間毎に撮影された画像等を使用することができる。 In Embodiments 1 and 2, it has been described that the first image is a reference image for specifying the position of the object in the second image and subsequent images. Which image should be the first image is determined based on whether the image is an image that facilitates the detection of the face area and the detection of the feature points. For example, as the first image, it is possible to use an image taken when the subject is facing the front, an image taken at predetermined intervals, or the like.

実施の形態1、2において、切換部413により、第1のキャプチャー画像作成部411と第2のキャプチャー画像作成部412を、負荷に応じて切り換えると説明したが、第1のキャプチャー画像作成部411と、第2のキャプチャー画像作成部412のどちらか一つを備える構成としてもよい。第1のキャプチャー画像作成部411のみを適用すれば、キャプチャー画像に表示される画像の解像度をよくすることができる。第2のキャプチャー画像作成部411のみを適用すれば、処理負荷を軽減することができる。また、いずれのキャプチャー画像作成部を適用しても、スルー画像との見え方の差異を軽減することができる。 In Embodiments 1 and 2, it was explained that the switching unit 413 switches between the first captured image creating unit 411 and the second captured image creating unit 412 according to the load. , and the second capture image creation unit 412 . By applying only the first captured image creation unit 411, the resolution of the image displayed in the captured image can be improved. The processing load can be reduced by applying only the second captured image creation unit 411 . In addition, regardless of which capture image creation unit is applied, it is possible to reduce the difference in appearance from the through image.

実施の形態1、2は、美肌モードと化粧モードの双方のモードがある撮像装置について説明したが、どちらか一方のモードを備える撮像装置であってもよい。 Although Embodiments 1 and 2 describe the imaging apparatus having both the skin-beautifying mode and the makeup mode, the imaging apparatus may have either mode.

実施の形態1、2において、美肌モードと化粧モードを説明したが、モードは他のモードを備えてもよい。例えば、エフェクトモードを備える。エフェクトモードは星マーク、ハートマークなどを付与する、または色や大きさなどが時間とともに変化する星マーク、ハートマークなどを付与するモードである。 Although the skin-beautifying mode and makeup mode have been described in Embodiments 1 and 2, other modes may be provided. For example, it has an effect mode. The effect mode is a mode in which a star mark, a heart mark, or the like is given, or a star mark, a heart mark, or the like whose color or size changes with time.

本実施の形態では、デジタルカメラを例に説明したが、本発明の画像処理装置は、デジタルカメラに限定されない。携帯電話、情報端末、スマートフォーンなどの画像処理装置にも適用することができる。 Although a digital camera has been described as an example in this embodiment, the image processing apparatus of the present invention is not limited to a digital camera. It can also be applied to image processing devices such as mobile phones, information terminals, and smart phones.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する Although the preferred embodiments of the present invention have been described above, the present invention is not limited to such specific embodiments, and the present invention includes the invention described in the claims and their equivalents. be The invention described in the original claims of the present application is appended below.

(付記)
(付記1)
画像を逐次取得する画像取得手段と、
前記画像取得手段により取得された画像中の顔領域を検出する顔検出手段と、
前記画像取得手段により取得された第1の画像を補正する補正情報を生成する補正情報生成手段と、
前記画像取得手段により取得された第1の画像とは異なる第2の画像に基づいて前記補正情報を加工する加工手段と、
を備える画像処理装置。
(Appendix)
(Appendix 1)
an image acquiring means for sequentially acquiring images;
face detection means for detecting a face area in the image acquired by the image acquisition means;
a correction information generation means for generating correction information for correcting the first image acquired by the image acquisition means;
processing means for processing the correction information based on a second image different from the first image acquired by the image acquisition means;
An image processing device comprising:

(付記2)
前記補正情報生成手段は、
前記顔領域内の特徴点を検出する特徴点検出手段と、
前記顔領域内のオブジェクトを検出するオブジェクト検出手段と、を備える、
付記1に記載の画像処理装置。
(Appendix 2)
The correction information generating means is
feature point detection means for detecting feature points in the face area;
an object detection means for detecting an object within the face area;
The image processing device according to appendix 1.

(付記3)
前記加工手段は、
前記特徴点検出手段により検出された第1の画像の特徴点と前記第2の画像の特徴点とを比較する比較手段と、
前記比較結果に応じて前記オブジェクト検出手段により検出されたオブジェクトを加工するオブジェクト加工手段と、を備える、
付記2に記載の画像処理装置。
(Appendix 3)
The processing means is
comparison means for comparing the feature points of the first image and the feature points of the second image detected by the feature point detection means;
an object processing means for processing the object detected by the object detection means according to the comparison result;
The image processing device according to appendix 2.

(付記4)
前記比較手段は、
前記顔検出手段により検出された前記第1の画像の特徴点の位置と、第2の画像から第nの画像の各々の画像における前記特徴点の位置と、に基づき、前記第1の画像と、前記第2の画像から第nの画像の各々の画像と、の間の前記特徴点の移動量を算出する移動量算出手段を含む、
付記3に記載の画像処置装置。
(Appendix 4)
The comparison means is
the first image based on the position of the feature point of the first image detected by the face detection means and the position of the feature point in each of the second to n-th images; , each image from the second image to the n-th image, and a movement amount calculation means for calculating the movement amount of the feature point between the images,
The image processing apparatus according to appendix 3.

(付記5)
前記補正情報生成手段は、
前記画像取得手段により取得された第1の画像の顔領域内の画素の画素値を代表する代表画素値を決定する代表画素値決定手段を備える、
付記4に記載の画像処理装置。
(Appendix 5)
The correction information generating means is
a representative pixel value determining means for determining a representative pixel value representing pixel values of pixels in the face region of the first image acquired by the image acquiring means;
The image processing device according to appendix 4.

(付記6)
前記オブジェクト検出手段は、
前記第1の画像の顔領域内の各画素の画素値と前記代表画素値とを比較し、前記代表画素値との差異が所定値以上である画素値を有する画素から構成されるオブジェクトを検出する、
付記5に記載の画像処置装置。
(Appendix 6)
The object detection means is
A pixel value of each pixel in the face area of the first image is compared with the representative pixel value, and an object composed of pixels having a pixel value different from the representative pixel value by a predetermined value or more is detected. do,
The image processing apparatus according to appendix 5.

(付記7)
前記オブジェクト検出手段は、
前記第1の画像の前記オブジェクトの位置を特定する第1のオブジェクト位置特定手段を備える、
付記5又は6に記載の画像処置装置。
(Appendix 7)
The object detection means is
a first object locating means for locating the object in the first image;
7. The image processing apparatus according to appendix 5 or 6.

(付記8)
前記オブジェクト検出手段は、
前記第1の画像のオブジェクトの位置と、前記第1の画像と前記第2の画像から第nの画像の各々の画像との間の前記特徴点の移動量と、に基づき、前記第2の画像から第n画像の各々の画像における前記オブジェクトの位置を特定する第2のオブジェクト位置特定手段を備える、
付記7に記載の画像処理装置。
(Appendix 8)
The object detection means is
based on the position of the object in the first image and the amount of movement of the feature points between the first image and each of the second to n-th images, a second object locating means for locating the object in each of the nth images from the images;
The image processing device according to appendix 7.

(付記9)
前記加工手段は、
前記第1の画像から前記第nの画像までの各々の画像の中の前記オブジェクトの画素の画素値を、前記代表画素値に書き換える画素値書換手段を備える、
付記8に記載の画像処置装置。
(Appendix 9)
The processing means is
pixel value rewriting means for rewriting pixel values of pixels of the object in each of the first image to the n-th image to the representative pixel value;
The image processing apparatus according to appendix 8.

(付記10)
前記加工手段は、
前記画像取得手段により逐次取得される画像から、前記加工手段により加工されたオブジェクトを含むスルー画像を生成するスルー画像作成手段を備える、
付記3に記載の画像処置装置。
(Appendix 10)
The processing means is
a through-the-lens image creating means for creating a through-the-lens image including the object processed by the processing means from the images sequentially acquired by the image acquiring means;
The image processing apparatus according to appendix 3.

(付記11)
撮影指示が入力されたときに、第1のキャプチャー画像を作成する第1のキャプチャー画像作成手段、を更に備え、
前記画像取得手段は、前記撮影指示に応じて取得された撮影画像を取得し、
前記顔検出手段は、前記撮影画像中の顔領域を検出し、
前記補正情報生成手段は、前記画像取得手段により取得された撮影画像を補正する補正情報を生成し、
前記加工手段は、前記画像取得手段により取得された撮影画像とは異なる画像に基づいて前記補正情報を加工し、
前記第1のキャプチャー画像作成手段は、前記加工手段により加工された前記撮影画像の前記第1のキャプチャー画像を作成する、
付記10に記載の画像処理装置。
(Appendix 11)
further comprising a first captured image creating means for creating a first captured image when a photographing instruction is input;
The image acquisition means acquires a photographed image obtained in response to the photographing instruction,
The face detection means detects a face area in the captured image,
The correction information generation means generates correction information for correcting the captured image acquired by the image acquisition means,
The processing means processes the correction information based on an image different from the photographed image acquired by the image acquisition means,
The first captured image creating means creates the first captured image of the captured image processed by the processing means.
11. The image processing device according to appendix 10.

(付記12)
撮影指示が入力されたときに、第2のキャプチャー画像を作成する第2のキャプチャー画像作成手段、を更に備え、
前記第2のキャプチャー画像作成手段は、
前記撮影指示が入力されたときのスルー画像を作成するときに用いられた補正情報に基づいて、前記第2のキャプチャー画像を作成する、
付記10に記載の画像処置装置。
(Appendix 12)
a second captured image creating means for creating a second captured image when a shooting instruction is input;
The second capture image creation means is
creating the second captured image based on the correction information used when creating the through image when the shooting instruction is input;
11. The image processing apparatus according to appendix 10.

(付記13)
撮影指示が入力されたときに、第1のキャプチャー画像を作成する第1のキャプチャー画像作成手段と、
撮影指示が入力されたときに、第2のキャプチャー画像を作成する第2のキャプチャー画像作成手段と、
前記第1のキャプチャー画像作成手段と前記第2のキャプチャー画像作成手段とで実行される処理を切り換える切換手段と、を更に備え、
前記切換手段は、前記画像取得手段、前記顔検出手段、前記補正情報生成手段、前記加工手段が、スルー画像を作成するときの処理負荷に応じて、前記第1のキャプチャー画像作成手段と、前記第2のキャプチャー画像作成手段の実行処理を切り換え、
前記第1のキャプチャー画像作成手段に切り換えられたときには、
前記画像取得手段は、前記撮影指示に応じて取得された撮影画像を受信し、
前記顔検出手段は、前記撮影画像中の顔領域を検出し、
前記補正情報生成手段は、前記画像取得手段により取得された撮影画像を補正する補正情報を生成し、
前記加工手段は、前記画像取得手段により取得された撮影画像とは異なる画像に基づいて前記補正情報を加工し、
前記第2のキャプチャー画像作成手段に切り換えられたときには、
前記第2のキャプチャー画像作成手段は、
前記撮影指示が入力されたときのスルー画像を作成するときに用いられた補正情報に基づいて、前記第2のキャプチャー画像を作成する、
付記10に記載の画像処理装置。
(Appendix 13)
a first captured image creating means for creating a first captured image when a photographing instruction is input;
a second captured image creating means for creating a second captured image when a photographing instruction is input;
further comprising switching means for switching between processes executed by the first capture image creation means and the second capture image creation means;
The switching means selects the first capture image creation means, the first capture image creation means, and the switching execution processing of the second capture image creation means,
When switched to the first capture image creation means,
The image obtaining means receives a photographed image obtained in response to the photographing instruction,
The face detection means detects a face area in the captured image,
The correction information generation means generates correction information for correcting the captured image acquired by the image acquisition means,
The processing means processes the correction information based on an image different from the photographed image acquired by the image acquisition means,
When switched to the second capture image creation means,
The second capture image creation means is
creating the second captured image based on the correction information used when creating the through image when the shooting instruction is input;
11. The image processing device according to appendix 10.

(付記14)
前記画素値書換手段は、前記移動量算出手段により算出された前記特徴点の移動量が、第1の所定量以下であるときは、移動先の画像の中の前記オブジェクトの画素の画素値を、書き換える処理を実行しない、
付記9に記載の画像処置装置。
(Appendix 14)
The pixel value rewriting means changes the pixel value of the pixel of the object in the destination image when the amount of movement of the feature point calculated by the movement amount calculating means is equal to or less than a first predetermined amount. , do not rewrite,
9. The image processing apparatus according to appendix 9.

(付記15)
前記オブジェクト加工手段は、前記オブジェクトに対応する部分画像を作成し、当該部分画像を前記オブジェクトの位置に配置して加工する、
付記3に記載の画像処理装置。
(Appendix 15)
The object processing means creates a partial image corresponding to the object, arranges the partial image at the position of the object, and processes the partial image.
The image processing device according to appendix 3.

(付記16)
前記第1のオブジェクト位置特定手段は、複数のオブジェクトを検出し、当該複数のオブジェクトのそれぞれの位置を特定し、
前記第2のオブジェクト位置特定手段は、前記第1の画像の前記複数のオブジェクトのそれぞれの位置と、前記第1の画像と前記第2の画像から第nの画像の各々の画像との間の前記特徴点の移動量と、に基づき、前記第2の画像から第n画像の各々の画像における前記複数のオブジェクトのそれぞれの位置を特定する、
付記8又は9に記載の画像処理装置。
(Appendix 16)
The first object position identifying means detects a plurality of objects and identifies the position of each of the plurality of objects;
The second object position specifying means is configured to position each of the plurality of objects in the first image and between the first image and each of the second to n-th images. and specifying the position of each of the plurality of objects in each of the second image to the n-th image based on the amount of movement of the feature point.
The image processing device according to appendix 8 or 9.

(付記17)
前記加工手段は、
前記画素値書換手段により画素値を書き換える画素の範囲を、前記オブジェクトを構成する画素の領域よりも大きく又は小さく調整する領域調整手段を更に備える、
付記9に記載の画像処理装置。
(Appendix 17)
The processing means is
Further comprising area adjusting means for adjusting a range of pixels whose pixel values are to be rewritten by said pixel value rewriting means to be larger or smaller than the area of pixels constituting said object,
The image processing device according to appendix 9.

(付記18)
前記画像取得手段は、前記移動量算出手段により算出された前記特徴点の移動量が、第2の所定量以上であるときは、前記第1の画像を取得する、
付記4に記載の画像処理装置。
(Appendix 18)
The image acquisition means acquires the first image when the movement amount of the feature point calculated by the movement amount calculation means is equal to or greater than a second predetermined amount.
The image processing device according to appendix 4.

(付記19)
第1の画像を取得するステップと、
前記第1の画像の中の顔領域を検出するステップと、
前記第1の画像を補正する補正情報を生成するステップと、
前記第1の画像とは相違する第2の画像に基づいて前記補正情報を加工するステップと、を備える、
画像処理方法。
(Appendix 19)
obtaining a first image;
detecting facial regions in the first image;
generating correction information for correcting the first image;
and processing the correction information based on a second image that is different from the first image.
Image processing method.

(付記20)
コンピュータに、
第1の画像を取得し、
前記第1の画像の中の顔領域を検出し、
前記第1の画像を補正する補正情報を生成し、
前記第1の画像とは相違する第2の画像に基づいて前記補正情報を加工する、
処理を実行させるためのプログラム。
(Appendix 20)
to the computer,
obtain a first image;
detecting a face region in the first image;
generating correction information for correcting the first image;
processing the correction information based on a second image different from the first image;
A program for executing a process.

1…デジタルカメラ、2…カメラ本体、3…電源スイッチ、4…レリーズスイッチ、5…モード選択キー、6…再生ボタン、7…液晶画面、10…レンズ、20…撮像素子、30…撮像処理部、40…画像処理部、41…第1のオブジェクト、42…第2のオブジェクト、43…第3のオブジェクト、50…DRAM、60…フラッシュメモリ、70…画像表示部、70a…表示処理部、70b…表示部、80…操作入力部、90…CPU、401…画像受信部、402…顔検出部、403…特徴点検出部、404…代表画素値決定部、405…第1のオブジェクト位置特定部、406…移動量算出部、407…第2のオブジェクト位置特定部、408…領域調整部、409…画素値書換部、410…スルー画像作成部、411…第1のキャプチャー画像作成部、412…第2のキャプチャー画像作成部、413…切換部、131,801…第1の画像、132,802…第2の画像、803…第3の画像 、804…第nの画像 DESCRIPTION OF SYMBOLS 1... Digital camera, 2... Camera main body, 3... Power switch, 4... Release switch, 5... Mode selection key, 6... Reproduction button, 7... Liquid crystal screen, 10... Lens, 20... Imaging device, 30... Imaging processing unit , 40... Image processing unit 41... First object 42... Second object 43... Third object 50... DRAM 60... Flash memory 70... Image display unit 70a... Display processing unit 70b Display unit 80 Operation input unit 90 CPU 401 Image reception unit 402 Face detection unit 403 Feature point detection unit 404 Representative pixel value determination unit 405 First object position identification unit , 406... Movement amount calculation unit 407... Second object position specification unit 408... Area adjustment unit 409... Pixel value rewriting unit 410... Through image creation unit 411... First capture image creation unit 412... Second capture image creation unit 413 Switching unit 131, 801 First image 132, 802 Second image 803 Third image 804 nth image

本発明の目的を達成するため、本発明に係る画像処理装置は、
像を逐次取得する画像取得手段と、
前記画像取得手段によって取得された第1の画像と前記第1の画像の取得後に取得された第2の画像とについて、前記画の領域内の特徴点を検出し、該特徴点の位置を検出する特徴点位置検出手段と、
前記画像取得手段によって取得された前記第1の画像について、前記画の領域内のオブジェクトを検出し、該オブジェクトの位置を特定するオブジェクト位置特定手段と、
前記特徴点位置検出手段により検出された前記第1の画像の前記特徴点の位置と前記第2の画像の前記特徴点の位置とを比較する比較手段と、
前記比較手段による比較結果と前記オブジェクト位置特定手段によって特定された前記第1の画像の前記オブジェクトの位置とに基づいて前記第2の画像の前記オブジェクトの位置を特定するための情報を生成する情報生成手段と
備える
In order to achieve the object of the present invention, an image processing apparatus according to the present invention includes:
an image acquiring means for sequentially acquiring images;
Detecting feature points in regions of the first image acquired by the image acquisition means and a second image acquired after the acquisition of the first image, and detecting positions of the feature points feature point position detection means for detecting
an object position identifying means for detecting an object within a region of the image with respect to the first image obtained by the image obtaining means and identifying the position of the object;
comparison means for comparing the positions of the feature points of the first image and the positions of the feature points of the second image detected by the feature point position detection means;
Information for generating information for specifying the position of the object in the second image based on the comparison result by the comparing means and the position of the object in the first image specified by the object position specifying means a generating means ;
Prepare .

Claims (6)

顔画像を逐次取得する画像取得手段と、
前記画像取得手段によって取得された第1の画像と前記第1の画像の取得後に取得された第2の画像とについて、前記顔画像の顔領域内の特徴点を検出し、該特徴点の位置を検出する特徴点位置検出手段と、
前記画像取得手段によって取得された前記第1の画像について、前記顔画像の顔領域内のオブジェクトを検出し、該オブジェクトの位置を特定するオブジェクト位置特定手段と、
前記特徴点位置検出手段により検出された前記第1の画像の前記特徴点の位置と前記第2の画像の前記特徴点の位置とを比較する比較手段と、
前記比較手段による比較結果と前記オブジェクト位置特定手段によって特定された前記第1の画像の前記オブジェクトの位置とに基づいて前記第2の画像の前記オブジェクトの位置を特定するための情報を生成する情報生成手段と、
前記情報生成手段によって生成された前記第2の画像の前記オブジェクトの位置を特定するための情報に基づいて特定された、前記第2の画像の前記オブジェクトの位置の画素値を書き換える書換手段と、
を備えることを特徴とする画像処理装置。
an image acquiring means for sequentially acquiring face images;
Detecting feature points in the face region of the face images in the first image acquired by the image acquisition means and the second image acquired after the acquisition of the first image, and detecting the positions of the feature points feature point position detection means for detecting
an object position identifying means for detecting an object within the face area of the face image in the first image obtained by the image obtaining means and identifying the position of the object;
comparison means for comparing the positions of the feature points of the first image and the positions of the feature points of the second image detected by the feature point position detection means;
Information for generating information for specifying the position of the object in the second image based on the comparison result by the comparing means and the position of the object in the first image specified by the object position specifying means a generating means;
rewriting means for rewriting a pixel value of the position of the object in the second image specified based on the information for specifying the position of the object in the second image generated by the information generating means;
An image processing device comprising:
前記比較手段は、前記第1の画像の前記特徴点の位置と前記第2の画像の前記特徴点の位置との間の当該特徴点の移動量に基づき、前記第1の画像の前記特徴点と前記第2の画像の前記特徴点とを比較することを特徴とする請求項1に記載の画像処理装置。 The comparison means determines the feature points of the first image based on the amount of movement of the feature points between the positions of the feature points of the first image and the positions of the feature points of the second image. 2. The image processing apparatus according to claim 1, wherein the feature point of the second image is compared with the feature point of the second image. 前記オブジェクト位置特定手段は、前記第1の画像の顔領域内の画素の画素値を代表する代表画素値に基づいて、前記顔画像に含まれる前記オブジェクトの位置を特定するための情報を生成することを特徴とする請求項1または2に記載の画像処理装置。 The object position specifying means generates information for specifying the position of the object included in the face image based on a representative pixel value representing pixel values of pixels in the face region of the first image. 3. The image processing apparatus according to claim 1, wherein: 前記書換手段により画素値が書き換えられた前記オブジェクトを含む顔画像のスルー画像を生成するスルー画像作成手段を更に備えることを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 4. The image processing apparatus according to any one of claims 1 to 3, further comprising through image creating means for creating a through image of a face image including said object whose pixel values have been rewritten by said rewriting means. . 画像処理装置が実行する画像処理方法であって、
顔画像を逐次取得する画像取得ステップと、
前記画像取得ステップにて取得された第1の画像と前記第1の画像の取得後に取得された第2の画像とについて、前記顔画像の顔領域内の特徴点を検出し、該特徴点の位置を検出する特徴点位置検出ステップと、
前記画像取得ステップにて取得された前記第1の画像について、前記顔画像の顔領域内のオブジェクトを検出し、該オブジェクトの位置を特定するオブジェクト位置特定ステップと、
前記特徴点位置検出ステップにて検出された前記第1の画像の前記特徴点の位置と前記第2の画像の前記特徴点の位置とを比較する比較ステップと、
前記比較ステップによる比較結果と前記オブジェクト位置特定ステップにて特定された前記第1の画像の前記オブジェクトの位置とに基づいて前記第2の画像の前記オブジェクトの位置を特定するための情報を生成する情報生成ステップと、
前記情報生成ステップにて生成された前記第2の画像の前記オブジェクトの位置を特定するための情報に基づいて特定された、前記第2の画像の前記オブジェクトの位置の画素値を書き換える書換ステップと、
を有することを特徴とする画像処理方法。
An image processing method executed by an image processing device,
an image acquisition step of sequentially acquiring face images;
detecting feature points in the face region of the face image in the first image acquired in the image acquisition step and the second image acquired after the acquisition of the first image; a feature point position detection step for detecting positions;
an object position specifying step of detecting an object in the face region of the face image from the first image acquired in the image acquiring step and specifying the position of the object;
a comparison step of comparing the positions of the feature points of the first image and the positions of the feature points of the second image detected in the feature point position detection step;
generating information for specifying the position of the object in the second image based on the comparison result of the comparing step and the position of the object in the first image specified in the object position specifying step; an information generating step;
a rewriting step of rewriting the pixel value of the position of the object in the second image, which is specified based on the information for specifying the position of the object in the second image generated in the information generating step; ,
An image processing method characterized by comprising:
画像処理装置のコンピュータを、
顔画像を逐次取得する画像取得手段、
前記画像取得手段によって取得された第1の画像と前記第1の画像の取得後に取得された第2の画像とについて、前記顔画像の顔領域内の特徴点を検出し、該特徴点の位置を検出する特徴点位置検出手段、
前記画像取得手段によって取得された前記第1の画像について、前記顔画像の顔領域内のオブジェクトを検出し、該オブジェクトの位置を特定するオブジェクト位置特定手段、
前記特徴点位置検出手段により検出された前記第1の画像の前記特徴点の位置と前記第2の画像の前記特徴点の位置とを比較する比較手段、
前記比較手段による比較結果と前記オブジェクト位置特定手段によって特定された前記第1の画像の前記オブジェクトの位置とに基づいて前記第2の画像の前記オブジェクトの位置を特定するための情報を生成する情報生成手段、
前記情報生成手段によって生成された前記第2の画像の前記オブジェクトの位置を特定するための情報に基づいて特定された、前記第2の画像の前記オブジェクトの位置の画素値を書き換える書換手段、
として機能させることを特徴とするプログラム。
The computer of the image processing device,
image acquisition means for sequentially acquiring face images;
Detecting feature points in the face region of the face images in the first image acquired by the image acquisition means and the second image acquired after the acquisition of the first image, and detecting the positions of the feature points Feature point position detection means for detecting
Object position identifying means for detecting an object in the face area of the face image from the first image obtained by the image obtaining means and identifying the position of the object;
comparison means for comparing the positions of the feature points of the first image and the positions of the feature points of the second image detected by the feature point position detection means;
Information for generating information for specifying the position of the object in the second image based on the comparison result by the comparing means and the position of the object in the first image specified by the object position specifying means generating means,
rewriting means for rewriting the pixel value of the position of the object in the second image specified based on the information for specifying the position of the object in the second image generated by the information generating means;
A program characterized by functioning as
JP2022113425A 2018-03-26 2022-07-14 Image processing device, image processing method and program Active JP7409440B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022113425A JP7409440B2 (en) 2018-03-26 2022-07-14 Image processing device, image processing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018057428A JP7110657B2 (en) 2018-03-26 2018-03-26 Image processing device, image processing method and program
JP2022113425A JP7409440B2 (en) 2018-03-26 2022-07-14 Image processing device, image processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018057428A Division JP7110657B2 (en) 2018-03-26 2018-03-26 Image processing device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2022140505A true JP2022140505A (en) 2022-09-26
JP7409440B2 JP7409440B2 (en) 2024-01-09

Family

ID=68108339

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018057428A Active JP7110657B2 (en) 2018-03-26 2018-03-26 Image processing device, image processing method and program
JP2022113425A Active JP7409440B2 (en) 2018-03-26 2022-07-14 Image processing device, image processing method and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018057428A Active JP7110657B2 (en) 2018-03-26 2018-03-26 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (2) JP7110657B2 (en)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4743823B2 (en) 2003-07-18 2011-08-10 キヤノン株式会社 Image processing apparatus, imaging apparatus, and image processing method
JP4799101B2 (en) 2005-09-26 2011-10-26 富士フイルム株式会社 Image processing method, apparatus, and program
JP2009055168A (en) 2007-08-24 2009-03-12 Fujifilm Corp Imaging apparatus and image processing method
JP4775599B2 (en) 2008-07-04 2011-09-21 花王株式会社 Eye position detection method
JP6222900B2 (en) 2012-07-09 2017-11-01 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP6007682B2 (en) 2012-08-31 2016-10-12 富士通株式会社 Image processing apparatus, image processing method, and program
JP6390247B2 (en) 2014-07-31 2018-09-19 大日本印刷株式会社 Photography apparatus, skin diagnosis method, program, and skin diagnosis system
JP6432399B2 (en) 2015-03-12 2018-12-05 オムロン株式会社 Image processing apparatus and image processing method
JP6458569B2 (en) 2015-03-12 2019-01-30 オムロン株式会社 Image processing apparatus and image processing method
TWI621101B (en) 2015-10-23 2018-04-11 Morpho, Inc. Image processing device, electronic device, image processing method and non-transitory computer readable recording medium
JP6793325B2 (en) 2016-05-25 2020-12-02 パナソニックIpマネジメント株式会社 Skin diagnostic device and skin diagnostic method

Also Published As

Publication number Publication date
JP7409440B2 (en) 2024-01-09
JP7110657B2 (en) 2022-08-02
JP2019169023A (en) 2019-10-03

Similar Documents

Publication Publication Date Title
US8494286B2 (en) Face detection in mid-shot digital images
US8570429B2 (en) Image processing method and apparatus and digital photographing apparatus using the same
JP2004317699A (en) Digital camera
JP5949331B2 (en) Image generating apparatus, image generating method, and program
JP2004320287A (en) Digital camera
JP2004320286A (en) Digital camera
JP2019106045A (en) Image processing device, method, and program
WO2015008717A1 (en) Image processing device and imaging apparatus
JP4290164B2 (en) Display method for displaying display showing identification area together with image, program executed by computer apparatus, and imaging apparatus
JP4706197B2 (en) Object determining apparatus and imaging apparatus
JP2004320285A (en) Digital camera
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP7110657B2 (en) Image processing device, image processing method and program
JP2006074498A (en) Image processor and imaging apparatus
JP2019062436A (en) Image processing apparatus, image processing method, and program
CN111083345B (en) Apparatus and method for generating a unique illumination and non-volatile computer readable medium thereof
JPH06153047A (en) Video camera system
JP2010154323A (en) Image processing apparatus, image extraction method, and, program
JP7458723B2 (en) Image processing device, imaging device, control method, and program
US11553136B2 (en) Subject tracking device, subject tracking method, and storage medium
JP7054437B2 (en) Image processing equipment, image processing methods and programs
JP6668646B2 (en) Image processing apparatus, image processing method, and program
JP2023114304A (en) Information processing device, and control method and program thereof
JP5962268B2 (en) Image processing apparatus, image processing method, image generation method, and program
JP2009055168A (en) Imaging apparatus and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231204

R150 Certificate of patent or registration of utility model

Ref document number: 7409440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150