JP7110899B2 - Image processing device, image processing method, and image processing program - Google Patents

Image processing device, image processing method, and image processing program Download PDF

Info

Publication number
JP7110899B2
JP7110899B2 JP2018193195A JP2018193195A JP7110899B2 JP 7110899 B2 JP7110899 B2 JP 7110899B2 JP 2018193195 A JP2018193195 A JP 2018193195A JP 2018193195 A JP2018193195 A JP 2018193195A JP 7110899 B2 JP7110899 B2 JP 7110899B2
Authority
JP
Japan
Prior art keywords
correction
template
degree
image
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018193195A
Other languages
Japanese (ja)
Other versions
JP2019220130A (en
Inventor
新太郎 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to US16/435,377 priority Critical patent/US11100615B2/en
Priority to CN201910515934.1A priority patent/CN110611762A/en
Publication of JP2019220130A publication Critical patent/JP2019220130A/en
Priority to JP2022112099A priority patent/JP7428208B2/en
Application granted granted Critical
Publication of JP7110899B2 publication Critical patent/JP7110899B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。 The present invention relates to an image processing device, an image processing method, and an image processing program.

従来、撮像により得られた被写体の画像に対して、所定の補正処理が行われている。所定の補正処理としては様々なものがあるが、例えば、被写体としてユーザの顔を写す場合に、画像内のユーザの顔部分に対して歪曲補正を行うことにより、ユーザの顔を小さく補正することができる。このような歪曲補正に関する技術は、例えば特許文献1に開示されている。 2. Description of the Related Art Conventionally, predetermined correction processing is performed on an image of a subject obtained by imaging. There are various types of predetermined correction processing. For example, when the user's face is photographed as a subject, the user's face is corrected to be smaller by performing distortion correction on the user's face portion in the image. can be done. A technique related to such distortion correction is disclosed in Patent Document 1, for example.

特開2012-142772号公報JP 2012-142772 A

しかしながら、特許文献1に開示された技術等の一般的な技術を利用するためには、まず被写体の画像に対して煩雑な画像解析処理を行い、補正対象とする器官の位置や、補正対象とする器官の輪郭全体を精度高く特定する必要があった。例えば、ユーザの目に対して補正を行う場合には、ユーザの目の位置や、目の輪郭全体を精度高く特定する必要があった。
このような、画像解析処理による輪郭全体の精度高い特定を要することなく、より簡略な方法にて補正処理を実現することが望まれる。
However, in order to use a general technique such as the technique disclosed in Patent Document 1, first, complicated image analysis processing is performed on the image of the subject, and the position of the organ to be corrected and the position of the organ to be corrected are determined. It was necessary to identify the entire contour of the organ to be treated with high accuracy. For example, when correcting the user's eyes, it is necessary to specify the position of the user's eyes and the entire outline of the eyes with high accuracy.
It is desired to realize correction processing by a simpler method without requiring such highly accurate identification of the entire contour by image analysis processing.

本発明は、このような状況に鑑みてなされたものであり、より簡略な方法にて補正処理を実現することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and an object of the present invention is to realize correction processing by a simpler method.

上記目的を達成するため、本発明に係る画像処理装置は、所定の被写体が写った画像を取得する取得手段と、前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶手段と、前記画像内の前記テンプレートに適合する座標を特定する特定手段と、前記特定手段が特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正手段と、を有し、前記特定手段は、前記画像内における前記被写体の第1領域の深度と、前記画像内における前記被写体の第2領域の深度との差分に基づいて、前記被写体の傾き度合いを特定し、該特定した前記被写体の傾き度合いに基づいて、前記テンプレートに含まれる補正度合いを修正し、前記補正手段は、前記特定手段が修正した補正度合いと、前記特定手段が特定した座標とに基づいて前記画像に対して補正を行う、ことを特徴とする。
また、本発明に係る画像処理方法は、画像処理装置が実行する画像処理方法であって、所定の被写体が写った画像を取得する取得ステップと、前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶ステップと、前記画像内の前記テンプレートに適合する座標を特定する特定ステップと、前記特定ステップにおいて特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正ステップと、を有し、前記特定ステップは、前記画像内における前記被写体の第1領域の深度と、前記画像内における前記被写体の第2領域の深度との差分に基づいて、前記被写体の傾き度合いを特定し、該特定した前記被写体の傾き度合いに基づいて、前記テンプレートに含まれる補正度合いを修正し、前記補正ステップは、前記特定ステップで修正した補正度合いと、前記特定ステップで特定した座標とに基づいて前記画像に対して補正を行う、ことを特徴とする。
また、本発明に係るプログラムは、コンピュータに、所定の被写体が写った画像を取得する取得機能と、前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶機能と、前記画像内の前記テンプレートに適合する座標を特定する特定機能と、前記特定機能が特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正機能と、を実現させ、前記特定機能は、前記画像内における前記被写体の第1領域の深度と、前記画像内における前記被写体の第2領域の深度との差分に基づいて、前記被写体の傾き度合いを特定し、該特定した前記被写体の傾き度合いに基づいて、前記テンプレートに含まれる補正度合いを修正し、前記補正機能は、前記特定機能で修正した補正度合いと、前記特定機能で特定した座標とに基づいて前記画像に対して補正を行う、ことを特徴とする。
In order to achieve the above object, an image processing apparatus according to the present invention includes acquisition means for acquiring an image showing a predetermined subject, and a degree of correction at each position within a shape corresponding to a correction target area of the predetermined subject. storage means for storing a template including a degree of correction that varies at each position; specifying means for specifying coordinates in the image that match the template; coordinates specified by the specifying means; correction means for correcting the image based on the degree of correction obtained, and the specifying means includes a depth of a first region of the subject in the image and a depth of the subject in the image. The degree of inclination of the subject is specified based on the difference from the depth of the second area, and the degree of correction included in the template is corrected based on the specified degree of inclination of the subject, and the correction means corrects the The correction is performed on the image based on the degree of correction corrected by the specifying means and the coordinates specified by the specifying means .
Further, an image processing method according to the present invention is an image processing method executed by an image processing apparatus, comprising: an obtaining step of obtaining an image including a predetermined subject; a storing step of storing a template containing the degree of correction at each position in the image, the degree of correction varying at each position; an identifying step of identifying coordinates in the image that match the template; and a correction step of correcting the image based on the coordinates and the degree of correction included in the template, wherein the specifying step includes the depth and the depth of the first area of the subject in the image. and specifying the degree of inclination of the subject based on the difference in depth of the second region of the subject in the image, and correcting the degree of correction included in the template based on the specified degree of inclination of the subject. and the correcting step corrects the image based on the degree of correction corrected in the specifying step and the coordinates specified in the specifying step.
Further, the program according to the present invention provides a computer with an acquisition function for acquiring an image of a predetermined subject, and a degree of correction at each position within a shape corresponding to a correction target area of the predetermined subject, a storage function that stores a template containing a position-varying degree of correction; a specific function that identifies coordinates in the image that match the template; the coordinates that the specific function identifies; and the degree of correction included in the template. and a correction function for correcting the image based on the above, wherein the specific function is the depth of the first area of the subject in the image and the depth of the second area of the subject in the image. The degree of inclination of the subject is specified based on the difference from the depth, the degree of correction included in the template is corrected based on the specified degree of inclination of the subject, and the correction function is corrected by the specific function. and the coordinates specified by the specified function.

本発明によれば、より簡略な方法にて補正処理を実現することができる。 According to the present invention, correction processing can be realized by a simpler method.

本発明の画像処理装置の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。1 is a block diagram showing the hardware configuration of an imaging device according to an embodiment of an image processing device of the present invention; FIG. 図1の撮像装置による細顔補正処理の概要を説明するための模式図である。FIG. 2 is a schematic diagram for explaining an outline of thin face correction processing by the imaging device of FIG. 1; 図1の撮像装置の機能的構成のうち、細顔補正処理を実行するための機能的構成を示す機能ブロック図である。FIG. 2 is a functional block diagram showing a functional configuration for executing thin face correction processing among the functional configurations of the imaging apparatus of FIG. 1; テンプレートの形状及びアルファ値の例と、テンプレートが適用される顔の部位との関係を示す模式図である。FIG. 4 is a schematic diagram showing the relationship between examples of template shapes and alpha values, and facial regions to which the templates are applied; 元画像に対するテンプレートの適合について説明するための模式図である。FIG. 4 is a schematic diagram for explaining matching of a template to an original image; 複数のテンプレートを用いたアルファマップの生成について説明するための模式図である。FIG. 4 is a schematic diagram for explaining generation of an alpha map using a plurality of templates; 補正を行う前の元画像の一例について示す模式図である。FIG. 4 is a schematic diagram showing an example of an original image before correction; 図7に図示した元画像を、従来技術により補正した画像の一例について示す模式図である。FIG. 8 is a schematic diagram showing an example of an image obtained by correcting the original image shown in FIG. 7 by a conventional technique; 図7に図示した元画像を、図1の撮像装置による細顔補正処理により補正した画像の一例について示す模式図である。FIG. 8 is a schematic diagram showing an example of an image obtained by correcting the original image shown in FIG. 7 by thin face correction processing performed by the imaging device of FIG. 1 ; 図3の機能的構成を有する図1の撮像装置1が実行する細顔補正処理の流れを説明するフローチャートである。4 is a flowchart for explaining the flow of thin face correction processing executed by the imaging device 1 of FIG. 1 having the functional configuration of FIG. 3; 図1の撮像装置による細顔補正処理において、トリミング処理を行う場合について説明するための模式図である。2 is a schematic diagram for explaining a case where trimming processing is performed in the thin face correction processing by the imaging device of FIG. 1; FIG. 撮像装置1による、アルファ値の修正を説明するための模式図である。4 is a schematic diagram for explaining correction of an alpha value by the imaging device 1; FIG. 細顔補正処理において、アルファ値を修正した後に、歪曲補正した画像の一例について示す模式図である。FIG. 10 is a schematic diagram showing an example of an image subjected to distortion correction after correcting the alpha value in the thin face correction process; 細顔補正処理において、アルファ値を修正した後に、歪曲補正した画像の他の一例について示す模式図である。FIG. 10 is a schematic diagram showing another example of an image that has undergone distortion correction after correcting the alpha value in the thin face correction process. 細顔補正処理において、アルファ値を修正した後に、歪曲補正した画像の他の一例について示す模式図である。FIG. 10 is a schematic diagram showing another example of an image that has undergone distortion correction after correcting the alpha value in the thin face correction process. 図3の機能的構成を有する図1の撮像装置1が実行する、変形例4における細顔補正処理の流れを説明するフローチャートである。10 is a flowchart for explaining the flow of thin face correction processing according to Modification 4, which is executed by the imaging device 1 of FIG. 1 having the functional configuration of FIG. 3. FIG.

以下、本発明の実施形態について、図面を用いて説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の画像処理装置の一実施形態に係る撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えば、デジタルカメラとして構成される。
FIG. 1 is a block diagram showing the hardware configuration of an imaging device 1 according to an embodiment of the image processing device of the present invention.
The imaging device 1 is configured as, for example, a digital camera.

撮像装置1は、図1に示すように、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、照明部22と、を備えている。 As shown in FIG. 1, the imaging device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input/output interface 15, and an imaging device. A unit 16 , an input unit 17 , an output unit 18 , a storage unit 19 , a communication unit 20 , a drive 21 and an illumination unit 22 are provided.

CPU11は、ROM12に記録されているプログラム、または、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。 The CPU 11 executes various processes according to programs recorded in the ROM 12 or programs loaded from the storage unit 19 to the RAM 13 .

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。 The RAM 13 also stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、入力部17、出力部18、記憶部19、通信部20、ドライブ21及び、照明部22が接続されている。 The CPU 11 , ROM 12 and RAM 13 are interconnected via a bus 14 . An input/output interface 15 is also connected to this bus 14 . The input/output interface 15 is connected with an imaging unit 16 , an input unit 17 , an output unit 18 , a storage unit 19 , a communication unit 20 , a drive 21 and an illumination unit 22 .

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。 The imaging unit 16 includes an optical lens unit and an image sensor (not shown).

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens section is composed of a lens for condensing light, such as a focus lens and a zoom lens, in order to photograph an object.
A focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. A zoom lens is a lens that can freely change the focal length within a certain range.
The optical lens unit is also provided with peripheral circuits for adjusting setting parameters such as focus, exposure, white balance, etc., as required.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を撮像画像のデータとしてCPU11や図示しない画像処理部等に適宜供給される。
The image sensor is composed of a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens section. Therefore, the photoelectric conversion element photoelectrically converts (pictures) a subject image, accumulates an image signal for a certain period of time, and sequentially supplies the accumulated image signal to the AFE as an analog signal.
The AFE executes various signal processing such as A/D (Analog/Digital) conversion processing on this analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 16 .
Such an output signal of the imaging unit 16 is appropriately supplied to the CPU 11, an image processing unit (not shown), or the like as captured image data.

入力部17は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 17 is composed of various buttons and the like, and inputs various kinds of information according to user's instruction operation.
The output unit 18 includes a display, a speaker, and the like, and outputs images and sounds.
The storage unit 19 is composed of a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores data of various images.
The communication unit 20 controls communication with another device (not shown) via a network including the Internet.

ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。 A removable medium 31 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is mounted in the drive 21 as appropriate. A program read from the removable medium 31 by the drive 21 is installed in the storage unit 19 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 19 in the same manner as the storage unit 19 .

照明部22は、例えば、撮像部16の周囲に円を描くように設置された発光部材としての8個のLED(Light Emitting Diode)と、当該撮像装置1において、この8個のLEDとは離れた位置に設置された1個のLEDとで構成される。これらのLEDは、ライブビュー撮影時や、画像記録時等に、ユーザの操作に従って選択的に発光する。このように照明のための光線の到来方向を変更させて顔を撮影することで、人為的に陰影がコントロールされた顔画像を取得することができる。 The illumination unit 22 includes, for example, eight LEDs (Light Emitting Diodes) as light-emitting members installed in a circle around the imaging unit 16 and, in the imaging device 1, separated from the eight LEDs. It consists of one LED installed at a position These LEDs selectively emit light according to a user's operation during live view shooting, image recording, or the like. By photographing the face while changing the incoming direction of light rays for illumination in this way, it is possible to obtain a face image in which shadows are artificially controlled.

このように構成される撮像装置1では、被写体を撮影した画像に対して、テンプレートを利用した歪曲補正を行うことにより、被写体を違和感なく自然に補正する機能を有する。これにより、例えば、ユーザの顔を被写体とした場合に、ユーザの顔を違和感なく自然な細顔とすることができる。
以下では、撮像装置1による、このテンプレートを利用した歪曲補正を行う一連の処理を「細顔補正処理」と称する。次に、図2を参照して、細顔補正処理の概要について説明する。
The imaging apparatus 1 configured as described above has a function of correcting the subject naturally without discomfort by performing distortion correction using a template on an image of the subject. As a result, for example, when the user's face is used as the subject, the user's face can be made into a natural thin face without discomfort.
Hereinafter, a series of processes for performing distortion correction using this template by the imaging device 1 will be referred to as "slim face correction process". Next, with reference to FIG. 2, an outline of the thin face correction process will be described.

[細顔補正処理の概要]
図2は、撮像装置1による、細顔補正処理の概要を説明するための模式図である。
図2においては、顔に含まれる所定の器官である鼻筋を含む領域と、所定の部位である左右のフェイスライン領域それぞれとに対して、局所的な歪曲補正を行う例を示している。
[Overview of thin face correction processing]
FIG. 2 is a schematic diagram for explaining an outline of the thin face correction processing by the imaging device 1. As shown in FIG.
FIG. 2 shows an example in which local distortion correction is performed on a region including the bridge of the nose, which is a predetermined organ included in the face, and left and right face line regions, which are predetermined parts.

図2(A)に示すように、撮像装置1は、細顔補正処理の対象として、補正前の画像(以下、「元画像」と称する)を取得する。また、撮像装置1は、この元画像における、歪曲補正の対象とする領域(以下、「補正対象領域」と称する。)を特定する。そのために、撮像装置1は、顔の所定の器官らしさや所定の部位らしさを表すテンプレートを、所定の器官や部位それぞれに応じて記憶しておく。また、撮像装置1は、このテンプレートを、元画像の対応する所定の器官や所定の部位の位置に適合させる。ここで、このテンプレートには、元画像に含まれる、顔の補正対象領域に対応した形状内における、各位置の補正度合いを示す値(以下、「アルファ値」と称する。)含む。 As shown in FIG. 2A, the imaging device 1 acquires an image before correction (hereinafter referred to as an “original image”) as a target for thin face correction processing. The imaging device 1 also specifies a region to be subjected to distortion correction (hereinafter referred to as a “correction target region”) in this original image. For this reason, the imaging apparatus 1 stores a template representing the likeness of a predetermined organ or the likeness of a predetermined part of the face according to each of the predetermined organs and parts. Further, the imaging device 1 adapts this template to the position of the corresponding predetermined organ or predetermined part of the original image. Here, this template includes a value (hereinafter referred to as "alpha value") indicating the degree of correction at each position within the shape corresponding to the correction target area of the face included in the original image.

また、図2(B)に示すように、撮像装置1は、元画像内の全ての座標におけるアルファ値の値が「0」の背景(以下、「黒背景」と称する。)に対して、適合結果に基づいて各テンプレートを配置することにより、元画像内における各位置の補正度合いを示すマップ(以下、「アルファマップ」生成する。)。 In addition, as shown in FIG. 2B, the imaging device 1 performs the A map (hereinafter referred to as an "alpha map") showing the degree of correction of each position in the original image is generated by arranging each template based on the matching result.

更に、図2(C)に示すように、撮像装置1は、元画像に対して歪曲補正を行う。この場合に、撮像装置1は、アルファマップに含まれる各座標における補正の度合いに基づいた度合いで歪曲補正を行う。具体的に、歪曲補正では、元画像の各座標を所定の方向に移動させることにより補正が実現される。例えば、ユーザの顔を細顔とする場合には、補正対象領域内の各座標を顔の中心方向に移動させることにより補正が実現される。撮像装置1は、アルファマップに含まれる各座標における補正の度合いに基づいた度合いに応じて、この各座標の移動量を決定することにより歪曲補正を行う。 Further, as shown in FIG. 2C, the imaging device 1 performs distortion correction on the original image. In this case, the imaging device 1 performs distortion correction at a degree based on the degree of correction at each coordinate included in the alpha map. Specifically, in distortion correction, correction is realized by moving each coordinate of the original image in a predetermined direction. For example, when the user's face is thin, correction is realized by moving each coordinate in the correction target area toward the center of the face. The imaging apparatus 1 performs distortion correction by determining the amount of movement of each coordinate according to the degree of correction at each coordinate included in the alpha map.

このような撮像装置1によれば、補正対象領域以外に対しては不要な補正を行うことなく、テンプレートに対応する補正対象領域に対してのみ歪曲補正を行うことができる。また、一律な補正度合いによる歪曲補正ではなく、テンプレートに含まれるアルファ値に応じた、器官や所定の部位それぞれ毎に適切な歪曲補正を行うことができる。 According to such an imaging apparatus 1, distortion correction can be performed only on the correction target area corresponding to the template without performing unnecessary correction on areas other than the correction target area. Also, instead of distortion correction based on a uniform degree of correction, it is possible to perform appropriate distortion correction for each organ or predetermined part according to the alpha value included in the template.

また、撮像装置1は、補正対象領域となる所定の器官らしさや所定の部位らしさを表す形状のテンプレートを利用するが、このテンプレートの輪郭内の輪郭周辺の部分は中央部分よりも補正の度合いが抑えられるように設定される。そのため、補正対象領域となる所定の器官の輪郭や所定の部位の輪郭と、テンプレートの輪郭とが、完全に適合しなかった場合であっても、輪郭周辺へ与える影響は少なく、全体として被写体を違和感なく自然に補正することができる。従って、撮像装置1によれば、器官や所定の部位の輪郭を精度高く検出する必要をなくすことができる。また、器官や所定の部位の輪郭を精度高く検出しない場合であっても、補正後の画像の品質をほぼ落すことなく歪曲補正を行うことができる。
この点、従来であれば、適切な歪曲補正を行うためには、ユーザの補正対象とするユーザの器官や所定の部位の位置と、これら器官や所定の部位の輪郭全体とを、精度高く特定する必要があった。これに対して、撮像装置1は、上述したように、器官や所定の部位の輪郭を精度高く検出する必要をなくした上で、補正後の画像の品質をほぼ落すことなく歪曲補正を行うことができる。
つまり、本実施形態によれば、より簡略な方法にて補正処理を実現することができる。
In addition, the imaging apparatus 1 uses a template having a shape that expresses the likeness of a predetermined organ or the likeness of a predetermined part, which is the region to be corrected. set to be suppressed. Therefore, even if the contour of the predetermined organ or the contour of the predetermined part to be corrected does not completely match the contour of the template, the effect on the periphery of the contour is small, and the subject as a whole can be corrected. Correction can be performed naturally without discomfort. Therefore, according to the imaging device 1, it is possible to eliminate the need to detect the contour of an organ or a predetermined part with high accuracy. Moreover, even if the contour of an organ or a predetermined part is not detected with high accuracy, distortion correction can be performed without degrading the quality of the image after correction.
In this respect, conventionally, in order to perform appropriate distortion correction, the positions of the user's organs and predetermined parts to be corrected by the user and the entire contours of these organs and predetermined parts must be specified with high accuracy. I had to. On the other hand, as described above, the imaging apparatus 1 eliminates the need to detect the contours of organs and predetermined parts with high accuracy, and performs distortion correction without degrading the quality of the corrected image. can be done.
That is, according to the present embodiment, correction processing can be realized by a simpler method.

[機能ブロック]
図3は、図1の撮像装置1の機能的構成のうち、細顔補正処理を実行するための機能的構成を示す機能ブロック図である。
上述したように、細顔補正処理とは、テンプレートを利用した歪曲補正を行う一連の処理をいう。
[Function block]
FIG. 3 is a functional block diagram showing a functional configuration for executing thin face correction processing among the functional configurations of the imaging apparatus 1 of FIG.
As described above, the thin face correction process refers to a series of processes for performing distortion correction using a template.

細顔補正処理を実行する場合には、図3に示すように、CPU11において、画像取得部51と、顔検出部52と、適合位置特定部53と、アルファマップ作成部54と、歪曲補正処理部55と、が機能する。
また、記憶部19の一領域には、画像記憶部61と、テンプレート記憶部62と、が設定される。
When executing thin face correction processing, as shown in FIG. 55 and , function.
An image storage section 61 and a template storage section 62 are set in one area of the storage section 19 .

画像記憶部61には、撮像部16から出力された、撮像部16により撮像された画像に現像処理が行われた撮像画像のデータが記憶される。
テンプレート記憶部62には、顔の各種部位に対応する形状のテンプレートのデータが記憶される。テンプレートの詳細については、図4を参照して説明する。
The image storage unit 61 stores the data of the captured image output from the image capturing unit 16, which is obtained by subjecting the image captured by the image capturing unit 16 to development processing.
The template storage unit 62 stores template data of shapes corresponding to various parts of the face. Details of the template will be described with reference to FIG.

画像取得部51は、撮像部16により撮像された画像に現像処理が行われた撮像画像のデータ、或いは画像記憶部61から処理対象となる画像のデータを取得する。 The image acquisition unit 51 acquires data of a captured image obtained by subjecting an image captured by the imaging unit 16 to development processing, or data of an image to be processed from the image storage unit 61 .

顔検出部52は、元画像から顔を検出する。また、顔検出部52は、補正対象領域に対応する所定の器官及び所定の部位の特徴点を検出する。顔検出部52による処理の詳細は、図5を参照して後述する。 A face detection unit 52 detects a face from the original image. Further, the face detection unit 52 detects feature points of predetermined organs and predetermined parts corresponding to the correction target area. Details of the processing by the face detection unit 52 will be described later with reference to FIG.

適合位置特定部53は、元画像における、テンプレートに適合する座標を特定する。適合位置特定部53による処理の詳細は、図5を参照して後述する。 The matching position specifying unit 53 specifies coordinates in the original image that match the template. Details of the processing by the matching position specifying unit 53 will be described later with reference to FIG.

アルファマップ作成部54は、テンプレートに適合する座標に基づいて、アルファマップを作成する。アルファマップ作成部54による処理の詳細は、図6を参照して後述する。 The alpha map creation unit 54 creates an alpha map based on the coordinates that match the template. The details of the processing by the alpha map generation unit 54 will be described later with reference to FIG.

歪曲補正処理部55は、アルファマップに含まれるアルファ値に基づいて歪曲補正を行う。歪曲補正処理部55による処理の詳細は、図6を参照したアルファマップ作成部54の説明の後に、後述する。 A distortion correction processing unit 55 performs distortion correction based on the alpha value included in the alpha map. The details of the processing by the distortion correction processing section 55 will be described later after the description of the alpha map generation section 54 with reference to FIG.

[テンプレートの具体例]
次に、テンプレート記憶部62が記憶するテンプレートの詳細について図4を参照して説明する。図4は、テンプレートの形状及びアルファ値の例と、テンプレートが適用される顔の部位との関係を示す模式図である。
ここで、テンプレートは、一般的な顔において顔の所定の器官や所定の部位に対応する補正対象領域の形状を模したテンプレートであり、顔の特定の部位らしさを表すものである。また、上述のように、補正対象領域に対応した形状内における、各位置の補正度合いを示すアルファ値を含む。
[Specific example of template]
Next, details of the template stored in the template storage unit 62 will be described with reference to FIG. FIG. 4 is a schematic diagram showing the relationship between an example of the template shape and alpha value, and the part of the face to which the template is applied.
Here, the template is a template that imitates the shape of a correction target area corresponding to a predetermined organ or a predetermined part of the face in a general face, and expresses the likeness of a specific part of the face. Also, as described above, the alpha value indicating the degree of correction at each position within the shape corresponding to the correction target area is included.

図4では、鼻に対応するテンプレートである「鼻用テンプレートT1」、フェイスラインの右側に対応するテンプレートである「フェイスライン右側用テンプレートT2」、及びフェイスラインの左側に対応するテンプレートである「フェイスライン左側用テンプレートT3」を併せて適用した例を示している。なお、図4や後述の図5の図中において、テンプレートは破線の閉領域として示されている。また、これらの図中において、テンプレートに含まれるアルファ値の表現として、値が「0」の場合に黒色で示されており、値が「1」の場合に白色で示されており、値が「0から1までの中間値」の場合にハッチングで示されている。 In FIG. 4, a "nose template T1" which is a template corresponding to the nose, a "right face line template T2" which is a template corresponding to the right side of the face line, and a "face template T2" which is a template corresponding to the left side of the face line. This shows an example in which a template T3 for the left side of the line is also applied. In addition, in FIG. 4 and FIG. 5 which will be described later, the template is shown as a closed area indicated by broken lines. In these figures, the alpha values included in the template are shown in black when the value is "0", in white when the value is "1", and when the value is "1". It is indicated by hatching in the case of "intermediate value between 0 and 1".

図4に示すように、鼻用テンプレートT1は、鼻全体を補正対象領域とすることにより、鼻全体を縮小するために用いられる。また、鼻用テンプレートT1は、特に鼻の中央部分の領域がより縮小されるようにアルファ値が「1」に設定され、鼻の輪郭外の領域は縮小されないようにアルファ値が「0」に設定され、鼻の輪郭内の輪郭周辺の部分は中央部分よりも縮小が抑えられるように「0から1までの中間値」が設定される。このような、鼻の中央に近づくにつれて補正度合いが段階的に変化するように設定されたアルファ値に基づいて、歪曲補正を行うことにより、より自然に鼻を縮小し、細顔とする効果が得られる。 As shown in FIG. 4, the nasal template T1 is used to reduce the entire nose by making the entire nose a correction target region. Further, the nose template T1 has an alpha value set to "1" so that the area in the central part of the nose is particularly reduced, and an alpha value of "0" so that the area outside the outline of the nose is not reduced. An "intermediate value between 0 and 1" is set so that the portion around the contour within the contour of the nose is less reduced than the central portion. By performing distortion correction based on such an alpha value that is set so that the degree of correction changes stepwise as it approaches the center of the nose, the effect of shrinking the nose more naturally and making the face slimmer is achieved. can get.

また、図4に示すように、フェイスライン右側用テンプレートT2及びフェイスライン左側用テンプレートT3は、それぞれ左右のフェイスラインを補正対象領域とすることにより、左右の頬(特に、えら部分)のフェイスラインを縮小するために用いられる。フェイスライン右側用テンプレートT2及びフェイスライン左側用テンプレートT3は、左右の頬が均等に縮小するように、顔の中心線に対して左右対称な形状となっている。 Further, as shown in FIG. 4, the right face line template T2 and the left face line template T3 set the left and right face lines as correction target regions, respectively, so that the face lines of the left and right cheeks (particularly, the gill portion) are corrected. used to reduce the The right face line template T2 and the left face line template T3 are symmetrical with respect to the center line of the face so that the left and right cheeks shrink evenly.

また、フェイスライン右側用テンプレートT2及びフェイスライン左側用テンプレートT3は、特にフェイスラインの中央部分の領域がより縮小されるようにアルファ値が「1」に設定され、フェイスラインの輪郭外の領域は縮小されないようにアルファ値が「0」に設定され、フェイスラインの輪郭内の輪郭周辺の部分は中央部分よりも縮小が抑えられるように「0から1までの中間値」が設定される。このような、フェイスラインの中央に近づくにつれて補正度合いが段階的に変化するように設定されたアルファ値に基づいて、歪曲補正を行うことにより、より自然に左右のフェイスラインを縮小し、細顔とする効果が得られる。 In the right face line template T2 and the left face line template T3, the alpha value is set to "1" so that the central region of the face line is particularly reduced, and the region outside the contour of the face line is The alpha value is set to "0" so as not to be reduced, and an "intermediate value between 0 and 1" is set so that the peripheral portion of the contour of the face line is less reduced than the central portion. By performing distortion correction based on the alpha value set so that the degree of correction changes stepwise as the center of the face line is approached, the left and right face lines are reduced more naturally and the face becomes slimmer. You can get the effect of

なお、テンプレートは、データ量削減のため、対称な形状を有するものについては1つのみ記憶しておき、使用する際に対称変換して使用することができる。例えば、左のフェイスラインに対応するテンプレートを記憶しておき、使用する際に左右反転を行うことにより対称変換して、右のフェイスラインに対応するテンプレートとして使用することができる。 In order to reduce the amount of data, only one template having a symmetrical shape can be stored and used after being symmetrically transformed. For example, a template corresponding to the left face line can be stored and used as a template corresponding to the right face line by symmetrically transforming it by horizontally inverting it when using it.

[テンプレートの適合]
次に、顔検出部52及び適合位置特定部53により行われる、元画像に対するテンプレートの適合について説明する。図5は、元画像に対するテンプレートの適合について説明するための模式図である。図5では、画像取得部51が取得した元画像における鼻に対して、鼻用テンプレートT1を適合する場合を例に取って説明する。
[Template adaptation]
Next, the matching of the template to the original image performed by the face detection unit 52 and matching position specifying unit 53 will be described. FIG. 5 is a schematic diagram for explaining matching of a template to an original image. In FIG. 5, a case where the nose template T1 is matched to the nose in the original image acquired by the image acquisition unit 51 will be described as an example.

テンプレートの適合を行う場合、図5(A)に示すように、顔検出部52は、元画像に対して、特徴点の検出を行う。具体的には、顔検出部52は、特徴点として、基点となる点と、輪郭点とを検出する。基点となる点は、例えば、図中の基点P11のような鼻の中央に対応する点である。また、輪郭点となる点は、例えば、図中の輪郭点P21と輪郭点P22のような鼻の上下両端に対応する点と、図中の輪郭点P31と輪郭点P32のような鼻の左右両端に対応する点である。
以下の図5(B)以降を参照して説明する適合に関する処理は、このように検出された各特徴点の元画像における座標に基づいて行われる。なお、顔検出部52による、顔検出及び各特徴点の検出は、既存の顔検出技術及び特徴点検出技術を用いることができる。
When matching a template, as shown in FIG. 5A, the face detection unit 52 detects feature points in the original image. Specifically, the face detection unit 52 detects a base point and contour points as feature points. The base point is, for example, a point corresponding to the center of the nose, such as the base point P11 in the figure. The contour points are, for example, contour points P21 and P22 in the figure corresponding to the upper and lower ends of the nose, and contour points P31 and P32 in the figure to the left and right of the nose. It is a point corresponding to both ends.
The matching process described below with reference to FIG. 5(B) is performed based on the coordinates of each feature point detected in this way in the original image. It should be noted that existing face detection technology and feature point detection technology can be used for face detection and feature point detection by the face detection unit 52 .

次に、図5(B)に示すように、適合位置特定部53は、基点に基づいてテンプレートの位置合わせを行う。具体的には、適合位置特定部53は、鼻用テンプレートT1の中央の座標と、基点P11の中央の座標を合わせることにより、テンプレートの位置合わせを行う。 Next, as shown in FIG. 5B, the matching position specifying unit 53 aligns the templates based on the base points. Specifically, the matching position identifying unit 53 aligns the template by matching the coordinates of the center of the nasal template T1 and the coordinates of the center of the base point P11.

次に、図5(C)に示すように、適合位置特定部53は、角度に基づいてテンプレートを回転させる。ここで角度は、図中に示すように、例えば、輪郭点P31と輪郭点P32を結ぶ直線と、X軸に平行な直線とのなす角度である角度A1を用いることができる。この角度A1は、鼻の傾きを示す角度であるので、適合位置特定部53は、鼻用テンプレートT1を、基点P11を回転中心として、角度A1と同じ角度だけ回転させることにより、テンプレートの角度を適合させることができる。 Next, as shown in FIG. 5C, the matching position specifying unit 53 rotates the template based on the angle. Here, as shown in the figure, for example, an angle A1, which is an angle between a straight line connecting contour points P31 and P32 and a straight line parallel to the X-axis, can be used as the angle. Since this angle A1 is an angle that indicates the inclination of the nose, the matching position specifying unit 53 rotates the nose template T1 about the base point P11 by the same angle as the angle A1, thereby adjusting the angle of the template. can be adapted.

最後に、図5(D)に示すように、適合位置特定部53は、輪郭点の位置に基づいてテンプレートを拡大又は縮小する。すなわち、テンプレートの大きさを適合させる。具体的には、適合位置特定部53は、鼻用テンプレートT1の両端が、輪郭点P31と輪郭点P32により示される鼻の両端と同じ大きさとなるように、鼻用テンプレートT1の形状を維持したまま鼻用テンプレートT1を拡大又は縮小する。なお、この場合に、適合位置特定部53は、鼻用テンプレートT1に含まれるアルファ値も変更することなく維持する。 Finally, as shown in FIG. 5(D), the matching position specifying unit 53 enlarges or reduces the template based on the positions of the contour points. That is, adapt the size of the template. Specifically, the matching position specifying unit 53 maintains the shape of the nasal template T1 so that both ends of the nasal template T1 are the same size as the two ends of the nose indicated by the contour points P31 and P32. The nasal template T1 is enlarged or reduced as it is. In this case, the matching position specifying unit 53 also maintains the alpha value included in the nasal template T1 without changing it.

以上、図5(A)から図5(D)を参照して説明したようにして、元画像に対するテンプレートの適合を行うことができる。この適合は、上述したように、基点と、複数の輪郭点のみを検出することにより実現できる。すなわち、補正対象とする器官や部位の輪郭全体を精度高く特定する必要はない。つまり、本実施形態によれば、より簡略な方法にて補正処理を実現することができる。 As described above with reference to FIGS. 5A to 5D, the template can be adapted to the original image. This matching can be achieved by detecting only the base point and a plurality of contour points, as described above. That is, it is not necessary to specify the entire contour of the organ or part to be corrected with high accuracy. That is, according to the present embodiment, correction processing can be realized by a simpler method.

また、テンプレートが複数存在する場合は、複数のテンプレートについて適合する座標を、複数のテンプレートそれぞれ毎に独立して特定する。従って、元画像において顔が横向きに近くなっていたり傾いていたりしており、フェイスラインの角度や大きさが対称でないような場合であっても、左右それぞれのフェイスラインに適合するようにテンプレートの角度や大きさを調整することができる。つまり、本実施形態によれば、顔の向きや大きさがそれぞれ異なる多様な元画像それぞれに対して、予め用意されている共通のテンプレートを適合させることができる。 Also, when there are a plurality of templates, matching coordinates for the plurality of templates are independently specified for each of the plurality of templates. Therefore, even if the face in the original image is almost sideways or tilted, and the angles and sizes of the face lines are not symmetrical, the template is designed to match the left and right face lines. You can adjust the angle and size. That is, according to the present embodiment, a common template prepared in advance can be adapted to each of various original images having different face orientations and sizes.

なお、上述の説明では、基点P11と、輪郭点P31及び輪郭点P32とを利用して適合を行ったが、これに限らず、他の輪郭点を用いて適合を行うことも可能である。この点については、変形例1として後述する。 In the above description, the matching is performed using the base point P11 and the contour points P31 and P32. However, it is also possible to perform matching using other contour points. This point will be described later as Modified Example 1.

[アルファマップの作成]
次に、アルファマップ作成部54により行われる、アルファマップの作成について説明をする。図6は、複数のテンプレートを用いたアルファマップの生成について説明するための模式図である。
図6(A)に示すように、アルファマップ作成部54は、適合位置特定部53により特定された、複数のテンプレートそれぞれに適合する座標を取得する。
[Create Alpha Map]
Next, alpha map generation performed by the alpha map generation unit 54 will be described. FIG. 6 is a schematic diagram for explaining generation of an alpha map using a plurality of templates.
As shown in FIG. 6A, the alpha map creation unit 54 acquires coordinates that match each of the plurality of templates specified by the matching position specifying unit 53 .

図6(B)に示すように、アルファマップ作成部54は、複数のテンプレートそれぞれに適合する座標に基づいて、各テンプレートを、黒背景上の適合する座標上に配置する。なお、黒背景と元画像とは、同じ座標系を用いて管理される。 As shown in FIG. 6B, the alpha map generator 54 arranges each template on matching coordinates on a black background based on coordinates matching each of the plurality of templates. Note that the black background and the original image are managed using the same coordinate system.

図6(C)に示すように、アルファマップ作成部54により、全てのテンプレートが黒背景上に配置されることによって、アルファマップは作成される。 As shown in FIG. 6C, the alpha map is created by arranging all the templates on a black background by the alpha map creating unit 54 .

[アルファマップに基づいた歪曲補正]
次に、歪曲補正処理部55により行われる、アルファマップに含まれるアルファ値に基づいた歪曲補正について説明をする。図2を参照して上述したように、本実施形態では、元画像に対して、アルファマップに含まれるアルファ値に基づいた歪曲補正を行う。
[Distortion correction based on alpha map]
Next, the distortion correction performed by the distortion correction processing unit 55 based on the alpha values included in the alpha map will be described. As described above with reference to FIG. 2, in this embodiment, distortion correction is performed on the original image based on the alpha values included in the alpha map.

具体的には、歪曲補正処理部55は、まずアルファマップを用いることなく歪曲補正を行う場合における、歪曲補正後の座標を、元画像の全ての座標について算出する。例えば、顔全体の領域を対象として、顔が縮小するような歪曲補正後の座標を、元画像の全ての座標について算出する。なお、この歪曲補正後の座標の算出には、既存の歪曲補正技術を用いることができる。 Specifically, the distortion correction processing unit 55 first calculates coordinates after distortion correction for all coordinates of the original image when performing distortion correction without using an alpha map. For example, for the entire face area, coordinates after distortion correction such that the face is reduced are calculated for all coordinates of the original image. An existing distortion correction technique can be used to calculate the coordinates after the distortion correction.

これにより、元画像の全ての座標について、アルファマップを用いることなく歪曲補正を行う場合における歪曲補正後の座標(以下、「アルファマップ適用前座標」と称する。)が算出される。 As a result, for all the coordinates of the original image, the coordinates after the distortion correction when the distortion correction is performed without using the alpha map (hereinafter referred to as "coordinates before applying the alpha map") are calculated.

次に、歪曲補正処理部55は、アルファマップを適用することにより、各座標における補正の度合いを修正する。具体的には、歪曲補正処理部55は、以下の<アルファマップ適用式>に基づいて、元画像の全ての座標について、アルファマップを適用した歪曲補正後の座標(以下、「アルファマップ適用後座標」と称する。)を算出する。 Next, the distortion correction processing unit 55 corrects the degree of correction at each coordinate by applying an alpha map. Specifically, the distortion correction processing unit 55 corrects all the coordinates of the original image based on the following <alpha map application formula>, the coordinates after the distortion correction by applying the alpha map (hereinafter referred to as “after applying the alpha map”). (referred to as "coordinates").

<アルファマップ適用式>
(xout,yout)=(xin,yin)×(1-α)+(xdist,ydist)×α
但し、
(xin,yin):元画像の座標
(xout,yout):アルファマップ適用後座標
(xdist,ydist):アルファマップ適用前補正座標
であるものとする。また、αの値は、(0≦α≦1)の値をとるものとする。
<Alpha map application formula>
(x out ,y out )=(x in ,y in )×(1−α)+(x dist ,y dist )×α
however,
(x in , y in ): Coordinates of original image (x out , y out ): Coordinates after application of alpha map (x dist , y dist ): Corrected coordinates before application of alpha map. Also, the value of α is assumed to be (0≦α≦1).

そして、歪曲補正処理部55は、算出されたアルファマップ適用後座標に基づいた補正を行う。すなわち、元画像の各座標をアルファマップ適用後座標に移動させる。また、歪曲補正処理部55は、既存技術により、移動に伴い必要となる補完処理等を行う。 Then, the distortion correction processing unit 55 performs correction based on the calculated post-alpha map coordinates. That is, the coordinates of the original image are moved to the coordinates after application of the alpha map. Further, the distortion correction processing unit 55 performs complementary processing, etc., which are required along with the movement, using existing technology.

これにより、アルファマップを適用した歪曲補正が実現される。このようにアルファマップを適用することにより、アルファマップにおける白色の座標(すなわち、アルファ値が「1」の座標)については、アルファマップ適用前補正座標そのものが適用された歪曲補正が行われる。また、アルファマップにおける中間色の座標(すなわち、アルファの値が「0<α<1」の座標)については、アルファマップ適用前補正座標がアルファ値に応じて適用された歪曲補正が行われる。更に、アルファマップにおける黒色の座標(すなわち、アルファ値が「0」の座標)については、アルファマップ適用前補正座標は適用されず、元画像の座標そのままとなる。
すなわち、上述した複数のテンプレートにおける補正度合いに対応した、局部的な歪曲補正が行われる。かかる歪曲補正が奏する効果について図7、図8及び図9を参照して説明する。
This implements distortion correction using an alpha map. By applying the alpha map in this way, the white coordinates in the alpha map (that is, the coordinates with the alpha value of "1") are subjected to distortion correction by applying the corrected coordinates before the application of the alpha map. Also, for intermediate color coordinates in the alpha map (that is, coordinates with an alpha value of “0<α<1”), distortion correction is performed by applying corrected coordinates before alpha map application according to the alpha value. Furthermore, the corrected coordinates before applying the alpha map are not applied to the coordinates of black in the alpha map (that is, the coordinates with the alpha value of "0"), and the coordinates of the original image remain as they are.
That is, local distortion correction is performed corresponding to the degree of correction in the plurality of templates described above. The effect of such distortion correction will be described with reference to FIGS. 7, 8 and 9. FIG.

図7に、歪曲補正を行う前の元画像の一例について示す。また、図8に、図7に図示した元画像を、従来技術(すなわち、アルファマップを利用しない歪曲補正)により補正した画像の一例について示す。更に、図9に、図7に図示した元画像を、上述した本実施形態におけるアルファマップを利用した歪曲補正により補正した画像の一例について示す。 FIG. 7 shows an example of an original image before distortion correction. Also, FIG. 8 shows an example of an image obtained by correcting the original image shown in FIG. 7 by a conventional technique (that is, distortion correction without using an alpha map). Further, FIG. 9 shows an example of an image obtained by correcting the original image shown in FIG. 7 by distortion correction using the alpha map in the present embodiment described above.

図7の元画像と、図8の従来技術により補正した画像を比較すると、従来技術では、アルファマップを利用しておらず、補正対象領域を顔全体として歪曲補正を行っているため、顔全体が均等に補正される。この場合、顔全体が縮小することから、相対的に頭が伸びてみえてしまう傾向がある。また、顎全体が均等に縮小することから顎を細くすることが困難である。そのため、従来技術では、ユーザが、補正後の画像に違和感を覚え、不自然と感じることがあった。 Comparing the original image in FIG. 7 with the image corrected by the conventional technique in FIG. are equally corrected. In this case, since the entire face is reduced, there is a tendency for the head to appear relatively elongated. In addition, it is difficult to narrow the chin because the entire chin shrinks evenly. Therefore, in the conventional technology, the user may feel uncomfortable and unnatural in the corrected image.

これに対して、本実施形態では、上述した複数のテンプレートにおける補正度合いに対応した、局部的な歪曲補正が行われる。そのため、図7の元画像と、図9の本実施形態により補正した画像を比較すると、顔全体でなくテンプレートに対応する補正対象領域のみが縮小することから、相対的に頭が伸びてみえてしまうということが防止できる。また、顎全体ではなく、左右のフェイスラインに対応する補正対象領域のみが縮小することから、顎を細くすることができる。そのため、本実施形態によれば、ユーザの顔を違和感なく自然な細顔とすることができる。 On the other hand, in the present embodiment, local distortion correction is performed corresponding to the degree of correction in the plurality of templates described above. Therefore, when the original image in FIG. 7 and the image corrected by the present embodiment in FIG. 9 are compared, since only the correction target area corresponding to the template, not the entire face, is reduced, the head looks relatively elongated. It can be prevented that it is put away. In addition, since only the correction target regions corresponding to the left and right face lines are reduced instead of the entire jaw, the jaw can be made thinner. Therefore, according to the present embodiment, it is possible to make the user's face look natural and slim without causing discomfort.

[動作]
図10は、図3の機能的構成を有する図1の撮像装置1が実行する細顔補正処理の流れを説明するフローチャートである。
細顔補正処理は、ユーザによる入力部17への細顔補正処理開始の操作により開始される。
細顔補正処理開始の操作は、撮影指示操作とすることが可能であり、この撮影指示操作に応じて撮像部16により撮像された画像を対象として、現像処理を行い、引き続き細顔補正処理を行うことができる。また、画像記憶部61に記憶されている撮像画像のデータを選択し、その選択された撮像画像のデータに対して、細顔補正処理開始の操作を行うこととしてもよい。
[motion]
FIG. 10 is a flowchart for explaining the flow of thin face correction processing executed by the imaging apparatus 1 of FIG. 1 having the functional configuration of FIG.
The thin face correction process is started when the user operates the input unit 17 to start the thin face correction process.
The operation for starting the thin face correction process can be a photographing instruction operation, and the image captured by the imaging unit 16 in response to this photographing instruction operation is subjected to development processing, and then the thin face correction process is performed. It can be carried out. It is also possible to select the data of the captured image stored in the image storage unit 61 and perform the operation of starting the thin face correction process for the selected captured image data.

ステップS11において、画像取得部51は、撮像部16により撮像された画像に現像処理が行われた撮像画像のデータ、或いは画像記憶部61から処理対象となる画像を取得する。 In step S<b>11 , the image acquisition unit 51 acquires image data obtained by developing an image captured by the imaging unit 16 or an image to be processed from the image storage unit 61 .

ステップS12において、顔検出部52は、処理対象となる画像において顔検出を行い、顔が検出されたか否かを判定する。
顔が検出されなかった場合には、ステップS12においてNOと判定されて、細顔補正処理は終了する。
顔が検出された場合には、ステップS12においてYESと判定されて、処理はステップS13に進む。
In step S12, the face detection unit 52 performs face detection on the image to be processed, and determines whether or not a face has been detected.
If the face is not detected, NO is determined in step S12, and the thin face correction process ends.
If a face is detected, YES is determined in step S12, and the process proceeds to step S13.

ステップS13において、顔検出部52は、テンプレートに対応する顔の所定の器官と所定の部位とを検出する。 In step S13, the face detection unit 52 detects predetermined organs and predetermined parts of the face corresponding to the template.

ステップS14において、適合位置特定部53は、元画像における、テンプレートに適合する座標を特定する。 In step S14, the matching position specifying unit 53 specifies coordinates in the original image that match the template.

ステップS15において、アルファマップ作成部54は、テンプレートに適合する座標に基づいて、アルファマップを作成する。 In step S15, the alpha map creation unit 54 creates an alpha map based on the coordinates matching the template.

ステップS16において、歪曲補正処理部55は、アルファマップを適用した歪曲補正を行う。
その後、細顔補正処理が終了する。
以上説明した動作により、図9を参照して上述したような、ユーザの顔を違和感なく自然な細顔とした画像が生成される。
In step S16, the distortion correction processing unit 55 performs distortion correction using an alpha map.
After that, the thin face correction process ends.
By the operation described above, an image is generated in which the user's face is naturally slim, as described above with reference to FIG. 9 .

以上のように構成される撮像装置1は、画像取得部51と、テンプレート記憶部62と、適合位置特定部53と、歪曲補正処理部55と、を有する。
画像取得部51は、所定の被写体が写った画像を取得する。
テンプレート記憶部62は、所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する。
適合位置特定部53は、画像内のテンプレートに適合する座標を特定する。
歪曲補正処理部55は、適合位置特定部53が特定した座標と、テンプレートに含まれる補正度合いとに基づいて、画像に対して補正を行う。
これにより、テンプレートを適合させることにより補正を実現できることから、器官や所定の部位の輪郭を精度高く検出する必要をなくすことができる。従って、より簡略な方法にて補正処理を実現することができる。更に、器官や所定の部位の輪郭を精度高く検出しない場合であっても、補正後の画像の品質をほぼ落すことなく補正を行うことができる。
また、補正対象領域以外に対しては不要な補正を行うことなく、テンプレートに対応する補正対象領域に対してのみ歪曲補正を行うことができる。また、一律な補正度合いによる歪曲補正ではなく、テンプレートに含まれる補正度合い応じた、器官や所定の部位それぞれ毎に適切な歪曲補正を行うことができる。
The imaging apparatus 1 configured as described above has an image acquisition section 51 , a template storage section 62 , a matching position specifying section 53 , and a distortion correction processing section 55 .
The image acquisition unit 51 acquires an image of a predetermined subject.
The template storage unit 62 stores a template containing the degree of correction at each position within the shape corresponding to the region to be corrected of the predetermined subject, and the degree of correction that changes at each position.
The matching position specifying unit 53 specifies coordinates matching the template in the image.
The distortion correction processing section 55 corrects the image based on the coordinates specified by the matching position specifying section 53 and the degree of correction included in the template.
As a result, since correction can be achieved by matching the template, it is possible to eliminate the need for highly accurate detection of the contours of organs and predetermined parts. Therefore, correction processing can be realized by a simpler method. Furthermore, even if the contour of an organ or a predetermined part is not detected with high accuracy, the correction can be performed without deteriorating the quality of the corrected image.
In addition, distortion correction can be performed only on the correction target area corresponding to the template without performing unnecessary correction on areas other than the correction target area. Moreover, instead of performing distortion correction based on a uniform degree of correction, it is possible to perform appropriate distortion correction for each organ or predetermined part according to the degree of correction included in the template.

適合位置特定部53は、
画像を解析することにより、所定の被写体の第1特徴点に対応する座標と、所定の被写体の第2特徴点に対応する座標とを検出し、
検出した第1特徴点の座標に基づいてテンプレートにおける基点に適合する座標を特定し、検出した第2特徴点の座標に基づいてテンプレートにおける輪郭に適合する座標を特定する。
これにより、特徴点のみを検出することにで、テンプレートに適合する座標を特定することができる。
The matching position specifying unit 53
Detecting coordinates corresponding to the first feature point of the predetermined subject and coordinates corresponding to the second feature point of the predetermined subject by analyzing the image,
Coordinates that match the base point in the template are specified based on the detected coordinates of the first feature point, and coordinates that match the contour in the template are specified based on the detected coordinates of the second feature point.
This makes it possible to specify the coordinates that match the template by detecting only the feature points.

適合位置特定部53は、
第1特徴点の座標にテンプレートの基点を配置し、配置したテンプレートの基点を回転中心としてテンプレートを回転させることによりテンプレートに適合する座標を特定する。
これにより、各角度に応じた複数のテンプレートを用意することなく、顔の向きや大きさがそれぞれ異なる多様な元画像それぞれに対して、回転をするのみで、共通のテンプレートを適合させることができる。
The matching position specifying unit 53
A base point of the template is arranged at the coordinates of the first feature point, and the template is rotated around the base point of the arranged template, thereby specifying the coordinates that match the template.
As a result, a common template can be adapted to various original images with different face orientations and sizes, simply by rotating, without preparing multiple templates for each angle. .

適合位置特定部53は、
検出した第2特徴点の座標と、テンプレートにおける輪郭とに基づいて、テンプレートの輪郭の形状を維持した拡大又は縮小を行う。
これにより、大きさが異なる複数のテンプレートを用意することなく、顔の向きや大きさがそれぞれ異なる多様な元画像それぞれに対して、拡大又は縮小をするのみで、共通のテンプレートを適合させることができる。
The matching position specifying unit 53
Based on the coordinates of the detected second feature points and the contour of the template, enlargement or reduction is performed while maintaining the shape of the contour of the template.
As a result, without preparing a plurality of templates with different sizes, it is possible to adapt a common template simply by enlarging or reducing various original images with different face orientations and sizes. can.

適合位置特定部53は、
テンプレートに含まれる補正度合いの変更は行わない。
これにより、元画像に含まれる所定の被写体の大きさによらず、テンプレートに対応した補正度合いで補正を行うことができる。
The matching position specifying unit 53
The degree of correction included in the template is not changed.
As a result, correction can be performed with a degree of correction corresponding to the template regardless of the size of a predetermined subject included in the original image.

適合位置特定部53は、画像内における被写体の状態を特定し、該特定した被写体の状態に基づいて、テンプレートに含まれる補正度合いを修正する。
歪曲補正処理部55は、適合位置特定部53が修正した補正度合いと、適合位置特定部53が特定した座標とに基づいて画像に対して補正を行う。
これにより、被写体の状態に基づいて、より適切に修正された補正度合いに基づいて、歪曲補正を行なうことができる。例えば、顔が、顔の上下方向軸を中心として左右に回転する場合(すなわち、ヨーイングする場合)や、顔の左右方向軸を中心として上下に回転する場合(すなわち、ピッチングする場合)のそれぞれに対応して修正された補正度合いに基づいて、歪曲補正を行なうことができる。そのため、例えば、顔全体のバランスを考慮した歪曲補正を行なうことができる。
The matching position specifying unit 53 specifies the state of the subject in the image, and corrects the degree of correction included in the template based on the specified state of the subject.
The distortion correction processing section 55 corrects the image based on the degree of correction corrected by the matching position specifying section 53 and the coordinates specified by the matching position specifying section 53 .
As a result, distortion correction can be performed based on the corrected degree of correction more appropriately based on the state of the subject. For example, when the face rotates left and right about the vertical axis of the face (i.e., when yawing), and when it rotates up and down about the horizontal direction axis of the face (i.e., when pitching). Distortion correction can be performed based on the correspondingly modified degree of correction. Therefore, for example, distortion correction can be performed in consideration of the balance of the entire face.

適合位置特定部53は、画像内における被写体の第1領域の深度と、画像内における被写体の第2領域の深度との差分に基づいて、被写体の状態として被写体の傾き度合いを特定する。
これにより、深度情報という明確な指標に基づいて、被写体の傾き度合いを特定することができる。そのため、被写体の傾き度合いに応じた程度で、補正度合いを修正することができる。例えば、より傾いている場合には、より補正度合いを強くする(あるいは、弱くする)というように修正をすることができる。
Based on the difference between the depth of the first area of the subject in the image and the depth of the second area of the subject in the image, the matching position specifying unit 53 specifies the degree of inclination of the subject as the state of the subject.
This makes it possible to specify the degree of inclination of the subject based on a clear index of depth information. Therefore, it is possible to correct the degree of correction according to the degree of inclination of the subject. For example, if it is more inclined, it can be corrected by increasing (or decreasing) the degree of correction.

歪曲補正処理部55は、
画像に対する補正として、少なくとも、テンプレートに含まれる補正度合いに対応した補正度合いで、画像の座標を移動することにより歪曲補正を行う。
これにより、テンプレート対応した補正度合いで、違和感なく自然な歪曲補正により補正できる。
The distortion correction processing unit 55
As the correction of the image, distortion correction is performed by moving the coordinates of the image at least by a degree of correction corresponding to the degree of correction included in the template.
As a result, it is possible to perform natural distortion correction with a degree of correction that corresponds to the template.

テンプレート記憶部62は、複数の異なる補正対象領域それぞれに対応した複数のテンプレートを記憶しており、
適合位置特定部53は、複数のテンプレートについて適合する座標を、複数の前記テンプレートそれぞれ毎に独立して特定する。
これにより、顔の向きや大きさがそれぞれ異なる多様な元画像にそれぞれに対して、予め用意されている共通のテンプレートを適合させることができる。
The template storage unit 62 stores a plurality of templates corresponding to a plurality of different correction target regions,
The matching position specifying unit 53 independently specifies matching coordinates for each of the plurality of templates.
As a result, a common template prepared in advance can be adapted to various original images having different face orientations and sizes.

所定の被写体は顔であり、
補正対象領域は、顔の器官又は顔の部位である。
これにより、被写体の顔を違和感なく自然な細顔とすることができる。
the predetermined subject is a face,
The correction target area is a facial organ or a facial part.
As a result, the subject's face can be made into a natural thin face without discomfort.

テンプレートは、当該テンプレートの輪郭内の輪郭周辺の部分が前記テンプレートの中央部分よりも補正の度合いが抑えられるように、前記補正の度合いが設定されている。
これにより、補正対象領域となる所定の器官の輪郭や所定の部位の輪郭と、テンプレートの輪郭とが、完全に適合しなかった場合であっても、輪郭周辺へ与える影響は少なく、全体として被写体を違和感なく自然に補正することができる。
The degree of correction of the template is set such that the portion around the contour within the contour of the template is less corrected than the central portion of the template.
As a result, even if the contour of the predetermined organ or the contour of the predetermined part to be corrected does not completely match the contour of the template, the effect on the periphery of the contour is small, and the subject as a whole can be corrected. can be corrected naturally without discomfort.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。例えば、上述の実施形態を変形し、以下に例示するような変形例とすることができる。また、以下に例示するような変形例を組み合わせることもできる。 It should be noted that the present invention is not limited to the above-described embodiments, and includes modifications, improvements, and the like within the scope of achieving the object of the present invention. For example, the above-described embodiment can be modified to provide modified examples as exemplified below. In addition, modifications such as those exemplified below can be combined.

[変形例1]
図5を参照して上述した例では、適合位置特定部53は、基点P11と、輪郭点P31及び輪郭点P32とを利用して適合を行ったが、これに限らず、他の輪郭点を用いて適合を行うようにしてもよい。
例えば、輪郭点P31及び輪郭点P32に代えて、輪郭点P21及び輪郭点P22を用いて適合を行うようにしてもよい。この場合、例えば、図5(C)に示すように、テンプレートを回転させる場合に、輪郭点P21と輪郭点P22を結ぶ直線と、Y軸に平行な直線とのなす角度である角度(以下、「角度A2」と称する。)を、角度A1の代わりに用いるようにしてもよい。また、例えば、図5(D)に示すように、テンプレートを拡大又は縮小させる場合に、鼻用テンプレートT1の両端が、輪郭点P21と輪郭点P22により示される鼻の両端と同じ大きさとなるように、鼻用テンプレートT1の形状を維持したまま鼻用テンプレートT1を拡大又は縮小するようにしてもよい。
[Modification 1]
In the example described above with reference to FIG. 5, the matching position specifying unit 53 performed matching using the base point P11 and the contour points P31 and P32. may be used for matching.
For example, contour point P21 and contour point P22 may be used instead of contour point P31 and contour point P32 for matching. In this case, for example, as shown in FIG. 5C, when the template is rotated, an angle (hereinafter referred to as called "angle A2") may be used instead of angle A1. Further, for example, as shown in FIG. 5D, when enlarging or reducing the template, both ends of the nose template T1 are made to have the same size as both ends of the nose indicated by contour points P21 and P22. In addition, the nasal template T1 may be enlarged or reduced while maintaining the shape of the nasal template T1.

他にも、例えば、輪郭点P31及び輪郭点P32と共に、更に輪郭点P21及び輪郭点P22を用いて適合を行うようにしてもよい。例えば、図5(C)に示すように、テンプレートを回転させる場合に、角度A1が示す角度と、角度A2が示す角度を平均した角度に基づいて、テンプレートを回転させるようにしてもよい。また、例えば、図5(D)に示すように、テンプレートを拡大又は縮小させる場合に、鼻用テンプレートT1の両端と、輪郭点P21と輪郭点P22により示される鼻の両端との差分と、鼻用テンプレートT1の両端と、輪郭点P31と輪郭点P32により示される鼻の両端との差分との2つの差分の和が最小となるように、鼻用テンプレートT1の形状を維持したまま鼻用テンプレートT1を拡大又は縮小するようにしてもよい。 Alternatively, for example, along with the contour points P31 and P32, the contour points P21 and P22 may also be used for matching. For example, as shown in FIG. 5C, when rotating the template, the template may be rotated based on an average angle of the angle indicated by the angle A1 and the angle indicated by the angle A2. Further, for example, as shown in FIG. 5D, when enlarging or reducing the template, the difference between both ends of the nose template T1 and both ends of the nose indicated by contour points P21 and P22, and The shape of the nose template T1 is maintained so that the sum of the two differences between both ends of the template T1 and the difference between the two ends of the nose indicated by the contour points P31 and P32 is minimized. T1 may be enlarged or reduced.

他にも、例えば、元画像において、ユーザの鼻が傾いている可能性が低く、鼻の大きさが概ね想定できるような場合には、図5(C)に示すように、テンプレートを回転させる処理や、図5(D)に示すように、テンプレートを拡大又は縮小させる処理は省略するようにしてもよい。この場合には、基点P11のみを検出すればよく、各輪郭点を検出する必要をなくすことができる。 Alternatively, for example, in the original image, if the possibility that the user's nose is tilted is low and the size of the nose can be roughly assumed, the template is rotated as shown in FIG. 5(C). The process and the process of enlarging or reducing the template as shown in FIG. 5(D) may be omitted. In this case, only the base point P11 needs to be detected, eliminating the need to detect each contour point.

[変形例2]
上述した実施形態では、元画像全体に対応するアルファマップを作成し、元画像全体に対してアルファマップに含まれるアルファ値に基づいた歪曲補正を行っていた。これに限らず、トリミングを行うことにより、元画像を一部切り出して、この切り出した画像に対して歪曲補正を行うようにしてもよい。本変形例について、図11を参照して説明する。
[Modification 2]
In the above-described embodiments, an alpha map corresponding to the entire original image is created, and distortion correction is performed on the entire original image based on the alpha values included in the alpha map. Without being limited to this, the original image may be partially cut out by trimming, and distortion correction may be performed on the cut out image. This modification will be described with reference to FIG.

まず、図11(A)に示すように、顔検出部52が、特徴点の検出結果に基づいて、元画像からテンプレートに対応する所定の器官と所定の部位を含む領域をトリミングにより、切り出す。 First, as shown in FIG. 11A, the face detection unit 52 cuts out, by trimming, a region including a predetermined organ and a predetermined part corresponding to the template from the original image based on the detection result of the feature points.

次に、図11(B)に示すように、適合位置特定部53によるテンプレートの適合処理と、アルファマップ作成部54によるアルファマップの作成処理により、切り出した元画像に対応した、切り出した元画像用のアルファマップを作成する。 Next, as shown in FIG. 11B, a cut-out original image corresponding to the cut-out original image is obtained by template matching processing by the matching position specifying unit 53 and alpha map creation processing by the alpha map creation unit 54. Create an alpha map for

次に、図11(C)に示すように、歪曲補正処理部55により、切り出した元画像に対して、切り出した元画像用のアルファマップを用いて、歪曲補正を行う。
最後に、図11(D)に示すように、顔検出部52が、補正後の切り出した画像を、元画像に貼り付ける。
Next, as shown in FIG. 11C, the distortion correction processing unit 55 performs distortion correction on the clipped original image using the clipped original image alpha map.
Finally, as shown in FIG. 11D, the face detection unit 52 pastes the cut out image after correction onto the original image.

以上説明した処理によっても、上述した実施形態同様の補正を行うことができる。例えば、元画像からテンプレートに対応する所定の器官と所定の部位を含む領域をトリミングにより切り出す処理が容易にできる場合に、本変形例を適用するとよい。
このようにトリミングによる切り出しを行うことにより、適合位置特定部53によるテンプレートの適合処理において、テンプレートを適合させる候補となる座標の数を削減できる。そのため、適合処理での演算量を減少させることができる。また、このようにトリミングによる切り出しを行うことにより、歪曲補正処理部55による歪曲補正処理において、<アルファマップ適用式>によって、アルファマップ適用後座標を算出する対象の座標の数を削減できる。そのため、適合処理での演算量を減少させることができる。従って、細顔補正処理全体としての演算量を減少させることができる。
Correction similar to that of the embodiment described above can also be performed by the processing described above. For example, this modification may be applied when a process of cutting out a region including a predetermined organ and a predetermined part corresponding to a template from an original image can be easily performed by trimming.
By cutting out by trimming in this way, in the matching process of the template by the matching position specifying unit 53, the number of coordinates that are candidates for matching the template can be reduced. Therefore, it is possible to reduce the amount of calculation in the matching process. In addition, by cutting out by trimming in this way, in the distortion correction processing by the distortion correction processing unit 55, the number of coordinates for which post-alpha map application coordinates are calculated can be reduced by the <alpha map application formula>. Therefore, it is possible to reduce the amount of calculation in the matching process. Therefore, it is possible to reduce the amount of calculation for the entire thin face correction process.

[変形例3]
上述した実施形態では、ユーザの顔を対象として、アルファマップを用いた歪曲補正を行っていた。これに限らず、ユーザの顔以外の部分を対象としてアルファマップを用いた歪曲補正を行ってもよい。また、ユーザ以外の生物や、あるいは非生物を対象としてアルファマップを用いた歪曲補正を行ってもよい。すなわち、補正対象に応じたテンプレートを用意できるのであれば、どのような補正対象に対してアルファマップを用いた歪曲補正を行ってもよい。
[Modification 3]
In the above-described embodiments, distortion correction using an alpha map is performed on the user's face. Without being limited to this, distortion correction using an alpha map may be performed on a portion other than the user's face. Distortion correction using an alpha map may also be performed for living creatures other than the user, or for non-living creatures. That is, distortion correction using an alpha map may be performed on any correction target as long as a template corresponding to the correction target can be prepared.

また、上述した実施形態では、アルファマップを用いた歪曲補正により、所定の器官や所定の部位を画像内で縮小していた。これに限らず、アルファマップを用いた歪曲補正により、所定の器官や所定の部位を画像内で拡大するようにしてもよい。例えば、ユーザの両眼に対応したテンプレートを用意しておき、アルファマップを用いた歪曲補正により、ユーザの両眼を拡大するようにしてもよい。 Further, in the above-described embodiments, distortion correction using an alpha map reduces a predetermined organ or predetermined site within an image. Not limited to this, distortion correction using an alpha map may be used to enlarge a predetermined organ or predetermined site within the image. For example, a template corresponding to both eyes of the user may be prepared, and the eyes of the user may be enlarged by distortion correction using an alpha map.

[変形例4]
上述した実施形態では、細顔補正処理において、元画像に対してテンプレートの適合を行った後に、テンプレートに含まれる、各位置の補正度合いを示す値であるアルファ値に基づいて歪曲補正を行っていた。これに限らず、テンプレートに含まれるアルファ値をユーザの状態等の所定の条件に基づいて修正し、修正後のアルファ値に基づいて歪曲補正を行ってもよい。例えば、元画像における、ユーザの顔の傾きの有無や傾き度合いに基づいて、テンプレートに含まれるアルファ値を修正し、修正後のアルファ値に基づいて歪曲補正を行ってもよい。このように、アルファ値の修正を行なう場合について、変形例4として以下説明する。
[Modification 4]
In the above-described embodiment, in the thin face correction process, after the original image is matched with a template, distortion correction is performed based on the alpha value, which is a value indicating the degree of correction at each position, included in the template. rice field. Alternatively, the alpha value included in the template may be modified based on a predetermined condition such as the user's state, and the distortion correction may be performed based on the modified alpha value. For example, the alpha value included in the template may be corrected based on whether or not the user's face is tilted and the degree of tilt in the original image, and distortion correction may be performed based on the corrected alpha value. A case in which the alpha value is corrected in this manner will be described below as Modified Example 4. FIG.

<アルファ値の修正>
図12は、撮像装置1による、変形例4におけるアルファ値の修正を説明するための模式図である。図12においては、顔に含まれる所定の部位である左右のフェイスライン領域それぞれに対して、局所的な歪曲補正を行う例を示している。
<Correction of alpha value>
12A and 12B are schematic diagrams for explaining correction of the alpha value in Modification 4 by the imaging device 1. FIG. FIG. 12 shows an example in which local distortion correction is performed on each of left and right face line regions, which are predetermined parts included in the face.

図12に元画像の例として元画像41を示す。本変形では、上述したように、ユーザの顔の傾きに基づいて、テンプレートに含まれるアルファ値を修正する。本変化例では、このユーザの顔の傾きを、ユーザの顔の所定領域における深度を示す深度情報(depth情報と称される場合もある。)に基づいて特定する。深度情報は、撮像時における、撮像装置1から被写体(ここでは、ユーザの顔)までの距離を示す情報である。深度情報は、例えば、撮像装置1に、赤外線により被写体までの距離を検出できる深度センサを搭載することにより取得することができる。他にも、深度情報は、撮像装置1を、三角測量の原理に基づいて被写体までの距離を検出できるステレオカメラにより実現することで取得することができる。 FIG. 12 shows an original image 41 as an example of the original image. In this modification, as described above, the alpha value included in the template is modified based on the inclination of the user's face. In this variation, the inclination of the user's face is identified based on depth information (also referred to as depth information) indicating the depth of a predetermined region of the user's face. The depth information is information indicating the distance from the imaging device 1 to the subject (here, the user's face) at the time of imaging. Depth information can be acquired, for example, by installing a depth sensor capable of detecting the distance to the subject using infrared rays in the imaging device 1 . In addition, depth information can be obtained by implementing the imaging device 1 with a stereo camera that can detect the distance to the subject based on the principle of triangulation.

また、本変形例では、顔が、顔の上下方向軸を中心として左右に回転する場合(すなわち、ヨーイングする場合)と、顔の左右方向軸を中心として上下に回転する場合(すなわち、ピッチングする場合)のそれぞれの場合における顔の傾き度合いを特定する。 In addition, in this modification, when the face rotates left and right about the vertical axis of the face (that is, yawing), and when it rotates up and down about the horizontal axis of the face (that is, pitching) case) is specified.

まず、顔の上下方向軸を中心として左右に回転する場合(すなわち、ヨーイングする場合)を例にとって説明をする。
本変形例では、画像解析による顔等の検出と共に、深度情報を取得する。そして、この深度情報に基づいて、図12に示す顔の上下軸方向42を中心として左右に回転するヨーイング43における傾き度合い(以下、「yaw方向傾き度合い」と称する。)を特定する。なお、これら上下軸方向42及びヨーイング43と、後述の左右軸方向44及びピッチング45は、実際に元画像41と共に表示される情報ではなく、説明の便宜のために図示している情報である。
First, the case of rotating left and right about the vertical axis of the face (that is, the case of yawing) will be described as an example.
In this modified example, depth information is acquired along with face detection by image analysis. Then, based on this depth information, the degree of tilt in the yawing 43 (hereinafter referred to as "degree of tilt in the yaw direction") that rotates left and right about the vertical axis direction 42 of the face shown in FIG. 12 is specified. Note that the vertical axis direction 42 and yaw 43, and the horizontal axis direction 44 and pitching 45, which will be described later, are not information that is actually displayed together with the original image 41, but information that is illustrated for convenience of explanation.

この傾き度合いの特定は、顔の所定の領域二箇所における深度情報の差分に基づいて算出することができる。この所定の領域は、yaw方向傾き度合いを算出可能な領域同士であれば、特に限定されない。以下では、一例として、yaw方向傾き度合いを、左の頬下の深度情報(depth値)と、右の頬下の深度情報(depth値)とに基づいて、以下の<yaw方向傾き度合い算出式>を用いて算出する。 The degree of inclination can be specified based on the difference in depth information between two predetermined regions of the face. The predetermined regions are not particularly limited as long as they are regions for which the degree of inclination in the yaw direction can be calculated. Below, as an example, the degree of tilt in the yaw direction is calculated based on the depth information (depth value) under the left cheek and the depth information (depth value) under the right cheek using the following <yaw direction tilt degree calculation formula > is calculated using

<yaw方向傾き度合い算出式>
yaw=d_l-d_r
但し、
d_l:左の頬下のdepth値
d_r:右の頬下のdepth値
yaw:yaw方向の傾き度合い
であるものとする。
<Yaw direction inclination degree calculation formula>
yaw = d_l - d_r
however,
d_l: depth value under the left cheek d_r: depth value under the right cheek yaw: degree of inclination in the yaw direction.

次に、このyaw方向の傾き度合いに基づいて、左右のフェイスライン領域それぞれに対応するテンプレートのアルファ値を修正する。この修正は、後段の歪曲補正を行った場合に、ユーザの顔のバランスが整うようにすることを目的として行われる。例えば、yaw方向の傾き度合いに基づいて、ユーザが左側(すなわち、画像を正対する観察者からは右側)を向いていると特定できる場合には、ユーザの左のフェイスラインの歪曲補正度合い(すなわち、アルファ値)を下げると共に、ユーザの右のフェイスラインの歪曲補正度合いを上げる。これにより、画像において手前側となるユーザの右のフェイスラインが、左のフェイスラインに比べて、より歪曲補正されるので、ユーザの右のフェイスラインが、より細顔になる。従って、ユーザの左右の顔のバランスが整う。 Next, based on the degree of inclination in the yaw direction, the alpha value of the template corresponding to each of the left and right face line regions is corrected. This correction is performed for the purpose of balancing the user's face when the subsequent distortion correction is performed. For example, based on the degree of tilt in the yaw direction, if it can be identified that the user is facing left (that is, to the right from the perspective of the observer facing the image), the degree of distortion correction of the user's left face line (that is, , alpha value) and increase the degree of distortion correction of the user's right face line. As a result, the user's right face line, which is on the near side in the image, undergoes distortion correction more than the left face line, so that the user's right face line becomes thinner. Therefore, the left and right faces of the user are balanced.

そこで、本変形例では、このように歪曲補正がなされるように、アルファ値を修正する。そのために、テンプレート毎に、yaw方向の傾き度合いと、修正率との対応関係を予め設定しておく。この設定は、例えば、対応関係を示すテーブル形式で記憶されてもよいし、所定の関係式として記憶されてもよい。そして、yaw方向の傾き度合いを算出した場合に、このテーブルを参照したり、関係式を用いた演算を行なったりすることにより、対応する修正率を特定することができる。 Therefore, in this modified example, the alpha value is corrected so that distortion correction is performed in this manner. For this reason, the correspondence relationship between the degree of inclination in the yaw direction and the correction rate is set in advance for each template. This setting may be stored, for example, in the form of a table showing correspondence relationships, or may be stored as a predetermined relational expression. Then, when the degree of inclination in the yaw direction is calculated, the corresponding correction rate can be specified by referring to this table or performing calculation using the relational expression.

このyaw方向の傾き度合いと、修正率との対応関係の一例を、図12にグラフとして示す。例えば、図12に示すフェイスライン右側用の補正率は、yaw方向傾き度合いが低いほど(すなわち、ユーザが右側を向いているほど)、低くなるように設定される。これに対して、図12に示すフェイスライン左側用の補正率は、yaw方向傾き度合いが高いほど(すなわち、ユーザが左側を向いているほど)、低くなるように設定される。このようにして、設定された対応関係に基づいて修正率を特定した後に、以下の<yaw方向補正度合い修正式>を用いることにより、修正後のアルファ値を算出することができる。 FIG. 12 is a graph showing an example of the relationship between the degree of inclination in the yaw direction and the correction rate. For example, the correction factor for the right side of the face line shown in FIG. 12 is set to be lower as the yaw direction tilt degree is lower (that is, as the user faces rightward). On the other hand, the correction factor for the left side of the face line shown in FIG. 12 is set to decrease as the yaw direction tilt degree increases (that is, as the user faces leftward). After specifying the correction rate based on the set correspondence relationship in this manner, the corrected alpha value can be calculated using the following <yaw direction correction degree correction formula>.

<yaw方向補正度合い修正式>
修正後のアルファ値=α×修正率/100
<Yaw direction correction degree correction formula>
Alpha value after correction=α×correction rate/100

このようにして、修正されたアルファ値に基づいて、元画像を歪曲補正することにより、上述したように、ユーザの左右の顔のバランスを整えるような補正を実現することができる。例えば、図12の元画像41では、ユーザが左側を向いている。この場合には、上述したアルファ値の修正により、「フェイスライン右側用(修正前)T2a」が「フェイスライン右側用(修正後)T2b」のように補正度合いが高くなるように修正される。また、上述したアルファ値の修正により、「フェイスライン左側用(修正前)T3a」が「フェイスライン左側用(修正後)T3b」のように補正度合いが低くなるように修正される。これにより、画像において手前側となるユーザの右のフェイスラインが、左のフェイスラインに比べて、より歪曲補正されるので、ユーザの右のフェイスラインが、より細顔になる。従って、ユーザの左右の顔のバランスが整う。 By correcting the distortion of the original image based on the corrected alpha value in this way, it is possible to achieve correction that balances the left and right faces of the user, as described above. For example, in the original image 41 of FIG. 12, the user is facing left. In this case, the alpha value correction described above corrects the “right face line (before correction) T2a” to the “right face line (after correction) T2b” so that the degree of correction is increased. Further, by correcting the alpha value described above, the "left face line (before correction) T3a" is corrected to a lower degree of correction, such as "left face line (after correction) T3b". As a result, the user's right face line, which is on the near side in the image, undergoes distortion correction more than the left face line, so that the user's right face line becomes thinner. Therefore, the left and right faces of the user are balanced.

このようにして、yaw方向補正度合いに基づいてアルファ値を修正した後に、歪曲補正を行った場合の一例について図13を参照して説明する。図13は、細顔補正処理において、アルファ値を修正した後に、歪曲補正した画像の一例について示す模式図である。図13(B)に示すように、アルファ値の修正を行わず歪曲補正を行った場合は、顔が右側に向いているにも関わらず、顔が正面を向いている場合と同様に、顔の左右のフェイスラインが均等に補正される。そのため、左のフェイスラインが強調された画像となる。これに対して、図13(A)に示すように、上述したようにyaw方向補正度合いに基づいてアルファ値を修正した後に、歪曲補正を行った場合には、顔の右のフェイスラインの補正を抑え、顔の左のフェイスラインがより補正されるので、ユーザの右のフェイスラインが、より細顔になる。従って、ユーザの左右の顔のバランスが整う。 An example of performing distortion correction after correcting the alpha value based on the degree of correction in the yaw direction in this way will be described with reference to FIG. FIG. 13 is a schematic diagram showing an example of an image subjected to distortion correction after correcting the alpha value in the thin face correction process. As shown in FIG. 13B, when distortion correction is performed without correcting the alpha value, although the face is oriented to the right, the face is distorted in the same way as when the face is facing forward. The left and right face lines are evenly corrected. Therefore, an image in which the left face line is emphasized is obtained. On the other hand, as shown in FIG. 13A, when distortion correction is performed after correcting the alpha value based on the degree of correction in the yaw direction as described above, the right face line of the face is corrected. is suppressed, and the left face line of the face is corrected more, so the user's right face line becomes thinner. Therefore, the left and right faces of the user are balanced.

このようにして、本変形例では、例えば、ユーザのフェイスラインの輪郭等を検出するような煩雑な画像解析を行なうことなく、深度情報から傾き度合いを算出して、テンプレートを修正するのみで、ユーザの顔のバランスを整えるような補正を行なうことができる。つまり、本変形例においても、従来に比べて、より簡略な方法にて補正処理を実現することができる。 In this way, in this modified example, for example, without performing complicated image analysis such as detecting the contour of the user's face line, only by calculating the degree of inclination from the depth information and correcting the template, Corrections can be made to balance the user's face. That is, also in this modified example, the correction process can be realized by a simpler method than the conventional method.

次に、上述した顔の上下方向軸を中心として左右に回転する場合(すなわち、ヨーイングする場合)におけるアルファ値の修正と同様にして行われる、顔の左右方向軸を中心として上下に回転する場合(すなわち、ピッチングする場合)におけるアルファ値の修正を例にとって説明をする。
この場合、画像解析による顔等の検出と共に、深度情報を取得する。そして、この深度情報に基づいて、図12に示す顔の左右軸方向44を中心として上下に回転するピッチング45における傾き度合い(以下、「pitch方向傾き度合い」と称する。)を特定する。この傾き度合いの特定は、上述したyaw方向傾き度合いと同様に、顔の所定の領域二箇所における深度情報の差分に基づいて算出することができる。この所定の領域は、pitch方向傾き度合いを算出可能な領域同士であれば、特に限定されない。以下では、一例として、pitch方向傾き度合いを、眉間の深度情報(depth値)と、上唇の深度情報(depth値)とに基づいて、以下の<pitch方向傾き度合い算出式>を用いて算出する。
Next, in the case of vertical rotation of the face around the horizontal axis, which is performed in the same manner as the correction of the alpha value in the case of horizontal rotation around the vertical axis of the face (that is, the case of yawing) described above. (that is, when pitching) will be described as an example.
In this case, the depth information is acquired along with detection of a face or the like by image analysis. Then, based on this depth information, the degree of tilt in pitching 45 that rotates up and down about the left-right axis direction 44 of the face shown in FIG. The degree of inclination can be specified, similarly to the degree of inclination in the yaw direction described above, based on the difference in depth information between two predetermined regions of the face. This predetermined area is not particularly limited as long as it is between areas for which the degree of tilt in the pitch direction can be calculated. In the following, as an example, the pitch direction tilt degree is calculated using the following <pitch direction tilt degree calculation formula> based on the depth information (depth value) between the eyebrows and the depth information (depth value) of the upper lip. .

<pitch方向傾き度合い算出式>
pitch=u_c-d_c
但し、
u_c:眉間のdepth値
d_c:上唇のdepth値
pitch:pitch方向の傾き度合い
であるものとする。
<Formula for calculating degree of tilt in pitch direction>
pitch=u_c-d_c
however,
u_c: depth value between eyebrows d_c: depth value of upper lip pitch: degree of tilt in the pitch direction.

次に、このpitch方向の傾き度合いに基づいて、顔の所定の領域それぞれに対応するテンプレートのアルファ値を修正する。例えば、ユーザの顎に対応するテンプレートのアルファ値や、ユーザの額に対応するテンプレートのアルファ値を修正する。この修正は、上述したyaw方向傾き度合いと同様に、後段の歪曲補正を行った場合に、ユーザの顔のバランスが整うようにすることを目的として行われる。 Next, based on the degree of inclination in the pitch direction, the alpha value of the template corresponding to each predetermined region of the face is corrected. For example, it modifies the alpha value of the template corresponding to the user's chin and the alpha value of the template corresponding to the user's forehead. This correction, like the degree of tilt in the yaw direction described above, is performed for the purpose of balancing the user's face when the latter distortion correction is performed.

例えば、pitch方向の傾き度合いに基づいて、ユーザが上側を向いていると特定できる場合には、ユーザの顎に対応するテンプレートの歪曲補正度合い(すなわち、アルファ値)を上げる。これにより、顎が前に出ているときは顎をより細くするように歪曲補正がなされるので、ユーザの顔のバランスが整う。これに対して、ユーザが下側を向いていると特定できる場合には、ユーザの顎に対応するテンプレートの歪曲補正度合いを下げる。これにより、顎を引いているときは顎が残るように歪曲補正がなされるので、この場合も、ユーザの顔のバランスが整う。 For example, if it can be identified that the user is facing upward based on the degree of tilt in the pitch direction, the degree of distortion correction (that is, the alpha value) of the template corresponding to the user's chin is increased. As a result, when the chin protrudes forward, distortion correction is performed to make the chin thinner, so the user's face is balanced. On the other hand, if it can be identified that the user is facing downward, the degree of distortion correction of the template corresponding to the user's chin is lowered. As a result, when the chin is pulled, distortion correction is performed so that the chin remains, and in this case as well, the user's face is well balanced.

そこで、本変形例では、このように歪曲補正がなされるように、アルファ値を修正する。そのために、上述したyaw方向傾き度合いと同様に、テンプレート毎に、pitch方向の傾き度合いと、修正率との対応関係を予め設定しておく。例えば、顎のテンプレートの補正率は、pitch方向傾き度合いが低いほど(すなわち、ユーザが下側を向いているほど)、低くなるように設定される。これに対して、顎のテンプレートの補正率は、pitch方向傾き度合いが高いほど(すなわち、ユーザが上側を向いているほど)、高くなるように設定される。このようにして、設定された対応関係に基づいて修正率を特定した後に、以下の<pitch方向補正度合い修正式>を用いることにより、修正後のアルファ値を算出することができる。 Therefore, in this modified example, the alpha value is corrected so that distortion correction is performed in this manner. For this reason, similarly to the degree of tilt in the yaw direction described above, the correspondence relationship between the degree of tilt in the pitch direction and the correction rate is set in advance for each template. For example, the correction factor of the chin template is set to be lower as the degree of tilt in the pitch direction is lower (that is, as the user faces downward). On the other hand, the correction factor of the chin template is set to be higher as the degree of tilt in the pitch direction is higher (that is, as the user faces upward). After specifying the correction rate based on the set correspondence relationship in this way, the corrected alpha value can be calculated using the following <pitch direction correction degree correction formula>.

<pitch方向補正度合い修正式>
修正後のアルファ値=α×修正率/100
<Pitch direction correction degree correction formula>
Alpha value after correction=α×correction rate/100

このようにして、pitch方向補正度合いに基づいてアルファ値を修正した場合にも、上述したyaw方向傾き度合いに基づいてアルファ値を修正した場合と同様に、ユーザの顔のバランスを整えるような補正を実現することができる。 In this way, even when the alpha value is corrected based on the pitch direction correction degree, as in the above-described case where the alpha value is corrected based on the yaw direction tilt degree, correction is performed to balance the user's face. can be realized.

このようにして、pitch方向補正度合いに基づいてアルファ値を修正した後に、歪曲補正を行った場合の一例について図14及び図15を参照して説明する。図14及び図15は共に、細顔補正処理において、アルファ値を修正した後に、歪曲補正した画像の他の一例について示す模式図である。 An example of performing distortion correction after correcting the alpha value based on the degree of pitch direction correction in this way will be described with reference to FIGS. 14 and 15. FIG. 14 and 15 are schematic diagrams showing another example of an image subjected to distortion correction after correcting the alpha value in the thin face correction process.

図14(B)に示すように、アルファ値の修正を行わず歪曲補正を行った場合は、顔が下を向いており顎の面積が顔全体において相対的に小さくなっているにも関わらず、顔が正面を向いている場合と同様に顎が補正される。そのため、顎が残らない画像となる。これに対して、図14(A)に示すように、上述したようにpitch方向補正度合いに基づいてアルファ値を修正した後に、歪曲補正を行った場合には、顎の補正が抑えられるので、顔全体と顎とのバランスが整う。 As shown in FIG. 14B, when distortion correction is performed without correcting the alpha value, the face is facing downward and the area of the chin is relatively small over the entire face. , the chin is corrected as if the face were facing forward. Therefore, an image without a chin is obtained. On the other hand, as shown in FIG. 14A, when distortion correction is performed after correcting the alpha value based on the degree of pitch direction correction as described above, correction of the chin is suppressed. Balances the face and chin.

また、図15(B)に示すように、アルファ値の修正を行わず歪曲補正を行った場合は、顔が上を向いており顎の面積が顔全体において相対的に大きくなっているにも関わらず、顔が正面を向いている場合と同様に顎が補正される。そのため、顎が目立つ画像となる。これに対して、図15(A)に示すように、上述したようにpitch方向補正度合いに基づいてアルファ値を修正した後に、歪曲補正を行った場合には、顎がより補正されるので、顔全体と顎とのバランスが整う。 Further, as shown in FIG. 15B, when the distortion correction is performed without correcting the alpha value, even if the face is facing upward and the area of the chin is relatively large over the entire face, Regardless, the chin is corrected as if the face were facing forward. Therefore, an image in which the chin is conspicuous is obtained. On the other hand, as shown in FIG. 15A, when distortion correction is performed after correcting the alpha value based on the pitch direction correction degree as described above, the jaw is further corrected. Balances the face and chin.

以上、本変形例におけるアルファ値の修正について説明した。なお、本変形例において、1つのテンプレートに対して、pitch方向補正度合いに基づいたアルファ値の修正と、yaw方向傾き度合いに基づいたアルファ値の修正の何れかを行ってもよいし、双方を行ってもよい。また、テンプレートごとにそれぞれ異なる方向の補正度合いに基づいたアルファ値の修正を行ってもよい。 The correction of the alpha value in this modified example has been described above. In this modified example, for one template, either the alpha value correction based on the pitch direction correction degree or the alpha value correction based on the yaw direction tilt degree may be performed, or both may be performed. you can go Alternatively, the alpha value may be corrected based on the degree of correction in the direction that differs from template to template.

<変形例4の動作>
図16は、図3の機能的構成を有する図1の撮像装置1が実行する、本変形例における細顔補正処理の流れを説明するフローチャートである。なお、本変形例における機能ブロックは、図3を参照して上述した機能ブロックと基本的に同様である。ただし、以下の動作を行なうための機能を更に備えている。
<Operation of Modification 4>
FIG. 16 is a flowchart for explaining the flow of thin face correction processing according to this modification, which is executed by the imaging apparatus 1 of FIG. 1 having the functional configuration of FIG. Note that the functional blocks in this modification are basically the same as the functional blocks described above with reference to FIG. However, it further has functions for performing the following operations.

ステップS11において、画像取得部51は、撮像部16により撮像された画像に現像処理が行われた撮像画像のデータ、或いは画像記憶部61から処理対象となる画像を取得する。この際に、本変形例では、画像取得部51は、元画像と共に、この元画像に対応する深度情報の取得も行なう。 In step S<b>11 , the image acquisition unit 51 acquires image data obtained by developing an image captured by the imaging unit 16 or an image to be processed from the image storage unit 61 . At this time, in this modified example, the image acquisition unit 51 also acquires depth information corresponding to the original image together with the original image.

ステップS12において、顔検出部52は、処理対象となる画像において顔検出を行い、顔が検出されたか否かを判定する。
顔が検出されなかった場合には、ステップS12においてNOと判定されて、細顔補正処理は終了する。
顔が検出された場合には、ステップS12においてYESと判定されて、処理はステップS13に進む。
In step S12, the face detection unit 52 performs face detection on the image to be processed, and determines whether or not a face has been detected.
If the face is not detected, NO is determined in step S12, and the thin face correction process ends.
If a face is detected, YES is determined in step S12, and the process proceeds to step S13.

ステップS13において、顔検出部52は、テンプレートに対応する顔の所定の器官と所定の部位とを検出する。この際に、本変形例では、顔検出部52は、検出した所定の器官や所定の部位(例えば、上述した、左の頬下や、右の頬下や、眉間や、上唇)の深度情報の検出も行なう。 In step S13, the face detection unit 52 detects predetermined organs and predetermined parts of the face corresponding to the template. At this time, in this modified example, the face detection unit 52 detects depth information of predetermined organs and predetermined parts (for example, the above-described left cheek bottom, right cheek bottom, glabella, and upper lip). is also detected.

ステップS14において、適合位置特定部53は、元画像における、テンプレートに適合する座標を特定する。 In step S14, the matching position specifying unit 53 specifies coordinates in the original image that match the template.

ステップS21において、適合位置特定部53は、顔検出部52が検出した所定の器官や所定の部位の深度情報に基づいて、上述した<アルファ値の修正>のようにして、傾き度合いを特定する。 In step S21, the matching position specifying unit 53 specifies the degree of inclination based on the depth information of the predetermined organ or the predetermined part detected by the face detecting unit 52, as in <alpha value correction> described above. .

ステップS22において、適合位置特定部53は、ステップS21において特定された傾き度合いに基づいて、上述した<アルファ値の修正>のようにして、各テンプレートのアルファ値を修正する。 In step S22, the matching position specifying unit 53 corrects the alpha value of each template based on the degree of inclination specified in step S21, as in <correction of alpha value> described above.

ステップS15において、アルファマップ作成部54は、ステップS22において修正後のアルファ値と、テンプレートに適合する座標に基づいて、アルファマップを作成する。 In step S15, the alpha map creation unit 54 creates an alpha map based on the alpha values after correction in step S22 and the coordinates matching the template.

ステップS16において、歪曲補正処理部55は、アルファマップを適用した歪曲補正を行う。
その後、細顔補正処理が終了する。
In step S16, the distortion correction processing unit 55 performs distortion correction using an alpha map.
After that, the thin face correction process ends.

以上説明した動作により、図13、図14、及び図15を参照して上述したような、ユーザの顔のバランスが整った画像が生成される。
このようにして、本変形例では、例えば、ユーザのフェイスラインの輪郭等を検出するような煩雑な画像解析を行なうことなく、深度情報から傾き度合いを算出して、テンプレートを修正するのみで、ユーザの顔のバランスを整えるような補正を行なうことができる。つまり、本変形例においても、従来に比べて、より簡略な方法にて補正処理を実現することができる。
By the operation described above, a well-balanced image of the user's face as described above with reference to FIGS. 13, 14, and 15 is generated.
In this way, in this modified example, for example, without performing complicated image analysis such as detecting the contour of the user's face line, only by calculating the degree of inclination from the depth information and correcting the template, Corrections can be made to balance the user's face. That is, also in this modified example, the correction process can be realized by a simpler method than the conventional method.

[他の変形例]
また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、画像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
[Other Modifications]
Further, in the above-described embodiment, the imaging apparatus 1 to which the present invention is applied is described as an example of a digital camera, but it is not particularly limited to this.
For example, the present invention can be applied to general electronic devices having an image processing function. Specifically, for example, the present invention is applicable to notebook personal computers, printers, television receivers, video cameras, portable navigation devices, mobile phones, smart phones, portable game machines, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
The series of processes described above can be executed by hardware or by software.
In other words, the functional configuration of FIG. 3 is merely an example and is not particularly limited. That is, it suffices if the imaging apparatus 1 has a function capable of executing the series of processes described above as a whole, and what kind of functional blocks are used to realize this function is not particularly limited to the example in FIG.
Also, one functional block may be composed of hardware alone, software alone, or a combination thereof.
The functional configuration in this embodiment is realized by a processor that executes arithmetic processing, and processors that can be used in this embodiment are composed of various single processing units such as single processors, multiprocessors, and multicore processors. In addition, it includes a combination of these various processing devices and a processing circuit such as ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array).

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processes is to be executed by software, a program constituting the software is installed in a computer or the like from a network or a recording medium.
The computer may be a computer built into dedicated hardware. The computer may also be a computer capable of executing various functions by installing various programs, such as a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk),Blu-ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。 A recording medium containing such a program is not only constituted by the removable medium 31 of FIG. It consists of a recording medium, etc. provided to The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, or a magneto-optical disk. Optical discs are composed of, for example, CD-ROMs (Compact Disk-Read Only Memory), DVDs (Digital Versatile Disks), Blu-ray (registered trademark) Discs, and the like. The magneto-optical disk is composed of an MD (Mini-Disk) or the like. Also, the recording medium provided to the user in a state of being pre-installed in the apparatus main body is composed of, for example, the ROM 12 in FIG. 1 in which the program is recorded, the hard disk included in the storage unit 19 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。 In this specification, the steps of writing a program recorded on a recording medium are not only processes that are performed chronologically in that order, but also processes that are not necessarily chronologically processed, and that are performed in parallel or individually. It also includes the processing to be executed.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and various modifications such as omissions and substitutions can be made without departing from the gist of the present invention. These embodiments and their modifications are included in the scope and gist of the invention described in this specification and the like, and are included in the scope of the invention described in the claims and equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
所定の被写体が写った画像を取得する取得手段と、
前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶手段と、
前記画像内の前記テンプレートに適合する座標を特定する特定手段と、
前記特定手段が特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正手段と、
を有することを特徴とする画像処理装置。
[付記2]
前記特定手段は、
前記画像を解析することにより、前記所定の被写体の第1特徴点に対応する座標と、前記所定の被写体の第2特徴点に対応する座標とを検出し、
前記検出した第1特徴点の座標に基づいて前記テンプレートにおける基点に適合する座標を特定し、前記検出した第2特徴点の座標に基づいて前記テンプレートにおける輪郭に適合する座標を特定する、
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記特定手段は、
前記第1特徴点の座標に前記テンプレートの基点を配置し、配置した前記テンプレートの前記基点を回転中心として前記テンプレートを回転させることにより前記テンプレートに適合する座標を特定する、
ことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記特定手段は、
前記検出した第2特徴点の座標と、前記テンプレートにおける輪郭とに基づいて、前記テンプレートの輪郭の形状を維持した拡大又は縮小を行う、
ことを特徴とする付記2又は3に記載の画像処理装置。
[付記5]
前記特定手段は、
前記テンプレートに含まれる補正度合いの変更は行わない、
ことを特徴とする付記4に記載の画像処理装置。
[付記6]
前記特定手段は、前記画像内における前記被写体の状態を特定し、該特定した前記被写体の状態に基づいて、前記テンプレートに含まれる補正度合いを修正し、
前記補正手段は、前記特定手段が修正した補正度合いと、前記特定手段が特定した座標とに基づいて前記画像に対して補正を行う、
ことを特徴とする付記1乃至4の何れか1に記載の画像処理装置。
[付記7]
前記特定手段は、前記画像内における前記被写体の第1領域の深度と、前記画像内における前記被写体の第2領域の深度との差分に基づいて、前記被写体の状態として前記被写体の傾き度合いを特定する、
ことを特徴とする付記6に記載の画像処理装置。
[付記8]
前記補正手段は、
前記画像に対する補正として、少なくとも、前記テンプレートに含まれる補正度合いに対応した補正度合いで、前記画像の座標を移動することにより歪曲補正を行う、
ことを特徴とする付記1乃至7の何れか1に記載の画像処理装置。
[付記9]
前記記憶手段は、複数の異なる補正対象領域それぞれに対応した複数の前記テンプレートを記憶しており、
前記特定手段は、複数の前記テンプレートについて適合する座標を、複数の前記テンプレートそれぞれ毎に独立して特定する、
ことを特徴とする付記1乃至8の何れか1に記載の画像処理装置。
[付記10]
前記所定の被写体は顔であり、
前記補正対象領域は、顔の器官又は顔の部位である、
ことを特徴とする付記1乃至9の何れか1に記載の画像処理装置。
[付記11]
前記テンプレートは、当該テンプレートの輪郭内の輪郭周辺の部分が前記テンプレートの中央部分よりも補正の度合いが抑えられるように、前記補正の度合いが設定されていることを特徴とする付記1乃至10の何れか1に記載の画像処理装置。
[付記12]
所定の被写体が写った画像を取得する取得ステップと、
前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶ステップと、
前記画像内の前記テンプレートに適合する座標を特定する特定ステップと、
前記特定ステップにおいて特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正ステップと、
を有することを特徴とする画像処理方法。
[付記13]
コンピュータに、
所定の被写体が写った画像を取得する取得機能と、
前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶機能と、
前記画像内の前記テンプレートに適合する座標を特定する特定機能と、
前記特定機能が特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正機能と、
を実現させることを特徴とする画像処理プログラム。
The invention described in the scope of claims at the time of filing of the present application will be additionally described below.
[Appendix 1]
Acquisition means for acquiring an image showing a predetermined subject;
storage means for storing a template containing a degree of correction at each position within the shape corresponding to the region to be corrected of the predetermined subject, the degree of correction changing at each position;
identifying means for identifying coordinates that match the template within the image;
correction means for correcting the image based on the coordinates specified by the specifying means and the degree of correction included in the template;
An image processing device comprising:
[Appendix 2]
The specifying means is
detecting the coordinates corresponding to the first feature point of the predetermined subject and the coordinates corresponding to the second feature point of the predetermined subject by analyzing the image;
Identifying coordinates that match the base point in the template based on the detected coordinates of the first feature point, and identifying coordinates that match the contour in the template based on the detected coordinates of the second feature point;
The image processing apparatus according to Supplementary Note 1, characterized by:
[Appendix 3]
The specifying means is
Arranging the base point of the template at the coordinates of the first feature point, and rotating the template around the base point of the arranged template to specify the coordinates that match the template;
The image processing apparatus according to appendix 2, characterized by:
[Appendix 4]
The specifying means is
performing enlargement or reduction while maintaining the contour shape of the template based on the coordinates of the detected second feature point and the contour of the template;
The image processing apparatus according to appendix 2 or 3, characterized by:
[Appendix 5]
The specifying means is
Do not change the degree of correction included in the template,
The image processing apparatus according to appendix 4, characterized by:
[Appendix 6]
the identifying means identifies the state of the subject in the image, and modifies the degree of correction included in the template based on the identified state of the subject;
The correcting means corrects the image based on the degree of correction corrected by the specifying means and the coordinates specified by the specifying means.
5. The image processing apparatus according to any one of Appendices 1 to 4, characterized by:
[Appendix 7]
The specifying means specifies the degree of inclination of the subject as the state of the subject based on the difference between the depth of the first area of the subject in the image and the depth of the second area of the subject in the image. do,
The image processing apparatus according to appendix 6, characterized by:
[Appendix 8]
The correcting means is
As the correction of the image, distortion correction is performed by moving the coordinates of the image at least to a degree of correction corresponding to the degree of correction included in the template.
8. The image processing apparatus according to any one of Appendices 1 to 7, characterized by:
[Appendix 9]
The storage means stores a plurality of templates corresponding to a plurality of different correction target regions,
wherein the identifying means independently identifies matching coordinates for each of the plurality of templates;
The image processing apparatus according to any one of Appendices 1 to 8, characterized by:
[Appendix 10]
the predetermined subject is a face,
The correction target area is a facial organ or a facial part,
The image processing apparatus according to any one of Appendices 1 to 9, characterized by:
[Appendix 11]
11. The degree of correction of the template is set such that the degree of correction of the contour peripheral portion within the contour of the template is less than that of the central portion of the template. 2. The image processing device according to any one of the above.
[Appendix 12]
an acquisition step of acquiring an image showing a predetermined subject;
a storing step of storing a template containing a degree of correction at each position within a shape corresponding to the region to be corrected of the predetermined subject, the degree of correction varying at each position;
an identifying step of identifying coordinates in the image that match the template;
a correction step of correcting the image based on the coordinates identified in the identification step and the degree of correction included in the template;
An image processing method characterized by comprising:
[Appendix 13]
to the computer,
an acquisition function for acquiring an image of a predetermined subject;
a storage function for storing a template containing a degree of correction at each position within a shape corresponding to the region to be corrected of the predetermined subject, the degree of correction varying at each position;
a specific function that identifies coordinates in the image that match the template;
a correction function that corrects the image based on the coordinates specified by the specific function and the degree of correction included in the template;
An image processing program characterized by realizing

1・・・撮像装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・通信部,21・・・ドライブ,22・・・照明部,31・・・リムーバブルメディア,51・・・画像取得部,52・・・顔検出部,53・・・適合位置特定部,54・・・アルファマップ作成部,55・・・歪曲補正処理部,61・・・画像記憶部,62・・・テンプレート記憶部 Reference Signs List 1 imaging device 11 CPU 12 ROM 13 RAM 14 bus 15 input/output interface 16 imaging unit 17 Input unit 18 Output unit 19 Storage unit 20 Communication unit 21 Drive 22 Illumination unit 31 Removable medium 51 Image acquisition Part, 52... Face detection part, 53... Matching position specifying part, 54... Alpha map creation part, 55... Distortion correction processing part, 61... Image storage part, 62... Template storage unit

Claims (10)

所定の被写体が写った画像を取得する取得手段と、
前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶手段と、
前記画像内の前記テンプレートに適合する座標を特定する特定手段と、
前記特定手段が特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正手段と、
を有し
前記特定手段は、前記画像内における前記被写体の第1領域の深度と、前記画像内における前記被写体の第2領域の深度との差分に基づいて、前記被写体の傾き度合いを特定し、該特定した前記被写体の傾き度合いに基づいて、前記テンプレートに含まれる補正度合いを修正し、
前記補正手段は、前記特定手段が修正した補正度合いと、前記特定手段が特定した座標とに基づいて前記画像に対して補正を行う、
ことを特徴とする画像処理装置。
Acquisition means for acquiring an image showing a predetermined subject;
storage means for storing a template containing a degree of correction at each position within a shape corresponding to the region to be corrected of the predetermined subject, the degree of correction varying at each position;
identifying means for identifying coordinates that match the template within the image;
correction means for correcting the image based on the coordinates specified by the specifying means and the degree of correction included in the template;
has
The identifying means identifies the degree of tilt of the subject based on a difference between the depth of the first area of the subject in the image and the depth of the second area of the subject in the image, and identifies the degree of inclination of the subject. correcting the degree of correction included in the template based on the degree of inclination of the subject;
The correcting means corrects the image based on the degree of correction corrected by the specifying means and the coordinates specified by the specifying means.
An image processing apparatus characterized by:
前記特定手段は、
前記画像を解析することにより、前記所定の被写体の第1特徴点に対応する座標と、前記所定の被写体の第2特徴点に対応する座標とを検出し、
前記検出した第1特徴点の座標に基づいて前記テンプレートにおける基点に適合する座標を特定し、前記検出した第2特徴点の座標に基づいて前記テンプレートにおける輪郭に適合する座標を特定する、
ことを特徴とする請求項1に記載の画像処理装置。
The specifying means is
detecting the coordinates corresponding to the first feature point of the predetermined subject and the coordinates corresponding to the second feature point of the predetermined subject by analyzing the image;
Identifying coordinates that match the base point in the template based on the detected coordinates of the first feature point, and identifying coordinates that match the contour in the template based on the detected coordinates of the second feature point;
2. The image processing apparatus according to claim 1, wherein:
前記特定手段は、
前記第1特徴点の座標に前記テンプレートの基点を配置し、配置した前記テンプレートの前記基点を回転中心として前記テンプレートを回転させることにより前記テンプレートに適合する座標を特定する、
ことを特徴とする請求項2に記載の画像処理装置。
The specifying means is
Arranging the base point of the template at the coordinates of the first feature point, and rotating the template around the base point of the arranged template to specify the coordinates that match the template;
3. The image processing apparatus according to claim 2, wherein:
前記特定手段は、
前記検出した第2特徴点の座標と、前記テンプレートにおける輪郭とに基づいて、前記テンプレートの輪郭の形状を維持した拡大又は縮小を行う、
ことを特徴とする請求項2又は3に記載の画像処理装置。
The specifying means is
performing enlargement or reduction while maintaining the contour shape of the template based on the coordinates of the detected second feature point and the contour of the template;
4. The image processing apparatus according to claim 2, wherein:
前記補正手段は、
前記画像に対する補正として、少なくとも、前記テンプレートに含まれる補正度合いに対応した補正度合いで、前記画像の座標を移動することにより歪曲補正を行う、
ことを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
The correcting means is
As the correction of the image, distortion correction is performed by moving the coordinates of the image at least to a degree of correction corresponding to the degree of correction included in the template.
5. The image processing apparatus according to any one of claims 1 to 4 , characterized by:
前記記憶手段は、複数の異なる補正対象領域それぞれに対応した複数の前記テンプレートを記憶しており、
前記特定手段は、複数の前記テンプレートについて適合する座標を、複数の前記テンプレートそれぞれ毎に独立して特定する、
ことを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
The storage means stores a plurality of templates corresponding to a plurality of different correction target regions,
wherein the identifying means independently identifies matching coordinates for each of the plurality of templates;
6. The image processing apparatus according to any one of claims 1 to 5 , characterized by:
前記所定の被写体は顔であり、
前記補正対象領域は、顔の器官又は顔の部位である、
ことを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
the predetermined subject is a face,
The correction target area is a facial organ or a facial part,
7. The image processing apparatus according to any one of claims 1 to 6 , characterized by:
前記テンプレートは、当該テンプレートの輪郭内の輪郭周辺の部分が前記テンプレートの中央部分よりも補正の度合いが抑えられるように、前記補正の度合いが設定されている、
ことを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
The degree of correction of the template is set such that the portion around the contour within the contour of the template is less corrected than the central portion of the template.
8. The image processing apparatus according to any one of claims 1 to 7 , characterized by:
画像処理装置が実行する画像処理方法であって、
所定の被写体が写った画像を取得する取得ステップと、
前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶ステップと、
前記画像内の前記テンプレートに適合する座標を特定する特定ステップと、
前記特定ステップにおいて特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正ステップと、
を有し、
前記特定ステップは、前記画像内における前記被写体の第1領域の深度と、前記画像内における前記被写体の第2領域の深度との差分に基づいて、前記被写体の傾き度合いを特定し、該特定した前記被写体の傾き度合いに基づいて、前記テンプレートに含まれる補正度合いを修正し、
前記補正ステップは、前記特定ステップで修正した補正度合いと、前記特定ステップで特定した座標とに基づいて前記画像に対して補正を行う、
ことを特徴とする画像処理方法。
An image processing method executed by an image processing device,
an acquisition step of acquiring an image showing a predetermined subject;
a storing step of storing a template containing a degree of correction at each position within the shape corresponding to the region to be corrected of the predetermined subject, the degree of correction varying at each position;
an identifying step of identifying coordinates in the image that match the template;
a correction step of correcting the image based on the coordinates identified in the identification step and the degree of correction included in the template;
has
The identifying step identifies the degree of inclination of the subject based on a difference between the depth of the first area of the subject in the image and the depth of the second area of the subject in the image, and identifies the degree of inclination of the subject. correcting the degree of correction included in the template based on the degree of inclination of the subject;
The correcting step corrects the image based on the degree of correction corrected in the identifying step and the coordinates identified in the identifying step.
An image processing method characterized by:
コンピュータに、
所定の被写体が写った画像を取得する取得機能と、
前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶機能と、
前記画像内の前記テンプレートに適合する座標を特定する特定機能と、
前記特定機能が特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正機能と、
を実現させ
前記特定機能は、前記画像内における前記被写体の第1領域の深度と、前記画像内における前記被写体の第2領域の深度との差分に基づいて、前記被写体の傾き度合いを特定し、該特定した前記被写体の傾き度合いに基づいて、前記テンプレートに含まれる補正度合いを修正し、
前記補正機能は、前記特定機能で修正した補正度合いと、前記特定機能で特定した座標とに基づいて前記画像に対して補正を行う、
ことを特徴とする画像処理プログラム。
to the computer,
an acquisition function for acquiring an image of a predetermined subject;
a storage function for storing a template containing a degree of correction at each position within a shape corresponding to the region to be corrected of the predetermined subject, the degree of correction varying at each position;
a specific function that identifies coordinates in the image that match the template;
a correction function that corrects the image based on the coordinates specified by the specific function and the degree of correction included in the template;
to realize
The specifying function specifies the degree of inclination of the subject based on a difference between the depth of the first region of the subject in the image and the depth of the second region of the subject in the image, and specifies the degree of inclination of the subject. correcting the degree of correction included in the template based on the degree of inclination of the subject;
The correction function corrects the image based on the degree of correction corrected by the specific function and the coordinates specified by the specific function.
An image processing program characterized by:
JP2018193195A 2018-06-15 2018-10-12 Image processing device, image processing method, and image processing program Active JP7110899B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/435,377 US11100615B2 (en) 2018-06-15 2019-06-07 Image processing device, image processing method, and image processing program
CN201910515934.1A CN110611762A (en) 2018-06-15 2019-06-14 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2022112099A JP7428208B2 (en) 2018-06-15 2022-07-13 Image processing device, image processing method, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018114952 2018-06-15
JP2018114952 2018-06-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022112099A Division JP7428208B2 (en) 2018-06-15 2022-07-13 Image processing device, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2019220130A JP2019220130A (en) 2019-12-26
JP7110899B2 true JP7110899B2 (en) 2022-08-02

Family

ID=69096821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018193195A Active JP7110899B2 (en) 2018-06-15 2018-10-12 Image processing device, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP7110899B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113129239B (en) * 2021-05-06 2023-07-21 上海联影医疗科技股份有限公司 Image correction method, device, electronic equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318204A (en) 2003-04-10 2004-11-11 Sony Corp Image processing device, image processing method, and photographing device
JP2007293649A (en) 2006-04-26 2007-11-08 Megachips Lsi Solutions Inc Makeup assist device and eyebrow drawing assist device
JP2015011555A (en) 2013-06-28 2015-01-19 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2015106252A (en) 2013-11-29 2015-06-08 シャープ株式会社 Face direction detection device and three-dimensional measurement device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318204A (en) 2003-04-10 2004-11-11 Sony Corp Image processing device, image processing method, and photographing device
JP2007293649A (en) 2006-04-26 2007-11-08 Megachips Lsi Solutions Inc Makeup assist device and eyebrow drawing assist device
JP2015011555A (en) 2013-06-28 2015-01-19 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2015106252A (en) 2013-11-29 2015-06-08 シャープ株式会社 Face direction detection device and three-dimensional measurement device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Ming XU et al,Detecting head pose from stereo image sequence for active face recognition,Proceedings Third IEEE International Conference on Automatic Face and Gesture Recognition,米国,IEEE,1998年04月16日,https://ieeexplore.ieee.org/document/670929
大村 瑞穂 Mizuho OHMURA,Adaptive Table法を用いた高速なB-spline変換による小顔の自動生成 Fast B-spline transform based on Adaptive Tables for morphing of facial images,電子情報通信学会技術研究報告 Vol.110 No.28 IEICE Technical Report,日本,社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,2010年05月06日,7~12

Also Published As

Publication number Publication date
JP2019220130A (en) 2019-12-26

Similar Documents

Publication Publication Date Title
JP6961811B2 (en) Methods and devices for image processing, as well as computer-readable storage media
JP5949331B2 (en) Image generating apparatus, image generating method, and program
CN110321768B (en) Arrangement for generating a head-related transfer function filter
WO2019105297A1 (en) Image blurring method and apparatus, mobile device, and storage medium
KR102390252B1 (en) Technique for providing virtual lighting adjustments to image data
JP7441917B2 (en) Projection distortion correction for faces
CN108846807A (en) Light efficiency processing method, device, terminal and computer readable storage medium
US20090028390A1 (en) Image Processing for Estimating Subject Distance
CN108093174A (en) Patterning process, device and the photographing device of photographing device
WO2022121842A1 (en) Correction method and apparatus for text image, and device, and medium
JP7110899B2 (en) Image processing device, image processing method, and image processing program
JP5966657B2 (en) Image generating apparatus, image generating method, and program
JP6098133B2 (en) Face component extraction device, face component extraction method and program
WO2022121843A1 (en) Text image correction method and apparatus, and device and medium
JP7428208B2 (en) Image processing device, image processing method, and image processing program
JP2011210118A (en) Face image synthesizing apparatus
JP2015184701A (en) Image processing apparatus, image processing method, and program
JP7279741B2 (en) Image processing device, image processing method and program
JP7400196B2 (en) Electronic devices, image processing methods, and image processing programs
CN114049250B (en) Method, device and medium for correcting face pose of certificate photo
JP2023114304A (en) Information processing device, and control method and program thereof
JP2008084236A (en) Image processor, image processing method and program
JP2017021393A (en) Image generator, image generation method, and program
JP2014048767A (en) Image generating device, image generating method, and program
JP2017054406A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220704

R150 Certificate of patent or registration of utility model

Ref document number: 7110899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150