JP2019220130A - Image processor, image-processing method, and image-processing program - Google Patents

Image processor, image-processing method, and image-processing program Download PDF

Info

Publication number
JP2019220130A
JP2019220130A JP2018193195A JP2018193195A JP2019220130A JP 2019220130 A JP2019220130 A JP 2019220130A JP 2018193195 A JP2018193195 A JP 2018193195A JP 2018193195 A JP2018193195 A JP 2018193195A JP 2019220130 A JP2019220130 A JP 2019220130A
Authority
JP
Japan
Prior art keywords
correction
template
image
coordinates
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018193195A
Other languages
Japanese (ja)
Other versions
JP7110899B2 (en
Inventor
新太郎 今井
Shintaro Imai
新太郎 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to US16/435,377 priority Critical patent/US11100615B2/en
Priority to CN201910515934.1A priority patent/CN110611762A/en
Publication of JP2019220130A publication Critical patent/JP2019220130A/en
Priority to JP2022112099A priority patent/JP7428208B2/en
Application granted granted Critical
Publication of JP7110899B2 publication Critical patent/JP7110899B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image processor, an image-processing method, and an image-processing program capable of achieving correction processing by a simpler method.SOLUTION: An imaging apparatus includes: an image acquisition part 51; a template storage part 62; a conforming position location part 53; and a distortion correction processing part 55. The image acquisition part 51 acquires an image for showing a predetermined object. The template storage part 62 stores a template including the degree of correction that is the degree of correction in each position within a shape corresponding to a correction target area of the predetermined object and changes in each position. The conforming position location part 53 locates coordinates conforming to a template within an image. The distortion correction processing part 55 performs correction to an image on the basis of the coordinates located by the conforming position location part 53 and the degree of correction included in the template.SELECTED DRAWING: Figure 3

Description

本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。   The present invention relates to an image processing device, an image processing method, and an image processing program.

従来、撮像により得られた被写体の画像に対して、所定の補正処理が行われている。所定の補正処理としては様々なものがあるが、例えば、被写体としてユーザの顔を写す場合に、画像内のユーザの顔部分に対して歪曲補正を行うことにより、ユーザの顔を小さく補正することができる。このような歪曲補正に関する技術は、例えば特許文献1に開示されている。   Conventionally, a predetermined correction process has been performed on an image of a subject obtained by imaging. There are various types of predetermined correction processing. For example, when a user's face is photographed as a subject, the user's face is corrected to be small by performing distortion correction on the user's face portion in the image. Can be. A technique relating to such distortion correction is disclosed in, for example, Patent Document 1.

特開2012−142772号公報JP 2012-142772 A

しかしながら、特許文献1に開示された技術等の一般的な技術を利用するためには、まず被写体の画像に対して煩雑な画像解析処理を行い、補正対象とする器官の位置や、補正対象とする器官の輪郭全体を精度高く特定する必要があった。例えば、ユーザの目に対して補正を行う場合には、ユーザの目の位置や、目の輪郭全体を精度高く特定する必要があった。
このような、画像解析処理による輪郭全体の精度高い特定を要することなく、より簡略な方法にて補正処理を実現することが望まれる。
However, in order to use a general technique such as the technique disclosed in Patent Literature 1, complicated image analysis processing is first performed on an image of a subject, and the position of an organ to be corrected and the It was necessary to specify the entire contour of the organ to be performed with high accuracy. For example, when correcting the user's eyes, it is necessary to specify the position of the user's eyes and the entire outline of the eyes with high accuracy.
It is desired that the correction process be realized by a simpler method without requiring such an accurate analysis of the entire contour by the image analysis process.

本発明は、このような状況に鑑みてなされたものであり、より簡略な方法にて補正処理を実現することを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to realize a correction process by a simpler method.

上記目的を達成するため、本発明の一態様の画像処理装置は、
所定の被写体が写った画像を取得する取得手段と、
前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶手段と、
前記画像内の前記テンプレートに適合する座標を特定する特定手段と、
前記特定手段が特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正手段と、
を有することを特徴とする。
In order to achieve the above object, an image processing device according to one embodiment of the present invention includes:
Acquiring means for acquiring an image of a predetermined subject,
Storage means for storing a template including a correction degree of each position in the shape corresponding to the correction target region of the predetermined subject, the correction degree changing at each position;
Specifying means for specifying coordinates that match the template in the image,
Correction means for correcting the image based on the coordinates specified by the specifying means and the correction degree included in the template;
It is characterized by having.

本発明によれば、より簡略な方法にて補正処理を実現することができる。   According to the present invention, the correction processing can be realized by a simpler method.

本発明の画像処理装置の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a hardware configuration of an imaging device according to an embodiment of an image processing device of the present invention. 図1の撮像装置による細顔補正処理の概要を説明するための模式図である。FIG. 2 is a schematic diagram for describing an outline of a fine face correction process performed by the imaging device of FIG. 1. 図1の撮像装置の機能的構成のうち、細顔補正処理を実行するための機能的構成を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating a functional configuration for executing a fine face correction process among the functional configurations of the imaging device in FIG. 1. テンプレートの形状及びアルファ値の例と、テンプレートが適用される顔の部位との関係を示す模式図である。FIG. 9 is a schematic diagram illustrating a relationship between an example of a template shape and an alpha value and a face part to which the template is applied. 元画像に対するテンプレートの適合について説明するための模式図である。FIG. 9 is a schematic diagram for explaining adaptation of a template to an original image. 複数のテンプレートを用いたアルファマップの生成について説明するための模式図である。FIG. 9 is a schematic diagram for explaining generation of an alpha map using a plurality of templates. 補正を行う前の元画像の一例について示す模式図である。FIG. 9 is a schematic diagram illustrating an example of an original image before performing correction. 図7に図示した元画像を、従来技術により補正した画像の一例について示す模式図である。FIG. 8 is a schematic diagram illustrating an example of an image obtained by correcting the original image illustrated in FIG. 7 by a conventional technique. 図7に図示した元画像を、図1の撮像装置による細顔補正処理により補正した画像の一例について示す模式図である。FIG. 8 is a schematic diagram illustrating an example of an image obtained by correcting the original image illustrated in FIG. 7 by a fine face correction process performed by the imaging device in FIG. 1. 図3の機能的構成を有する図1の撮像装置1が実行する細顔補正処理の流れを説明するフローチャートである。4 is a flowchart illustrating a flow of a fine face correction process performed by the imaging device 1 of FIG. 1 having the functional configuration of FIG. 3. 図1の撮像装置による細顔補正処理において、トリミング処理を行う場合について説明するための模式図である。FIG. 2 is a schematic diagram for explaining a case where a trimming process is performed in the fine face correction process performed by the imaging apparatus of FIG. 1. 撮像装置1による、アルファ値の修正を説明するための模式図である。FIG. 3 is a schematic diagram for explaining correction of an alpha value by the imaging device. 細顔補正処理において、アルファ値を修正した後に、歪曲補正した画像の一例について示す模式図である。FIG. 9 is a schematic diagram illustrating an example of an image in which distortion has been corrected after an alpha value has been corrected in a fine face correction process. 細顔補正処理において、アルファ値を修正した後に、歪曲補正した画像の他の一例について示す模式図である。FIG. 10 is a schematic diagram illustrating another example of an image in which distortion has been corrected after the alpha value has been corrected in the fine face correction process. 細顔補正処理において、アルファ値を修正した後に、歪曲補正した画像の他の一例について示す模式図である。FIG. 10 is a schematic diagram illustrating another example of an image in which distortion has been corrected after the alpha value has been corrected in the fine face correction process. 図3の機能的構成を有する図1の撮像装置1が実行する、変形例4における細顔補正処理の流れを説明するフローチャートである。11 is a flowchart illustrating a flow of a fine face correction process according to Modification 4 executed by the imaging device 1 of FIG. 1 having the functional configuration of FIG.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の画像処理装置の一実施形態に係る撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えば、デジタルカメラとして構成される。
FIG. 1 is a block diagram illustrating a hardware configuration of an imaging device 1 according to an embodiment of the image processing device of the present invention.
The imaging device 1 is configured as, for example, a digital camera.

撮像装置1は、図1に示すように、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、照明部22と、を備えている。   As shown in FIG. 1, the imaging device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, It includes a unit 16, an input unit 17, an output unit 18, a storage unit 19, a communication unit 20, a drive 21, and a lighting unit 22.

CPU11は、ROM12に記録されているプログラム、または、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 19 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 also appropriately stores data and the like necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、入力部17、出力部18、記憶部19、通信部20、ドライブ21及び、照明部22が接続されている。   The CPU 11, the ROM 12, and the RAM 13 are mutually connected via a bus 14. The bus 14 is also connected to an input / output interface 15. The imaging unit 16, the input unit 17, the output unit 18, the storage unit 19, the communication unit 20, the drive 21, and the illumination unit 22 are connected to the input / output interface 15.

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 16 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit includes a lens that condenses light, such as a focus lens and a zoom lens, for photographing a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. A zoom lens is a lens that changes the focal length freely within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance, as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を撮像画像のデータとしてCPU11や図示しない画像処理部等に適宜供給される。
The image sensor includes a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element includes, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (images) a subject image, accumulates image signals for a certain period of time, and sequentially supplies the accumulated image signals to the AFE as analog signals.
The AFE executes various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing, and is output as an output signal of the imaging unit 16.
Such an output signal of the imaging unit 16 is appropriately supplied as data of a captured image to the CPU 11, an image processing unit (not shown), and the like.

入力部17は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 17 is configured by various buttons and the like, and inputs various information in accordance with a user's instruction operation.
The output unit 18 includes a display, a speaker, and the like, and outputs images and sounds.
The storage unit 19 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores data of various images.
The communication unit 20 controls communication performed with another device (not shown) via a network including the Internet.

ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。   In the drive 21, a removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted. The program read from the removable medium 31 by the drive 21 is installed in the storage unit 19 as needed. In addition, the removable medium 31 can store various data such as image data stored in the storage unit 19 in the same manner as the storage unit 19.

照明部22は、例えば、撮像部16の周囲に円を描くように設置された発光部材としての8個のLED(Light Emitting Diode)と、当該撮像装置1において、この8個のLEDとは離れた位置に設置された1個のLEDとで構成される。これらのLEDは、ライブビュー撮影時や、画像記録時等に、ユーザの操作に従って選択的に発光する。このように照明のための光線の到来方向を変更させて顔を撮影することで、人為的に陰影がコントロールされた顔画像を取得することができる。   The illumination unit 22 is, for example, separated from eight LEDs (Light Emitting Diodes) as light-emitting members installed in a circle around the imaging unit 16 and separated from the eight LEDs in the imaging device 1. And one LED installed at a different position. These LEDs selectively emit light during live view shooting, image recording, and the like in accordance with a user operation. By photographing the face while changing the arrival direction of the light beam for illumination in this way, a face image in which shadows are artificially controlled can be obtained.

このように構成される撮像装置1では、被写体を撮影した画像に対して、テンプレートを利用した歪曲補正を行うことにより、被写体を違和感なく自然に補正する機能を有する。これにより、例えば、ユーザの顔を被写体とした場合に、ユーザの顔を違和感なく自然な細顔とすることができる。
以下では、撮像装置1による、このテンプレートを利用した歪曲補正を行う一連の処理を「細顔補正処理」と称する。次に、図2を参照して、細顔補正処理の概要について説明する。
The imaging apparatus 1 configured as described above has a function of performing distortion correction using a template on an image obtained by capturing a subject, thereby naturally correcting the subject without a sense of incongruity. Thus, for example, when the user's face is set as the subject, the user's face can be made a natural fine face without a sense of discomfort.
Hereinafter, a series of processes performed by the imaging device 1 to perform the distortion correction using the template will be referred to as “small face correction process”. Next, an outline of the fine face correction process will be described with reference to FIG.

[細顔補正処理の概要]
図2は、撮像装置1による、細顔補正処理の概要を説明するための模式図である。
図2においては、顔に含まれる所定の器官である鼻筋を含む領域と、所定の部位である左右のフェイスライン領域それぞれとに対して、局所的な歪曲補正を行う例を示している。
[Overview of fine face correction processing]
FIG. 2 is a schematic diagram for explaining the outline of the fine face correction process performed by the imaging device 1.
FIG. 2 illustrates an example in which local distortion correction is performed on a region including a nose muscle as a predetermined organ included in the face and left and right face line regions as predetermined portions.

図2(A)に示すように、撮像装置1は、細顔補正処理の対象として、補正前の画像(以下、「元画像」と称する)を取得する。また、撮像装置1は、この元画像における、歪曲補正の対象とする領域(以下、「補正対象領域」と称する。)を特定する。そのために、撮像装置1は、顔の所定の器官らしさや所定の部位らしさを表すテンプレートを、所定の器官や部位それぞれに応じて記憶しておく。また、撮像装置1は、このテンプレートを、元画像の対応する所定の器官や所定の部位の位置に適合させる。ここで、このテンプレートには、元画像に含まれる、顔の補正対象領域に対応した形状内における、各位置の補正度合いを示す値(以下、「アルファ値」と称する。)含む。   As illustrated in FIG. 2A, the imaging device 1 acquires an image before correction (hereinafter, referred to as an “original image”) as a target of the fine face correction process. In addition, the imaging device 1 specifies an area to be subjected to distortion correction (hereinafter, referred to as a “correction target area”) in the original image. For this purpose, the imaging apparatus 1 stores a template representing the likeness of a predetermined organ or a predetermined part of the face in accordance with each of the predetermined organ or part. Further, the imaging device 1 adapts this template to the position of a predetermined organ or a predetermined site corresponding to the original image. Here, the template includes a value (hereinafter, referred to as an “alpha value”) indicating the degree of correction at each position in the shape corresponding to the face correction target area included in the original image.

また、図2(B)に示すように、撮像装置1は、元画像内の全ての座標におけるアルファ値の値が「0」の背景(以下、「黒背景」と称する。)に対して、適合結果に基づいて各テンプレートを配置することにより、元画像内における各位置の補正度合いを示すマップ(以下、「アルファマップ」生成する。)。   Further, as shown in FIG. 2B, the imaging apparatus 1 sets the alpha value at all coordinates in the original image to “0” for the background (hereinafter, referred to as “black background”). By arranging each template based on the matching result, a map indicating the degree of correction of each position in the original image (hereinafter, an "alpha map" is generated).

更に、図2(C)に示すように、撮像装置1は、元画像に対して歪曲補正を行う。この場合に、撮像装置1は、アルファマップに含まれる各座標における補正の度合いに基づいた度合いで歪曲補正を行う。具体的に、歪曲補正では、元画像の各座標を所定の方向に移動させることにより補正が実現される。例えば、ユーザの顔を細顔とする場合には、補正対象領域内の各座標を顔の中心方向に移動させることにより補正が実現される。撮像装置1は、アルファマップに含まれる各座標における補正の度合いに基づいた度合いに応じて、この各座標の移動量を決定することにより歪曲補正を行う。   Further, as shown in FIG. 2C, the imaging device 1 performs distortion correction on the original image. In this case, the imaging device 1 performs the distortion correction at a degree based on the degree of correction at each coordinate included in the alpha map. Specifically, in the distortion correction, the correction is realized by moving each coordinate of the original image in a predetermined direction. For example, when the user's face is a fine face, the correction is realized by moving each coordinate in the correction target area toward the center of the face. The imaging apparatus 1 performs distortion correction by determining the amount of movement of each coordinate according to the degree based on the degree of correction at each coordinate included in the alpha map.

このような撮像装置1によれば、補正対象領域以外に対しては不要な補正を行うことなく、テンプレートに対応する補正対象領域に対してのみ歪曲補正を行うことができる。また、一律な補正度合いによる歪曲補正ではなく、テンプレートに含まれるアルファ値に応じた、器官や所定の部位それぞれ毎に適切な歪曲補正を行うことができる。   According to such an imaging device 1, distortion correction can be performed only on the correction target region corresponding to the template without performing unnecessary correction on the region other than the correction target region. In addition, it is possible to perform appropriate distortion correction for each organ or each predetermined part according to the alpha value included in the template, instead of performing distortion correction using a uniform correction degree.

また、撮像装置1は、補正対象領域となる所定の器官らしさや所定の部位らしさを表す形状のテンプレートを利用するが、このテンプレートの輪郭内の輪郭周辺の部分は中央部分よりも補正の度合いが抑えられるように設定される。そのため、補正対象領域となる所定の器官の輪郭や所定の部位の輪郭と、テンプレートの輪郭とが、完全に適合しなかった場合であっても、輪郭周辺へ与える影響は少なく、全体として被写体を違和感なく自然に補正することができる。従って、撮像装置1によれば、器官や所定の部位の輪郭を精度高く検出する必要をなくすことができる。また、器官や所定の部位の輪郭を精度高く検出しない場合であっても、補正後の画像の品質をほぼ落すことなく歪曲補正を行うことができる。
この点、従来であれば、適切な歪曲補正を行うためには、ユーザの補正対象とするユーザの器官や所定の部位の位置と、これら器官や所定の部位の輪郭全体とを、精度高く特定する必要があった。これに対して、撮像装置1は、上述したように、器官や所定の部位の輪郭を精度高く検出する必要をなくした上で、補正後の画像の品質をほぼ落すことなく歪曲補正を行うことができる。
つまり、本実施形態によれば、より簡略な方法にて補正処理を実現することができる。
In addition, the imaging apparatus 1 uses a template having a shape that represents the likeness of a predetermined organ or a predetermined part as a correction target area, and the degree of correction is greater at the periphery of the outline within the outline of the template than at the center. It is set to be suppressed. Therefore, even if the outline of a predetermined organ or a predetermined part serving as a correction target area does not completely match the outline of the template, the influence on the periphery of the outline is small, and the object as a whole is Correction can be made naturally without discomfort. Therefore, according to the imaging apparatus 1, it is not necessary to detect the contour of an organ or a predetermined part with high accuracy. Further, even when the contour of an organ or a predetermined part is not detected with high accuracy, distortion correction can be performed without substantially lowering the quality of the corrected image.
In this regard, in the related art, in order to perform appropriate distortion correction, the position of the user's organ or a predetermined part to be corrected by the user and the entire contour of the organ or the predetermined part are accurately identified. I needed to. On the other hand, as described above, the imaging apparatus 1 does not need to accurately detect the contour of an organ or a predetermined part, and performs distortion correction without substantially lowering the quality of the corrected image. Can be.
That is, according to the present embodiment, the correction process can be realized by a simpler method.

[機能ブロック]
図3は、図1の撮像装置1の機能的構成のうち、細顔補正処理を実行するための機能的構成を示す機能ブロック図である。
上述したように、細顔補正処理とは、テンプレートを利用した歪曲補正を行う一連の処理をいう。
[Function block]
FIG. 3 is a functional block diagram showing a functional configuration for executing a fine face correction process among the functional configurations of the imaging apparatus 1 of FIG.
As described above, the fine face correction processing refers to a series of processing for performing distortion correction using a template.

細顔補正処理を実行する場合には、図3に示すように、CPU11において、画像取得部51と、顔検出部52と、適合位置特定部53と、アルファマップ作成部54と、歪曲補正処理部55と、が機能する。
また、記憶部19の一領域には、画像記憶部61と、テンプレート記憶部62と、が設定される。
When performing the fine face correction processing, as shown in FIG. 3, in the CPU 11, the image acquisition unit 51, the face detection unit 52, the matching position specifying unit 53, the alpha map creation unit 54, the distortion correction processing The unit 55 functions.
In one area of the storage unit 19, an image storage unit 61 and a template storage unit 62 are set.

画像記憶部61には、撮像部16から出力された、撮像部16により撮像された画像に現像処理が行われた撮像画像のデータが記憶される。
テンプレート記憶部62には、顔の各種部位に対応する形状のテンプレートのデータが記憶される。テンプレートの詳細については、図4を参照して説明する。
The image storage unit 61 stores data of a captured image output from the imaging unit 16 and obtained by subjecting the image captured by the imaging unit 16 to a development process.
The template storage unit 62 stores template data having shapes corresponding to various parts of the face. Details of the template will be described with reference to FIG.

画像取得部51は、撮像部16により撮像された画像に現像処理が行われた撮像画像のデータ、或いは画像記憶部61から処理対象となる画像のデータを取得する。   The image acquisition unit 51 acquires data of a captured image obtained by performing a development process on an image captured by the imaging unit 16 or data of an image to be processed from the image storage unit 61.

顔検出部52は、元画像から顔を検出する。また、顔検出部52は、補正対象領域に対応する所定の器官及び所定の部位の特徴点を検出する。顔検出部52による処理の詳細は、図5を参照して後述する。   The face detection unit 52 detects a face from the original image. In addition, the face detection unit 52 detects a feature point of a predetermined organ and a predetermined site corresponding to the correction target area. Details of the processing by the face detection unit 52 will be described later with reference to FIG.

適合位置特定部53は、元画像における、テンプレートに適合する座標を特定する。適合位置特定部53による処理の詳細は、図5を参照して後述する。   The matching position specifying unit 53 specifies coordinates in the original image that match the template. Details of the processing by the matching position specifying unit 53 will be described later with reference to FIG.

アルファマップ作成部54は、テンプレートに適合する座標に基づいて、アルファマップを作成する。アルファマップ作成部54による処理の詳細は、図6を参照して後述する。   The alpha map creation unit 54 creates an alpha map based on coordinates that match the template. Details of the processing by the alpha map creation unit 54 will be described later with reference to FIG.

歪曲補正処理部55は、アルファマップに含まれるアルファ値に基づいて歪曲補正を行う。歪曲補正処理部55による処理の詳細は、図6を参照したアルファマップ作成部54の説明の後に、後述する。   The distortion correction processing unit 55 performs distortion correction based on the alpha value included in the alpha map. Details of the processing by the distortion correction processing unit 55 will be described later after the description of the alpha map generation unit 54 with reference to FIG.

[テンプレートの具体例]
次に、テンプレート記憶部62が記憶するテンプレートの詳細について図4を参照して説明する。図4は、テンプレートの形状及びアルファ値の例と、テンプレートが適用される顔の部位との関係を示す模式図である。
ここで、テンプレートは、一般的な顔において顔の所定の器官や所定の部位に対応する補正対象領域の形状を模したテンプレートであり、顔の特定の部位らしさを表すものである。また、上述のように、補正対象領域に対応した形状内における、各位置の補正度合いを示すアルファ値を含む。
[Specific example of template]
Next, details of the template stored in the template storage unit 62 will be described with reference to FIG. FIG. 4 is a schematic diagram illustrating a relationship between an example of the shape and alpha value of the template and a part of the face to which the template is applied.
Here, the template is a template that simulates the shape of a correction target region corresponding to a predetermined organ or a predetermined portion of the face in a general face, and represents a specific portion of the face. In addition, as described above, the alpha value indicating the degree of correction of each position in the shape corresponding to the correction target area is included.

図4では、鼻に対応するテンプレートである「鼻用テンプレートT1」、フェイスラインの右側に対応するテンプレートである「フェイスライン右側用テンプレートT2」、及びフェイスラインの左側に対応するテンプレートである「フェイスライン左側用テンプレートT3」を併せて適用した例を示している。なお、図4や後述の図5の図中において、テンプレートは破線の閉領域として示されている。また、これらの図中において、テンプレートに含まれるアルファ値の表現として、値が「0」の場合に黒色で示されており、値が「1」の場合に白色で示されており、値が「0から1までの中間値」の場合にハッチングで示されている。   In FIG. 4, “nose template T1” corresponding to the nose, “face line right template T2” corresponding to the right of the face line, and “face template corresponding to the left of the face line” An example in which the "line left side template T3" is also applied. In FIG. 4 and FIG. 5 to be described later, the template is shown as a closed area indicated by a broken line. Also, in these figures, the expression of the alpha value included in the template is shown in black when the value is “0”, in white when the value is “1”, and The case of “an intermediate value from 0 to 1” is indicated by hatching.

図4に示すように、鼻用テンプレートT1は、鼻全体を補正対象領域とすることにより、鼻全体を縮小するために用いられる。また、鼻用テンプレートT1は、特に鼻の中央部分の領域がより縮小されるようにアルファ値が「1」に設定され、鼻の輪郭外の領域は縮小されないようにアルファ値が「0」に設定され、鼻の輪郭内の輪郭周辺の部分は中央部分よりも縮小が抑えられるように「0から1までの中間値」が設定される。このような、鼻の中央に近づくにつれて補正度合いが段階的に変化するように設定されたアルファ値に基づいて、歪曲補正を行うことにより、より自然に鼻を縮小し、細顔とする効果が得られる。   As shown in FIG. 4, the nose template T1 is used to reduce the entire nose by setting the entire nose as a correction target area. The nose template T1 has an alpha value set to “1” so that the area in the center of the nose is particularly reduced, and has an alpha value set to “0” so that the area outside the contour of the nose is not reduced. The "intermediate value between 0 and 1" is set so that the portion around the contour within the contour of the nose is more suppressed than the central portion. By performing distortion correction based on the alpha value set so that the degree of correction gradually changes as it approaches the center of the nose, the effect of reducing the nose more naturally and making it a fine face can be achieved. can get.

また、図4に示すように、フェイスライン右側用テンプレートT2及びフェイスライン左側用テンプレートT3は、それぞれ左右のフェイスラインを補正対象領域とすることにより、左右の頬(特に、えら部分)のフェイスラインを縮小するために用いられる。フェイスライン右側用テンプレートT2及びフェイスライン左側用テンプレートT3は、左右の頬が均等に縮小するように、顔の中心線に対して左右対称な形状となっている。   Further, as shown in FIG. 4, the right face line template T2 and the left face line template T3 each use the left and right face lines as the correction target areas, thereby forming the face lines of the left and right cheeks (particularly, the gill part). Is used to reduce The right face line template T2 and the left face line template T3 are symmetrical with respect to the center line of the face so that the left and right cheeks are uniformly reduced.

また、フェイスライン右側用テンプレートT2及びフェイスライン左側用テンプレートT3は、特にフェイスラインの中央部分の領域がより縮小されるようにアルファ値が「1」に設定され、フェイスラインの輪郭外の領域は縮小されないようにアルファ値が「0」に設定され、フェイスラインの輪郭内の輪郭周辺の部分は中央部分よりも縮小が抑えられるように「0から1までの中間値」が設定される。このような、フェイスラインの中央に近づくにつれて補正度合いが段階的に変化するように設定されたアルファ値に基づいて、歪曲補正を行うことにより、より自然に左右のフェイスラインを縮小し、細顔とする効果が得られる。   In addition, the face line right side template T2 and the face line left side template T3 have an alpha value set to “1” so that the area of the center part of the face line is particularly reduced, and the area outside the outline of the face line is The alpha value is set to “0” so as not to be reduced, and the “intermediate value between 0 and 1” is set so that the portion around the contour within the contour of the face line is more reduced than the center portion. By performing distortion correction based on such an alpha value that is set so that the degree of correction gradually changes toward the center of the face line, the left and right face lines are reduced more naturally, Is obtained.

なお、テンプレートは、データ量削減のため、対称な形状を有するものについては1つのみ記憶しておき、使用する際に対称変換して使用することができる。例えば、左のフェイスラインに対応するテンプレートを記憶しておき、使用する際に左右反転を行うことにより対称変換して、右のフェイスラインに対応するテンプレートとして使用することができる。   In order to reduce the amount of data, only one template having a symmetric shape is stored, and the template can be symmetrically converted before use. For example, a template corresponding to the left face line is stored, and is symmetrically transformed by performing left-right inversion when used, and can be used as a template corresponding to the right face line.

[テンプレートの適合]
次に、顔検出部52及び適合位置特定部53により行われる、元画像に対するテンプレートの適合について説明する。図5は、元画像に対するテンプレートの適合について説明するための模式図である。図5では、画像取得部51が取得した元画像における鼻に対して、鼻用テンプレートT1を適合する場合を例に取って説明する。
[Conformance of template]
Next, the adaptation of the template to the original image performed by the face detection unit 52 and the adaptation position identification unit 53 will be described. FIG. 5 is a schematic diagram for explaining the adaptation of the template to the original image. FIG. 5 illustrates an example in which the nose template T1 is adapted to the nose in the original image acquired by the image acquisition unit 51.

テンプレートの適合を行う場合、図5(A)に示すように、顔検出部52は、元画像に対して、特徴点の検出を行う。具体的には、顔検出部52は、特徴点として、基点となる点と、輪郭点とを検出する。基点となる点は、例えば、図中の基点P11のような鼻の中央に対応する点である。また、輪郭点となる点は、例えば、図中の輪郭点P21と輪郭点P22のような鼻の上下両端に対応する点と、図中の輪郭点P31と輪郭点P32のような鼻の左右両端に対応する点である。
以下の図5(B)以降を参照して説明する適合に関する処理は、このように検出された各特徴点の元画像における座標に基づいて行われる。なお、顔検出部52による、顔検出及び各特徴点の検出は、既存の顔検出技術及び特徴点検出技術を用いることができる。
When matching the template, as shown in FIG. 5A, the face detection unit 52 detects a feature point on the original image. Specifically, the face detection unit 52 detects a point serving as a base point and a contour point as feature points. The base point is, for example, a point corresponding to the center of the nose, such as a base point P11 in the drawing. In addition, for example, points corresponding to the contour points P21 and P22 in the figure correspond to the upper and lower ends of the nose, and points corresponding to the left and right sides of the nose such as the contour points P31 and P32 in the figure. It is a point corresponding to both ends.
The processing related to the adaptation described with reference to FIG. 5B and thereafter is performed based on the coordinates of the thus detected feature points in the original image. Note that the face detection and the detection of each feature point by the face detection unit 52 can use an existing face detection technology and a feature point detection technology.

次に、図5(B)に示すように、適合位置特定部53は、基点に基づいてテンプレートの位置合わせを行う。具体的には、適合位置特定部53は、鼻用テンプレートT1の中央の座標と、基点P11の中央の座標を合わせることにより、テンプレートの位置合わせを行う。   Next, as shown in FIG. 5B, the conforming position specifying unit 53 performs position adjustment of the template based on the base point. Specifically, the matching position specifying unit 53 aligns the coordinates of the center of the nose template T1 with the coordinates of the center of the base point P11 to perform the template alignment.

次に、図5(C)に示すように、適合位置特定部53は、角度に基づいてテンプレートを回転させる。ここで角度は、図中に示すように、例えば、輪郭点P31と輪郭点P32を結ぶ直線と、X軸に平行な直線とのなす角度である角度A1を用いることができる。この角度A1は、鼻の傾きを示す角度であるので、適合位置特定部53は、鼻用テンプレートT1を、基点P11を回転中心として、角度A1と同じ角度だけ回転させることにより、テンプレートの角度を適合させることができる。   Next, as shown in FIG. 5C, the matching position specifying unit 53 rotates the template based on the angle. Here, as the angle, as shown in the drawing, for example, an angle A1 which is an angle formed between a straight line connecting the contour points P31 and P32 and a straight line parallel to the X axis can be used. Since the angle A1 is an angle indicating the inclination of the nose, the matching position specifying unit 53 rotates the nose template T1 by the same angle as the angle A1 around the base point P11 as a rotation center, thereby changing the angle of the template. Can be adapted.

最後に、図5(D)に示すように、適合位置特定部53は、輪郭点の位置に基づいてテンプレートを拡大又は縮小する。すなわち、テンプレートの大きさを適合させる。具体的には、適合位置特定部53は、鼻用テンプレートT1の両端が、輪郭点P31と輪郭点P32により示される鼻の両端と同じ大きさとなるように、鼻用テンプレートT1の形状を維持したまま鼻用テンプレートT1を拡大又は縮小する。なお、この場合に、適合位置特定部53は、鼻用テンプレートT1に含まれるアルファ値も変更することなく維持する。   Finally, as shown in FIG. 5D, the matching position specifying unit 53 enlarges or reduces the template based on the position of the contour point. That is, the size of the template is adapted. Specifically, the matching position specifying unit 53 maintains the shape of the nose template T1 such that both ends of the nose template T1 have the same size as both ends of the nose indicated by the contour points P31 and P32. The nose template T1 is enlarged or reduced as it is. In this case, the conforming position specifying unit 53 maintains the alpha value included in the nose template T1 without changing.

以上、図5(A)から図5(D)を参照して説明したようにして、元画像に対するテンプレートの適合を行うことができる。この適合は、上述したように、基点と、複数の輪郭点のみを検出することにより実現できる。すなわち、補正対象とする器官や部位の輪郭全体を精度高く特定する必要はない。つまり、本実施形態によれば、より簡略な方法にて補正処理を実現することができる。   As described above, the template can be adapted to the original image as described with reference to FIGS. 5A to 5D. This adaptation can be realized by detecting only the base point and a plurality of contour points, as described above. That is, it is not necessary to specify the entire contour of the organ or part to be corrected with high accuracy. That is, according to the present embodiment, the correction process can be realized by a simpler method.

また、テンプレートが複数存在する場合は、複数のテンプレートについて適合する座標を、複数のテンプレートそれぞれ毎に独立して特定する。従って、元画像において顔が横向きに近くなっていたり傾いていたりしており、フェイスラインの角度や大きさが対称でないような場合であっても、左右それぞれのフェイスラインに適合するようにテンプレートの角度や大きさを調整することができる。つまり、本実施形態によれば、顔の向きや大きさがそれぞれ異なる多様な元画像それぞれに対して、予め用意されている共通のテンプレートを適合させることができる。   Further, when there are a plurality of templates, coordinates suitable for the plurality of templates are specified independently for each of the plurality of templates. Therefore, even if the face in the original image is nearly horizontal or inclined, and the angle or size of the face line is not symmetric, the template is adjusted to fit the left and right face lines. The angle and size can be adjusted. That is, according to the present embodiment, a common template prepared in advance can be adapted to each of various original images having different face directions and sizes.

なお、上述の説明では、基点P11と、輪郭点P31及び輪郭点P32とを利用して適合を行ったが、これに限らず、他の輪郭点を用いて適合を行うことも可能である。この点については、変形例1として後述する。   In the above description, the adaptation is performed using the base point P11, the contour point P31, and the contour point P32. However, the present invention is not limited thereto, and the adaptation may be performed using another contour point. This point will be described later as a first modification.

[アルファマップの作成]
次に、アルファマップ作成部54により行われる、アルファマップの作成について説明をする。図6は、複数のテンプレートを用いたアルファマップの生成について説明するための模式図である。
図6(A)に示すように、アルファマップ作成部54は、適合位置特定部53により特定された、複数のテンプレートそれぞれに適合する座標を取得する。
[Create Alpha Map]
Next, creation of an alpha map performed by the alpha map creation unit 54 will be described. FIG. 6 is a schematic diagram for explaining generation of an alpha map using a plurality of templates.
As shown in FIG. 6A, the alpha map creating unit 54 acquires coordinates that are specified by the matching position specifying unit 53 and that are suitable for each of the plurality of templates.

図6(B)に示すように、アルファマップ作成部54は、複数のテンプレートそれぞれに適合する座標に基づいて、各テンプレートを、黒背景上の適合する座標上に配置する。なお、黒背景と元画像とは、同じ座標系を用いて管理される。   As shown in FIG. 6B, the alpha map creating unit 54 arranges each template on the matching coordinates on the black background based on the coordinates matching each of the plurality of templates. Note that the black background and the original image are managed using the same coordinate system.

図6(C)に示すように、アルファマップ作成部54により、全てのテンプレートが黒背景上に配置されることによって、アルファマップは作成される。   As shown in FIG. 6C, the alpha map is created by placing all templates on a black background by the alpha map creating unit 54.

[アルファマップに基づいた歪曲補正]
次に、歪曲補正処理部55により行われる、アルファマップに含まれるアルファ値に基づいた歪曲補正について説明をする。図2を参照して上述したように、本実施形態では、元画像に対して、アルファマップに含まれるアルファ値に基づいた歪曲補正を行う。
[Distortion correction based on alpha map]
Next, the distortion correction performed by the distortion correction processing unit 55 based on the alpha value included in the alpha map will be described. As described above with reference to FIG. 2, in the present embodiment, distortion correction is performed on the original image based on the alpha value included in the alpha map.

具体的には、歪曲補正処理部55は、まずアルファマップを用いることなく歪曲補正を行う場合における、歪曲補正後の座標を、元画像の全ての座標について算出する。例えば、顔全体の領域を対象として、顔が縮小するような歪曲補正後の座標を、元画像の全ての座標について算出する。なお、この歪曲補正後の座標の算出には、既存の歪曲補正技術を用いることができる。   Specifically, the distortion correction processing unit 55 first calculates the coordinates after the distortion correction when performing the distortion correction without using the alpha map for all the coordinates of the original image. For example, the coordinates after the distortion correction such that the face is reduced are calculated for all the coordinates of the original image for the entire face area. It should be noted that an existing distortion correction technique can be used to calculate the coordinates after the distortion correction.

これにより、元画像の全ての座標について、アルファマップを用いることなく歪曲補正を行う場合における歪曲補正後の座標(以下、「アルファマップ適用前座標」と称する。)が算出される。   As a result, the coordinates after the distortion correction (hereinafter, referred to as “the coordinates before applying the alpha map”) in the case where the distortion correction is performed without using the alpha map are calculated for all the coordinates of the original image.

次に、歪曲補正処理部55は、アルファマップを適用することにより、各座標における補正の度合いを修正する。具体的には、歪曲補正処理部55は、以下の<アルファマップ適用式>に基づいて、元画像の全ての座標について、アルファマップを適用した歪曲補正後の座標(以下、「アルファマップ適用後座標」と称する。)を算出する。   Next, the distortion correction processing unit 55 corrects the degree of correction at each coordinate by applying an alpha map. Specifically, based on the following <alpha map application formula>, the distortion correction processing unit 55 calculates, for all the coordinates of the original image, the coordinates after the distortion correction using the alpha map (hereinafter, “the coordinates after the alpha map is applied”). (Referred to as "coordinates").

<アルファマップ適用式>
(xout,yout)=(xin,yin)×(1−α)+(xdist,ydist)×α
但し、
(xin,yin):元画像の座標
(xout,yout):アルファマップ適用後座標
(xdist,ydist):アルファマップ適用前補正座標
であるものとする。また、αの値は、(0≦α≦1)の値をとるものとする。
<Alpha map application formula>
(X out , y out ) = (x in , y in ) × (1−α) + (x dist , y dist ) × α
However,
(X in , y in ): coordinates of the original image (x out , y out ): coordinates after alpha map application (x dist , y dist ): correction coordinates before alpha map application. Further, the value of α takes a value of (0 ≦ α ≦ 1).

そして、歪曲補正処理部55は、算出されたアルファマップ適用後座標に基づいた補正を行う。すなわち、元画像の各座標をアルファマップ適用後座標に移動させる。また、歪曲補正処理部55は、既存技術により、移動に伴い必要となる補完処理等を行う。   Then, the distortion correction processing unit 55 performs correction based on the calculated coordinates after application of the alpha map. That is, the coordinates of the original image are moved to the coordinates after the application of the alpha map. Further, the distortion correction processing unit 55 performs, for example, a supplementary process necessary for the movement using the existing technology.

これにより、アルファマップを適用した歪曲補正が実現される。このようにアルファマップを適用することにより、アルファマップにおける白色の座標(すなわち、アルファ値が「1」の座標)については、アルファマップ適用前補正座標そのものが適用された歪曲補正が行われる。また、アルファマップにおける中間色の座標(すなわち、アルファの値が「0<α<1」の座標)については、アルファマップ適用前補正座標がアルファ値に応じて適用された歪曲補正が行われる。更に、アルファマップにおける黒色の座標(すなわち、アルファ値が「0」の座標)については、アルファマップ適用前補正座標は適用されず、元画像の座標そのままとなる。
すなわち、上述した複数のテンプレートにおける補正度合いに対応した、局部的な歪曲補正が行われる。かかる歪曲補正が奏する効果について図7、図8及び図9を参照して説明する。
Thus, distortion correction using the alpha map is realized. By applying the alpha map in this manner, for white coordinates in the alpha map (that is, coordinates having an alpha value of “1”), distortion correction is performed using the correction coordinates before the alpha map is applied. Also, for the coordinates of the intermediate color in the alpha map (that is, the coordinates where the alpha value is “0 <α <1”), distortion correction is performed in which the correction coordinates before application of the alpha map are applied according to the alpha value. Further, for black coordinates in the alpha map (that is, coordinates having an alpha value of “0”), the correction coordinates before the application of the alpha map are not applied, and the coordinates of the original image remain unchanged.
That is, local distortion correction corresponding to the correction degree in the plurality of templates described above is performed. The effect of such distortion correction will be described with reference to FIGS. 7, 8, and 9. FIG.

図7に、歪曲補正を行う前の元画像の一例について示す。また、図8に、図7に図示した元画像を、従来技術(すなわち、アルファマップを利用しない歪曲補正)により補正した画像の一例について示す。更に、図9に、図7に図示した元画像を、上述した本実施形態におけるアルファマップを利用した歪曲補正により補正した画像の一例について示す。   FIG. 7 shows an example of an original image before performing distortion correction. FIG. 8 shows an example of an image obtained by correcting the original image shown in FIG. 7 by a conventional technique (that is, distortion correction without using an alpha map). Further, FIG. 9 shows an example of an image obtained by correcting the original image shown in FIG. 7 by the distortion correction using the alpha map in the present embodiment described above.

図7の元画像と、図8の従来技術により補正した画像を比較すると、従来技術では、アルファマップを利用しておらず、補正対象領域を顔全体として歪曲補正を行っているため、顔全体が均等に補正される。この場合、顔全体が縮小することから、相対的に頭が伸びてみえてしまう傾向がある。また、顎全体が均等に縮小することから顎を細くすることが困難である。そのため、従来技術では、ユーザが、補正後の画像に違和感を覚え、不自然と感じることがあった。   When the original image of FIG. 7 is compared with the image corrected by the conventional technology of FIG. 8, the conventional technology does not use the alpha map and performs the distortion correction on the correction target area as the entire face. Are evenly corrected. In this case, since the entire face is reduced, the head tends to be relatively elongated. Also, it is difficult to make the chin thin because the entire chin is uniformly reduced. Therefore, in the related art, the user may feel uncomfortable with the corrected image and feel unnatural.

これに対して、本実施形態では、上述した複数のテンプレートにおける補正度合いに対応した、局部的な歪曲補正が行われる。そのため、図7の元画像と、図9の本実施形態により補正した画像を比較すると、顔全体でなくテンプレートに対応する補正対象領域のみが縮小することから、相対的に頭が伸びてみえてしまうということが防止できる。また、顎全体ではなく、左右のフェイスラインに対応する補正対象領域のみが縮小することから、顎を細くすることができる。そのため、本実施形態によれば、ユーザの顔を違和感なく自然な細顔とすることができる。   On the other hand, in the present embodiment, local distortion correction is performed in accordance with the degrees of correction in the plurality of templates described above. Therefore, when the original image in FIG. 7 is compared with the image corrected according to the present embodiment in FIG. 9, only the correction target area corresponding to the template is reduced instead of the entire face, so that the head is relatively extended. Can be prevented. Also, not the entire jaw, but only the correction target area corresponding to the left and right face lines is reduced, so that the jaw can be made thinner. Therefore, according to the present embodiment, the user's face can be made a natural fine face without discomfort.

[動作]
図10は、図3の機能的構成を有する図1の撮像装置1が実行する細顔補正処理の流れを説明するフローチャートである。
細顔補正処理は、ユーザによる入力部17への細顔補正処理開始の操作により開始される。
細顔補正処理開始の操作は、撮影指示操作とすることが可能であり、この撮影指示操作に応じて撮像部16により撮像された画像を対象として、現像処理を行い、引き続き細顔補正処理を行うことができる。また、画像記憶部61に記憶されている撮像画像のデータを選択し、その選択された撮像画像のデータに対して、細顔補正処理開始の操作を行うこととしてもよい。
[motion]
FIG. 10 is a flowchart illustrating the flow of the fine face correction process performed by the imaging apparatus 1 of FIG. 1 having the functional configuration of FIG.
The fine face correction processing is started by an operation of the user to start the fine face correction processing on the input unit 17.
The operation of starting the fine face correction process can be a shooting instruction operation. The developing process is performed on the image captured by the imaging unit 16 in response to the shooting instruction operation, and the fine face correction process is subsequently performed. It can be carried out. Alternatively, the data of the captured image stored in the image storage unit 61 may be selected, and an operation of starting the fine face correction process may be performed on the data of the selected captured image.

ステップS11において、画像取得部51は、撮像部16により撮像された画像に現像処理が行われた撮像画像のデータ、或いは画像記憶部61から処理対象となる画像を取得する。   In step S <b> 11, the image acquiring unit 51 acquires data of a captured image in which the image captured by the imaging unit 16 has been subjected to development processing, or an image to be processed from the image storage unit 61.

ステップS12において、顔検出部52は、処理対象となる画像において顔検出を行い、顔が検出されたか否かを判定する。
顔が検出されなかった場合には、ステップS12においてNOと判定されて、細顔補正処理は終了する。
顔が検出された場合には、ステップS12においてYESと判定されて、処理はステップS13に進む。
In step S12, the face detection unit 52 performs face detection on the image to be processed, and determines whether a face has been detected.
If no face is detected, NO is determined in step S12, and the fine face correction process ends.
If a face is detected, YES is determined in step S12, and the process proceeds to step S13.

ステップS13において、顔検出部52は、テンプレートに対応する顔の所定の器官と所定の部位とを検出する。   In step S13, the face detection unit 52 detects a predetermined organ and a predetermined part of the face corresponding to the template.

ステップS14において、適合位置特定部53は、元画像における、テンプレートに適合する座標を特定する。   In step S14, the matching position specifying unit 53 specifies coordinates in the original image that match the template.

ステップS15において、アルファマップ作成部54は、テンプレートに適合する座標に基づいて、アルファマップを作成する。   In step S15, the alpha map creation unit 54 creates an alpha map based on coordinates that match the template.

ステップS16において、歪曲補正処理部55は、アルファマップを適用した歪曲補正を行う。
その後、細顔補正処理が終了する。
以上説明した動作により、図9を参照して上述したような、ユーザの顔を違和感なく自然な細顔とした画像が生成される。
In step S16, the distortion correction processing unit 55 performs distortion correction using an alpha map.
Then, the fine face correction processing ends.
By the operation described above, an image in which the user's face is a natural fine face without discomfort as described above with reference to FIG. 9 is generated.

以上のように構成される撮像装置1は、画像取得部51と、テンプレート記憶部62と、適合位置特定部53と、歪曲補正処理部55と、を有する。
画像取得部51は、所定の被写体が写った画像を取得する。
テンプレート記憶部62は、所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する。
適合位置特定部53は、画像内のテンプレートに適合する座標を特定する。
歪曲補正処理部55は、適合位置特定部53が特定した座標と、テンプレートに含まれる補正度合いとに基づいて、画像に対して補正を行う。
これにより、テンプレートを適合させることにより補正を実現できることから、器官や所定の部位の輪郭を精度高く検出する必要をなくすことができる。従って、より簡略な方法にて補正処理を実現することができる。更に、器官や所定の部位の輪郭を精度高く検出しない場合であっても、補正後の画像の品質をほぼ落すことなく補正を行うことができる。
また、補正対象領域以外に対しては不要な補正を行うことなく、テンプレートに対応する補正対象領域に対してのみ歪曲補正を行うことができる。また、一律な補正度合いによる歪曲補正ではなく、テンプレートに含まれる補正度合い応じた、器官や所定の部位それぞれ毎に適切な歪曲補正を行うことができる。
The imaging device 1 configured as described above includes an image acquisition unit 51, a template storage unit 62, a matching position specifying unit 53, and a distortion correction processing unit 55.
The image acquisition unit 51 acquires an image in which a predetermined subject is captured.
The template storage unit 62 stores a template including a correction degree at each position in a shape corresponding to a correction target area of a predetermined subject, the correction degree changing at each position.
The matching position specifying unit 53 specifies coordinates that match the template in the image.
The distortion correction processing unit 55 corrects the image based on the coordinates specified by the matching position specifying unit 53 and the correction degree included in the template.
Accordingly, since the correction can be realized by adapting the template, it is possible to eliminate the necessity of detecting the contour of the organ or the predetermined part with high accuracy. Therefore, the correction process can be realized by a simpler method. Further, even when the contour of an organ or a predetermined part is not detected with high accuracy, the correction can be performed without substantially lowering the quality of the corrected image.
Further, the distortion correction can be performed only on the correction target region corresponding to the template without performing unnecessary correction on the region other than the correction target region. In addition, it is possible to perform appropriate distortion correction for each organ or each predetermined part in accordance with the correction degree included in the template, instead of performing the distortion correction using a uniform correction degree.

適合位置特定部53は、
画像を解析することにより、所定の被写体の第1特徴点に対応する座標と、所定の被写体の第2特徴点に対応する座標とを検出し、
検出した第1特徴点の座標に基づいてテンプレートにおける基点に適合する座標を特定し、検出した第2特徴点の座標に基づいてテンプレートにおける輪郭に適合する座標を特定する。
これにより、特徴点のみを検出することにで、テンプレートに適合する座標を特定することができる。
The conforming position specifying unit 53
By analyzing the image, coordinates corresponding to a first feature point of a predetermined subject and coordinates corresponding to a second feature point of the predetermined subject are detected,
Based on the detected coordinates of the first feature point, coordinates that match the base point in the template are specified, and based on the coordinates of the detected second feature point, coordinates that match the contour in the template are specified.
Thus, by detecting only the feature points, it is possible to specify coordinates that match the template.

適合位置特定部53は、
第1特徴点の座標にテンプレートの基点を配置し、配置したテンプレートの基点を回転中心としてテンプレートを回転させることによりテンプレートに適合する座標を特定する。
これにより、各角度に応じた複数のテンプレートを用意することなく、顔の向きや大きさがそれぞれ異なる多様な元画像それぞれに対して、回転をするのみで、共通のテンプレートを適合させることができる。
The conforming position specifying unit 53
The base point of the template is arranged at the coordinates of the first feature point, and the template is rotated by using the base point of the arranged template as a rotation center to specify the coordinates that match the template.
This makes it possible to adapt a common template by simply rotating each of various original images having different face directions and sizes, without preparing a plurality of templates corresponding to each angle. .

適合位置特定部53は、
検出した第2特徴点の座標と、テンプレートにおける輪郭とに基づいて、テンプレートの輪郭の形状を維持した拡大又は縮小を行う。
これにより、大きさが異なる複数のテンプレートを用意することなく、顔の向きや大きさがそれぞれ異なる多様な元画像それぞれに対して、拡大又は縮小をするのみで、共通のテンプレートを適合させることができる。
The conforming position specifying unit 53
Based on the detected coordinates of the second feature point and the outline of the template, enlargement or reduction is performed while maintaining the outline shape of the template.
This makes it possible to adapt a common template only by enlarging or reducing various original images having different face directions and sizes without preparing a plurality of templates having different sizes. it can.

適合位置特定部53は、
テンプレートに含まれる補正度合いの変更は行わない。
これにより、元画像に含まれる所定の被写体の大きさによらず、テンプレートに対応した補正度合いで補正を行うことができる。
The conforming position specifying unit 53
The correction degree included in the template is not changed.
Thus, the correction can be performed at a correction degree corresponding to the template, regardless of the size of the predetermined subject included in the original image.

適合位置特定部53は、画像内における被写体の状態を特定し、該特定した被写体の状態に基づいて、テンプレートに含まれる補正度合いを修正する。
歪曲補正処理部55は、適合位置特定部53が修正した補正度合いと、適合位置特定部53が特定した座標とに基づいて画像に対して補正を行う。
これにより、被写体の状態に基づいて、より適切に修正された補正度合いに基づいて、歪曲補正を行なうことができる。例えば、顔が、顔の上下方向軸を中心として左右に回転する場合(すなわち、ヨーイングする場合)や、顔の左右方向軸を中心として上下に回転する場合(すなわち、ピッチングする場合)のそれぞれに対応して修正された補正度合いに基づいて、歪曲補正を行なうことができる。そのため、例えば、顔全体のバランスを考慮した歪曲補正を行なうことができる。
The matching position specifying unit 53 specifies the state of the subject in the image, and corrects the degree of correction included in the template based on the specified state of the subject.
The distortion correction processing unit 55 corrects the image based on the correction degree corrected by the conforming position specifying unit 53 and the coordinates specified by the conforming position specifying unit 53.
Thereby, distortion correction can be performed based on the correction degree more appropriately corrected based on the state of the subject. For example, when the face rotates left and right about the vertical axis of the face (that is, when yawing), and when the face rotates vertically about the horizontal axis of the face (that is, when pitching), Distortion correction can be performed based on the correction degree correspondingly corrected. Therefore, for example, distortion correction can be performed in consideration of the balance of the entire face.

適合位置特定部53は、画像内における被写体の第1領域の深度と、画像内における被写体の第2領域の深度との差分に基づいて、被写体の状態として被写体の傾き度合いを特定する。
これにより、深度情報という明確な指標に基づいて、被写体の傾き度合いを特定することができる。そのため、被写体の傾き度合いに応じた程度で、補正度合いを修正することができる。例えば、より傾いている場合には、より補正度合いを強くする(あるいは、弱くする)というように修正をすることができる。
The matching position specifying unit 53 specifies the degree of inclination of the subject as the state of the subject based on the difference between the depth of the first region of the subject in the image and the depth of the second region of the subject in the image.
Thereby, the degree of inclination of the subject can be specified based on a clear index called depth information. Therefore, the degree of correction can be corrected to an extent corresponding to the degree of inclination of the subject. For example, when the angle is more inclined, the correction can be made such that the degree of correction is increased (or weakened).

歪曲補正処理部55は、
画像に対する補正として、少なくとも、テンプレートに含まれる補正度合いに対応した補正度合いで、画像の座標を移動することにより歪曲補正を行う。
これにより、テンプレート対応した補正度合いで、違和感なく自然な歪曲補正により補正できる。
The distortion correction processing unit 55
As the correction for the image, the distortion correction is performed by moving the coordinates of the image with at least the correction degree corresponding to the correction degree included in the template.
Thus, it is possible to perform the natural distortion correction without any discomfort at the correction degree corresponding to the template.

テンプレート記憶部62は、複数の異なる補正対象領域それぞれに対応した複数のテンプレートを記憶しており、
適合位置特定部53は、複数のテンプレートについて適合する座標を、複数の前記テンプレートそれぞれ毎に独立して特定する。
これにより、顔の向きや大きさがそれぞれ異なる多様な元画像にそれぞれに対して、予め用意されている共通のテンプレートを適合させることができる。
The template storage unit 62 stores a plurality of templates corresponding to a plurality of different correction target areas, respectively.
The matching position specifying unit 53 specifies the coordinates that match the plurality of templates independently for each of the plurality of templates.
This makes it possible to adapt a common template prepared in advance to various original images having different face directions and sizes.

所定の被写体は顔であり、
補正対象領域は、顔の器官又は顔の部位である。
これにより、被写体の顔を違和感なく自然な細顔とすることができる。
The predetermined subject is a face,
The correction target area is a facial organ or a face part.
As a result, the face of the subject can be made a natural fine face without discomfort.

テンプレートは、当該テンプレートの輪郭内の輪郭周辺の部分が前記テンプレートの中央部分よりも補正の度合いが抑えられるように、前記補正の度合いが設定されている。
これにより、補正対象領域となる所定の器官の輪郭や所定の部位の輪郭と、テンプレートの輪郭とが、完全に適合しなかった場合であっても、輪郭周辺へ与える影響は少なく、全体として被写体を違和感なく自然に補正することができる。
The degree of correction of the template is set such that a part around the outline within the outline of the template has a lower degree of correction than a central part of the template.
Thus, even if the outline of a predetermined organ or a predetermined part serving as a correction target area and the outline of the template do not completely match, the influence on the periphery of the outline is small, and the object as a whole is Can be corrected naturally without discomfort.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。例えば、上述の実施形態を変形し、以下に例示するような変形例とすることができる。また、以下に例示するような変形例を組み合わせることもできる。   It should be noted that the present invention is not limited to the above-described embodiment, but includes modifications and improvements as long as the object of the present invention can be achieved. For example, the above-described embodiment may be modified to provide a modification as exemplified below. Further, modifications as exemplified below can be combined.

[変形例1]
図5を参照して上述した例では、適合位置特定部53は、基点P11と、輪郭点P31及び輪郭点P32とを利用して適合を行ったが、これに限らず、他の輪郭点を用いて適合を行うようにしてもよい。
例えば、輪郭点P31及び輪郭点P32に代えて、輪郭点P21及び輪郭点P22を用いて適合を行うようにしてもよい。この場合、例えば、図5(C)に示すように、テンプレートを回転させる場合に、輪郭点P21と輪郭点P22を結ぶ直線と、Y軸に平行な直線とのなす角度である角度(以下、「角度A2」と称する。)を、角度A1の代わりに用いるようにしてもよい。また、例えば、図5(D)に示すように、テンプレートを拡大又は縮小させる場合に、鼻用テンプレートT1の両端が、輪郭点P21と輪郭点P22により示される鼻の両端と同じ大きさとなるように、鼻用テンプレートT1の形状を維持したまま鼻用テンプレートT1を拡大又は縮小するようにしてもよい。
[Modification 1]
In the example described above with reference to FIG. 5, the matching position specifying unit 53 performs the matching using the base point P11, the contour point P31, and the contour point P32. However, the present invention is not limited to this. The adaptation may be performed by using this.
For example, the matching may be performed using the contour points P21 and P22 instead of the contour points P31 and P32. In this case, for example, as shown in FIG. 5C, when rotating the template, an angle (hereinafter, referred to as an angle) formed between a straight line connecting the contour points P21 and P22 and a straight line parallel to the Y-axis. "Angle A2") may be used instead of angle A1. Further, for example, as shown in FIG. 5D, when the template is enlarged or reduced, both ends of the nose template T1 are the same size as both ends of the nose indicated by the contour points P21 and P22. Alternatively, the nose template T1 may be enlarged or reduced while maintaining the shape of the nose template T1.

他にも、例えば、輪郭点P31及び輪郭点P32と共に、更に輪郭点P21及び輪郭点P22を用いて適合を行うようにしてもよい。例えば、図5(C)に示すように、テンプレートを回転させる場合に、角度A1が示す角度と、角度A2が示す角度を平均した角度に基づいて、テンプレートを回転させるようにしてもよい。また、例えば、図5(D)に示すように、テンプレートを拡大又は縮小させる場合に、鼻用テンプレートT1の両端と、輪郭点P21と輪郭点P22により示される鼻の両端との差分と、鼻用テンプレートT1の両端と、輪郭点P31と輪郭点P32により示される鼻の両端との差分との2つの差分の和が最小となるように、鼻用テンプレートT1の形状を維持したまま鼻用テンプレートT1を拡大又は縮小するようにしてもよい。   Alternatively, for example, the matching may be performed using the contour points P21 and P22 together with the contour points P31 and P32. For example, as shown in FIG. 5C, when rotating the template, the template may be rotated based on the average of the angle indicated by the angle A1 and the angle indicated by the angle A2. For example, as shown in FIG. 5D, when the template is enlarged or reduced, the difference between both ends of the nose template T1 and both ends of the nose indicated by the contour points P21 and P22, and the nose Of the nose template T1 while maintaining the shape of the nose template T1 such that the sum of two differences between both ends of the nose template T1 and the difference between the ends of the nose indicated by the contour points P31 and P32 is minimized. T1 may be enlarged or reduced.

他にも、例えば、元画像において、ユーザの鼻が傾いている可能性が低く、鼻の大きさが概ね想定できるような場合には、図5(C)に示すように、テンプレートを回転させる処理や、図5(D)に示すように、テンプレートを拡大又は縮小させる処理は省略するようにしてもよい。この場合には、基点P11のみを検出すればよく、各輪郭点を検出する必要をなくすことができる。   Alternatively, for example, in the case where the possibility that the user's nose is tilted in the original image is low and the size of the nose can be roughly assumed, the template is rotated as shown in FIG. The processing and the processing for enlarging or reducing the template as shown in FIG. 5D may be omitted. In this case, only the base point P11 needs to be detected, and it is not necessary to detect each contour point.

[変形例2]
上述した実施形態では、元画像全体に対応するアルファマップを作成し、元画像全体に対してアルファマップに含まれるアルファ値に基づいた歪曲補正を行っていた。これに限らず、トリミングを行うことにより、元画像を一部切り出して、この切り出した画像に対して歪曲補正を行うようにしてもよい。本変形例について、図11を参照して説明する。
[Modification 2]
In the above-described embodiment, the alpha map corresponding to the entire original image is created, and the distortion correction is performed on the entire original image based on the alpha value included in the alpha map. The present invention is not limited to this, and the original image may be partially cut out by performing trimming, and distortion correction may be performed on the cut out image. This modification will be described with reference to FIG.

まず、図11(A)に示すように、顔検出部52が、特徴点の検出結果に基づいて、元画像からテンプレートに対応する所定の器官と所定の部位を含む領域をトリミングにより、切り出す。   First, as shown in FIG. 11A, the face detecting unit 52 cuts out an area including a predetermined organ and a predetermined part corresponding to the template from the original image by trimming based on the detection result of the feature points.

次に、図11(B)に示すように、適合位置特定部53によるテンプレートの適合処理と、アルファマップ作成部54によるアルファマップの作成処理により、切り出した元画像に対応した、切り出した元画像用のアルファマップを作成する。   Next, as shown in FIG. 11B, the cut-out original image corresponding to the cut-out original image by the template matching process by the matching position specifying unit 53 and the alpha map creating process by the alpha map creating unit 54. Create an alpha map for

次に、図11(C)に示すように、歪曲補正処理部55により、切り出した元画像に対して、切り出した元画像用のアルファマップを用いて、歪曲補正を行う。
最後に、図11(D)に示すように、顔検出部52が、補正後の切り出した画像を、元画像に貼り付ける。
Next, as shown in FIG. 11C, the distortion correction processing unit 55 performs distortion correction on the cut out original image using the cut out original image alpha map.
Finally, as shown in FIG. 11D, the face detection unit 52 pastes the corrected cut-out image to the original image.

以上説明した処理によっても、上述した実施形態同様の補正を行うことができる。例えば、元画像からテンプレートに対応する所定の器官と所定の部位を含む領域をトリミングにより切り出す処理が容易にできる場合に、本変形例を適用するとよい。
このようにトリミングによる切り出しを行うことにより、適合位置特定部53によるテンプレートの適合処理において、テンプレートを適合させる候補となる座標の数を削減できる。そのため、適合処理での演算量を減少させることができる。また、このようにトリミングによる切り出しを行うことにより、歪曲補正処理部55による歪曲補正処理において、<アルファマップ適用式>によって、アルファマップ適用後座標を算出する対象の座標の数を削減できる。そのため、適合処理での演算量を減少させることができる。従って、細顔補正処理全体としての演算量を減少させることができる。
With the processing described above, the same correction as in the above-described embodiment can be performed. For example, the present modified example may be applied to a case where a process of trimming a region including a predetermined organ and a predetermined site corresponding to a template from an original image by trimming can be easily performed.
By performing the cutout by trimming in this manner, the number of candidate coordinates for matching the template can be reduced in the template matching process performed by the matching position specifying unit 53. Therefore, the amount of calculation in the adaptation process can be reduced. In addition, by performing the cutout by trimming in this manner, in the distortion correction processing by the distortion correction processing unit 55, the number of coordinates for which the coordinates after the alpha map is calculated can be reduced by the <alpha map application formula>. Therefore, the amount of calculation in the adaptation process can be reduced. Therefore, it is possible to reduce the amount of calculation as the whole fine face correction process.

[変形例3]
上述した実施形態では、ユーザの顔を対象として、アルファマップを用いた歪曲補正を行っていた。これに限らず、ユーザの顔以外の部分を対象としてアルファマップを用いた歪曲補正を行ってもよい。また、ユーザ以外の生物や、あるいは非生物を対象としてアルファマップを用いた歪曲補正を行ってもよい。すなわち、補正対象に応じたテンプレートを用意できるのであれば、どのような補正対象に対してアルファマップを用いた歪曲補正を行ってもよい。
[Modification 3]
In the above-described embodiment, the distortion correction using the alpha map is performed on the user's face. The present invention is not limited to this, and distortion correction using an alpha map may be performed on a portion other than the user's face. Also, distortion correction using an alpha map may be performed for living things other than the user or non-living things. That is, as long as a template corresponding to the correction target can be prepared, distortion correction using an alpha map may be performed on any correction target.

また、上述した実施形態では、アルファマップを用いた歪曲補正により、所定の器官や所定の部位を画像内で縮小していた。これに限らず、アルファマップを用いた歪曲補正により、所定の器官や所定の部位を画像内で拡大するようにしてもよい。例えば、ユーザの両眼に対応したテンプレートを用意しておき、アルファマップを用いた歪曲補正により、ユーザの両眼を拡大するようにしてもよい。   Further, in the above-described embodiment, a predetermined organ or a predetermined part is reduced in an image by distortion correction using an alpha map. The present invention is not limited to this, and a predetermined organ or a predetermined part may be enlarged in an image by distortion correction using an alpha map. For example, a template corresponding to both eyes of a user may be prepared, and both eyes of the user may be enlarged by distortion correction using an alpha map.

[変形例4]
上述した実施形態では、細顔補正処理において、元画像に対してテンプレートの適合を行った後に、テンプレートに含まれる、各位置の補正度合いを示す値であるアルファ値に基づいて歪曲補正を行っていた。これに限らず、テンプレートに含まれるアルファ値をユーザの状態等の所定の条件に基づいて修正し、修正後のアルファ値に基づいて歪曲補正を行ってもよい。例えば、元画像における、ユーザの顔の傾きの有無や傾き度合いに基づいて、テンプレートに含まれるアルファ値を修正し、修正後のアルファ値に基づいて歪曲補正を行ってもよい。このように、アルファ値の修正を行なう場合について、変形例4として以下説明する。
[Modification 4]
In the above-described embodiment, in the fine face correction processing, after the template is adapted to the original image, the distortion correction is performed based on the alpha value included in the template and indicating the degree of correction at each position. Was. However, the present invention is not limited thereto, and the alpha value included in the template may be corrected based on a predetermined condition such as the state of the user, and the distortion may be corrected based on the corrected alpha value. For example, the alpha value included in the template may be corrected based on the presence or absence and the degree of tilt of the user's face in the original image, and the distortion may be corrected based on the corrected alpha value. The case where the alpha value is corrected in this manner will be described below as a fourth modification.

<アルファ値の修正>
図12は、撮像装置1による、変形例4におけるアルファ値の修正を説明するための模式図である。図12においては、顔に含まれる所定の部位である左右のフェイスライン領域それぞれに対して、局所的な歪曲補正を行う例を示している。
<Correction of alpha value>
FIG. 12 is a schematic diagram for explaining correction of an alpha value in Modification 4 by the imaging device 1. FIG. 12 shows an example in which local distortion correction is performed on each of the left and right face line regions that are predetermined portions included in the face.

図12に元画像の例として元画像41を示す。本変形では、上述したように、ユーザの顔の傾きに基づいて、テンプレートに含まれるアルファ値を修正する。本変化例では、このユーザの顔の傾きを、ユーザの顔の所定領域における深度を示す深度情報(depth情報と称される場合もある。)に基づいて特定する。深度情報は、撮像時における、撮像装置1から被写体(ここでは、ユーザの顔)までの距離を示す情報である。深度情報は、例えば、撮像装置1に、赤外線により被写体までの距離を検出できる深度センサを搭載することにより取得することができる。他にも、深度情報は、撮像装置1を、三角測量の原理に基づいて被写体までの距離を検出できるステレオカメラにより実現することで取得することができる。   FIG. 12 shows an original image 41 as an example of the original image. In this modification, as described above, the alpha value included in the template is corrected based on the inclination of the user's face. In the present variation, the inclination of the user's face is specified based on depth information (also referred to as depth information) indicating the depth of the user's face in a predetermined area. The depth information is information indicating the distance from the imaging device 1 to the subject (here, the face of the user) at the time of imaging. The depth information can be obtained by, for example, mounting a depth sensor capable of detecting a distance to a subject by infrared rays on the imaging device 1. In addition, the depth information can be obtained by implementing the imaging device 1 with a stereo camera that can detect the distance to the subject based on the principle of triangulation.

また、本変形例では、顔が、顔の上下方向軸を中心として左右に回転する場合(すなわち、ヨーイングする場合)と、顔の左右方向軸を中心として上下に回転する場合(すなわち、ピッチングする場合)のそれぞれの場合における顔の傾き度合いを特定する。   Further, in this modification, the face rotates left and right about the vertical axis of the face (that is, yawing), and the face rotates vertically about the horizontal axis of the face (that is, pitches). In each case, the degree of inclination of the face is specified.

まず、顔の上下方向軸を中心として左右に回転する場合(すなわち、ヨーイングする場合)を例にとって説明をする。
本変形例では、画像解析による顔等の検出と共に、深度情報を取得する。そして、この深度情報に基づいて、図12に示す顔の上下軸方向42を中心として左右に回転するヨーイング43における傾き度合い(以下、「yaw方向傾き度合い」と称する。)を特定する。なお、これら上下軸方向42及びヨーイング43と、後述の左右軸方向44及びピッチング45は、実際に元画像41と共に表示される情報ではなく、説明の便宜のために図示している情報である。
First, a case where the face is rotated left and right about the vertical axis of the face (that is, a case where yawing is performed) will be described as an example.
In this modified example, depth information is obtained together with detection of a face or the like by image analysis. Then, based on the depth information, the degree of inclination (hereinafter, referred to as “yaw direction inclination degree”) of the yawing 43 that rotates left and right around the vertical axis direction 42 of the face shown in FIG. 12 is specified. Note that the vertical axis direction 42 and the yawing 43 and the horizontal axis direction 44 and the pitching 45 described later are not actually displayed together with the original image 41, but are information shown for convenience of explanation.

この傾き度合いの特定は、顔の所定の領域二箇所における深度情報の差分に基づいて算出することができる。この所定の領域は、yaw方向傾き度合いを算出可能な領域同士であれば、特に限定されない。以下では、一例として、yaw方向傾き度合いを、左の頬下の深度情報(depth値)と、右の頬下の深度情報(depth値)とに基づいて、以下の<yaw方向傾き度合い算出式>を用いて算出する。   The determination of the degree of inclination can be calculated based on the difference between the depth information in two predetermined areas of the face. The predetermined area is not particularly limited as long as it is an area where the degree of yaw tilt can be calculated. In the following, as an example, the inclination degree in the yaw direction is calculated based on the depth information (depth value) under the left cheek and the depth information (depth value) under the right cheek as follows: >.

<yaw方向傾き度合い算出式>
yaw=d_l−d_r
但し、
d_l:左の頬下のdepth値
d_r:右の頬下のdepth値
yaw:yaw方向の傾き度合い
であるものとする。
<Yaw direction inclination degree calculation formula>
yaw = d_l-d_r
However,
d_l: Depth value under the left cheek d_r: Depth value under the right cheek yaw: Degree of inclination in the yaw direction.

次に、このyaw方向の傾き度合いに基づいて、左右のフェイスライン領域それぞれに対応するテンプレートのアルファ値を修正する。この修正は、後段の歪曲補正を行った場合に、ユーザの顔のバランスが整うようにすることを目的として行われる。例えば、yaw方向の傾き度合いに基づいて、ユーザが左側(すなわち、画像を正対する観察者からは右側)を向いていると特定できる場合には、ユーザの左のフェイスラインの歪曲補正度合い(すなわち、アルファ値)を下げると共に、ユーザの右のフェイスラインの歪曲補正度合いを上げる。これにより、画像において手前側となるユーザの右のフェイスラインが、左のフェイスラインに比べて、より歪曲補正されるので、ユーザの右のフェイスラインが、より細顔になる。従って、ユーザの左右の顔のバランスが整う。   Next, based on the degree of inclination in the yaw direction, the alpha value of the template corresponding to each of the left and right face line regions is corrected. This correction is performed for the purpose of adjusting the balance of the user's face when performing the distortion correction at the subsequent stage. For example, if it can be specified that the user is facing left (that is, right from the viewer who faces the image) based on the degree of inclination in the yaw direction, the degree of distortion correction of the user's left face line (ie, , Alpha value) and increase the degree of distortion correction for the user's right face line. As a result, the right face line of the user who is on the near side in the image is corrected for distortion more than the left face line, so that the right face line of the user becomes a finer face. Therefore, the balance between the left and right faces of the user is adjusted.

そこで、本変形例では、このように歪曲補正がなされるように、アルファ値を修正する。そのために、テンプレート毎に、yaw方向の傾き度合いと、修正率との対応関係を予め設定しておく。この設定は、例えば、対応関係を示すテーブル形式で記憶されてもよいし、所定の関係式として記憶されてもよい。そして、yaw方向の傾き度合いを算出した場合に、このテーブルを参照したり、関係式を用いた演算を行なったりすることにより、対応する修正率を特定することができる。   Therefore, in the present modification, the alpha value is corrected so that the distortion correction is performed as described above. For this purpose, the correspondence between the degree of inclination in the yaw direction and the correction rate is set in advance for each template. This setting may be stored, for example, in a table format indicating the correspondence, or may be stored as a predetermined relational expression. Then, when the degree of inclination in the yaw direction is calculated, the corresponding correction rate can be specified by referring to this table or performing an operation using a relational expression.

このyaw方向の傾き度合いと、修正率との対応関係の一例を、図12にグラフとして示す。例えば、図12に示すフェイスライン右側用の補正率は、yaw方向傾き度合いが低いほど(すなわち、ユーザが右側を向いているほど)、低くなるように設定される。これに対して、図12に示すフェイスライン左側用の補正率は、yaw方向傾き度合いが高いほど(すなわち、ユーザが左側を向いているほど)、低くなるように設定される。このようにして、設定された対応関係に基づいて修正率を特定した後に、以下の<yaw方向補正度合い修正式>を用いることにより、修正後のアルファ値を算出することができる。   FIG. 12 is a graph showing an example of the correspondence between the degree of inclination in the yaw direction and the correction rate. For example, the correction rate for the right side of the face line illustrated in FIG. 12 is set to be lower as the degree of inclination in the yaw direction is lower (that is, as the user is facing the right side). On the other hand, the correction rate for the left face line shown in FIG. 12 is set to be lower as the degree of tilt in the yaw direction is higher (that is, as the user is facing the left side). In this way, after the correction rate is specified based on the set correspondence, the corrected alpha value can be calculated by using the following <yaw direction correction degree correction formula>.

<yaw方向補正度合い修正式>
修正後のアルファ値=α×修正率/100
<Yaw direction correction degree correction formula>
Alpha value after correction = α × correction rate / 100

このようにして、修正されたアルファ値に基づいて、元画像を歪曲補正することにより、上述したように、ユーザの左右の顔のバランスを整えるような補正を実現することができる。例えば、図12の元画像41では、ユーザが左側を向いている。この場合には、上述したアルファ値の修正により、「フェイスライン右側用(修正前)T2a」が「フェイスライン右側用(修正後)T2b」のように補正度合いが高くなるように修正される。また、上述したアルファ値の修正により、「フェイスライン左側用(修正前)T3a」が「フェイスライン左側用(修正後)T3b」のように補正度合いが低くなるように修正される。これにより、画像において手前側となるユーザの右のフェイスラインが、左のフェイスラインに比べて、より歪曲補正されるので、ユーザの右のフェイスラインが、より細顔になる。従って、ユーザの左右の顔のバランスが整う。   In this way, by correcting the distortion of the original image based on the corrected alpha value, it is possible to realize a correction that balances the left and right faces of the user as described above. For example, in the original image 41 of FIG. 12, the user is facing left. In this case, by the above-described correction of the alpha value, the correction is made such that the “face line right side (before correction) T2a” is corrected to a higher degree like “the face line right side (after correction) T2b”. In addition, by the above-described correction of the alpha value, the correction is performed such that “the left side of the face line (before correction) T3a” becomes a low correction level like “the left side of the face line (after correction) T3b”. As a result, the right face line of the user who is on the near side in the image is corrected for distortion more than the left face line, so that the right face line of the user becomes a finer face. Therefore, the balance between the left and right faces of the user is adjusted.

このようにして、yaw方向補正度合いに基づいてアルファ値を修正した後に、歪曲補正を行った場合の一例について図13を参照して説明する。図13は、細顔補正処理において、アルファ値を修正した後に、歪曲補正した画像の一例について示す模式図である。図13(B)に示すように、アルファ値の修正を行わず歪曲補正を行った場合は、顔が右側に向いているにも関わらず、顔が正面を向いている場合と同様に、顔の左右のフェイスラインが均等に補正される。そのため、左のフェイスラインが強調された画像となる。これに対して、図13(A)に示すように、上述したようにyaw方向補正度合いに基づいてアルファ値を修正した後に、歪曲補正を行った場合には、顔の右のフェイスラインの補正を抑え、顔の左のフェイスラインがより補正されるので、ユーザの右のフェイスラインが、より細顔になる。従って、ユーザの左右の顔のバランスが整う。   An example in which the distortion value is corrected after the alpha value is corrected based on the yaw direction correction degree in this manner will be described with reference to FIG. FIG. 13 is a schematic diagram illustrating an example of an image subjected to distortion correction after correcting an alpha value in the fine face correction processing. As shown in FIG. 13B, when the distortion correction is performed without correcting the alpha value, the face is turned to the right, but the face is turned to the front in the same manner as when the face is turned to the front. The left and right face lines are evenly corrected. Therefore, an image in which the left face line is emphasized is obtained. On the other hand, as shown in FIG. 13A, when the distortion value is corrected after the alpha value is corrected based on the yaw direction correction degree as described above, the correction of the right face line of the face is performed. , And the face line on the left side of the face is further corrected, so that the face line on the right side of the user becomes a finer face. Therefore, the balance between the left and right faces of the user is adjusted.

このようにして、本変形例では、例えば、ユーザのフェイスラインの輪郭等を検出するような煩雑な画像解析を行なうことなく、深度情報から傾き度合いを算出して、テンプレートを修正するのみで、ユーザの顔のバランスを整えるような補正を行なうことができる。つまり、本変形例においても、従来に比べて、より簡略な方法にて補正処理を実現することができる。   In this manner, in this modification, for example, without performing a complicated image analysis such as detecting the contour of the user's face line, the inclination is calculated from the depth information, and the template is simply corrected. Correction for adjusting the balance of the user's face can be performed. That is, also in this modified example, the correction processing can be realized by a simpler method than in the related art.

次に、上述した顔の上下方向軸を中心として左右に回転する場合(すなわち、ヨーイングする場合)におけるアルファ値の修正と同様にして行われる、顔の左右方向軸を中心として上下に回転する場合(すなわち、ピッチングする場合)におけるアルファ値の修正を例にとって説明をする。
この場合、画像解析による顔等の検出と共に、深度情報を取得する。そして、この深度情報に基づいて、図12に示す顔の左右軸方向44を中心として上下に回転するピッチング45における傾き度合い(以下、「pitch方向傾き度合い」と称する。)を特定する。この傾き度合いの特定は、上述したyaw方向傾き度合いと同様に、顔の所定の領域二箇所における深度情報の差分に基づいて算出することができる。この所定の領域は、pitch方向傾き度合いを算出可能な領域同士であれば、特に限定されない。以下では、一例として、pitch方向傾き度合いを、眉間の深度情報(depth値)と、上唇の深度情報(depth値)とに基づいて、以下の<pitch方向傾き度合い算出式>を用いて算出する。
Next, a case where the face is rotated up and down around the left-right axis of the face is performed in the same manner as the correction of the alpha value when the face is rotated left and right around the vertical axis of the face (that is, when yawing). A description will be given by taking as an example the correction of the alpha value in the case of pitching.
In this case, depth information is obtained together with the detection of a face or the like by image analysis. Then, based on the depth information, the degree of inclination (hereinafter, referred to as “pitch direction inclination degree”) in the pitching 45 that rotates vertically about the left-right axis direction 44 shown in FIG. 12 is specified. The specification of the degree of inclination can be calculated based on the difference between the depth information in two predetermined areas of the face, similarly to the degree of inclination in the yaw direction described above. The predetermined area is not particularly limited as long as it is an area where the degree of tilt in the pitch direction can be calculated. In the following, as an example, the pitch direction inclination degree is calculated using the following <pitch direction inclination degree calculation formula> based on the eyebrow depth information (depth value) and the upper lip depth information (depth value). .

<pitch方向傾き度合い算出式>
pitch=u_c−d_c
但し、
u_c:眉間のdepth値
d_c:上唇のdepth値
pitch:pitch方向の傾き度合い
であるものとする。
<Pitch direction inclination degree calculation formula>
pitch = u_c−d_c
However,
u_c: Depth value between eyebrows d_c: Depth value of upper lip pitch: Degree of inclination in the pitch direction.

次に、このpitch方向の傾き度合いに基づいて、顔の所定の領域それぞれに対応するテンプレートのアルファ値を修正する。例えば、ユーザの顎に対応するテンプレートのアルファ値や、ユーザの額に対応するテンプレートのアルファ値を修正する。この修正は、上述したyaw方向傾き度合いと同様に、後段の歪曲補正を行った場合に、ユーザの顔のバランスが整うようにすることを目的として行われる。   Next, based on the degree of inclination in the pitch direction, the alpha value of the template corresponding to each predetermined area of the face is corrected. For example, the alpha value of the template corresponding to the user's chin and the alpha value of the template corresponding to the user's forehead are corrected. This correction is performed for the purpose of adjusting the balance of the user's face when the distortion correction in the subsequent stage is performed, similarly to the above-described degree of tilt in the yaw direction.

例えば、pitch方向の傾き度合いに基づいて、ユーザが上側を向いていると特定できる場合には、ユーザの顎に対応するテンプレートの歪曲補正度合い(すなわち、アルファ値)を上げる。これにより、顎が前に出ているときは顎をより細くするように歪曲補正がなされるので、ユーザの顔のバランスが整う。これに対して、ユーザが下側を向いていると特定できる場合には、ユーザの顎に対応するテンプレートの歪曲補正度合いを下げる。これにより、顎を引いているときは顎が残るように歪曲補正がなされるので、この場合も、ユーザの顔のバランスが整う。   For example, when it is possible to specify that the user is facing upward based on the degree of inclination in the pitch direction, the degree of distortion correction (that is, the alpha value) of the template corresponding to the user's chin is increased. Thus, when the chin is forward, distortion correction is performed so as to make the chin thinner, so that the balance of the user's face is adjusted. On the other hand, if the user can be specified to face downward, the distortion correction degree of the template corresponding to the user's chin is reduced. Thereby, when the chin is being pulled, the distortion is corrected so that the chin remains, so that the balance of the user's face is adjusted in this case as well.

そこで、本変形例では、このように歪曲補正がなされるように、アルファ値を修正する。そのために、上述したyaw方向傾き度合いと同様に、テンプレート毎に、pitch方向の傾き度合いと、修正率との対応関係を予め設定しておく。例えば、顎のテンプレートの補正率は、pitch方向傾き度合いが低いほど(すなわち、ユーザが下側を向いているほど)、低くなるように設定される。これに対して、顎のテンプレートの補正率は、pitch方向傾き度合いが高いほど(すなわち、ユーザが上側を向いているほど)、高くなるように設定される。このようにして、設定された対応関係に基づいて修正率を特定した後に、以下の<pitch方向補正度合い修正式>を用いることにより、修正後のアルファ値を算出することができる。   Therefore, in the present modification, the alpha value is corrected so that the distortion correction is performed as described above. For this purpose, in the same manner as the above-described yaw-direction tilt degree, the correspondence between the pitch-direction tilt degree and the correction rate is set in advance for each template. For example, the correction rate of the chin template is set to be lower as the degree of tilt in the pitch direction is lower (that is, as the user is facing downward). On the other hand, the correction rate of the chin template is set to be higher as the degree of tilt in the pitch direction is higher (that is, as the user faces upward). After the correction rate is specified based on the set correspondence in this way, the corrected alpha value can be calculated by using the following <pitch direction correction degree correction formula>.

<pitch方向補正度合い修正式>
修正後のアルファ値=α×修正率/100
<Pitch direction correction degree correction formula>
Alpha value after correction = α × correction rate / 100

このようにして、pitch方向補正度合いに基づいてアルファ値を修正した場合にも、上述したyaw方向傾き度合いに基づいてアルファ値を修正した場合と同様に、ユーザの顔のバランスを整えるような補正を実現することができる。   In this way, even when the alpha value is corrected based on the pitch direction correction degree, similarly to the case where the alpha value is corrected based on the yaw direction inclination degree, correction that balances the face of the user is performed. Can be realized.

このようにして、pitch方向補正度合いに基づいてアルファ値を修正した後に、歪曲補正を行った場合の一例について図14及び図15を参照して説明する。図14及び図15は共に、細顔補正処理において、アルファ値を修正した後に、歪曲補正した画像の他の一例について示す模式図である。   An example in which distortion correction is performed after correcting the alpha value based on the pitch direction correction degree in this manner will be described with reference to FIGS. 14 and 15 are schematic diagrams illustrating another example of an image in which distortion has been corrected after the alpha value has been corrected in the fine face correction process.

図14(B)に示すように、アルファ値の修正を行わず歪曲補正を行った場合は、顔が下を向いており顎の面積が顔全体において相対的に小さくなっているにも関わらず、顔が正面を向いている場合と同様に顎が補正される。そのため、顎が残らない画像となる。これに対して、図14(A)に示すように、上述したようにpitch方向補正度合いに基づいてアルファ値を修正した後に、歪曲補正を行った場合には、顎の補正が抑えられるので、顔全体と顎とのバランスが整う。   As shown in FIG. 14B, when the distortion correction is performed without correcting the alpha value, the face is directed downward and the area of the chin is relatively small in the entire face. The chin is corrected in the same manner as when the face is facing the front. Therefore, the image has no jaw. On the other hand, as shown in FIG. 14A, when the distortion correction is performed after the alpha value is corrected based on the pitch direction correction degree as described above, the correction of the jaw is suppressed. The balance between the entire face and the chin is in place.

また、図15(B)に示すように、アルファ値の修正を行わず歪曲補正を行った場合は、顔が上を向いており顎の面積が顔全体において相対的に大きくなっているにも関わらず、顔が正面を向いている場合と同様に顎が補正される。そのため、顎が目立つ画像となる。これに対して、図15(A)に示すように、上述したようにpitch方向補正度合いに基づいてアルファ値を修正した後に、歪曲補正を行った場合には、顎がより補正されるので、顔全体と顎とのバランスが整う。   In addition, as shown in FIG. 15B, when the distortion correction is performed without correcting the alpha value, the face is facing upward and the area of the chin is relatively large in the entire face. Regardless, the chin is corrected as in the case where the face is facing front. Therefore, the image has a prominent jaw. On the other hand, as shown in FIG. 15A, when the distortion correction is performed after the alpha value is corrected based on the pitch direction correction degree as described above, the jaw is further corrected. The balance between the entire face and the chin is in place.

以上、本変形例におけるアルファ値の修正について説明した。なお、本変形例において、1つのテンプレートに対して、pitch方向補正度合いに基づいたアルファ値の修正と、yaw方向傾き度合いに基づいたアルファ値の修正の何れかを行ってもよいし、双方を行ってもよい。また、テンプレートごとにそれぞれ異なる方向の補正度合いに基づいたアルファ値の修正を行ってもよい。   The modification of the alpha value in the present modification has been described above. In this modification, either one of the correction of the alpha value based on the pitch direction correction degree and the correction of the alpha value based on the yaw direction inclination degree may be performed on one template. May go. Further, the alpha value may be corrected based on the correction degree in a different direction for each template.

<変形例4の動作>
図16は、図3の機能的構成を有する図1の撮像装置1が実行する、本変形例における細顔補正処理の流れを説明するフローチャートである。なお、本変形例における機能ブロックは、図3を参照して上述した機能ブロックと基本的に同様である。ただし、以下の動作を行なうための機能を更に備えている。
<Operation of Modification 4>
FIG. 16 is a flowchart illustrating a flow of the fine face correction process in the present modification, which is executed by the imaging device 1 of FIG. 1 having the functional configuration of FIG. Note that the functional blocks in this modification are basically the same as the functional blocks described above with reference to FIG. However, a function for performing the following operation is further provided.

ステップS11において、画像取得部51は、撮像部16により撮像された画像に現像処理が行われた撮像画像のデータ、或いは画像記憶部61から処理対象となる画像を取得する。この際に、本変形例では、画像取得部51は、元画像と共に、この元画像に対応する深度情報の取得も行なう。   In step S <b> 11, the image acquiring unit 51 acquires data of a captured image in which the image captured by the imaging unit 16 has been subjected to development processing, or an image to be processed from the image storage unit 61. At this time, in the present modification, the image acquisition unit 51 acquires the depth information corresponding to the original image together with the original image.

ステップS12において、顔検出部52は、処理対象となる画像において顔検出を行い、顔が検出されたか否かを判定する。
顔が検出されなかった場合には、ステップS12においてNOと判定されて、細顔補正処理は終了する。
顔が検出された場合には、ステップS12においてYESと判定されて、処理はステップS13に進む。
In step S12, the face detection unit 52 performs face detection on the image to be processed, and determines whether a face has been detected.
If no face is detected, NO is determined in step S12, and the fine face correction process ends.
If a face is detected, YES is determined in step S12, and the process proceeds to step S13.

ステップS13において、顔検出部52は、テンプレートに対応する顔の所定の器官と所定の部位とを検出する。この際に、本変形例では、顔検出部52は、検出した所定の器官や所定の部位(例えば、上述した、左の頬下や、右の頬下や、眉間や、上唇)の深度情報の検出も行なう。   In step S13, the face detection unit 52 detects a predetermined organ and a predetermined part of the face corresponding to the template. At this time, in the present modification, the face detection unit 52 detects the depth information of the detected predetermined organ or predetermined site (for example, the above-mentioned left cheek, right cheek, eyebrows, upper lip). Is also detected.

ステップS14において、適合位置特定部53は、元画像における、テンプレートに適合する座標を特定する。   In step S14, the matching position specifying unit 53 specifies coordinates in the original image that match the template.

ステップS21において、適合位置特定部53は、顔検出部52が検出した所定の器官や所定の部位の深度情報に基づいて、上述した<アルファ値の修正>のようにして、傾き度合いを特定する。   In step S <b> 21, the matching position specifying unit 53 specifies the degree of inclination based on the depth information of the predetermined organ or the predetermined part detected by the face detection unit 52, as in the <correction of the alpha value> described above. .

ステップS22において、適合位置特定部53は、ステップS21において特定された傾き度合いに基づいて、上述した<アルファ値の修正>のようにして、各テンプレートのアルファ値を修正する。   In step S22, the matching position specifying unit 53 corrects the alpha value of each template based on the degree of inclination specified in step S21, as described above <correction of alpha value>.

ステップS15において、アルファマップ作成部54は、ステップS22において修正後のアルファ値と、テンプレートに適合する座標に基づいて、アルファマップを作成する。   In step S15, the alpha map creation unit 54 creates an alpha map based on the alpha value corrected in step S22 and coordinates that match the template.

ステップS16において、歪曲補正処理部55は、アルファマップを適用した歪曲補正を行う。
その後、細顔補正処理が終了する。
In step S16, the distortion correction processing unit 55 performs distortion correction using an alpha map.
Then, the fine face correction processing ends.

以上説明した動作により、図13、図14、及び図15を参照して上述したような、ユーザの顔のバランスが整った画像が生成される。
このようにして、本変形例では、例えば、ユーザのフェイスラインの輪郭等を検出するような煩雑な画像解析を行なうことなく、深度情報から傾き度合いを算出して、テンプレートを修正するのみで、ユーザの顔のバランスを整えるような補正を行なうことができる。つまり、本変形例においても、従来に比べて、より簡略な方法にて補正処理を実現することができる。
By the operation described above, an image in which the user's face is balanced as described above with reference to FIGS. 13, 14, and 15 is generated.
In this manner, in this modification, for example, without performing a complicated image analysis such as detecting the contour of the user's face line, the inclination is calculated from the depth information, and the template is simply corrected. Correction for adjusting the balance of the user's face can be performed. That is, also in this modified example, the correction processing can be realized by a simpler method than in the related art.

[他の変形例]
また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、画像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
[Other Modifications]
Further, in the above-described embodiment, the imaging device 1 to which the present invention is applied has been described by taking a digital camera as an example, but is not particularly limited to this.
For example, the present invention can be applied to general electronic devices having an image processing function. Specifically, for example, the present invention is applicable to notebook personal computers, printers, television receivers, video cameras, portable navigation devices, mobile phones, smartphones, portable game machines, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
The above-described series of processing can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 3 is merely an example, and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the series of processes described above as a whole, and what kind of functional block is used to realize this function is not particularly limited to the example of FIG.
Further, one functional block may be constituted by hardware alone, may be constituted by software alone, or may be constituted by a combination thereof.
The functional configuration in the present embodiment is realized by a processor that executes arithmetic processing, and the processor that can be used in the present embodiment includes single processing units, multiprocessors, and various processing units such as multicore processors. In addition to the above, a combination of these various processing apparatuses and processing circuits such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field-Programmable Gate Array) is included.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed in a computer or the like from a network or a recording medium.
The computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer that can execute various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。   A recording medium including such a program is constituted not only by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body to provide the program to the user, but also It is composed of a recording medium or the like provided to the user. The removable medium 31 is configured by, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Only Memory), a DVD (Digital Versatile Disk), a Blu-ray (registered trademark) Disc (Blu-ray Disc), and the like. The magneto-optical disk is composed of an MD (Mini-Disk) or the like. The recording medium provided to the user in a state in which the program is incorporated in the apparatus main body in advance includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 19 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In this specification, the steps of describing a program recorded on a recording medium include, in addition to the processing performed in chronological order according to the order, the processing is not necessarily performed in chronological order. This includes the processing to be executed.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although some embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and various changes such as omissions and substitutions can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are also included in the invention described in the claims and the equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
所定の被写体が写った画像を取得する取得手段と、
前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶手段と、
前記画像内の前記テンプレートに適合する座標を特定する特定手段と、
前記特定手段が特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正手段と、
を有することを特徴とする画像処理装置。
[付記2]
前記特定手段は、
前記画像を解析することにより、前記所定の被写体の第1特徴点に対応する座標と、前記所定の被写体の第2特徴点に対応する座標とを検出し、
前記検出した第1特徴点の座標に基づいて前記テンプレートにおける基点に適合する座標を特定し、前記検出した第2特徴点の座標に基づいて前記テンプレートにおける輪郭に適合する座標を特定する、
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記特定手段は、
前記第1特徴点の座標に前記テンプレートの基点を配置し、配置した前記テンプレートの前記基点を回転中心として前記テンプレートを回転させることにより前記テンプレートに適合する座標を特定する、
ことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記特定手段は、
前記検出した第2特徴点の座標と、前記テンプレートにおける輪郭とに基づいて、前記テンプレートの輪郭の形状を維持した拡大又は縮小を行う、
ことを特徴とする付記2又は3に記載の画像処理装置。
[付記5]
前記特定手段は、
前記テンプレートに含まれる補正度合いの変更は行わない、
ことを特徴とする付記4に記載の画像処理装置。
[付記6]
前記特定手段は、前記画像内における前記被写体の状態を特定し、該特定した前記被写体の状態に基づいて、前記テンプレートに含まれる補正度合いを修正し、
前記補正手段は、前記特定手段が修正した補正度合いと、前記特定手段が特定した座標とに基づいて前記画像に対して補正を行う、
ことを特徴とする付記1乃至4の何れか1に記載の画像処理装置。
[付記7]
前記特定手段は、前記画像内における前記被写体の第1領域の深度と、前記画像内における前記被写体の第2領域の深度との差分に基づいて、前記被写体の状態として前記被写体の傾き度合いを特定する、
ことを特徴とする付記6に記載の画像処理装置。
[付記8]
前記補正手段は、
前記画像に対する補正として、少なくとも、前記テンプレートに含まれる補正度合いに対応した補正度合いで、前記画像の座標を移動することにより歪曲補正を行う、
ことを特徴とする付記1乃至7の何れか1に記載の画像処理装置。
[付記9]
前記記憶手段は、複数の異なる補正対象領域それぞれに対応した複数の前記テンプレートを記憶しており、
前記特定手段は、複数の前記テンプレートについて適合する座標を、複数の前記テンプレートそれぞれ毎に独立して特定する、
ことを特徴とする付記1乃至8の何れか1に記載の画像処理装置。
[付記10]
前記所定の被写体は顔であり、
前記補正対象領域は、顔の器官又は顔の部位である、
ことを特徴とする付記1乃至9の何れか1に記載の画像処理装置。
[付記11]
前記テンプレートは、当該テンプレートの輪郭内の輪郭周辺の部分が前記テンプレートの中央部分よりも補正の度合いが抑えられるように、前記補正の度合いが設定されていることを特徴とする付記1乃至10の何れか1に記載の画像処理装置。
[付記12]
所定の被写体が写った画像を取得する取得ステップと、
前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶ステップと、
前記画像内の前記テンプレートに適合する座標を特定する特定ステップと、
前記特定ステップにおいて特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正ステップと、
を有することを特徴とする画像処理方法。
[付記13]
コンピュータに、
所定の被写体が写った画像を取得する取得機能と、
前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶機能と、
前記画像内の前記テンプレートに適合する座標を特定する特定機能と、
前記特定機能が特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正機能と、
を実現させることを特徴とする画像処理プログラム。
Hereinafter, the invention described in the claims at the time of filing the application of the present application is additionally described.
[Appendix 1]
Acquiring means for acquiring an image of a predetermined subject,
Storage means for storing a template including a correction degree of each position in the shape corresponding to the correction target region of the predetermined subject, the correction degree changing at each position;
Specifying means for specifying coordinates that match the template in the image,
Correction means for correcting the image based on the coordinates specified by the specifying means and the correction degree included in the template;
An image processing apparatus comprising:
[Appendix 2]
The specifying means includes:
By analyzing the image, coordinates corresponding to a first feature point of the predetermined subject and coordinates corresponding to a second feature point of the predetermined subject are detected,
Identifying coordinates that match the base point in the template based on the coordinates of the detected first feature point, and identifying coordinates that match the contour in the template based on the coordinates of the detected second feature point;
2. The image processing apparatus according to claim 1, wherein
[Appendix 3]
The specifying means includes:
Locating a base point of the template at the coordinates of the first feature point, and specifying coordinates that match the template by rotating the template with the base point of the placed template as a rotation center;
3. The image processing apparatus according to claim 2, wherein
[Appendix 4]
The specifying means includes:
Based on the coordinates of the detected second feature point and the contour in the template, perform enlargement or reduction while maintaining the contour shape of the template.
4. The image processing apparatus according to claim 2 or 3, wherein
[Appendix 5]
The specifying means includes:
The correction degree included in the template is not changed,
4. The image processing apparatus according to claim 4, wherein:
[Appendix 6]
The specifying means specifies the state of the subject in the image, based on the specified state of the subject, corrects the correction degree included in the template,
The correction unit corrects the image based on the correction degree corrected by the specifying unit and the coordinates specified by the specifying unit.
The image processing apparatus according to any one of supplementary notes 1 to 4, wherein:
[Appendix 7]
The specifying unit specifies a degree of inclination of the subject as the state of the subject based on a difference between a depth of the first region of the subject in the image and a depth of a second region of the subject in the image. Do
7. The image processing apparatus according to claim 6, wherein:
[Appendix 8]
The correction means,
As the correction for the image, at least, performing a distortion correction by moving the coordinates of the image at a correction degree corresponding to the correction degree included in the template,
8. The image processing apparatus according to any one of supplementary notes 1 to 7, wherein:
[Appendix 9]
The storage unit stores a plurality of templates corresponding to a plurality of different correction target areas,
The specifying means independently specifies coordinates suitable for the plurality of templates, for each of the plurality of templates,
The image processing apparatus according to any one of supplementary notes 1 to 8, wherein:
[Appendix 10]
The predetermined subject is a face,
The correction target area is a facial organ or a facial part,
The image processing device according to any one of supplementary notes 1 to 9, wherein:
[Supplementary Note 11]
The template according to claims 1 to 10, wherein the degree of correction is set such that a part around the contour within the outline of the template is less corrected than a center part of the template. An image processing device according to any one of the preceding claims.
[Supplementary Note 12]
An obtaining step of obtaining an image of a predetermined subject,
A storage step of storing a template that includes a correction degree of each position in the shape corresponding to the correction target area of the predetermined subject, the correction degree changing at each position;
An identifying step of identifying coordinates in the image that match the template;
A correction step of correcting the image based on the coordinates specified in the specifying step and a correction degree included in the template;
An image processing method comprising:
[Appendix 13]
On the computer,
An acquisition function for acquiring an image of a predetermined subject,
A storage function of storing a template that includes a correction degree of each position in the shape corresponding to the correction target area of the predetermined subject and includes a correction degree that changes at each position;
A specifying function of specifying coordinates that match the template in the image,
A correction function for performing correction on the image based on the coordinates specified by the specific function and a correction degree included in the template;
An image processing program for realizing:

1・・・撮像装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・通信部,21・・・ドライブ,22・・・照明部,31・・・リムーバブルメディア,51・・・画像取得部,52・・・顔検出部,53・・・適合位置特定部,54・・・アルファマップ作成部,55・・・歪曲補正処理部,61・・・画像記憶部,62・・・テンプレート記憶部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... I / O interface, 16 ... Imaging part, 17 ... Input unit, 18 output unit, 19 storage unit, 20 communication unit, 21 drive, 22 illumination unit, 31 removable media, 51 image acquisition , 52... Face detector, 53... Conforming position specifying unit, 54... Alpha map generator, 55... Distortion correction processing unit, 61. Memory

Claims (13)

所定の被写体が写った画像を取得する取得手段と、
前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶手段と、
前記画像内の前記テンプレートに適合する座標を特定する特定手段と、
前記特定手段が特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正手段と、
を有することを特徴とする画像処理装置。
Acquiring means for acquiring an image of a predetermined subject,
Storage means for storing a template including a correction degree of each position in the shape corresponding to the correction target region of the predetermined subject, the correction degree changing at each position;
Specifying means for specifying coordinates that match the template in the image,
Correction means for correcting the image based on the coordinates specified by the specifying means and the correction degree included in the template;
An image processing apparatus comprising:
前記特定手段は、
前記画像を解析することにより、前記所定の被写体の第1特徴点に対応する座標と、前記所定の被写体の第2特徴点に対応する座標とを検出し、
前記検出した第1特徴点の座標に基づいて前記テンプレートにおける基点に適合する座標を特定し、前記検出した第2特徴点の座標に基づいて前記テンプレートにおける輪郭に適合する座標を特定する、
ことを特徴とする請求項1に記載の画像処理装置。
The specifying means includes:
By analyzing the image, coordinates corresponding to a first feature point of the predetermined subject and coordinates corresponding to a second feature point of the predetermined subject are detected,
Identifying coordinates that match the base point in the template based on the coordinates of the detected first feature point, and identifying coordinates that match the contour in the template based on the coordinates of the detected second feature point;
The image processing apparatus according to claim 1, wherein:
前記特定手段は、
前記第1特徴点の座標に前記テンプレートの基点を配置し、配置した前記テンプレートの前記基点を回転中心として前記テンプレートを回転させることにより前記テンプレートに適合する座標を特定する、
ことを特徴とする請求項2に記載の画像処理装置。
The specifying means includes:
Locating a base point of the template at the coordinates of the first feature point, and specifying coordinates that match the template by rotating the template with the base point of the placed template as a rotation center;
The image processing apparatus according to claim 2, wherein:
前記特定手段は、
前記検出した第2特徴点の座標と、前記テンプレートにおける輪郭とに基づいて、前記テンプレートの輪郭の形状を維持した拡大又は縮小を行う、
ことを特徴とする請求項2又は3に記載の画像処理装置。
The specifying means includes:
Based on the coordinates of the detected second feature point and the contour in the template, perform enlargement or reduction while maintaining the contour shape of the template.
The image processing apparatus according to claim 2, wherein:
前記特定手段は、
前記テンプレートに含まれる補正度合いの変更は行わない、
ことを特徴とする請求項4に記載の画像処理装置。
The specifying means includes:
The correction degree included in the template is not changed,
The image processing apparatus according to claim 4, wherein:
前記特定手段は、前記画像内における前記被写体の状態を特定し、該特定した前記被写体の状態に基づいて、前記テンプレートに含まれる補正度合いを修正し、
前記補正手段は、前記特定手段が修正した補正度合いと、前記特定手段が特定した座標とに基づいて前記画像に対して補正を行う、
ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
The specifying means specifies the state of the subject in the image, based on the specified state of the subject, corrects the correction degree included in the template,
The correction unit corrects the image based on the correction degree corrected by the specifying unit and the coordinates specified by the specifying unit.
The image processing apparatus according to claim 1, wherein:
前記特定手段は、前記画像内における前記被写体の第1領域の深度と、前記画像内における前記被写体の第2領域の深度との差分に基づいて、前記被写体の状態として前記被写体の傾き度合いを特定する、
ことを特徴とする請求項6に記載の画像処理装置。
The specifying unit specifies a degree of inclination of the subject as the state of the subject based on a difference between a depth of the first region of the subject in the image and a depth of a second region of the subject in the image. Do
The image processing apparatus according to claim 6, wherein:
前記補正手段は、
前記画像に対する補正として、少なくとも、前記テンプレートに含まれる補正度合いに対応した補正度合いで、前記画像の座標を移動することにより歪曲補正を行う、
ことを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
The correction means,
As the correction for the image, at least, performing a distortion correction by moving the coordinates of the image at a correction degree corresponding to the correction degree included in the template,
The image processing apparatus according to claim 1, wherein:
前記記憶手段は、複数の異なる補正対象領域それぞれに対応した複数の前記テンプレートを記憶しており、
前記特定手段は、複数の前記テンプレートについて適合する座標を、複数の前記テンプレートそれぞれ毎に独立して特定する、
ことを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
The storage unit stores a plurality of templates corresponding to a plurality of different correction target areas,
The specifying means independently specifies coordinates suitable for the plurality of templates, for each of the plurality of templates,
The image processing apparatus according to claim 1, wherein:
前記所定の被写体は顔であり、
前記補正対象領域は、顔の器官又は顔の部位である、
ことを特徴とする請求項1乃至9の何れか1項に記載の画像処理装置。
The predetermined subject is a face,
The correction target area is a facial organ or a facial part,
The image processing apparatus according to claim 1, wherein:
前記テンプレートは、当該テンプレートの輪郭内の輪郭周辺の部分が前記テンプレートの中央部分よりも補正の度合いが抑えられるように、前記補正の度合いが設定されていることを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。   11. The degree of correction of the template is set such that a part around the contour within the outline of the template has a lower degree of correction than a central part of the template. The image processing device according to any one of claims 1 to 4. 所定の被写体が写った画像を取得する取得ステップと、
前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶ステップと、
前記画像内の前記テンプレートに適合する座標を特定する特定ステップと、
前記特定ステップにおいて特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正ステップと、
を有することを特徴とする画像処理方法。
An obtaining step of obtaining an image of a predetermined subject,
A storage step of storing a template that includes a correction degree of each position in the shape corresponding to the correction target area of the predetermined subject, the correction degree changing at each position;
An identifying step of identifying coordinates in the image that match the template;
A correction step of correcting the image based on the coordinates specified in the specifying step and a correction degree included in the template;
An image processing method comprising:
コンピュータに、
所定の被写体が写った画像を取得する取得機能と、
前記所定の被写体の補正対象領域に対応した形状内における各位置の補正度合いであって、各位置で変化する補正度合いを含むテンプレートを記憶する記憶機能と、
前記画像内の前記テンプレートに適合する座標を特定する特定機能と、
前記特定機能が特定した座標と、前記テンプレートに含まれる補正度合いとに基づいて、前記画像に対して補正を行う補正機能と、
を実現させることを特徴とする画像処理プログラム。
On the computer,
An acquisition function for acquiring an image of a predetermined subject,
A storage function of storing a template that includes a correction degree of each position in the shape corresponding to the correction target area of the predetermined subject and includes a correction degree that changes at each position;
A specifying function of specifying coordinates that match the template in the image,
A correction function for performing correction on the image based on the coordinates specified by the specific function and a correction degree included in the template;
An image processing program for realizing:
JP2018193195A 2018-06-15 2018-10-12 Image processing device, image processing method, and image processing program Active JP7110899B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/435,377 US11100615B2 (en) 2018-06-15 2019-06-07 Image processing device, image processing method, and image processing program
CN201910515934.1A CN110611762A (en) 2018-06-15 2019-06-14 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2022112099A JP7428208B2 (en) 2018-06-15 2022-07-13 Image processing device, image processing method, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018114952 2018-06-15
JP2018114952 2018-06-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022112099A Division JP7428208B2 (en) 2018-06-15 2022-07-13 Image processing device, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2019220130A true JP2019220130A (en) 2019-12-26
JP7110899B2 JP7110899B2 (en) 2022-08-02

Family

ID=69096821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018193195A Active JP7110899B2 (en) 2018-06-15 2018-10-12 Image processing device, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP7110899B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113129239A (en) * 2021-05-06 2021-07-16 上海联影医疗科技股份有限公司 Image correction method, image correction device, electronic equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318204A (en) * 2003-04-10 2004-11-11 Sony Corp Image processing device, image processing method, and photographing device
JP2007293649A (en) * 2006-04-26 2007-11-08 Megachips Lsi Solutions Inc Makeup assist device and eyebrow drawing assist device
JP2015011555A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2015106252A (en) * 2013-11-29 2015-06-08 シャープ株式会社 Face direction detection device and three-dimensional measurement device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318204A (en) * 2003-04-10 2004-11-11 Sony Corp Image processing device, image processing method, and photographing device
JP2007293649A (en) * 2006-04-26 2007-11-08 Megachips Lsi Solutions Inc Makeup assist device and eyebrow drawing assist device
JP2015011555A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2015106252A (en) * 2013-11-29 2015-06-08 シャープ株式会社 Face direction detection device and three-dimensional measurement device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MING XU ET AL: "Detecting head pose from stereo image sequence for active face recognition", PROCEEDINGS THIRD IEEE INTERNATIONAL CONFERENCE ON AUTOMATIC FACE AND GESTURE RECOGNITION, JPN7022002204, 16 April 1998 (1998-04-16), US, ISSN: 0004773045 *
大村 瑞穂 MIZUHO OHMURA: "Adaptive Table法を用いた高速なB−spline変換による小顔の自動生成 Fast B-spline", 電子情報通信学会技術研究報告 VOL.110 NO.28 IEICE TECHNICAL REPORT, JPN6022018618, 6 May 2010 (2010-05-06), JP, pages 7 - 12, ISSN: 0004773044 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113129239A (en) * 2021-05-06 2021-07-16 上海联影医疗科技股份有限公司 Image correction method, image correction device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP7110899B2 (en) 2022-08-02

Similar Documents

Publication Publication Date Title
CN110321768B (en) Arrangement for generating a head-related transfer function filter
US10885616B2 (en) Image processing apparatus, image processing method, and recording medium
WO2019072190A1 (en) Image processing method, electronic apparatus, and computer readable storage medium
JP5949331B2 (en) Image generating apparatus, image generating method, and program
US10891464B2 (en) Image processing apparatus, image processing method, and recording medium
JP2006311505A (en) Image processing system, image processing method, image processing program, image capturing apparatus, and image capturing method
JP6720882B2 (en) Image processing apparatus, image processing method and program
KR20200043432A (en) Technology for providing virtual lighting adjustments to image data
US20190108625A1 (en) Image processing apparatus, image processing method, and recording medium
US9652822B2 (en) Image correcting apparatus, image correcting method and computer readable recording medium recording program thereon
JP7114335B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM
JP2019220130A (en) Image processor, image-processing method, and image-processing program
US11100615B2 (en) Image processing device, image processing method, and image processing program
WO2021147650A1 (en) Photographing method and apparatus, storage medium, and electronic device
JP2015184701A (en) Image processing apparatus, image processing method, and program
JP7400196B2 (en) Electronic devices, image processing methods, and image processing programs
US11842467B2 (en) Image processing apparatus, image processing method and storage medium
JP2014155000A (en) Image processing apparatus, control method for the same, and control program
JP6908013B2 (en) Image processing equipment, image processing methods and programs
JP6070098B2 (en) Threshold setting device, threshold setting method and program
US20150381899A1 (en) Image processing apparatus and image processing method for synthesizing plurality of images
JP2023114304A (en) Information processing device, and control method and program thereof
KR20220050504A (en) Appratus and method for converting a facial images
JP2020074100A (en) Image processing device, image processing method, and program
JP2019179464A (en) Image processing device, control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220704

R150 Certificate of patent or registration of utility model

Ref document number: 7110899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150