JP2021026320A - Image processing device, control method thereof and program - Google Patents

Image processing device, control method thereof and program Download PDF

Info

Publication number
JP2021026320A
JP2021026320A JP2019141510A JP2019141510A JP2021026320A JP 2021026320 A JP2021026320 A JP 2021026320A JP 2019141510 A JP2019141510 A JP 2019141510A JP 2019141510 A JP2019141510 A JP 2019141510A JP 2021026320 A JP2021026320 A JP 2021026320A
Authority
JP
Japan
Prior art keywords
dimensional
dimensional model
processing
models
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019141510A
Other languages
Japanese (ja)
Inventor
遥平 豊原
Yohei TOYOHARA
遥平 豊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019141510A priority Critical patent/JP2021026320A/en
Publication of JP2021026320A publication Critical patent/JP2021026320A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

To solve such a problem that a reconstructed three-dimensional shape of a subject becomes unnatural when overlapping three-dimensional models with each other.SOLUTION: An image processing device comprises: detection means which detects a prescribed subject region from an input image; three-dimensional model acquisition means which acquires plural types of three-dimensional models being information obtained by modeling the three-dimensional shape of at least a portion of the prescribed subject region; three-dimensional model arrangement means which arranges the plural types of three-dimensional models acquired by the three-dimensional model acquisition means on the basis of a result of detection by the detection means; and blending processing means which performs blending processing on a boundary of the three-dimensional models when the plural types of three-dimensional models arranged by the three-dimensional model arrangement means overlap with each other. The plural types of three-dimensional models are associated with importance for each type. The blending processing means increases the processing amount of the blending processing as the importance associated with the three-dimensional model is low.SELECTED DRAWING: Figure 3

Description

本発明は、立体モデルを用いた画像処理に関するものである。 The present invention relates to image processing using a three-dimensional model.

従来、撮影後の画像中の被写体に対して、仮想的な光源からの光を照射し、リライティングを行う技術が知られている。これにより、ユーザーが被写体に任意の陰影の付与ができる。例えば、特許文献1では、被写体の特徴点を抽出し、それぞれの特徴点の立体形状を再現した立体モデルを当てはめることで被写体の立体形状を表現している。これにより、立体形状に基づいた仮想的な光源照射の影響を反映させることができる。 Conventionally, there is known a technique of irradiating a subject in an image after shooting with light from a virtual light source to rewrite the subject. As a result, the user can add an arbitrary shadow to the subject. For example, in Patent Document 1, the three-dimensional shape of the subject is expressed by extracting the feature points of the subject and applying a three-dimensional model that reproduces the three-dimensional shape of each feature point. As a result, the influence of virtual light source irradiation based on the three-dimensional shape can be reflected.

特開2006−163871号公報Japanese Unexamined Patent Publication No. 2006-163871

しかしながら、例えば被写体の器官ごとのモデルなど、複数の立体モデルを用いる場合、個々のモデルの精度のみならず、モデル同士の関係性を考慮する必要がある。例えば、モデル同士が重なるような場合、その境界の精度が問題となる場合がある。 However, when using a plurality of three-dimensional models such as a model for each organ of the subject, it is necessary to consider not only the accuracy of each model but also the relationship between the models. For example, when models overlap, the accuracy of the boundary may become a problem.

本発明に係る画像処理装置の1つは、入力画像から所定の被写体領域を検出する検出手段と、前記所定の被写体領域の少なくとも一部の立体形状をモデル化した情報である複数種類の立体モデルを取得する立体モデル取得手段と、前記立体モデル取得手段により取得された複数種類の立体モデルを、前記検出手段による検出の結果に基づいて配置する立体モデル配置手段と、前記立体モデル配置手段により配置される複数種類の立体モデルが互いに重なる場合、前記立体モデル同士の境界部になじませ処理をするなじませ処理手段とを有し、前記複数種類の立体モデルは、その種類ごとに重要度が関連付けされており、前記なじませ処理手段は、前記立体モデルに関連付けられた重要度が低い程、前記なじませ処理の処理量を大きくすることを特徴とする。 One of the image processing devices according to the present invention is a detection means for detecting a predetermined subject area from an input image, and a plurality of types of three-dimensional models which are information modeling at least a part of the three-dimensional shape of the predetermined subject area. A three-dimensional model acquisition means for acquiring a three-dimensional model, a three-dimensional model arrangement means for arranging a plurality of types of three-dimensional models acquired by the three-dimensional model acquisition means based on the result of detection by the detection means, and the three-dimensional model arrangement means. When a plurality of types of three-dimensional models are overlapped with each other, the three-dimensional models have a familiarization processing means for adapting to the boundary between the three-dimensional models, and the plurality of types of three-dimensional models are associated with importance for each type. The familiarization processing means is characterized in that the lower the importance associated with the three-dimensional model, the larger the processing amount of the familiarization processing.

本発明によれば、複数の立体モデルを用いる場合であっても、適切に立体形状を表現することができる。 According to the present invention, even when a plurality of three-dimensional models are used, the three-dimensional shape can be appropriately expressed.

本発明の実施形態に係るデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera which concerns on embodiment of this invention. 本発明の実施形態に係るデジタルカメラの画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing part of the digital camera which concerns on embodiment of this invention. 本発明の実施形態に係るリライティング処理部203の構成を示すブロック図である。It is a block diagram which shows the structure of the rewriting processing part 203 which concerns on embodiment of this invention. 本発明の第1の実施形態に係る被写体立体形状再現部302の構成を示すブロック図である。It is a block diagram which shows the structure of the subject three-dimensional shape reproduction part 302 which concerns on 1st Embodiment of this invention. 本発明の実施形態に係る重要度の特性を示す図である。It is a figure which shows the characteristic of the importance which concerns on embodiment of this invention. 本発明の実施形態に係る顔モデルの重畳のやり方を示す図である。It is a figure which shows the method of superimposing the face model which concerns on embodiment of this invention. 本発明の実施形態に係るリライティングによる反射成分の演算を示す図である。It is a figure which shows the calculation of the reflection component by rewriting which concerns on embodiment of this invention. 本発明の第2の実施形態に係る被写体立体形状再現部302の構成を示すブロック図である。It is a block diagram which shows the structure of the subject three-dimensional shape reproduction part 302 which concerns on 2nd Embodiment of this invention. 本発明の第2の実施形態に係る平坦度評価値の特性を示す図である。It is a figure which shows the characteristic of the flatness evaluation value which concerns on 2nd Embodiment of this invention.

<第1の実施形態>
以下、本発明の第1の実施形態について、図面を参照しながら説明する。
<First Embodiment>
Hereinafter, the first embodiment of the present invention will be described with reference to the drawings.

なお、本実施形態では画像処理装置の一例としてデジタルカメラを例に説明する。ただし、本発明はデジタルカメラに限定されるものではなく、例えばパーソナルコンピュータやサーバコンピュータ、いわゆるスマートフォンやタブレット端末といった携帯端末にも適用可能である。また、監視カメラや車載カメラ、産業用・工業用・医療用機器あるいはこれらを直接接続してまたはネットワークを介して制御するためのコンピュータ装置に適用することも可能である。 In this embodiment, a digital camera will be described as an example of the image processing device. However, the present invention is not limited to digital cameras, and can be applied to mobile terminals such as personal computers and server computers, so-called smartphones and tablet terminals. It can also be applied to surveillance cameras, in-vehicle cameras, industrial / industrial / medical devices, or computer devices for directly connecting or controlling them via a network.

図1は、本実施形態にかかるデジタルカメラの構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of a digital camera according to the present embodiment.

本実施形態におけるデジタルカメラは、光学系101、撮像素子102、A/D変換部103、画像処理部104、記録部105、制御部106、メモリ107、表示部109を備えている。光学系101にはフォーカスレンズや絞り、シャッターが含まれる。この光学系は、撮影時にはフォーカスレンズを駆動し被写体のピント合わせを行い、絞りやシャッターを制御することにより露光量の調節をする。撮像素子102は、光学系101において結像された被写体の光量を光電変換によって電気信号にするCCDやCMOS等の光電変換素子である。A/D変換部103では、入力された電気信号をデジタル化する。デジタル化された画像信号は画像処理部104で同時化処理、ホワイトバランス補正処理、合焦度算出処理、リライティング処理、ガンマ処理、などを行い、記録部107に出力される。記録部105は、画像処理部104から出力された画像情報をJPEG等の画像形式に変換し、記録する。制御部106は、本実施形態の撮像装置、画像処理装置全体の動作制御を行う。例えば、撮影直前の被写体の明るさから、光学系101で目標とする露光量を算出する。他にも、撮影した画像に基づいて所定の評価値を算出し、画像処理部104で行う画像処理のパラメータを決定する。メモリ107は、画像処理部104で用いる情報ならびに撮影時の設定や照明条件などが格納してあり、必要に応じて画像処理部104に出力する。操作部108は、ユーザーが撮像装置に対し操作指示を行う部分である。表示部109は、例えばカメラ背面に設置された液晶ディスプレイ等であり、撮影時の操作の補助を行うための画面や、記録部107に保存されている画像等を表示するものである。 The digital camera in this embodiment includes an optical system 101, an image sensor 102, an A / D conversion unit 103, an image processing unit 104, a recording unit 105, a control unit 106, a memory 107, and a display unit 109. The optical system 101 includes a focus lens, an aperture, and a shutter. This optical system drives the focus lens during shooting to focus the subject and adjusts the exposure amount by controlling the aperture and shutter. The image sensor 102 is a photoelectric conversion element such as a CCD or CMOS that converts the amount of light of a subject imaged in the optical system 101 into an electric signal by photoelectric conversion. The A / D conversion unit 103 digitizes the input electric signal. The digitized image signal is processed by the image processing unit 104 for simultaneous processing, white balance correction processing, focusing degree calculation processing, rewriting processing, gamma processing, and the like, and is output to the recording unit 107. The recording unit 105 converts the image information output from the image processing unit 104 into an image format such as JPEG and records it. The control unit 106 controls the operation of the entire imaging device and image processing device of the present embodiment. For example, the target exposure amount is calculated by the optical system 101 from the brightness of the subject immediately before shooting. In addition, a predetermined evaluation value is calculated based on the captured image, and the parameters of the image processing performed by the image processing unit 104 are determined. The memory 107 stores information used by the image processing unit 104, settings at the time of shooting, lighting conditions, and the like, and outputs the information to the image processing unit 104 as needed. The operation unit 108 is a portion where the user gives an operation instruction to the image pickup apparatus. The display unit 109 is, for example, a liquid crystal display installed on the back surface of the camera, and displays a screen for assisting an operation at the time of shooting, an image stored in the recording unit 107, or the like.

なお、本実施形態では制御部106の制御の下、画像処理部104が後述する画像処理を行う構成としたが、ハードウェアの構成は本実施形態には限定されない。例えば1つのハードウェアが入力信号またはプログラムに従って各種手段として機能してもよいし、複数のハードウェアが協働して1つの手段として機能する構成としてもよい。また、処理の一部をいわゆるソフトウェアプログラムに従う処理ではなく、回路を用いて実現してもよい。 In the present embodiment, the image processing unit 104 performs image processing described later under the control of the control unit 106, but the hardware configuration is not limited to this embodiment. For example, one piece of hardware may function as various means according to an input signal or a program, or a plurality of hardware may cooperate to function as one means. Further, a part of the processing may be realized by using a circuit instead of the processing according to the so-called software program.

また、表示部109や記録部105は必ずしもデジタルカメラ自身が有している必要はなく、外部ディスプレイや外部記録媒体を接続する構成としてもよい。デジタルカメラは少なくとも表示制御および記録制御を行う手段を有していれば足りる。 Further, the display unit 109 and the recording unit 105 do not necessarily have to be possessed by the digital camera itself, and may be configured to connect an external display or an external recording medium. It suffices that the digital camera has at least means for performing display control and recording control.

次に画像処理部104についての詳細な説明を、図2を用いて行う。 Next, a detailed description of the image processing unit 104 will be given with reference to FIG.

図2は本実施形態にかかる画像処理部104の構成を示すブロック図である。画像処理部104は、同時化処理部201、ホワイトバランス補正処理部202、リライティング処理部203、ガンマ処理部204を備えている。 FIG. 2 is a block diagram showing the configuration of the image processing unit 104 according to the present embodiment. The image processing unit 104 includes a simultaneous processing unit 201, a white balance correction processing unit 202, a rewriting processing unit 203, and a gamma processing unit 204.

画像処理部104の処理の流れについて説明する。まず、A/D変換部103で変換されたベイヤー配列の映像信号が、画像処理部104に入力される。画像処理部104に入映像信号は同時化処理部201に入力され、入力されたベイヤー配列のRGB信号に対して同時化処理を行い、色信号R、G、Bを生成する。生成したR、G、Bの色信号はホワイトバランス補正処理部202に入力され、制御部107が算出したホワイトバランスゲイン値に基づいてRGBの色信号にゲインをかけてホワイトバランスを調整する。ホワイトバランスが調整された色信号RGBはリライティング処理部203に出力される。リライティング処理部203では、ホワイトバランス補正処理部202から色信号RGBを受ける。前記色信号R、G、Bに対して、仮想光を照射した画像を生成する。リライティング処理の詳細は後で説明する。リライティング処理後の色信号R_out、G_out、B_outはガンマ処理部205に出力される。ガンマ処理部204はリライティング処理された信号R_out、G_out、B_outの入力に応じてガンマ処理を施し、ガンマ後の色信号Rg、Gg、Bgを記録部107に出力する。 The processing flow of the image processing unit 104 will be described. First, the video signal of the Bayer array converted by the A / D conversion unit 103 is input to the image processing unit 104. The input video signal to the image processing unit 104 is input to the simultaneous processing unit 201, and the input RGB signals of the Bayer array are subjected to simultaneous processing to generate color signals R, G, and B. The generated color signals of R, G, and B are input to the white balance correction processing unit 202, and the RGB color signal is gained based on the white balance gain value calculated by the control unit 107 to adjust the white balance. The color signal RGB whose white balance has been adjusted is output to the rewriting processing unit 203. The rewriting processing unit 203 receives the color signal RGB from the white balance correction processing unit 202. An image in which virtual light is applied to the color signals R, G, and B is generated. The details of the rewriting process will be described later. The color signals R_out, G_out, and B_out after the rewriting process are output to the gamma processing unit 205. The gamma processing unit 204 performs gamma processing in response to the input of the rewritten signals R_out, G_out, and B_out, and outputs the color signals Rg, Gg, and Bg after gamma to the recording unit 107.

続いて、リライティング処理部203の処理についての詳細な説明を、図3を用いて行う。 Subsequently, a detailed description of the processing of the rewriting processing unit 203 will be given with reference to FIG.

図3はリライティング処理部203の構成を示すブロック図である。リライティングは画像に対して仮想的な光源から発した光である仮想光を照射した効果を付与する、仮想ライティング処理の一種である。リライティング処理部203は、被写体検出用画像生成部301、被写体立体形状再現部302、仮想光源拡散反射成分算出部303、仮想光源付加処理部304を備える。 FIG. 3 is a block diagram showing the configuration of the rewriting processing unit 203. Rewriting is a type of virtual lighting process that imparts the effect of irradiating an image with virtual light, which is light emitted from a virtual light source. The rewriting processing unit 203 includes a subject detection image generation unit 301, a subject three-dimensional shape reproduction unit 302, a virtual light source diffuse reflection component calculation unit 303, and a virtual light source addition processing unit 304.

まずリライティング処理部203は、入力画像としてホワイトバランス補正処理部202から色信号R、G、Bの入力を受ける。 First, the rewriting processing unit 203 receives input of color signals R, G, and B from the white balance correction processing unit 202 as an input image.

被写体検出用画像生成部301は、ホワイトバランス補正処理部202から入力された色信号R、G、Bを、被写体立体形状再現部302を構成する被写体検出部の検出性能を保つための画像信号形式に変換する。被写体立体形状再現部302は画像信号がガンマ処理済みであることと、所定の画像サイズであることを満たす場合に検出性能が保たれる。そこで、被写体検出用画像生成部301は、ホワイトバランス補正処理部202から入力された色信号R、G、Bを取得し、色信号R、G、Bに対してガンマ処理とリサイズ処理をすることで被写体検出用信号Sを生成する。生成した被写体検出用信号Sを被写体立体形状再現部302に出力する。 The subject detection image generation unit 301 uses the color signals R, G, and B input from the white balance correction processing unit 202 as an image signal format for maintaining the detection performance of the subject detection unit that constitutes the subject stereoscopic shape reproduction unit 302. Convert to. The subject stereoscopic shape reproduction unit 302 maintains the detection performance when the image signal is gamma-processed and the predetermined image size is satisfied. Therefore, the subject detection image generation unit 301 acquires the color signals R, G, and B input from the white balance correction processing unit 202, and performs gamma processing and resizing processing on the color signals R, G, and B. Generates a subject detection signal S with. The generated subject detection signal S is output to the subject three-dimensional shape reproduction unit 302.

ここで、被写体検出用画像生成部301はガンマ処理とリサイズ処理をすることで被写体検出用信号Sを生成したが、被写体立体形状再現部302を構成する被写体検出部の検出性能を保つことを目的とした他の処理でもよい。 Here, the subject detection image generation unit 301 generates the subject detection signal S by performing gamma processing and resizing processing, but the purpose is to maintain the detection performance of the subject detection unit constituting the subject three-dimensional shape reproduction unit 302. Other processing may be used.

被写体立体形状再現部302は、被写体立体形状情報Pを算出する。被写体立体形状情報Pの求め方について、図4を用いて説明する。 The subject three-dimensional shape reproduction unit 302 calculates the subject three-dimensional shape information P. A method of obtaining the subject three-dimensional shape information P will be described with reference to FIG.

図4は被写体立体形状再現部302の構成を示すブロック図である。被写体立体形状再現部302は第一被写体検出部401、第二被写体検出部402、立体モデル取得部403、なじませ設定決定部404、立体モデル取得部405、なじませ設定決定部406、なじませ処理部407、位置合わせ処理部408、なじませ処理部409で構成される。なお本実施形態では、立体形状を再現したい被写体として、人物の顔を例に説明する。 FIG. 4 is a block diagram showing the configuration of the subject three-dimensional shape reproducing unit 302. The subject stereoscopic shape reproduction unit 302 includes a first subject detection unit 401, a second subject detection unit 402, a stereoscopic model acquisition unit 403, a familiarization setting determination unit 404, a stereoscopic model acquisition unit 405, a familiarization setting determination unit 406, and a familiarization processing. It is composed of a unit 407, an alignment processing unit 408, and a familiarization processing unit 409. In this embodiment, a person's face will be described as an example of a subject whose three-dimensional shape is desired to be reproduced.

まず、被写体検出用画像生成部301で生成された被写体検出用画像が、第一被写体検出部401、第二被写体検出部402に入力される。第一被写体検出部で検出する被写体は、第二被写体検出部で検出する被写体を構成する一部の被写体とする。本実施形態では、第二被写体検出部402は人物の顔を検出し、第一被写体検出部401は人物の顔の一部を構成する器官である、人物の鼻を検出するものとする。第一被写体検出部401、ならびに第二被写体検出部402はそれぞれ、検出した被写体の座標やサイズ、姿勢の情報を取得し、立体モデル取得部403、なじませ設定決定部404、立体モデル取得部405、なじませ設定決定部406に出力する。 First, the subject detection image generated by the subject detection image generation unit 301 is input to the first subject detection unit 401 and the second subject detection unit 402. The subject detected by the first subject detection unit is a part of the subject that constitutes the subject detected by the second subject detection unit. In the present embodiment, the second subject detection unit 402 detects the face of a person, and the first subject detection unit 401 detects the nose of a person, which is an organ forming a part of the face of the person. The first subject detection unit 401 and the second subject detection unit 402 acquire information on the coordinates, size, and posture of the detected subject, respectively, and the three-dimensional model acquisition unit 403, the familiarization setting determination unit 404, and the three-dimensional model acquisition unit 405. , Output to the familiar setting determination unit 406.

立体モデル取得部403、405はそれぞれ、第一被写体検出部401、ならびに第二被写体検出部402から入力された検出被写体の領域やサイズ、姿勢の検出結果に基づく情報から、記録部105またはメモリ107に予め格納された立体モデルから類似するものを選択し取得する。取得する立体モデルは、立体形状をモデル化したものであればよく、ある座標空間上での三次元頂点データの集合であるポリゴンモデルでも良いし、法線ベクトルを画素値としてレンダリングした画像データでもよい。立体モデルのポリゴン数やレンダリング画像の解像度は、モデルの種類ごとに独立したものを有する。つまり、本実施形態でいえば顔の立体モデルの解像度と鼻の立体モデルの解像度は別個に設定されている。これは、鼻のような起伏のある形状は立体モデルの精度によってリライティングの効果が大きく変化するため、顔全体に比べて解像度の高い立体モデルを用いることが望ましいからである。立体モデル取得部403は、人物の鼻の形状の立体モデルを取得し、そして、取得した立体モデルを位置合わせ重畳処理部408へ出力する。立体モデル取得部405は人物の顔のモデルを取得し、取得した立体モデルをなじませ処理部407に出力する。 The three-dimensional model acquisition units 403 and 405 are the recording unit 105 or the memory 107 from the information based on the detection results of the area, size, and posture of the detected subject input from the first subject detection unit 401 and the second subject detection unit 402, respectively. A similar model is selected and acquired from the three-dimensional models stored in advance in. The three-dimensional model to be acquired may be a polygon model that is a set of three-dimensional vertex data on a certain coordinate space, or image data rendered with a normal vector as a pixel value, as long as it is a model of a three-dimensional shape. Good. The number of polygons of the three-dimensional model and the resolution of the rendered image are independent for each model type. That is, in the present embodiment, the resolution of the three-dimensional model of the face and the resolution of the three-dimensional model of the nose are set separately. This is because the effect of rewriting changes greatly depending on the accuracy of the three-dimensional model for an undulating shape such as the nose, so it is desirable to use a three-dimensional model having a higher resolution than the entire face. The three-dimensional model acquisition unit 403 acquires a three-dimensional model of the shape of the nose of a person, and outputs the acquired three-dimensional model to the alignment processing unit 408. The three-dimensional model acquisition unit 405 acquires a model of a person's face, adapts the acquired three-dimensional model, and outputs the acquired three-dimensional model to the processing unit 407.

なじませ設定決定部404、406は、画像に対するなじませ処理(スムージング処理)に関するパラメータを決定する。なじませ処理については後で説明するが、例えば平滑化フィルタなどを画像に適用する処理を行う。被写体の立体形状に対してなじませ処理を行うことで、おおまかな立体形状の精度を保ちつつ、立体形状の検出失敗、そしてその誤った立体形状に基づく不自然な画像処理効果の発生を防ぐことができる。 The familiarization setting determination units 404 and 406 determine parameters related to the familiarization process (smoothing process) for the image. The acclimation process will be described later, but for example, a process of applying a smoothing filter or the like to an image is performed. By performing the fitting process on the three-dimensional shape of the subject, it is possible to prevent the failure to detect the three-dimensional shape and the occurrence of an unnatural image processing effect based on the wrong three-dimensional shape while maintaining the accuracy of the rough three-dimensional shape. Can be done.

なじませ設定決定部404、406はそれぞれ、第一被写体検出部401、第二被写体検出部402に関連する重要度と、検出被写体の領域・サイズ・姿勢に基づき、なじませ量SMOOTH_VALUEとなじませ領域SMOOTH_AREAを決定する。つまり、なじませ量はなじませ処理の強さを示す指標であり、なじませ量が大きいほど、スムージング処理量、つまり周辺画素とのなじませ度合いが大きい。また、なじませ領域は画像のうちどの領域をなじませ処理の対象とするかを示す。 The familiarization setting determination units 404 and 406 are based on the importance related to the first subject detection unit 401 and the second subject detection unit 402 and the area, size, and posture of the detected subject, respectively, and the familiarization amount SMOOTH_VALUE and the familiarization area. Determine SMOOTH_AREA. That is, the acclimation amount is an index showing the strength of the acclimation process, and the larger the acclimation amount, the larger the smoothing processing amount, that is, the degree of acclimation with the peripheral pixels. In addition, the blending region indicates which region of the image is to be blended.

まず、なじませ量SMOOTH_VALUEの決定方法について説明する。なじませ量SMOOTH_VALUEは式1に示す方法で決定する。
SMOOTH_VALUE
= STD_VALUE×SIZE_VALUE÷P_VALUE
・・・(式1)
First, a method for determining the familiar amount SMOOTH_VALUE will be described. The amount of acclimation SMOOTH_VALUE is determined by the method shown in Equation 1.
SMOOTH_VALUE
= STD_VALUE x SIZE_VALUE ÷ P_VALUE
... (Equation 1)

なおSTD_VALUEは予め設定された基準のなじませ量であり、P_VALUEは被写体の重要度である。式1は、被写体の重要度が高ければ高い程なじませ量が少なく、被写体のサイズが大きければ大きい程なじませ量が大きくなるような特性を持つ。 Note that STD_VALUE is a preset standard familiarization amount, and P_VALUE is the importance of the subject. Equation 1 has a characteristic that the higher the importance of the subject, the smaller the amount of fitting, and the larger the size of the subject, the larger the amount of fitting.

上記のように式1を定義することで、つぎの2つの効果が期待できる。1つは重要度P_VALUEが高い被写体は基準なじませ量に対しなじませ量を抑えることで、より精細な立体情報を保つ効果である。もう1つは被写体のサイズSIZE_VALUEが大きい場合に、基準なじませ量に対しなじませ量を上げることで、被写体に対してもともとの立体モデルのポリゴン数やレンダリング解像度が不足して悪目立ちすることを防ぐ効果である。 By defining Equation 1 as described above, the following two effects can be expected. One is the effect of maintaining finer stereoscopic information by suppressing the amount of familiarization for a subject having a high importance P_VALUE with respect to the standard amount of familiarization. The other is that when the size of the subject, SIZE_VALUE, is large, the number of polygons and the rendering resolution of the original 3D model are insufficient for the subject by increasing the amount of familiarization with respect to the standard amount of familiarization. It is an effect to prevent.

次になじませ領域の決定方法について説明する。検出した被写体に対して立体モデルを当てはめる(立体モデル配置処理)場合、被写体の検出精度によっては多少の当てはめ誤差が生じる。当てはめたモデルの輪郭線付近は誤差の影響が目立ちやすいため、撮影画像における被写体領域の輪郭線から予め定めた距離の範囲がなじませ領域として決定する。ここで、なじませ設定決定部404のように、なじませ設定決定部後段の位置合わせ重畳処理部408で複数のモデルを重畳したモデルに対してなじませ処理を行う場合、被写体の検出精度によっては見た目の重畳位置と異なる場所にモデルを重畳してしまう可能性がある。このような場合を考慮して、複数種類のモデル同士が重なり合う、境界部周辺の領域をなじませ領域としてもよい。また、なじませ領域は輪郭線の周辺領域としたが、輪郭抽出が困難である場合などは、モデル全体をなじませ領域として良い。 Next, a method of determining the familiarization area will be described. When a 3D model is applied to a detected subject (3D model placement processing), some fitting error may occur depending on the detection accuracy of the subject. Since the influence of the error is easily noticeable in the vicinity of the contour line of the fitted model, the range of a predetermined distance from the contour line of the subject area in the captured image is determined as the familiar area. Here, when fitting processing is performed on a model in which a plurality of models are superimposed by the alignment superimposition processing unit 408 in the subsequent stage of the familiarization setting determination unit as in the familiarization setting determination unit 404, depending on the detection accuracy of the subject. There is a possibility that the model will be superimposed on a position different from the apparent overlapping position. In consideration of such a case, the area around the boundary portion where a plurality of types of models overlap each other may be used as a familiar area. Further, the familiar area is set as the peripheral area of the contour line, but when it is difficult to extract the contour, the entire model may be used as the familiar area.

ここで、重要度について説明する。重要度は例えば1〜256の値を有し、被写体ごと(図4の例では顔と鼻)にユーザーが任意に設定することができる。あるいは、ユーザー操作により設定された被写体ごとの優先度(高/中/低など)に応じて、制御部106が所定の重要度を割り当ててもよい。 Here, the importance will be described. The importance has a value of, for example, 1 to 256, and can be arbitrarily set by the user for each subject (face and nose in the example of FIG. 4). Alternatively, the control unit 106 may assign a predetermined importance according to the priority (high / medium / low, etc.) for each subject set by the user operation.

また他の例として、立体モデルのポリゴン数、またはレンダリング済み法線画像の解像度、またはモデルに照射する仮想光源の向きに基づき決定してもよい。さらには、これらの項目に重みづけを行って加算することで、最終的な重要度を算出してもよい。以下、これらの例について説明する。 As another example, it may be determined based on the number of polygons in the 3D model, the resolution of the rendered normal image, or the orientation of the virtual light source illuminating the model. Furthermore, the final importance may be calculated by weighting and adding these items. Hereinafter, these examples will be described.

図5(a)は、立体モデルのポリゴン数に基づいて重要度を決定する場合に用いる特性である。横軸が立体モデルのポリゴン数、縦軸が重要度である。閾値Th_pは予め定めたポリゴン数の上限値であり、Th_pを超えるポリゴン数の立体モデルは常に最大値256をとる。 FIG. 5A is a characteristic used when determining the importance based on the number of polygons in the three-dimensional model. The horizontal axis is the number of polygons in the 3D model, and the vertical axis is the importance. The threshold Th_p is a predetermined upper limit of the number of polygons, and a three-dimensional model having a number of polygons exceeding Th_p always takes a maximum value of 256.

図5(b)は、立体モデルの法線解像度に基づいて重要度を決定する場合に用いる特性である。横軸が立体モデルの法線解像度、縦軸が重要度である。閾値Th_rは予め定めた法線画像解像度の上限値であり、Th_rを超える解像度の法線画像は常に最大値256をとる。 FIG. 5B is a characteristic used when determining the importance based on the normal resolution of the three-dimensional model. The horizontal axis is the normal resolution of the 3D model, and the vertical axis is the importance. The threshold value Th_r is an upper limit value of a predetermined normal image resolution, and a normal image having a resolution exceeding Th_r always takes a maximum value of 256.

図5(c)は、仮想光の照射方向と、立体モデルの代表法線のなす角に基づいて重要度を決定する場合に用いる特性である。なお本実施形態では、立体モデル内の最頻法線を立体モデルの代表法線をとする。横軸が仮想光の照射方向と代表法線のなす角、縦軸が重要度である。Th_aは予め定めたなす角の上限値であり、Th_aより小さいなす角の場合は常に最大値256をとる。ここで、なす角は−90度から90度の値をとるものとする。 FIG. 5C is a characteristic used when determining the importance based on the irradiation direction of the virtual light and the angle formed by the representative normal of the three-dimensional model. In the present embodiment, the mode normal in the three-dimensional model is the representative normal of the three-dimensional model. The horizontal axis is the angle formed by the irradiation direction of virtual light and the representative normal, and the vertical axis is the importance. Th_a is a predetermined upper limit of the formed angle, and when the angle is smaller than Th_a, the maximum value is always 256. Here, the angle to be formed shall take a value of −90 degrees to 90 degrees.

決定したなじませ設定はそれぞれ、なじませ処理部409、407に出力する。 The determined familiarization settings are output to the familiarization processing units 409 and 407, respectively.

なじませ処理部407、409はなじませ量算出部406、404で算出したなじませ量SMOOTH_VALUEに基づいて、立体モデルの奥行成分のなじませ処理を行う。なじませ処理部407は、検出した被写体の顔位置に顔モデルをあてはめ、顔の輪郭線まわりのなじませ処理を行う。そしてなじませ処理部409は、なじませ処理部407でなじませ処理を行った顔モデルに対し鼻モデルを重畳し、顔および鼻モデルの重畳領域とその輪郭線まわりになじませ処理を実施する。 The acclimation processing units 407 and 409 perform acclimation processing of the depth component of the three-dimensional model based on the acclimation amount SMOOTH_VALUE calculated by the acclimation amount calculation units 406 and 404. The familiarization processing unit 407 fits the face model to the detected face position of the subject, and performs the familiarization processing around the contour line of the face. Then, the acclimation processing unit 409 superimposes the nose model on the face model that has been acclimated by the acclimation processing unit 407, and performs the acclimation processing on the superimposed region of the face and the nose model and around the contour line thereof.

ここで、なじませ処理とは例えばぼかしや平滑化の効果を与える処理であり、本実施形態ではガウシアンフィルタのようなローパスフィルタ処理であり、なじませ量SMOOTH_VALUEが多い程、ローパスフィルタのタップ数を多くする。なじませ処理部407は、立体モデル取得部405で取得した立体モデルに対してなじませ処理を実施し、位置合わせ重畳処理部408になじませ後の立体モデルを出力する。 Here, the acclimation process is, for example, a process that gives the effect of blurring or smoothing. In the present embodiment, the acclimation process is a low-pass filter process such as a Gaussian filter. Do more. The familiarization processing unit 407 performs the familiarization processing on the three-dimensional model acquired by the three-dimensional model acquisition unit 405, and outputs the three-dimensional model after being familiarized with the alignment superimposition processing unit 408.

ここで、なじませ処理部407、709はなじませ量SMOOTH_VALUEに基づいてローパスフィルタのタップ数を制御するとしたが、SMOOTH_VALUEに基づいてなじませ処理の試行回数を制御しても良い。 Here, the acclimation processing units 407 and 709 control the number of taps of the low-pass filter based on the acclimation amount SMOOTH_VALUE, but the number of trials of the acclimation process may be controlled based on the acclimation amount SMOOTH_VALUE.

位置合わせ重畳処理部408は、立体モデル取得部403から入力された立体モデルと、なじませ処理部407から入力されたなじませ後立体モデルとを、それぞれに関連付けられた座標情報に基づいて位置合わせを行う。図6を用いて説明する。モデル同士の重畳に関する模式図であり、(a)は第一被写体の立体モデルである鼻のモデルを正面から見たもの、(b)は第二の立体モデルである顔のモデルを正面からみたもの、(c)はそれぞれを重畳したモデルを正面から見たものである。また、(a‘)(b‘)(c‘)はそれぞれを上面から見たものである。それぞれのモデルの座標を合わせることで重畳するが、(d)に示すように、カメラ100からは見えないモデルが存在する場合は、その部分を消去して一つのモデルとする。そして、重畳したモデルをなじませ処理部409に出力する。 The alignment superimposition processing unit 408 aligns the three-dimensional model input from the three-dimensional model acquisition unit 403 and the familiarized three-dimensional model input from the familiarization processing unit 407 based on the coordinate information associated with each. I do. This will be described with reference to FIG. It is a schematic diagram about superimposition of models, (a) is a front view of a nose model which is a three-dimensional model of the first subject, and (b) is a front view of a face model which is a second three-dimensional model. (C) is a front view of a model in which each is superimposed. Further, (a') (b') (c') are views of each from the upper surface. By matching the coordinates of each model, they are superimposed, but as shown in (d), if there is a model that cannot be seen from the camera 100, that part is erased to make one model. Then, the superimposed model is adapted and output to the processing unit 409.

ここで、立体モデル同士を重ね合わせる例について説明したが、第一、第二の被写体の立体モデルの法線情報をレンダリングした画像同士を位置合わせ、重畳して法線情報を示した画像を生成もしてもよい。画像を生成する際、カメラ100から見えない法線情報は考慮せず、カメラ100から見える法線のみを画像として生成する。そのように生成した法線情報を示した画像をなじませ処理部409に出力してもよい。 Here, an example of superimposing the three-dimensional models on top of each other has been described. However, the images obtained by rendering the normal information of the three-dimensional models of the first and second subjects are aligned and superposed to generate an image showing the normal information. You may. When generating an image, the normal information that cannot be seen from the camera 100 is not taken into consideration, and only the normal that can be seen from the camera 100 is generated as an image. The image showing the normal information generated in this way may be familiarized and output to the processing unit 409.

なじませ処理部409は、位置合わせ重畳処理部408から入力された立体モデルに対して、なじませ設定決定部404で決定したなじませ処理の設定値に基づいてなじませ処理を実施する。なじませ処理方法はなじませ処理部407と同じ処理とする。なじませ後の立体モデルSUBJECT_MODELを仮想光源拡散反射成分算出部303に出力する。このようにすることで。仮想光の反射成分を算出するための被写体の立体形状情報が出力されることになる。 The acclimation processing unit 409 performs acclimation processing on the three-dimensional model input from the alignment superimposition processing unit 408 based on the acclimation processing set value determined by the acclimation setting determination unit 404. The acclimation processing method is the same as that of the acclimation processing unit 407. The three-dimensional model SUBJECT_MODEL after acclimatization is output to the virtual light source diffuse reflection component calculation unit 303. By doing this. The three-dimensional shape information of the subject for calculating the reflection component of the virtual light is output.

なお、被写体立体形状再現部302において、本実施形態では2つの被写体検出部を用意したが、重要度の分解能と検出したい被写体の数に応じて検出部の数を増減させてもよい。 In the subject three-dimensional shape reproduction unit 302, two subject detection units are prepared in the present embodiment, but the number of detection units may be increased or decreased according to the resolution of importance and the number of subjects to be detected.

次に、仮想光源拡散反射成分算出部303において、拡散反射成分Rd、Gd、Bdを算出する処理について説明する。拡散反射成分の求め方について、図7を用いて説明する。 Next, the process of calculating the diffuse reflection components Rd, Gd, and Bd in the virtual light source diffuse reflection component calculation unit 303 will be described. How to obtain the diffuse reflection component will be described with reference to FIG. 7.

図7は、撮影時のカメラ100とSUBJECT_MODEL701と仮想光源702との位置関係と、仮想光源の反射特性を示した図である。 FIG. 7 is a diagram showing the positional relationship between the camera 100, the SUBJECT_MODEL 701, and the virtual light source 702 at the time of shooting, and the reflection characteristics of the virtual light source.

まず、仮想光源拡散反射成分算出部303は被写体立体形状再現部302から入力された立体モデルSUBJECT_MODELから法線情報Nを取得する。 First, the virtual light source diffuse reflection component calculation unit 303 acquires the normal information N from the three-dimensional model SUBJECT_MODEL input from the subject three-dimensional shape reproduction unit 302.

カメラ100で撮影された撮影画像の水平画素位置H1(垂直画素位置は説明の簡略化のため省略)における拡散反射成分は、カメラ座標H1における法線N1と仮想光源の方向ベクトルL1の内積に比例し、仮想光源と被写体位置の距離K1の二乗に反比例する値となる。仮想光源による拡散反射成分強度Pdは(式2)で表すことができ、色ごとの拡散反射成分Rd、Gd、Bdは(式3)で表すことができる。 The diffuse reflection component at the horizontal pixel position H1 (the vertical pixel position is omitted for simplification of explanation) of the captured image taken by the camera 100 is proportional to the inner product of the normal N1 at the camera coordinates H1 and the direction vector L1 of the virtual light source. However, the value is inversely proportional to the square of the distance K1 between the virtual light source and the subject position. The diffuse reflection component intensity Pd by the virtual light source can be represented by (Equation 2), and the diffuse reflection component Rd, Gd, and Bd for each color can be represented by (Equation 3).

Figure 2021026320
Figure 2021026320

ここで、(式2)におけるNは被写体の3次元法線ベクトル、Kは仮想光源と被写体の距離である。kdは被写体の拡散反射率である。α、Lはそれぞれ任意に定めた仮想光源の強さ、仮想光源の3次元方向ベクトルである。 Here, N in (Equation 2) is the three-dimensional normal vector of the subject, and K is the distance between the virtual light source and the subject. kd is the diffuse reflectance of the subject. α and L are the strength of the virtual light source and the three-dimensional direction vector of the virtual light source, respectively, which are arbitrarily determined.

また(式3)におけるR、G、Bはホワイトバランス補正部202から入力された色信号R、G、Bである。Rw、Gw、Bwは任意に定められた仮想光源の色を示すパラメータである。 Further, R, G, and B in (Equation 3) are color signals R, G, and B input from the white balance correction unit 202. Rw, Gw, and Bw are parameters indicating the colors of an arbitrarily determined virtual light source.

仮想光源付加処理部304において、仮想光源拡散反射成分算出部303で算出した拡散反射成分Rd、Gd、Bdを入力色信号R、G、Bに付加する処理を行う。仮想光源照射後色信号R_out、G_out、B_outは(式4)のように表すことができる。
R_out=R+Rd
G_out=G+Gd
B_out=B+Bd
・・・(式4)
The virtual light source addition processing unit 304 performs a process of adding the diffuse reflection components Rd, Gd, and Bd calculated by the virtual light source diffuse reflection component calculation unit 303 to the input color signals R, G, and B. The color signals R_out, G_out, and B_out after irradiation with the virtual light source can be expressed as (Equation 4).
R_out = R + Rd
G_out = G + Gd
B_out = B + Bd
... (Equation 4)

このように算出した仮想光源照射後色信号R_out、G_out、B_outをガンマ処理部205へ出力する。このようにして被写体の立体形状を取得し、任意の仮想光源を照射することができる。 The color signals R_out, G_out, and B_out calculated in this way after irradiation with the virtual light source are output to the gamma processing unit 205. In this way, the three-dimensional shape of the subject can be acquired and an arbitrary virtual light source can be irradiated.

<第2の実施形態>
次に、本発明に係る第2の実施形態について説明する。
<Second embodiment>
Next, a second embodiment according to the present invention will be described.

本実施形態では、被写体立体形状再現部302における処理について、第1の実施形態とは異なる処理を行う。本実施形態では、図4に記載の第1の実施形態の被写体立体形状再現部302の構成を図8のように変更する。図8は本実施形態に係る被写体立体形状再現部302の構成を示す図である。図8のなじませ設定決定部804、806は、第一被写体検出部401、第二被写体検出部402からの被写体情報の入力に加え、被写体検出用画像生成部301からの被写体検出用画像Sの入力を受ける構成とした。 In the present embodiment, the processing in the subject three-dimensional shape reproducing unit 302 is different from that in the first embodiment. In the present embodiment, the configuration of the subject three-dimensional shape reproducing unit 302 of the first embodiment described in FIG. 4 is changed as shown in FIG. FIG. 8 is a diagram showing a configuration of a subject three-dimensional shape reproducing unit 302 according to the present embodiment. In addition to inputting subject information from the first subject detection unit 401 and the second subject detection unit 402, the familiarization setting determination units 804 and 806 of FIG. 8 of the subject detection image S from the subject detection image generation unit 301. It was configured to receive input.

なじませ設定決定部804、806について説明する。まず、第1の実施形態のようになじませ量SMOOTH_VALUEとなじませ領域SMOOTH_AREAを決定する。次に、被写体検出用画像Sの、なじませ領域SMOOTH_AREAに該当する領域を参照し、SMOOTH_AREAの平坦度評価値FLAT_VALUEを算出する。平坦度評価値FLAT_VALUEはハイパスフィルタを用いた方法で算出する。例えば、まず被写体検出用画像Sの輝度信号に対して、水平垂直に[−1 、0 、1]のようなハイパスフィルタを適用することで得られる値の絶対値を算出する。次に、図9に示すように算出した絶対値が高ければ高い程0に近づくように平坦度評価値FLAT_VALUEを求める。閾値THは予め定めた平坦度上限値で、平坦度上限を超えた場合、FLAT_VALUEを0とする。この平坦度評価値FLAT_VALUEを用い、平坦度評価値を適用後のなじませ量SMOOTH_VALUE‘を(式5)を用いて算出する。
SMOOTH_VALUE‘=SMOOTH_VALUE/FLAT_VALUE
・・・(式5)
The familiar setting determination units 804 and 806 will be described. First, the amount of acclimation SMOOTH_VALUE and the acclimation region SMOOTH_AREA are determined as in the first embodiment. Next, the flatness evaluation value FLAT_VALUE of SMOOTH_AREA is calculated by referring to the region corresponding to the familiar region SMOOTH_AREA of the subject detection image S. The flatness evaluation value FLAT_VALUE is calculated by a method using a high-pass filter. For example, first, the absolute value of the value obtained by applying a high-pass filter such as [-1, 0, 1] horizontally and vertically to the luminance signal of the subject detection image S is calculated. Next, the flatness evaluation value FLAT_VALUE is obtained so that the higher the absolute value calculated as shown in FIG. 9, the closer to 0. The threshold value TH is a predetermined flatness upper limit value, and when the flatness upper limit is exceeded, FLAT_VALUE is set to 0. Using this flatness evaluation value FLAT_VALUE, the familiar amount SMOOTH_VALUE'after applying the flatness evaluation value is calculated using (Equation 5).
SMOOTH_VALUE'= SMOOTH_VALUE / FLAT_VALUE
... (Equation 5)

このようにして算出したSMOOTH_VALUE‘をなじませ処理部407、409に出力し、立体モデルのなじませ処理を行う。例えば平坦度評価値が高い、すなわちコントラストが低い領域は同一モデルの領域であると推測されるため、なじませ量を低くする。このように平坦度評価値に対応させてなじませ量を制御することで、好適な立体モデルの再現が可能になる。 The SMOOTH_VALUE'calculated in this way is output to the fitting processing units 407 and 409, and the fitting processing of the three-dimensional model is performed. For example, a region having a high flatness evaluation value, that is, a region having a low contrast is presumed to be a region of the same model, so the amount of familiarization is reduced. By controlling the amount of acclimation corresponding to the flatness evaluation value in this way, it is possible to reproduce a suitable three-dimensional model.

<他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed.

Claims (11)

入力画像から所定の被写体領域を検出する検出手段と、
前記所定の被写体領域の少なくとも一部の立体形状をモデル化した情報である複数種類の立体モデルを取得する立体モデル取得手段と、
前記立体モデル取得手段により取得された複数種類の立体モデルを、前記検出手段による検出の結果に基づいて配置する立体モデル配置手段と、
前記立体モデル配置手段により配置される複数種類の立体モデルが互いに重なる場合、前記立体モデル同士の境界部になじませ処理をするなじませ処理手段とを有し、
前記複数種類の立体モデルは、その種類ごとに重要度が関連付けされており、前記なじませ処理手段は、前記立体モデルに関連付けられた重要度が低い程、前記なじませ処理の処理量を大きくすることを特徴とする画像処理装置。
A detection means that detects a predetermined subject area from an input image,
A three-dimensional model acquisition means for acquiring a plurality of types of three-dimensional models, which is information modeling at least a part of the three-dimensional shape of a predetermined subject area.
A three-dimensional model arrangement means for arranging a plurality of types of three-dimensional models acquired by the three-dimensional model acquisition means based on the result of detection by the detection means.
When a plurality of types of three-dimensional models arranged by the three-dimensional model arranging means overlap each other, the three-dimensional model has a acclimation processing means for acclimating the boundary portion between the three-dimensional models.
The importance of the plurality of types of three-dimensional models is associated with each type, and the familiarization processing means increases the processing amount of the familiarization processing as the importance associated with the three-dimensional model decreases. An image processing device characterized by this.
画像に対し、仮想光を照射した効果を付与する仮想ライティング手段をさらに有し、
前記なじませ処理手段によりなじませ処理を行った立体モデルに基づき、前記仮想ライティング手段は前記入力画像に付与する仮想光の効果を決定することを特徴とする請求項1に記載の画像処理装置。
It also has a virtual lighting means that gives the effect of irradiating the image with virtual light.
The image processing apparatus according to claim 1, wherein the virtual lighting means determines the effect of virtual light applied to the input image based on a three-dimensional model that has been subjected to the familiarization processing by the familiarization processing means.
前記立体モデルは、前記所定の被写体領域の少なくとも一部の立体形状を、法線情報を用いてモデル化した情報であることを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the three-dimensional model is information in which at least a part of the three-dimensional shape of the predetermined subject area is modeled by using normal information. 前記立体モデルに関連付けられた重要度とは、前記立体モデルのポリゴン数が大きいほど高いことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3, wherein the importance associated with the three-dimensional model is higher as the number of polygons in the three-dimensional model is larger. 前記立体モデルに関連付けられた重要度とは、立体モデルをレンダリングする際の画像解像度が大きいほど高いことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, wherein the importance associated with the three-dimensional model is higher as the image resolution at the time of rendering the three-dimensional model is larger. 前記立体モデルに関連付けられた重要度とは、ユーザーが任意に設定することが可能であることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3, wherein the importance associated with the three-dimensional model can be arbitrarily set by the user. 前記立体モデルに関連付けられた重要度は、前記立体モデルの代表法線と、仮想光の照射方向とのなす角に基づくことを特徴とする請求項3乃至5のいずれか1項に記載の画像処理装置。 The image according to any one of claims 3 to 5, wherein the importance associated with the three-dimensional model is based on the angle formed by the representative normal of the three-dimensional model and the irradiation direction of virtual light. Processing equipment. 入力画像から所定の被写体領域を検出する検出手段と、
前記所定の被写体領域の少なくとも一部の立体形状をモデル化した情報である複数種類の立体モデルを取得する立体モデル取得手段と、
前記立体モデル取得手段により取得された複数種類の立体モデルを、前記検出手段による検出の結果に基づいて配置する立体モデル配置手段と、
前記立体モデル配置手段により配置される複数種類の立体モデルが互いに重なる場合、前記立体モデル同士の境界部になじませ処理をするなじませ処理手段とを有し、
前記なじませ処理手段は、前記入力画像の領域のうち、前記モデル同士の境界部に対応する領域のコントラストが低い程、当該領域に対する前記なじませ処理の処理量を大きくすることを特徴とする画像処理装置。
A detection means that detects a predetermined subject area from an input image,
A three-dimensional model acquisition means for acquiring a plurality of types of three-dimensional models, which is information modeling at least a part of the three-dimensional shape of a predetermined subject area.
A three-dimensional model arrangement means for arranging a plurality of types of three-dimensional models acquired by the three-dimensional model acquisition means based on the result of detection by the detection means.
When a plurality of types of three-dimensional models arranged by the three-dimensional model arranging means overlap each other, the three-dimensional model has a acclimation processing means for acclimating the boundary portion between the three-dimensional models.
The blending processing means is characterized in that the lower the contrast of the region corresponding to the boundary between the models in the region of the input image, the larger the processing amount of the blending treatment with respect to the region. Processing equipment.
画像処理装置の制御方法であって、
入力画像から所定の被写体領域を検出する検出工程と、
前記所定の被写体領域の少なくとも一部の立体形状をモデル化した情報である複数種類の立体モデルを取得する立体モデル取得工程と、
前記立体モデル取得工程で取得された複数種類の立体モデルを、前記検出工程での検出の結果に基づいて配置する立体モデル配置工程と、
前記立体モデル配置工程で配置される複数種類の立体モデルが互いに重なる場合、前記立体モデル同士の境界部になじませ処理をするなじませ処理工程とを有し、
前記複数種類の立体モデルは、その種類ごとに重要度が関連付けされており、前記なじませ処理工程では、前記立体モデルに関連付けられた重要度が低い程、前記なじませ処理の処理量を大きくすることを特徴とする制御方法。
It is a control method of an image processing device.
A detection process that detects a predetermined subject area from the input image,
A three-dimensional model acquisition step of acquiring a plurality of types of three-dimensional models, which is information modeling at least a part of the three-dimensional shape of a predetermined subject area,
A three-dimensional model placement step of arranging a plurality of types of three-dimensional models acquired in the three-dimensional model acquisition step based on the detection result in the detection step,
When a plurality of types of three-dimensional models arranged in the three-dimensional model arrangement step overlap each other, it has a familiarization processing step of fitting the three-dimensional models to the boundary portion between the three-dimensional models.
The importance of the plurality of types of three-dimensional models is associated with each type, and in the familiarization processing step, the lower the importance associated with the three-dimensional model, the larger the processing amount of the familiarization processing. A control method characterized by that.
画像処理装置の制御方法であって、
入力画像から所定の被写体領域を検出する検出工程と、
前記所定の被写体領域の少なくとも一部の立体形状をモデル化した情報である複数種類の立体モデルを取得する立体モデル取得工程と、
前記立体モデル取得工程で取得された複数種類の立体モデルを、前記検出工程での検出の結果に基づいて配置する立体モデル配置工程と、
前記立体モデル配置工程で配置される複数種類の立体モデルが互いに重なる場合、前記立体モデル同士の境界部になじませ処理をするなじませ処理工程とを有し、
前記なじませ処理工程では、前記入力画像の領域のうち、前記モデル同士の境界部に対応する領域のコントラストが低い程、当該領域に対する前記なじませ処理の処理量を大きくすることを特徴とする制御方法。
It is a control method of an image processing device.
A detection process that detects a predetermined subject area from the input image,
A three-dimensional model acquisition step of acquiring a plurality of types of three-dimensional models, which is information modeling at least a part of the three-dimensional shape of a predetermined subject area,
A three-dimensional model placement step of arranging a plurality of types of three-dimensional models acquired in the three-dimensional model acquisition step based on the detection result in the detection step,
When a plurality of types of three-dimensional models arranged in the three-dimensional model arrangement step overlap each other, it has a familiarization processing step of fitting the three-dimensional models to the boundary portion between the three-dimensional models.
In the acclimation processing step, the lower the contrast of the region corresponding to the boundary between the models in the region of the input image, the larger the processing amount of the acclimation processing with respect to the region. Method.
コンピュータを、請求項1乃至8のいずれか1項に記載の画像処理装置として機能させる、コンピュータが実行することが可能なプログラム。 A program that can be executed by a computer, which causes the computer to function as the image processing device according to any one of claims 1 to 8.
JP2019141510A 2019-07-31 2019-07-31 Image processing device, control method thereof and program Pending JP2021026320A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019141510A JP2021026320A (en) 2019-07-31 2019-07-31 Image processing device, control method thereof and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019141510A JP2021026320A (en) 2019-07-31 2019-07-31 Image processing device, control method thereof and program

Publications (1)

Publication Number Publication Date
JP2021026320A true JP2021026320A (en) 2021-02-22

Family

ID=74664662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019141510A Pending JP2021026320A (en) 2019-07-31 2019-07-31 Image processing device, control method thereof and program

Country Status (1)

Country Link
JP (1) JP2021026320A (en)

Similar Documents

Publication Publication Date Title
WO2018176925A1 (en) Hdr image generation method and apparatus
JP5517746B2 (en) Image processing apparatus and method
CN108846807B (en) Light effect processing method and device, terminal and computer-readable storage medium
JP6812862B2 (en) Image processing system, imaging device, image processing method and program
JP5767485B2 (en) Image processing apparatus and control method
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
WO2005002240A1 (en) Method for calculating display characteristic correction data, program for calculating display characteristic correction data, and device for calculating display characteristic correction data
JP2011135563A (en) Image capturing apparatus, and image processing method
JP2010226694A (en) Image processor and method of image processing
US20140184853A1 (en) Image processing apparatus, image processing method, and image processing program
KR101204888B1 (en) Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
JP6817779B2 (en) Image processing equipment, its control method, programs and recording media
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP2015046019A (en) Image processing device, imaging device, imaging system, image processing method, program, and storage medium
JP6541501B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD
JP7059076B2 (en) Image processing device, its control method, program, recording medium
JP2020102059A (en) Image processor
JP2017138927A (en) Image processing device, imaging apparatus, control method and program thereof
JP2004133919A (en) Device and method for generating pseudo three-dimensional image, and program and recording medium therefor
JP7051365B2 (en) Image processing equipment, image processing methods, and programs
JP2005197952A (en) Imaging device and imaging method
JP2019149719A (en) Image processing apparatus and method, and imaging apparatus
JP2021026320A (en) Image processing device, control method thereof and program
JP2011082726A (en) Image reproducing apparatus, and imaging apparatus