JP2013235537A - Image creation device, image creation program and recording medium - Google Patents
Image creation device, image creation program and recording medium Download PDFInfo
- Publication number
- JP2013235537A JP2013235537A JP2012109267A JP2012109267A JP2013235537A JP 2013235537 A JP2013235537 A JP 2013235537A JP 2012109267 A JP2012109267 A JP 2012109267A JP 2012109267 A JP2012109267 A JP 2012109267A JP 2013235537 A JP2013235537 A JP 2013235537A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- contour
- dimensional
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
深度マップと実画像とを使用して仮想画像を作成する画像作成装置、画像作成プログラム、及び記録媒体に関する。 The present invention relates to an image creation device, an image creation program, and a recording medium that create a virtual image using a depth map and a real image.
印象のある写真を撮る技術として、外部ストロボやレフ板を設置し被写体に対してライティングを施し、奥行き感の演出や被写体の強調を行う技術がある。このような技術は任意光源下での撮影を可能にするものの、高価な機材やユーザーのスキルを必要とし一般ユーザーが気軽に実現するのは難しい。またこのようなライティング条件は撮影時において決定されるため、撮影後の画像の補正は困難である。 As a technology for taking impressive photographs, there is a technology that installs an external strobe or a reflex board and applies lighting to the subject to produce a sense of depth and emphasize the subject. Although such a technique enables photographing under an arbitrary light source, it requires expensive equipment and user skills and is difficult for a general user to easily realize. Further, since such lighting conditions are determined at the time of shooting, it is difficult to correct an image after shooting.
一方、コンピューターグラフィック内に実モデルを自然な見た目で配置する技術として、Image-Based Rendering(IBR)という技術が知られている(特許文献1)。IBRにおいては、複数の光源状態で撮影された複数の実モデルの画像を線形結合することで、任意光源下での画像イメージの作成を行う。すなわち、光源の照射方向を変えた複数の撮影画像を用いることで、任意光源下での画像イメージを作成することが可能である。 On the other hand, a technique called Image-Based Rendering (IBR) is known as a technique for arranging a real model in a computer graphic with a natural appearance (Patent Document 1). In IBR, an image image under an arbitrary light source is created by linearly combining a plurality of real model images photographed in a plurality of light source states. That is, it is possible to create an image image under an arbitrary light source by using a plurality of captured images with different light source irradiation directions.
一般的なIBRの技術を用いると任意光源下での実モデルの画像イメージの作成が可能になるものの、通常の撮影時に異なる光源での複数の画像を撮影するのは極めて非現実的である。 Although it is possible to create an image of an actual model under an arbitrary light source using a general IBR technique, it is extremely unrealistic to capture a plurality of images with different light sources during normal imaging.
本発明は、上記問題に鑑み、一回の撮影から得られる画像を用いて、所望する陰影や演出を実現した仮想画像を作成する画像作成装置、画像作成プログラム、及び記録媒体を提供することを目的とする。 In view of the above problems, the present invention provides an image creation device, an image creation program, and a recording medium that create a virtual image that achieves a desired shadow and effect using an image obtained from a single shooting. Objective.
本発明を例示する画像作成装置の一態様は、実画像を取得する実画像取得手段と、前記実画像に対応して奥行き情報を含む3次元情報を取得する3次元情報取得手段と、前記実画像と前記3次元情報とに基づいて3次元画像を生成する3次元画像生成手段と、前記実画像に対して光による演出を施す対象部分を指定する指定手段と、前記指定された対象部分に基づいて前記演出を施すための仮想光源に関する情報を推定する推定手段と、前記推定された前記情報に基づいて前記仮想光源を前記3次元画像の仮想空間に定義することで陰影情報を生成するシェーディング手段と、前記陰影情報を前記実画像に合成するブレンディング手段と、を備えたものである。なお、本発明としては、画像作成プログラムとしてもよい。また、画像作成プログラムを記録したコンピュータ読み取り可能な記録媒体としてもよい。 An aspect of the image creating apparatus exemplifying the present invention includes: a real image acquiring unit that acquires a real image; a three-dimensional information acquiring unit that acquires three-dimensional information including depth information corresponding to the real image; A three-dimensional image generating means for generating a three-dimensional image based on the image and the three-dimensional information; a specifying means for specifying a target portion to effect the light on the real image; and the specified target portion Estimation means for estimating information on a virtual light source for performing the effect based on the shading, and shading for generating shadow information by defining the virtual light source in the virtual space of the three-dimensional image based on the estimated information And blending means for synthesizing the shading information with the actual image. The present invention may be an image creation program. Further, a computer-readable recording medium in which an image creation program is recorded may be used.
本発明によれば、所望する対象部分に対して光演出を施した仮想画像を簡便に作成することができる。 According to the present invention, it is possible to easily create a virtual image in which a light effect is applied to a desired target portion.
[第1実施形態]
画像作成装置10は、図1に示すように、実画像取得部11、深度マップ取得部12、3次元モデル推定部14、シェーディング処理部15、ブレンディング部16、物体推定部17、物体・反射率対応部18、反射率設定部19、強調指定部20、光源推定部21、光源情報変更操作部22、及び、ブレンド画像出力部23を備える。実画像取得部11は、実画像情報(以下、「実画像」と称す)を取得するための公知の撮像装置であり、取得した実画像を格納するメモリ11aを備える。
[First Embodiment]
As shown in FIG. 1, the image creating apparatus 10 includes a real image acquisition unit 11, a depth map acquisition unit 12, a three-dimensional model estimation unit 14, a shading processing unit 15, a blending unit 16, an object estimation unit 17, an object / reflectance factor. A correspondence unit 18, a reflectance setting unit 19, an emphasis designation unit 20, a light source estimation unit 21, a light source information change operation unit 22, and a blend image output unit 23 are provided. The real image acquisition unit 11 is a known imaging device for acquiring real image information (hereinafter referred to as “real image”), and includes a memory 11 a that stores the acquired real image.
深度マップ取得部12は、奥行き情報である深度マップ、又はそれを含む3次元情報(以下、「深度マップ」と称す)を、実画像と同時に、同じ撮像範囲となるように取得するものであり、取得した深度マップを格納するメモリ12aを備える。なお、深度マップ取得部12は、周知の「ステレオカメラによる深度マップの生成手法」、「赤外光を利用したTOF(Time of Flight)手法」、「赤外光の反射パターンを利用した手法」、又は「動きベクトルからの深度マップの生成手法」等の何れかの技術を利用して取得するものであり、ここでは詳しい説明を省略する。深度マップは、例えばある基準位置を基に深さが深いピクセルの場合にはそのピクセルの輝度を高くする等、各ピクセルにおける深度に応じた輝度を求めたグレースケールの画像である。 The depth map acquisition unit 12 acquires a depth map that is depth information or three-dimensional information including the depth map (hereinafter referred to as “depth map”) so as to be in the same imaging range simultaneously with the actual image. And a memory 12a for storing the acquired depth map. The depth map acquisition unit 12 includes the well-known “depth map generation method using a stereo camera”, “TOF (Time of Flight) method using infrared light”, and “method using a reflection pattern of infrared light”. , Or “a method for generating a depth map from a motion vector” or the like, and a detailed description thereof is omitted here. The depth map is a grayscale image in which the luminance corresponding to the depth of each pixel is obtained, for example, in the case of a pixel having a deep depth based on a certain reference position, the luminance of the pixel is increased.
深度マップ補正部13は、輪郭抽出部13aと補正部13bとを備える。輪郭抽出部13aは、深度マップと実画像とを入力として、ハイパスフィルタ処理等実行して深度マップと実画像とで輪郭を各々強調して輪郭を抽出する。補正部13bは、実画像の輪郭(2D輪郭)に合わせて深度マップの輪郭(3D輪郭)を補正する。3D輪郭画像と2D輪郭画像とでは、特に輪郭部で不整合が存在し、シェーディング時の陰影が実画像の輪郭からずれる。これを防止するために、実画像で抽出した輪郭(2D輪郭)に基づいて深度マップから抽出した輪郭(3D輪郭)の補正を行うことで、シェーディング処理部15での不整合を減少させる。 The depth map correction unit 13 includes a contour extraction unit 13a and a correction unit 13b. The contour extraction unit 13a receives the depth map and the actual image, executes high-pass filter processing, etc., and extracts the contour by emphasizing the contours in the depth map and the actual image. The correction unit 13b corrects the contour (3D contour) of the depth map in accordance with the contour (2D contour) of the actual image. In the 3D contour image and the 2D contour image, there is a mismatch particularly in the contour portion, and the shading at the time of shading deviates from the contour of the actual image. In order to prevent this, the inconsistency in the shading processing unit 15 is reduced by correcting the contour (3D contour) extracted from the depth map based on the contour (2D contour) extracted from the actual image.
3次元モデル推定部14では、輪郭補正がなされた3D輪郭画像が入力され、座標変換、及び形状推定を行う。3次元モデル推定部14は、3D輪郭画像のうち物体に隠れて深度情報が得られていない領域、すなわちオクル―ジョン部の形状推定を行うオクルージョン処理部14a、シェーディング処理部15へ入力するための座標系に変換する座標変換部14b、及び反射率設定部19から入力される反射率の情報を基に3次元モデルに対する反射率の設定を行う反射率設定処理部14cを有する。 The 3D model estimation unit 14 receives a 3D contour image subjected to contour correction, and performs coordinate conversion and shape estimation. The 3D model estimation unit 14 is an area that is hidden by an object in the 3D contour image and for which depth information is not obtained, that is, an occlusion processing unit 14a that performs shape estimation of an occlusion portion, and a shading processing unit 15 A coordinate conversion unit 14b that converts to a coordinate system, and a reflectance setting processing unit 14c that sets reflectance for a three-dimensional model based on reflectance information input from the reflectance setting unit 19 are provided.
深度マップでは、手前の物体に遮られて奥の物体が見えなくなっている領域の3次元情報を取得するのは難しく、これは一般的にオクルージョンと呼ばれている。そのため、オクルージョン処理部14aに入力される3D輪郭画像は、3次元情報の一部(オクルージョン部)に欠損が生じている。オクルージョン処理部14aでは、深度マップを用いてオクルージョン部の形状推定を行い、シェーディング処理をするための3次元情報を補完する。また、座標変換部14bでは、深度マップ取得部12で取得した深度マップの座標系からシェーディング処理を施すための座標系に変換する。反射率設定処理部14cは、3D輪郭画像に含まれる物体の反射率を設定する。 In the depth map, it is difficult to acquire three-dimensional information of an area where an object in the back is blocked by an object in front, and this is generally called occlusion. Therefore, in the 3D contour image input to the occlusion processing unit 14a, a part of the three-dimensional information (occlusion part) is missing. In the occlusion processing unit 14a, the shape of the occlusion unit is estimated using the depth map, and the three-dimensional information for performing the shading process is complemented. The coordinate conversion unit 14b converts the coordinate system of the depth map acquired by the depth map acquisition unit 12 into a coordinate system for performing a shading process. The reflectance setting processing unit 14c sets the reflectance of the object included in the 3D contour image.
シェーディング処理部15では、補間した3D輪郭画像と物体の反射率情報と、光源推定部21から入力される仮想光源に関する情報とを入力として、3D輪郭画像の仮想空間に仮想光源を定義して3次元の陰影画像を生成し、実画像のカメラ位置に基づいて3次元の陰影画像から2次元の陰影画像を出力する。なお、シェーディング処理部15としては、レイトレーシング法、又はラディオシティ法等の周知の技術を用い、例えばグレースケールで表現される陰影画像を生成するのが好適である。 The shading processing unit 15 receives the interpolated 3D contour image, the reflectance information of the object, and the information on the virtual light source input from the light source estimation unit 21 as input to define a virtual light source in the virtual space of the 3D contour image. A three-dimensional shadow image is generated, and a two-dimensional shadow image is output from the three-dimensional shadow image based on the camera position of the real image. As the shading processing unit 15, it is preferable to generate a shadow image expressed in, for example, a gray scale by using a known technique such as a ray tracing method or a radiosity method.
ブレンディング部16は、2次元の陰影画像と実画像とを入力として、これら2つの画像をブレンドする。なお、ブレンド処理としては、周知のαブレンディングの技術を使用してもよい。ブレンド画像出力部23は、ブレンディング部16で生成された2次元の仮想画像を、該装置10に外部接続される、例えば表示部、又はプリンタ等に出力する。 The blending unit 16 receives a two-dimensional shadow image and a real image as input, and blends these two images. As the blending process, a well-known α blending technique may be used. The blend image output unit 23 outputs the two-dimensional virtual image generated by the blending unit 16 to, for example, a display unit or a printer that is externally connected to the apparatus 10.
物体推定部17では、実画像、及び深度マップから得られる色、及び形状に基づいて、実画像に含まれる物体の推定を行う。物体推定には、物体推定には、人の顔認識のような幾何学形状を用いた手法や、テンプレートとの相違を用いるテンプレートマッチング法を用いてもよい。このような物体推定の手法は、認識・学習アルゴリズムの分野で広く知られているものである。 The object estimation unit 17 estimates an object included in the actual image based on the actual image and the color and shape obtained from the depth map. For the object estimation, a method using a geometric shape such as human face recognition or a template matching method using a difference from a template may be used for the object estimation. Such an object estimation method is widely known in the field of recognition / learning algorithms.
物体・反射率対応部18では、物体と反射率とを予め対応づけたDB(データベース)18aを用いて、物体推定部17で推定された物体に対する反射率を求める。
反射率設定部19は、推定された物体に対応する反射率を3次元モデル推定部14に出力する。なお、ユーザーが選択した物体の反射率を任意に設定することがきる設定操作部を設け、設定操作部から入力される反射率を3次元モデル推定部14に出力するように構成してもよい。
The object / reflectance correspondence unit 18 obtains the reflectance for the object estimated by the object estimation unit 17 using a DB (database) 18a in which the object and the reflectance are associated in advance.
The reflectance setting unit 19 outputs the reflectance corresponding to the estimated object to the three-dimensional model estimation unit 14. Note that a setting operation unit that can arbitrarily set the reflectance of the object selected by the user may be provided, and the reflectance input from the setting operation unit may be output to the three-dimensional model estimation unit 14. .
強調指定部20は、明るくする演出を施す対象部分を指定する。例えば、図示していないが、タッチパネル付きの表示部を設け、その表示部に実画像を表示し、タップ操作やタッチ操作に応答してその操作位置を含む範囲に、選択ツールである枠やなげなわを実画像上に重ねて表示して、ドラッグ操作やピンチ操作により前記枠やなげなわを広げたり縮めたりすることで範囲指定を行って、画面に表示される決定ボタンの操作に応答してその時点で設定されている前記枠やなげなわの座標を入力する構成が好ましい。ここで、強調指定部20は、指定手段の一例である。 The emphasis designating unit 20 designates a target portion to be rendered bright. For example, although not shown, a display unit with a touch panel is provided, an actual image is displayed on the display unit, and a frame or a selection tool is selected in a range including the operation position in response to a tap operation or a touch operation. In response to the operation of the OK button displayed on the screen, the range is specified by expanding or contracting the frame or lasso by dragging or pinching and displaying the wrinkles over the actual image. It is preferable to input the coordinates of the frame and lasso set at that time. Here, the emphasis designation unit 20 is an example of a designation unit.
光源推定部21は、強調指定部20で指定した対象部分に対して明るくなる演出を施すための仮想光源に関する情報(以下、「光源情報」と称す)を推定する。ここで、光源情報としては、位置、向き(照射方向)、光源分布、及び光源波長を含む。本実施形態では、これらの情報のうち位置情報を推定し、他の情報は予め決めた値を用いる。なお、全ての情報を推定してもよいし、複数の情報を推定し、残りの情報は予め決めた値を使用してもよい。 The light source estimation unit 21 estimates information related to a virtual light source (hereinafter referred to as “light source information”) for providing a brightening effect on the target portion specified by the enhancement specification unit 20. Here, the light source information includes a position, a direction (irradiation direction), a light source distribution, and a light source wavelength. In this embodiment, position information is estimated among these pieces of information, and other information uses predetermined values. All information may be estimated, or a plurality of information may be estimated, and a predetermined value may be used for the remaining information.
光源情報変更操作部22は、推定した光源情報を所望する情報に変更するための操作部である。シェーディング処理部15は、光源情報変更操作部22からの操作により変更された情報に基づいて、仮想光源を定義し直して陰影画像を生成する。なお、光源情報変更操作部22を操作する時には、変更される光源情報が直ぐに反映されるように、陰影画像を表示部に表示するように構成するのが、変更操作が簡便に行えるので望ましい。なお、光源情報変更操作部22は、光源情報変更手段の一例である。なお、光源情報変更操作部22を省略してもよい。 The light source information change operation unit 22 is an operation unit for changing the estimated light source information to desired information. The shading processing unit 15 redefines the virtual light source based on the information changed by the operation from the light source information changing operation unit 22 to generate a shadow image. When operating the light source information changing operation unit 22, it is desirable to display the shadow image on the display unit so that the changed light source information is reflected immediately, because the changing operation can be easily performed. The light source information change operation unit 22 is an example of a light source information change unit. The light source information change operation unit 22 may be omitted.
次に、本実施形態の作用を、図2を参照しながら説明する。まず、実画像取得部11は、例えば図3に示す実画像を取得する(S−1)。取得した実画像は、メモリ11aに記憶される。実画像は、その後、メモリ11aから読み出されて深度マップ補正部13に送られる。深度マップ補正部13では、実画像に対してハイパスフィルタ処理を施して輪郭抽出を行う(S−2)。抽出された2D輪郭画像は、図4に示すように、輪郭がハイライトで強調された画像となる。 Next, the operation of the present embodiment will be described with reference to FIG. First, the real image acquisition part 11 acquires the real image shown, for example in FIG. 3 (S-1). The acquired actual image is stored in the memory 11a. Thereafter, the actual image is read from the memory 11 a and sent to the depth map correction unit 13. The depth map correction unit 13 performs contour extraction by performing high-pass filter processing on the actual image (S-2). As shown in FIG. 4, the extracted 2D contour image is an image in which the contour is highlighted.
次に、深度マップ取得部12は、実画像に対応する深度マップを取得する(S−3)。深度マップは、例えば図5に示すように、ある基準位置からの深度が浅いピクセル程、ハイライトの輝度で得られるのに対し、輪郭がぼやけた画像となる。取得した深度マップは、メモリ12aに格納される。なお、深度マップは、撮像範囲、及び被写体画像が略同じであれば実画像と同時に取得しなくてもよい。 Next, the depth map acquisition unit 12 acquires a depth map corresponding to the actual image (S-3). For example, as shown in FIG. 5, the depth map is obtained by highlighting the brightness of a pixel having a shallower depth from a certain reference position, while the image has a blurred outline. The acquired depth map is stored in the memory 12a. Note that the depth map may not be acquired simultaneously with the actual image as long as the imaging range and the subject image are substantially the same.
次に、得られた深度マップは、メモリ12aから読み出されて深度マップ補正部13に送られる。深度マップ補正部13は、深度マップに対してハイパスフィルタ処理を施して輪郭抽出を行う(S−4)。深度マップから輪郭を抽出した3次元画像(以下、「3D輪郭画像」と称す)は、図6に示すように、輪郭がハイライトで強調された画像となるが、図4で説明した2D輪郭画像と比較して輪郭が階段状にギザギザした画像となっている。その後、深度マップ補正部13は、2D輪郭画像と3D輪郭画像とで位置合わせを行い、3D輪郭画像の輪郭を2D輪郭画像の輪郭に整合するように補正する(S−5)。 Next, the obtained depth map is read from the memory 12 a and sent to the depth map correction unit 13. The depth map correction unit 13 performs contour extraction by performing a high-pass filter process on the depth map (S-4). A three-dimensional image obtained by extracting a contour from the depth map (hereinafter referred to as “3D contour image”) is an image in which the contour is highlighted as shown in FIG. 6, but the 2D contour described in FIG. Compared with the image, the outline is jagged in steps. After that, the depth map correction unit 13 performs alignment between the 2D contour image and the 3D contour image, and corrects the contour of the 3D contour image to match the contour of the 2D contour image (S-5).
3D輪郭画像の輪郭補正を詳しく説明する。図7に示すように、実画像から抽出した2D輪郭画像30の左上からラスタスキャンを行い、2D輪郭画像の輪郭の点をサンプリングする。2D輪郭画像は、通常グレースケール画像になり、ラスタスキャン時に閾値を超える点を輪郭の点としてサンプリングする。このようにすることで、2D輪郭画像の輪郭の点を、ラスタスキャンのサンプリングレートにより取得することができる。なお、2D輪郭画像30としては、前述した閾値処理の代わりに、ラベリング処理による領域抽出やエッジ検出処理により抽出してもよい。その後、同様な処理により、図8に示すように、深度マップから3D輪郭画像31を抽出する。 The contour correction of the 3D contour image will be described in detail. As shown in FIG. 7, raster scanning is performed from the upper left of the 2D contour image 30 extracted from the actual image, and the contour points of the 2D contour image are sampled. The 2D contour image is normally a grayscale image, and points that exceed a threshold during raster scanning are sampled as contour points. In this way, the contour point of the 2D contour image can be acquired at the sampling rate of the raster scan. Note that the 2D contour image 30 may be extracted by area extraction by labeling processing or edge detection processing instead of the threshold processing described above. Thereafter, the 3D contour image 31 is extracted from the depth map by similar processing as shown in FIG.
2D輪郭画像の輪郭の各点に対して、3D輪郭画像の輪郭と対応づけを行う。これは、2D輪郭画像の輪郭の各点に対して、3D輪郭画像中で最近傍にある輪郭の点を、同様の輪郭の点として対応つける。例えば、2D輪郭画像に含まれる物体のうちのサイコロの輪郭に対しては、2D輪郭画像の位置(x,y)にある輪郭の点A(図7参照)が、3D輪郭画像の輪郭のうちの前記位置(x,y)の近傍である位置(x1,y1)にある点A‘(図8参照)として対応付けされる。 Each point of the contour of the 2D contour image is associated with the contour of the 3D contour image. This associates each contour point of the 2D contour image with the contour point closest to the 3D contour image as a similar contour point. For example, for a dice contour among the objects included in the 2D contour image, a contour point A (see FIG. 7) at the position (x, y) of the 2D contour image is included in the contour of the 3D contour image. Is associated with a point A ′ (see FIG. 8) at a position (x1, y1) that is in the vicinity of the position (x, y).
上記の方法で、3D輪郭画像の輪郭の各点と2D輪郭画像の輪郭の各点との対応付けを行い、図9(A)に示す3D輪郭画像の輪郭32の各点を、対応する2D輪郭画像の輪郭点の位置に移動して、同図(B)に示すように、3D輪郭画像の輪郭を補正する。この補正には、周知のレンズのゆがみ補正やキャリブレーションで用いられる座標変換等の技術を使用することができる。 With the above method, each point of the contour of the 3D contour image is associated with each point of the contour of the 2D contour image, and each point of the contour 32 of the 3D contour image shown in FIG. Moving to the position of the contour point of the contour image, the contour of the 3D contour image is corrected as shown in FIG. For this correction, known techniques such as lens distortion correction and coordinate conversion used in calibration can be used.
補正された3D輪郭画像は、3次元モデル推定部14に送られる。3次元モデル推定部14のオクルージョン処理部14aは、3D輪郭画像に含まれるオクルージョン部の形状推定を行って3D輪郭画像を補間する(S−6)。補間された3D輪郭画像は、座標変換部14bにより3D輪郭画像の座標系からシェーディング処理をするためのワールド座標系に変換される(S−7)。座標変換された3D輪郭画像は、反射率設定処理部14cに送られる。 The corrected 3D contour image is sent to the three-dimensional model estimation unit 14. The occlusion processing unit 14a of the three-dimensional model estimation unit 14 estimates the shape of the occlusion part included in the 3D contour image and interpolates the 3D contour image (S-6). The interpolated 3D contour image is converted from the coordinate system of the 3D contour image to the world coordinate system for shading processing by the coordinate conversion unit 14b (S-7). The coordinate-converted 3D contour image is sent to the reflectance setting processing unit 14c.
反射率設定処理部14cには、3D輪郭画像に含まれる物体(被写体)毎の反射率情報が反射率設定部19から入力されている(S−8)。反射率設定部19には、物体推定部17が実画像に基づいて推定した物体の情報が入力されている(S−9)。反射率設定部19は、特定した物体に基づいてDB18aを参照して反射率を特定する。反射率設定処理部14cは、物体毎の反射率の情報に基づいて3D輪郭画像に含まれる物体の表面に反射率を設定する(S−10)。この物体毎の表面に設定される反射率の情報は、シェーディング処理部15に送られる。 Reflectivity information for each object (subject) included in the 3D contour image is input from the reflectivity setting unit 19 to the reflectivity setting processing unit 14c (S-8). Information on the object estimated by the object estimation unit 17 based on the actual image is input to the reflectance setting unit 19 (S-9). The reflectance setting unit 19 identifies the reflectance with reference to the DB 18a based on the identified object. The reflectance setting processing unit 14c sets the reflectance on the surface of the object included in the 3D contour image based on the reflectance information for each object (S-10). Information on the reflectance set on the surface of each object is sent to the shading processing unit 15.
明るくする演出を施すための対象部分は、強調指定部20を使用して実画像に対して予め指定されている(S−11)。なお、強調部を指定する順は、前述した順に限らず、例えば図2で説明する手順の一番先でもよい。この場合には、指定された対象部分の座標をいったんメモリに記憶しておけばよい。光源推定部21は、強調指定部20で指定される対象部分に基づいて、その対象部分に対応する3D輪郭画像の指定範囲に対して、明るくなる演出を施すための光源情報を推定する(S−11)。 The target portion for providing a brightening effect is designated in advance for the actual image using the emphasis designating unit 20 (S-11). Note that the order in which the emphasizing parts are specified is not limited to the order described above, and may be the first of the procedures described in FIG. In this case, the coordinates of the designated target portion may be temporarily stored in the memory. The light source estimation unit 21 estimates light source information for providing a brightening effect on the specified range of the 3D contour image corresponding to the target portion based on the target portion specified by the enhancement specifying unit 20 (S). -11).
光源情報を推定する手順の一例を、図10を参照しながら説明する。実画像33を、例えば表示部に表示する。強調指定部20を操作して、図11に示すように、表示される実画像33に対して光演出を施す範囲36’を指定する。光源推定部21は、図12に示すように、実画像33に指定した範囲36’に対応する3D輪郭画像35での指定範囲36を、複数の三角形状のメッシュ37に分割する(S−13)。その後、図13に示すように、分割された各メッシュ37の面法線ベクトル38をそれぞれ算出し(S−14)、複数の面法線ベクトル38の和をとることで合成ベクトル39を算出する(S−15)。そして、光源推定部21は、図14に示すように、合成ベクトル39が示す方向線上に定義されるように仮想光源40を推定する(S−16)。 An example of a procedure for estimating the light source information will be described with reference to FIG. The real image 33 is displayed on a display unit, for example. By operating the emphasis designating unit 20, as shown in FIG. 11, a range 36 ′ in which a light effect is applied to the displayed real image 33 is designated. As illustrated in FIG. 12, the light source estimation unit 21 divides the designated range 36 in the 3D contour image 35 corresponding to the range 36 ′ designated in the actual image 33 into a plurality of triangular meshes 37 (S-13). ). Thereafter, as shown in FIG. 13, the surface normal vectors 38 of the divided meshes 37 are respectively calculated (S-14), and the sum of the plurality of surface normal vectors 38 is calculated to calculate the composite vector 39. (S-15). Then, as shown in FIG. 14, the light source estimation unit 21 estimates the virtual light source 40 so as to be defined on the direction line indicated by the composite vector 39 (S-16).
光源推定部21で推定された光源情報は、シェーディング処理部15に送られる。シェーディング処理部15は、推定した光源情報に基づいて3D輪郭画像の仮想空間に仮想光源40を定義し、さらに、物体毎の表面に設定される反射率の情報に基づいて、図15に示すように、物体に対して仮想光源40とは逆側に陰影41を付けた陰影画像を生成する(S−17)。生成した陰影画像は、実画像のカメラ位置と同じ方向から見た2次元の陰影画像に変換して出力される。 The light source information estimated by the light source estimation unit 21 is sent to the shading processing unit 15. The shading processing unit 15 defines the virtual light source 40 in the virtual space of the 3D contour image based on the estimated light source information, and further, based on the reflectance information set on the surface of each object, as shown in FIG. In addition, a shadow image is generated with a shadow 41 on the opposite side of the object from the virtual light source 40 (S-17). The generated shadow image is converted into a two-dimensional shadow image viewed from the same direction as the camera position of the actual image and output.
ブレンディング部16は、陰影画像と実画像とを入力として、これら2つの画像をブレンドして、実画像に対して仮想的な陰影を付加した仮想画像を生成する(S−18)。そして、ブレンド画像出力部23により表示部又はプリンタに出力される(S−19)。これにより、図16に示すように、実画像のうちの所望する対象範囲に対して明るい演出を施した仮想画像43を得ることができる。 The blending unit 16 receives the shadow image and the real image, blends these two images, and generates a virtual image in which a virtual shadow is added to the real image (S-18). Then, the image is output to the display unit or printer by the blend image output unit 23 (S-19). Thereby, as shown in FIG. 16, the virtual image 43 which gave the bright effect with respect to the target range desired among real images can be obtained.
[第2実施形態]
第2実施形態では、強調指定部20を使用して、実画像に対して光演出を施したい被写体を対象部分として指定することで、光源推定部21が指定した被写体の境界を後ろから照らす仮想光源、例えばバックライト(Back Light)の推定を行う。
[Second Embodiment]
In the second embodiment, the emphasis designating unit 20 is used to designate a subject for which a light effect is to be applied to an actual image as a target part, thereby illuminating the boundary of the subject designated by the light source estimating unit 21 from behind. Estimate the light source, eg, Back Light.
具体的には、光源推定部21は、図17に示すように、実画像と深度マップとに基づいて被写体毎にクラスタリング処理を行う(S−17)。クラスタリング処理は、例えば、図18に示すように、実画像から抽出される特徴(色や輝度の情報)情報と、深度マップから抽出される距離情報とに基づいて、距離が同じクラスタの集合として複数の被写体A〜Dの輪郭像を抽出した3D輪郭画像45を生成する。その後、深度マップ補正部13で3D輪郭画像45の補正を行ってもよいが、省略してもよい。 Specifically, as illustrated in FIG. 17, the light source estimation unit 21 performs clustering processing for each subject based on the actual image and the depth map (S-17). For example, as shown in FIG. 18, the clustering process is performed as a set of clusters having the same distance based on feature (color and luminance information) information extracted from a real image and distance information extracted from a depth map. A 3D contour image 45 is generated by extracting contour images of a plurality of subjects A to D. Thereafter, the depth map correction unit 13 may correct the 3D contour image 45, but may omit it.
その後、図19に示すように、例えば表示部に表示される実画像48に対して強調指定部20を用いて所望する被写体D‘を指定する(S−18)。この指定としては、被写体D’をタッチ操作してもよいし、被写体D‘の輪郭49をなぞるように指定してもよい。その後、指定された被写体D’を含む範囲に基づいて、クラスタリングされた被写体の輪郭像のうち、対応する被写体の輪郭像を3D輪郭画像45から選択する(S−19)。 After that, as shown in FIG. 19, for example, a desired subject D ′ is designated using the emphasis designating unit 20 for the real image 48 displayed on the display unit (S-18). As the designation, the subject D ′ may be touch-operated or may be designated to trace the outline 49 of the subject D ′. Thereafter, based on the range including the designated subject D ′, a contour image of the corresponding subject is selected from the clustered subject contour images from the 3D contour image 45 (S-19).
その後、図20に示すように、選択された被写体Dの境界部分が明るく強調されるように、前記被写体Dの背後に定義される仮想光源46を推定する(S−20)。その後、シェーディング処理部15は、推定した光源情報に基づいて、クラスタリングされた被写体Dの背後に仮想光源46を定義し、かつ物体毎に表面に設定される反射率の情報に基づいて被写体の表面上の輝度を計算することによって被写体にレンダリングを施して3次元の陰影画像を生成する。そして、シェーディング処理部15は、3次元の陰影画像から2次元の陰影画像を出力する。ブレンディング部16は、2次元の陰影画像を実画像に合成して仮想画像を生成する。これにより、図21に示すように、所望する被写体Dの境界49に対して背後から自然な明るさで照らす光演出を施した仮想画像50を得ることができる。 After that, as shown in FIG. 20, the virtual light source 46 defined behind the subject D is estimated so that the boundary portion of the selected subject D is brightly emphasized (S-20). Thereafter, the shading processing unit 15 defines the virtual light source 46 behind the clustered subject D based on the estimated light source information, and the subject surface based on the reflectance information set on the surface for each object. By calculating the upper luminance, the subject is rendered to generate a three-dimensional shadow image. Then, the shading processing unit 15 outputs a two-dimensional shadow image from the three-dimensional shadow image. The blending unit 16 generates a virtual image by synthesizing a two-dimensional shadow image with a real image. As a result, as shown in FIG. 21, a virtual image 50 can be obtained in which a light effect in which the boundary 49 of the desired subject D is illuminated with natural brightness from behind is provided.
ところで、従来、2次元の画像処理アプリケーションソフトでの輪郭強調処理では、例えば指定した被写体の輪郭を全体的に強調するため、不自然さが残っていた。上記実施形態では、ソリッドのように境界がはっきりしている被写体だけでなく、髪の毛や着物、布等のはっきりしない境界に対しても、2次元での画像処理では得られない自然な陰影による立体感を作り出すことができる。また、本発明では、対象部分又は被写体の境界に対して距離感を考慮した自然な陰影、すなわち、その被写体だけでなく周りの被写体にも陰影を施す等の演出を付与することができる。さらに、同じ色の服を着ている被写体同士では境界を区別できないのに対し、本発明では深度マップ(距離情報)を用いるため区別することができる。 By the way, conventionally, in the contour emphasis processing in the two-dimensional image processing application software, for example, the contour of the designated subject is entirely emphasized, and thus unnaturalness remains. In the above embodiment, not only a solid object such as a solid object but also a solid object such as a hair, a kimono, or a cloth is not a solid object that can not be obtained by two-dimensional image processing. A feeling can be created. Further, according to the present invention, it is possible to give a natural shadow in consideration of a sense of distance to the target portion or the boundary of the subject, that is, an effect such as shading not only the subject but also surrounding subjects. Further, while the boundary between subjects wearing clothes of the same color cannot be distinguished, the present invention can be distinguished because a depth map (distance information) is used.
上記実施形態では、光源推定部21が仮想光源に関する情報のうち、位置情報の推定を行っているが、本発明では位置情報だけに限らず、分布、波長、及び向き等の情報を推定してもよい。また、分布、波長、及び向き等の情報の変更を簡便に行えるように、例えば点光源や面光源等のライトの種類を変更するライト変更手段を光源情報変更操作部22に設けてもよい。 In the above embodiment, the light source estimation unit 21 estimates position information out of information related to the virtual light source. However, in the present invention, not only the position information but also information such as distribution, wavelength, and direction is estimated. Also good. Further, in order to easily change information such as distribution, wavelength, and orientation, for example, a light changing unit that changes the type of light such as a point light source or a surface light source may be provided in the light source information change operation unit 22.
上記各実施形態の光源推定部21では、対象部分に対して明るくなる演出を施すように仮想光源の情報を推定しているが、本発明ではこれに限らず、例えば影を付ける演出を施すように仮想光源の情報を推定してもよい。また、本発明では、深度マップ補正部13での輪郭補正を省略してもよい。 In the light source estimation unit 21 of each of the embodiments described above, the information on the virtual light source is estimated so as to give a brightening effect to the target part. However, the present invention is not limited to this, and for example, a shadowing effect is given. The virtual light source information may be estimated. In the present invention, contour correction in the depth map correction unit 13 may be omitted.
以上、本発明を好適な実施の形態に基づき具体的に説明したが、本発明は上記のものに限定されるものではなく、その要旨を逸脱しない範囲で種種変更可能であることは言うまでもない。 Although the present invention has been specifically described above based on the preferred embodiments, it is needless to say that the present invention is not limited to the above-described ones, and various modifications can be made without departing from the scope of the present invention.
上記各実施形態では、画像作成装置として説明しているが、本発明としては、画像作成方法としてもよい。さらに本発明は、画像作成方法をコンピュータに実行させるためのプログラム、並びにそのプログラムを記録したコンピュータ読み取り可能な記録媒体の発明としてもよい。 In each of the above embodiments, the image creating apparatus is described. However, the present invention may be an image creating method. Furthermore, the present invention may be an invention of a program for causing a computer to execute the image creation method and a computer-readable recording medium on which the program is recorded.
10 画像作成装置
14 3次元モデル推定部
15 シェーディング処理部
20 強調指定部
21 光源推定部
DESCRIPTION OF SYMBOLS 10 Image production apparatus 14 3D model estimation part 15 Shading process part 20 Enhancement designation | designated part 21 Light source estimation part
Claims (8)
前記実画像に対応して奥行き情報を含む3次元情報を取得する3次元情報取得手段と、
前記実画像と前記3次元情報とに基づいて3次元画像を生成する3次元画像生成手段と、
前記実画像に対して光による演出を施す対象部分を指定する指定手段と、
前記指定手段で指定された対象部分に基づいて前記演出を施すための仮想光源に関する情報を推定する推定手段と、
前記推定手段で推定した前記情報に基づいて前記仮想光源を前記3次元画像の仮想空間に定義して陰影情報を生成するシェーディング手段と、
前記陰影情報を前記実画像に合成するブレンディング手段と、
を備えることを特徴とする画像作成装置。 Real image acquisition means for acquiring a real image;
3D information acquisition means for acquiring 3D information including depth information corresponding to the real image;
3D image generation means for generating a 3D image based on the real image and the 3D information;
Designating means for designating a target portion to effect the real image with light;
Estimating means for estimating information on a virtual light source for performing the effect based on the target portion specified by the specifying means;
Shading means for generating shadow information by defining the virtual light source in the virtual space of the three-dimensional image based on the information estimated by the estimating means;
Blending means for combining the shadow information with the real image;
An image creating apparatus comprising:
前記仮想光源に関する情報を変更する光源情報変更手段を備えていることを特徴とする画像作成装置。 The image creating apparatus according to claim 1,
An image creating apparatus comprising light source information changing means for changing information on the virtual light source.
前記指定手段は、強調させる範囲を指定する手段であり、
前記指定手段で指定した範囲に対応する前記3次元画像での範囲をメッシュ分割する手段と、
前記分割された各メッシュの面法線ベクトルを算出する手段と、
前記複数の面法線ベクトルの和をとることで合成ベクトルを算出する手段と、
前記合成ベクトルが示す方向線上に定義するための前記仮想光源を推定する手段と、
を含むことを特徴とする画像作成装置。 In the image creation device according to claim 1 or 2,
The designation means is means for designating a range to be emphasized,
Means for dividing the range in the three-dimensional image corresponding to the range specified by the specifying means;
Means for calculating a surface normal vector of each of the divided meshes;
Means for calculating a composite vector by taking the sum of the plurality of surface normal vectors;
Means for estimating the virtual light source for definition on a direction line indicated by the combined vector;
An image creating apparatus comprising:
前記指定手段は、強調する被写体、又は被写体の境界を指定する手段であり、
前記推定手段は、
前記指定手段で指定した前記被写体を含む領域、又は前記境界を含む領域に対応する前記3次元画像での領域に対してクラスタリング処理を施して前記領域を抽出する手段と、
前記抽出された領域の背後に定義するための前記仮想光源を推定する手段と、
を含むことを特徴とする画像作成装置。 In the image creation device according to claim 1 or 2,
The designation means is a means for designating a subject to be emphasized or a boundary of the subject,
The estimation means includes
Means for performing clustering processing on a region including the subject specified by the specifying unit or a region in the three-dimensional image corresponding to the region including the boundary to extract the region;
Means for estimating the virtual light source for definition behind the extracted region;
An image creating apparatus comprising:
前記3次元画像生成手段は、
前記実画像と前記3次元情報とから輪郭画像をそれぞれ抽出する輪郭抽出手段と、
前記3次元情報の輪郭を前記実画像の輪郭に整合させるように前記3次元情報を補正して3次元画像を生成する補正手段と、
を含むことを特徴とする画像作成装置。 In the image creation device according to any one of claims 1 to 4,
The three-dimensional image generation means includes
Contour extracting means for extracting contour images from the real image and the three-dimensional information;
Correction means for correcting the three-dimensional information so as to match the contour of the three-dimensional information with the contour of the real image to generate a three-dimensional image;
An image creating apparatus comprising:
前記実画像に含まれる物体の反射率を特定し特定した反射率を、前記補正手段により補正をした後の前記3次元画像に含まれる物体毎に設定する反射率設定手段と、
を備えることを特徴とする画像作成装置。 The image creating apparatus according to claim 5.
A reflectance setting means for setting the reflectance specified by specifying the reflectance of the object included in the real image for each object included in the three-dimensional image after correction by the correction means;
An image creating apparatus comprising:
前記実画像に対応して奥行き情報を含む3次元情報を取得する3次元情報取ステップと、
前記実画像と前記3次元情報とに基づいて3次元画像を生成する3次元画像生成ステップと、
前記実画像に対して光による演出を施す対象部分を指定する指定ステップと、
前記指定された対象部分に基づいて前記演出を施すための仮想光源に関する情報を推定する推定ステップと、
前記推定された情報に基づいて前記仮想光源を前記3次元画像の仮想空間に定義することで陰影情報を生成するシェーディングステップと、
前記陰影情報を前記実画像に合成するブレンディングステップと、
をコンピュータに実行させるための画像作成プログラム。 A real image acquisition step of acquiring a real image;
A three-dimensional information acquisition step for acquiring three-dimensional information including depth information corresponding to the real image;
A three-dimensional image generation step of generating a three-dimensional image based on the real image and the three-dimensional information;
A designation step for designating a target portion to be rendered with light on the real image;
An estimation step for estimating information on a virtual light source for performing the effect based on the designated target portion;
A shading step of generating shadow information by defining the virtual light source in the virtual space of the three-dimensional image based on the estimated information;
A blending step for combining the shadow information with the real image;
An image creation program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012109267A JP2013235537A (en) | 2012-05-11 | 2012-05-11 | Image creation device, image creation program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012109267A JP2013235537A (en) | 2012-05-11 | 2012-05-11 | Image creation device, image creation program and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013235537A true JP2013235537A (en) | 2013-11-21 |
Family
ID=49761587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012109267A Pending JP2013235537A (en) | 2012-05-11 | 2012-05-11 | Image creation device, image creation program and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013235537A (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015194488A1 (en) * | 2014-06-18 | 2015-12-23 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method thereof |
WO2016047072A1 (en) * | 2014-09-26 | 2016-03-31 | Canon Kabushiki Kaisha | Image processing apparatus and control method thereof |
JP2016208098A (en) * | 2015-04-15 | 2016-12-08 | キヤノン株式会社 | Image processor, image processing method, and program |
JP2016218729A (en) * | 2015-05-20 | 2016-12-22 | キヤノン株式会社 | Image processor, image processing method and program |
US9609206B2 (en) | 2014-03-31 | 2017-03-28 | Canon Kabushiki Kaisha | Image processing apparatus, method for controlling image processing apparatus and storage medium |
JP2017147658A (en) * | 2016-02-18 | 2017-08-24 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, control method, and program |
JP2018524896A (en) * | 2015-06-16 | 2018-08-30 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Method and apparatus for determining a depth map of an image |
KR101919077B1 (en) * | 2017-08-24 | 2018-11-16 | 에스케이텔레콤 주식회사 | Method and apparatus for displaying augmented reality |
JP2019037004A (en) * | 2018-11-26 | 2019-03-07 | キヤノン株式会社 | Image processing apparatus, control method thereof, and program |
JP2019205205A (en) * | 2015-04-15 | 2019-11-28 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2020013291A (en) * | 2018-07-18 | 2020-01-23 | コニカミノルタ株式会社 | Object detecting system and object detecting program |
JP2020184295A (en) * | 2019-04-26 | 2020-11-12 | Arithmer株式会社 | Dimensional data calculation device, product manufacturing device, and silhouette image generating device |
US11030799B2 (en) | 2017-03-27 | 2021-06-08 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and storage medium. With estimation of parameter of real illumination based on normal information on pixel included in high luminance area |
US11106938B2 (en) | 2015-04-15 | 2021-08-31 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data |
JP2021145385A (en) * | 2019-08-21 | 2021-09-24 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2021170222A (en) * | 2020-04-15 | 2021-10-28 | キヤノン株式会社 | Image processing apparatus and method, program, and storage medium |
CN115278080A (en) * | 2022-07-28 | 2022-11-01 | 北京五八信息技术有限公司 | Mask generation method, mask generation equipment and storage medium |
US11922649B2 (en) | 2018-11-30 | 2024-03-05 | Arithmer Inc. | Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus |
-
2012
- 2012-05-11 JP JP2012109267A patent/JP2013235537A/en active Pending
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9609206B2 (en) | 2014-03-31 | 2017-03-28 | Canon Kabushiki Kaisha | Image processing apparatus, method for controlling image processing apparatus and storage medium |
JP2016005203A (en) * | 2014-06-18 | 2016-01-12 | キヤノン株式会社 | Image processing system and control method of the same |
US10063826B2 (en) | 2014-06-18 | 2018-08-28 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method thereof |
US10574961B2 (en) | 2014-06-18 | 2020-02-25 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method thereof |
WO2015194488A1 (en) * | 2014-06-18 | 2015-12-23 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method thereof |
JP2016072692A (en) * | 2014-09-26 | 2016-05-09 | キヤノン株式会社 | Image processing system and control method of the same |
WO2016047072A1 (en) * | 2014-09-26 | 2016-03-31 | Canon Kabushiki Kaisha | Image processing apparatus and control method thereof |
EP3896643A1 (en) * | 2014-09-26 | 2021-10-20 | Canon Kabushiki Kaisha | Image processing apparatus and control method thereof |
US10475237B2 (en) | 2014-09-26 | 2019-11-12 | Canon Kabushiki Kaisha | Image processing apparatus and control method thereof |
JP2016208098A (en) * | 2015-04-15 | 2016-12-08 | キヤノン株式会社 | Image processor, image processing method, and program |
US11948282B2 (en) | 2015-04-15 | 2024-04-02 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data |
JP2019205205A (en) * | 2015-04-15 | 2019-11-28 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
US11106938B2 (en) | 2015-04-15 | 2021-08-31 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data |
JP2016218729A (en) * | 2015-05-20 | 2016-12-22 | キヤノン株式会社 | Image processor, image processing method and program |
JP2018524896A (en) * | 2015-06-16 | 2018-08-30 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Method and apparatus for determining a depth map of an image |
JP2017147658A (en) * | 2016-02-18 | 2017-08-24 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, control method, and program |
US10694111B2 (en) | 2016-02-18 | 2020-06-23 | Canon Kabushiki Kaisha | Image processing apparatus, image capture apparatus, and control method for adding an effect of a virtual light source to a subject |
US11503219B2 (en) | 2016-02-18 | 2022-11-15 | Canon Kabushiki Kaisha | Image processing apparatus, image capture apparatus, and control method for adding an effect of a virtual light source to a subject |
US11030799B2 (en) | 2017-03-27 | 2021-06-08 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and storage medium. With estimation of parameter of real illumination based on normal information on pixel included in high luminance area |
KR101919077B1 (en) * | 2017-08-24 | 2018-11-16 | 에스케이텔레콤 주식회사 | Method and apparatus for displaying augmented reality |
JP2020013291A (en) * | 2018-07-18 | 2020-01-23 | コニカミノルタ株式会社 | Object detecting system and object detecting program |
JP2019037004A (en) * | 2018-11-26 | 2019-03-07 | キヤノン株式会社 | Image processing apparatus, control method thereof, and program |
US11922649B2 (en) | 2018-11-30 | 2024-03-05 | Arithmer Inc. | Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus |
JP2020184295A (en) * | 2019-04-26 | 2020-11-12 | Arithmer株式会社 | Dimensional data calculation device, product manufacturing device, and silhouette image generating device |
JP2021145385A (en) * | 2019-08-21 | 2021-09-24 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2021170222A (en) * | 2020-04-15 | 2021-10-28 | キヤノン株式会社 | Image processing apparatus and method, program, and storage medium |
JP7462464B2 (en) | 2020-04-15 | 2024-04-05 | キヤノン株式会社 | Image processing device and method, program, and storage medium |
CN115278080A (en) * | 2022-07-28 | 2022-11-01 | 北京五八信息技术有限公司 | Mask generation method, mask generation equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013235537A (en) | Image creation device, image creation program and recording medium | |
JP5818773B2 (en) | Image processing apparatus, image processing method, and program | |
JP6493395B2 (en) | Image processing apparatus and image processing method | |
JP4966431B2 (en) | Image processing device | |
KR101560508B1 (en) | Method and arrangement for 3-dimensional image model adaptation | |
US20210134049A1 (en) | Image processing apparatus and method | |
US9224245B2 (en) | Mesh animation | |
JP4246516B2 (en) | Human video generation system | |
WO2016151691A1 (en) | Image processing device, image processing system, image processing method, and program | |
JP5916248B2 (en) | Image generating apparatus, image generating method, program, and computer-readable information storage medium | |
JP5762600B1 (en) | Information processing apparatus and information processing method | |
JP2017204673A (en) | Image processing system, image processing method and program | |
JP6541920B1 (en) | INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD | |
US11138743B2 (en) | Method and apparatus for a synchronous motion of a human body model | |
JP2016071645A (en) | Object three-dimensional model restoration method, device, and program | |
JP2009211513A (en) | Image processing apparatus and method therefor | |
US11682234B2 (en) | Texture map generation using multi-viewpoint color images | |
KR20190062102A (en) | Method and apparatus for operating 2d/3d augument reality technology | |
JP6552266B2 (en) | Image processing apparatus, image processing method, and program | |
KR102131923B1 (en) | Method and system for real-time generation of 3D avatar for virtual fitting | |
JP6362401B2 (en) | Image processing apparatus and image processing apparatus control method | |
JP7476511B2 (en) | Image processing system, image processing method and program | |
JP6896811B2 (en) | Image processing equipment, image processing methods, and programs | |
US20220309733A1 (en) | Surface texturing from multiple cameras | |
JP2023153534A (en) | Image processing apparatus, image processing method, and program |