JP5994320B2 - Depth production support apparatus, depth production support method, and program - Google Patents

Depth production support apparatus, depth production support method, and program Download PDF

Info

Publication number
JP5994320B2
JP5994320B2 JP2012069923A JP2012069923A JP5994320B2 JP 5994320 B2 JP5994320 B2 JP 5994320B2 JP 2012069923 A JP2012069923 A JP 2012069923A JP 2012069923 A JP2012069923 A JP 2012069923A JP 5994320 B2 JP5994320 B2 JP 5994320B2
Authority
JP
Japan
Prior art keywords
depth
image
depth value
contour line
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012069923A
Other languages
Japanese (ja)
Other versions
JP2013201697A (en
Inventor
晃洋 佐々木
晃洋 佐々木
河合 直樹
直樹 河合
孝博 松原
孝博 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2012069923A priority Critical patent/JP5994320B2/en
Publication of JP2013201697A publication Critical patent/JP2013201697A/en
Application granted granted Critical
Publication of JP5994320B2 publication Critical patent/JP5994320B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、立体視を実現するための視差画像を生成する視差画像生成装置が利用する奥行き画像を制作する奥行き制作支援装置等に関する。   The present invention relates to a depth production support apparatus that produces a depth image used by a parallax image generation apparatus that generates a parallax image for realizing stereoscopic vision.

従来、3次元映像表示システムでは、大別して、2視差方式のものと、3以上の視差を持つ多視差方式のものがある。いずれの方式も、必要な視点数からシーンを見た映像を準備する必要がある。   Conventional three-dimensional video display systems are roughly classified into a two-parallax system and a multi-parallax system having three or more parallaxes. In either method, it is necessary to prepare a video in which the scene is viewed from the required number of viewpoints.

最も直接的な映像の制作方法としては、必要な視差数分のカメラを用意し、同一シーンを所定の間隔に配置された複数のカメラで撮影する方法が考えられる。最近では2視差を直接撮影できるカメラが市販されているが、多視差を直接撮影できるカメラは一般的でない。   As the most direct video production method, there can be considered a method in which cameras for the required number of parallaxes are prepared and the same scene is shot with a plurality of cameras arranged at predetermined intervals. Recently, cameras that can directly shoot two parallaxes are commercially available, but cameras that can directly shoot multiple parallaxes are not common.

また、3次元CG(Computer Graphics)画像を作成し、複数のカメラ位置を設定してレンダリングする方法も考えられる。3次元CG画像には奥行き情報が含まれており、3次元画像から多視差方式に対応した視差画像を作成することは可能である。しかし、カメラ位置の数が多い場合、レンダリング回数が多くなり、時間とコストがかかるという問題がある。さらに、ほとんどの映像はCG画像ではなく実写であり、実写から3次元映像を作成することが求められている。   A method of creating a three-dimensional CG (Computer Graphics) image and setting a plurality of camera positions for rendering is also conceivable. The three-dimensional CG image includes depth information, and a parallax image corresponding to the multi-parallax method can be created from the three-dimensional image. However, when the number of camera positions is large, there is a problem that the number of renderings increases, which takes time and cost. Furthermore, most videos are not CG images but are real photographs, and it is required to create a three-dimensional video from the real photographs.

実写映像による多視差映像を制作する為に、平面(2D)映像を基にして多視差映像に変換する手法(いわゆる2次元/3次元変換の手法)は、いくつか存在する。しかし、多視差映像に変換する手法では、奥行き情報がない。そのため全てのシーン(フレーム)において手作業で1枚ずつ奥行き情報を作成する必要が生じ、非常に作業負荷が高かった。   There are several methods (so-called two-dimensional / three-dimensional conversion methods) for converting a multi-parallax image based on a plane (2D) image to produce a multi-parallax image based on a real image. However, there is no depth information in the method of converting to a multi-parallax image. Therefore, it is necessary to create depth information one by one in every scene (frame), and the work load is very high.

そこで、奥行き値を設定するための手法として、例えば、特許文献1には、ユーザ指示に応じてメッシュ形状を変形させ、奥行き値を設定する技術が提案されている。また、特許文献2には、ユーザ指示に応じて等高線を描き、その等高線に奥行き値を設定する技術が提案されている。また、非特許文献1には、3次元空間内において、映像の選択部分をユーザが移動・回転させ、奥行き値を設定する技術が提案されている。   Thus, as a method for setting the depth value, for example, Patent Document 1 proposes a technique for changing the mesh shape in accordance with a user instruction and setting the depth value. Patent Document 2 proposes a technique for drawing a contour line in accordance with a user instruction and setting a depth value for the contour line. Non-Patent Document 1 proposes a technique in which a user moves and rotates a selected portion of a video in a three-dimensional space to set a depth value.

しかしながら、特許文献1に記載の技術は、操作すべき項目が多く、1フレーム分の奥行き情報を設定するために長時間を要し、設定した奥行き値が確認し難いという課題があった。また、特許文献2に記載の技術は、等高線を描き、奥行き情報を設定するために長時間を要するだけでなく、被写体が複雑な形状をしている場合、等高線の描写が困難になるという課題があった。また、非特許文献1に記載の技術は、設定方法は簡略化されているものの、異なるフレームにおける奥行き値の比較ができないため、位置関係の矛盾が生じやすいという課題があった。   However, the technique described in Patent Document 1 has a problem that there are many items to be operated, and it takes a long time to set the depth information for one frame, and it is difficult to confirm the set depth value. Further, the technique described in Patent Document 2 not only takes a long time to draw contour lines and set depth information, but also makes it difficult to draw contour lines when the subject has a complicated shape. was there. Further, although the technique described in Non-Patent Document 1 has a simplified setting method, there is a problem in that the positional relationship is likely to be inconsistent because depth values in different frames cannot be compared.

そこで、本発明者らは、特許文献3において、(1)グラフとスライドバーを使用して奥行き値を設定する技術、(2)グラフとプレビュー画面を使用して奥行き値を確認する技術、(3)キーフレーム間の奥行き値を補間する技術、(4)前述の技術に基づいて奥行き画像及びラベル画像を生成する技術、を提案している。   In view of this, the present inventors disclosed in Patent Document 3 (1) a technique for setting a depth value using a graph and a slide bar, (2) a technique for checking a depth value using a graph and a preview screen, ( 3) A technique for interpolating depth values between key frames, and (4) a technique for generating a depth image and a label image based on the above-described technique are proposed.

特表2010−516155号公報Special table 2010-516155 gazette 特表2011−523323号公報Special table 2011-523323 gazette 特願2011−168920号公報Japanese Patent Application No. 2011-168920

Depth Director: A System for Adding Depth to MoviesDepth Director: A System for Adding Depth to Movies

しかしながら、特許文献3に開示されている技術では、奥行き画像のマスク領域内部が一色(単一の画素値)で塗られており、マスク領域の局所的な出っ張りを表現できないという課題が残されている。ここで、マスク領域は、例えば、人物や物体などの立体物ごとに設定される領域である。   However, in the technique disclosed in Patent Document 3, the inside of the mask area of the depth image is painted with one color (single pixel value), and there remains a problem that the local protrusion of the mask area cannot be expressed. Yes. Here, a mask area | region is an area | region set for every solid objects, such as a person and an object, for example.

特許文献1に開示されている技術では、操作すべき項目が多く、1フレーム分の奥行き情報を設定するための長時間を要し、設定した奥行き値が確認し難いという従来からの課題がある。また、設定結果の確認方法が、メッシュ形状のワイヤーフレームを元画像に合成し、表示するというものであり、立体物の形状が確認し難いという課題がある。
特許文献2に開示されている技術も同様に、操作すべき項目が多く、1フレーム分の奥行き情報を設定するための長時間を要し、また、複雑な形状の立体物について等高線を正しく設定する操作は困難であるという課題がある。
非特許文献1に開示されている技術では、異なるフレームにおける奥行き値の比較ができないため、位置関係の矛盾が生じやすいという従来からの課題がある。また、立体物の丸み表現の自由度が低いという課題がある。更に、設定結果の確認方法が、3次元空間上で立体化された映像を、カメラアングルを変更しながら確認するというものであり、立体物の形状の細部が確認し難いという課題もある。
In the technique disclosed in Patent Document 1, there are many items to be operated, and it takes a long time to set the depth information for one frame, and there is a conventional problem that it is difficult to confirm the set depth value. . Moreover, the confirmation method of a setting result synthesize | combines and displays a mesh-shaped wire frame on an original image, and there exists a subject that it is difficult to confirm the shape of a solid object.
Similarly, in the technique disclosed in Patent Document 2, there are many items to be operated, and it takes a long time to set the depth information for one frame, and the contour lines are correctly set for a three-dimensional object having a complicated shape. There is a problem that the operation is difficult.
The technique disclosed in Non-Patent Document 1 has a conventional problem that the positional relationship is likely to be inconsistent because the depth values in different frames cannot be compared. In addition, there is a problem that the degree of freedom in expressing the roundness of the three-dimensional object is low. Furthermore, the confirmation method of the setting result is to confirm the three-dimensional image in the three-dimensional space while changing the camera angle, and there is a problem that it is difficult to confirm the details of the shape of the three-dimensional object.

本発明は、前述した問題点に鑑みてなされたもので、その目的とすることは、立体物の局所的な凹凸を表現した奥行き画像を簡単な操作で制作することを支援する奥行き制作支援装置等を提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a depth production support device that supports production of a depth image expressing local unevenness of a three-dimensional object with a simple operation. Etc. is to provide.

前述した目的を達成するために、第1の発明は、立体視を実現するための視差画像の生成処理に利用する奥行き画像を制作する奥行き制作支援装置であって、元の2次元画像内に描画されている特定の被写体を識別するために2値化された複数のマスク画像を読み込むマスク画像入力手段と、前記マスク画像に対して閉曲線である輪郭線を設定する輪郭線設定手段と、前記輪郭線に沿って複数の点を設定し、設定した点に対して所望の奥行き値を入力する奥行き値入力手段と、前記奥行き値入力手段によって入力された奥行き値に基づき、前記輪郭線の内部領域が滑らかな平面となるように前記マスク画像の各画素の奥行き値を算出する奥行き値算出手段と、前記奥行き値算出手段によって算出された奥行き値を前記マスク画像の各画素に設定し、奥行き値が設定された前記マスク画像を用いて前記奥行き画像を作成する奥行き画像作成手段と、を備えることを特徴とする奥行き制作支援装置である。
第1の発明によって、特定の被写体の輪郭線に沿って少なくとも2点に奥行き値を設定するという極めて簡単な操作で、立体物の局所的な凹凸を表現した奥行き画像を、制作することが可能となる。また、背景との境界を明確に区別することができ、演算の複雑化を防ぐことができる。
In order to achieve the above-described object, the first invention is a depth production support apparatus for producing a depth image used for generating a parallax image for realizing stereoscopic vision, and includes a depth production support device in the original two-dimensional image. A mask image input unit that reads a plurality of binarized mask images to identify a specific subject being drawn, a contour line setting unit that sets a contour line that is a closed curve with respect to the mask image, and A depth value input means for setting a plurality of points along the contour line, and inputting a desired depth value for the set point, and the inside of the contour line based on the depth value input by the depth value input means Depth value calculating means for calculating the depth value of each pixel of the mask image so that the area becomes a smooth plane, and the depth value calculated by the depth value calculating means are set for each pixel of the mask image. And a depth production support apparatus characterized by comprising: a depth image generating means for generating the depth image using the mask image depth value is set.
According to the first invention, it is possible to produce a depth image expressing local unevenness of a three-dimensional object by an extremely simple operation of setting depth values at least two points along a contour line of a specific subject. It becomes. In addition, the boundary with the background can be clearly distinguished, and the computation can be prevented from becoming complicated.

また、第1の発明において、前記輪郭線設定手段によって設定された前記輪郭線から分岐する分岐線を追加入力する分岐線入力手段と、前記分岐線を既に設定されている前記輪郭線と連結し、新たな輪郭線を設定する輪郭線再設定手段と、を更に備え、前記奥行き値入力手段は、前記新たな輪郭線に沿った複数の点に対して所望の奥行き値を入力し、前記奥行き値算出手段は、前記新たな輪郭線の内部領域が滑らかな平面となるように前記マスク画像の各画素の奥行き値を算出することが望ましい。
これにより、被写体の重なり部分の境界も輪郭線で描画できるようになり、被写体の重なり部分の奥行きを表現することが可能となる。奥行き画像制作の自由度が増す。
In the first invention, the branch line input means for additionally inputting a branch line branched from the contour line set by the contour line setting means, and the branch line is connected to the contour line already set. Contour depth resetting means for setting a new contour line, wherein the depth value input means inputs a desired depth value for a plurality of points along the new contour line, and the depth It is desirable that the value calculating means calculates the depth value of each pixel of the mask image so that the inner area of the new contour line becomes a smooth plane.
As a result, the boundary of the overlapping portion of the subject can be drawn with the contour line, and the depth of the overlapping portion of the subject can be expressed. Increased freedom of depth image production.

また、第1の発明において、前記奥行き画像作成手段によって作成された奥行き画像に対し、前記奥行き画像の各画素と前記輪郭線との接近度、所定の丸み付け範囲、及び所定の丸み付け厚みに基づいて丸み付け処理を行う丸み付け手段を更に備えることが望ましい。
これにより、簡単な操作で輪郭線の内部に更に立体物の自然な丸みを与えることができ、画像の奥行き表現が多様となる。
In the first aspect of the invention, the depth image created by the depth image creation means has a degree of proximity between each pixel of the depth image and the contour, a predetermined rounding range, and a predetermined rounding thickness. It is desirable to further include rounding means for performing rounding processing based on the rounding process.
As a result, a natural object can be further rounded inside the contour line with a simple operation, and the depth expression of the image can be varied.

また、第1の発明において、前記奥行き値入力手段は、前記輪郭線に沿った少なくとも2点に対し、異なる奥行き値をそれぞれ入力することが望ましい。
これにより、輪郭線自体に奥行き方向の傾斜を持たせることができ、自由な奥行き表現を簡単な操作で実現できる。
In the first invention, it is preferable that the depth value input means inputs different depth values for at least two points along the contour line.
Thereby, the contour line itself can be inclined in the depth direction, and a free depth expression can be realized by a simple operation.

また、第1の発明において、前記輪郭線の内部領域に前記輪郭線と接しない補助線を追加入力する補助線入力手段を更に備え、前記奥行き値入力手段は、更に、前記補助線に沿った複数の点に対して所望の奥行き値を入力し、前記奥行き値算出手段は、前記輪郭線の内部領域であって、前記輪郭線及び前記補助線を境界として、前記境界以外の画素が滑らかな平面となるように前記マスク画像の各画素の奥行き値を算出することが望ましい。
これにより、輪郭線内部の奥行き表現を多様化できる。
Further, in the first invention, an auxiliary line input means for additionally inputting an auxiliary line not in contact with the contour line in the inner region of the contour line is further provided, and the depth value input means is further provided along the auxiliary line. Desired depth values are input to a plurality of points, and the depth value calculation means is an internal region of the contour line, and pixels other than the boundary are smooth with the contour line and the auxiliary line as a boundary. It is desirable to calculate the depth value of each pixel of the mask image so as to be a plane.
Thereby, the depth expression inside the outline can be diversified.

第2の発明は、立体視を実現するための視差画像の生成処理に利用する奥行き画像を制作する奥行き制作支援方法であって、コンピュータが、元の2次元画像内に描画されている特定の被写体を識別するために2値化された複数のマスク画像を読み込むマスク画像入力ステップと、前記マスク画像に対して閉曲線である輪郭線を設定する輪郭線設定ステップと、前記輪郭線に沿って複数の点を設定し、設定した点に対して所望の奥行き値を入力する奥行き値入力ステップと、前記奥行き値入力ステップによって入力された奥行き値に基づき、前記輪郭線の内部領域が滑らかな平面となるように前記マスク画像の各画素の奥行き値を算出する奥行き値算出ステップと、前記奥行き値算出ステップによって算出された奥行き値を前記マスク画像の各画素に設定し、奥行き値が設定された前記マスク画像を用いて前記奥行き画像を作成する奥行き画像作成ステップと、を実行することを特徴とする奥行き制作支援方法である。
第2の発明によって、特定の被写体の輪郭線に沿って少なくとも2点に奥行き値を設定するという極めて簡単な操作で、立体物の局所的な凹凸を表現した奥行き画像を、制作することが可能となる。また、背景との境界を明確に区別することができ、演算の複雑化を防ぐことができる。
A second invention is a depth production support method for producing a depth image to be used for a process of generating a parallax image for realizing stereoscopic vision, in which a computer has a specific image drawn in the original two-dimensional image. A mask image input step for reading a plurality of binarized mask images for identifying a subject, a contour line setting step for setting a contour line that is a closed curve with respect to the mask image, and a plurality along the contour line A depth value input step for inputting a desired depth value for the set point, and a plane in which the inner area of the contour line is smooth based on the depth value input by the depth value input step. A depth value calculating step of calculating a depth value of each pixel of the mask image, and the depth value calculated by the depth value calculating step of the mask image Set pixel, a depth production support method characterized by performing a depth image generation step of generating the depth image using the mask image depth value is set, the.
According to the second invention, it is possible to produce a depth image expressing local unevenness of a three-dimensional object by an extremely simple operation of setting depth values at least two points along a contour line of a specific subject. It becomes. In addition, the boundary with the background can be clearly distinguished, and the computation can be prevented from becoming complicated.

第3の発明は、コンピュータに、元の2次元画像内に描画されている特定の被写体を識別するために2値化された複数のマスク画像を読み込むマスク画像入力ステップと、前記マスク画像に対して閉曲線である輪郭線を設定する輪郭線設定ステップと、前記輪郭線に沿って複数の点を設定し、設定した点に対して所望の奥行き値を入力する奥行き値入力ステップと、前記奥行き値入力ステップによって入力された奥行き値に基づき、前記輪郭線の内部領域が滑らかな平面となるように前記マスク画像の各画素の奥行き値を算出する奥行き値算出ステップと、前記奥行き値算出ステップによって算出された奥行き値を前記マスク画像の各画素に設定し、奥行き値が設定された前記マスク画像を用いて前記奥行き画像を作成する奥行き画像作成ステップと、を実行させるためのプログラムである。
第3の発明に係るプログラムをコンピュータにインストールすることで、第1の発明に係る奥行き制作支援装置を得ることができる。また、背景との境界を明確に区別することができ、演算の複雑化を防ぐことができる。
According to a third aspect of the present invention, a mask image input step of reading a plurality of binarized mask images to identify a specific subject drawn in the original two-dimensional image, A contour line setting step for setting a contour line that is a closed curve, a depth value input step for setting a plurality of points along the contour line, and inputting a desired depth value for the set point, and the depth value Based on the depth value input in the input step, the depth value calculation step for calculating the depth value of each pixel of the mask image so that the inner area of the contour line becomes a smooth plane, and the depth value calculation step A depth image creation step for creating the depth image using the mask image with the depth value set for each pixel of the mask image. Tsu is a program to be executed and up, the.
The depth production support apparatus according to the first invention can be obtained by installing the program according to the third invention in the computer. In addition, the boundary with the background can be clearly distinguished, and the computation can be prevented from becoming complicated.

本発明により、立体物の局所的な凹凸を表現した奥行き画像を簡単な操作で制作することを支援する奥行き制作支援装置等を提供できる。   According to the present invention, it is possible to provide a depth production support device that supports producing a depth image expressing local unevenness of a three-dimensional object with a simple operation.

本発明の実施の形態に係る奥行き制作支援装置1のハードウエア構成図である。It is a hardware block diagram of the depth production assistance apparatus 1 which concerns on embodiment of this invention. 奥行き制作支援装置1及び視差画像生成装置2の入出力データを示す図である。It is a figure which shows the input-output data of the depth production assistance apparatus 1 and the parallax image generation apparatus 2. FIG. 2次元画像3の一例を示す図である。3 is a diagram illustrating an example of a two-dimensional image 3. FIG. 図3に示した2次元画像3に基づいて生成された背景画像4の一例を示す図である。It is a figure which shows an example of the background image 4 produced | generated based on the two-dimensional image 3 shown in FIG. マスク画像5の一例を示す図である。It is a figure which shows an example of the mask image. 他のマスク画像5の一例を示す図である。It is a figure which shows an example of the other mask image. 他のマスク画像5の一例を示す図である。It is a figure which shows an example of the other mask image. 奥行き画像8の一例を示す図である。It is a figure which shows an example of the depth image. 入出力画像の対応付けを説明するための図である。It is a figure for demonstrating matching of an input-output image. 奥行き制作支援処理を説明するフローチャートである。It is a flowchart explaining a depth production assistance process. 奥行き制作支援画面100の表示例である。It is a display example of the depth production support screen 100. 奥行き制作支援処理の対象とする2次元画像31の一例である。It is an example of the two-dimensional image 31 made into the object of depth production assistance processing. 2次元画像31から作成されるマスク画像51の一例である。It is an example of the mask image 51 created from the two-dimensional image 31. マスク画像51に設定された輪郭線61の一例である。It is an example of the outline 61 set to the mask image 51. FIG. 輪郭線61に沿って設定されたアンカーポイント71a〜71dと奥行き値72a〜72dの設定例である。It is an example of setting anchor points 71a to 71d and depth values 72a to 72d set along the contour line 61. 輪郭線61の内部領域の奥行き値演算処理例である。It is a depth value calculation processing example of the inner region of the contour line 61. 画像の奥行きのイメージ図である。It is an image figure of the depth of an image. 奥行き制作支援処理によって表現された奥行きの他のイメージ図である。It is another image figure of the depth expressed by the depth production support process. 丸み付け処理を説明する図である。It is a figure explaining a rounding process. 第2の実施の形態の奥行き制作支援処理の対象とする2次元画像32の一例である。It is an example of the two-dimensional image 32 made into the object of the depth production assistance process of 2nd Embodiment. 2次元画像32から作成されるマスク画像52の一例である。3 is an example of a mask image 52 created from a two-dimensional image 32. FIG. マスク画像52に設定された輪郭線62の一例である。It is an example of the outline 62 set to the mask image 52. FIG. 輪郭線62に対して追加された分岐線63a,63bの一例である。It is an example of branch lines 63a and 63b added to the contour line 62. 元のマスク画像52及び分岐線63a,63bのマスク画像52から新たなマスク画像54を生成する処理を説明するための図である。It is a figure for demonstrating the process which produces | generates the new mask image 54 from the mask image 52 of the original mask image 52 and branch line 63a, 63b. 新たなマスク画像54に対して新たに設定された輪郭線64及びアンカーポイント74a〜74h及び奥行き値75a〜75hの設定例である。This is an example of setting the contour line 64, anchor points 74a to 74h, and depth values 75a to 75h newly set for the new mask image 54. FIG. 輪郭線6の様々な例である。These are various examples of the contour line 6.

以下、図面に基づいて、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施の形態]
図1は、本発明の実施の形態に係る奥行き制作支援装置1のハードウエア構成図である。尚、図1のハードウエア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。
[First Embodiment]
FIG. 1 is a hardware configuration diagram of a depth production support apparatus 1 according to an embodiment of the present invention. Note that the hardware configuration in FIG. 1 is an example, and various configurations can be adopted depending on applications and purposes.

奥行き制作支援装置1は、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続される。   In the depth production support apparatus 1, a control unit 11, a storage unit 12, a media input / output unit 13, a communication control unit 14, an input unit 15, a display unit 16, a peripheral device I / F unit 17, etc. are connected via a bus 18. Is done.

制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成される。   The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、奥行き制作支援装置1が行う後述する処理を実現する。ROMは、不揮発性メモリであり、奥行き制作支援装置1のブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。RAMは、揮発性メモリであり、記憶部12、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。   The CPU calls and executes a program stored in the storage unit 12, ROM, recording medium or the like to a work memory area on the RAM, drives and controls each device connected via the bus 18, and the depth production support device 1 The process to be described later is realized. The ROM is a non-volatile memory, and permanently stores programs such as a boot program and BIOS for the depth production support apparatus 1, data, and the like. The RAM is a volatile memory, and temporarily stores programs, data, and the like loaded from the storage unit 12, ROM, recording medium, and the like, and includes a work area used by the control unit 11 for performing various processes.

記憶部12は、HDD(ハードディスクドライブ)等であり、制御部11が実行するプログラム、プログラム実行に必要なデータ、OS(オペレーティングシステム)等が格納される。プログラムに関しては、OS(オペレーティングシステム)に相当する制御プログラムや、後述する処理を奥行き制作支援装置1に実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種の手段として実行される。   The storage unit 12 is an HDD (hard disk drive) or the like, and stores a program executed by the control unit 11, data necessary for program execution, an OS (operating system), and the like. As for the program, a control program corresponding to an OS (operating system) and an application program for causing the depth production support apparatus 1 to execute processing described later are stored. Each of these program codes is read by the control unit 11 as necessary, transferred to the RAM, read by the CPU, and executed as various means.

メディア入出力部13(ドライブ装置)は、データの入出力を行い、例えば、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)等のメディア入出力装置を有する。   The media input / output unit 13 (drive device) inputs / outputs data, for example, media such as a CD drive (-ROM, -R, -RW, etc.), DVD drive (-ROM, -R, -RW, etc.) Has input / output devices.

通信制御部14は、通信制御装置、通信ポート等を有し、奥行き制作支援装置1とネットワーク間の通信を媒介する通信インタフェースであり、ネットワークを介して、他の装置間との通信制御を行う。ネットワークは、有線、無線を問わない。   The communication control unit 14 includes a communication control device, a communication port, and the like, is a communication interface that mediates communication between the depth production support device 1 and the network, and performs communication control between other devices via the network. . The network may be wired or wireless.

入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部15を介して、奥行き制作支援装置1に対して、操作指示、動作指示、データ入力等を行うことができる。   The input unit 15 inputs data and includes, for example, a keyboard, a pointing device such as a mouse, and an input device such as a numeric keypad. An operation instruction, an operation instruction, data input, and the like can be performed on the depth production support apparatus 1 via the input unit 15.

表示部16は、CRTモニタ、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携して奥行き制作支援装置1のビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。   The display unit 16 includes a display device such as a CRT monitor and a liquid crystal panel, and a logic circuit (such as a video adapter) for realizing the video function of the depth production support device 1 in cooperation with the display device.

周辺機器I/F(インタフェース)部17は、奥行き制作支援装置1に周辺機器を接続させるためのポートであり、周辺機器I/F部17を介して奥行き制作支援装置1は周辺機器とのデータの送受信を行う。周辺機器I/F部17は、USBやIEEE1394やRS−235C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。   The peripheral device I / F (interface) unit 17 is a port for connecting a peripheral device to the depth production support device 1, and the depth production support device 1 communicates data with the peripheral device via the peripheral device I / F unit 17. Send and receive. The peripheral device I / F unit 17 is configured by USB, IEEE 1394, RS-235C, or the like, and usually includes a plurality of peripheral devices I / F. The connection form with the peripheral device may be wired or wireless.

バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。   The bus 18 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.

図2は、奥行き制作支援装置1及び視差画像生成装置2の入出力データを示す図である。図2に示すように、奥行き制作支援装置1は、2次元画像3、背景画像4、マスク画像5、輪郭線6、及び奥行き値7を入力データとし、奥行き画像8、及びラベル画像9を出力データとする。視差画像生成装置2は、2次元画像3、奥行き画像8、及びラベル画像9を入力データとし、視差画像10を出力データとする。   FIG. 2 is a diagram illustrating input / output data of the depth production support apparatus 1 and the parallax image generation apparatus 2. As shown in FIG. 2, the depth production support apparatus 1 receives a two-dimensional image 3, a background image 4, a mask image 5, a contour line 6, and a depth value 7 as input data, and outputs a depth image 8 and a label image 9. Data. The parallax image generation device 2 uses the two-dimensional image 3, the depth image 8, and the label image 9 as input data, and uses the parallax image 10 as output data.

2次元画像3、背景画像4、及びマスク画像5は、奥行き制作支援装置1の制御部11(以下、「制御部11」と略記する。)が生成してもよいし、メディア入出力部13、通信制御部14等を介して外部から取得してもよい。また、輪郭線6及び奥行き値7は、奥行き制作支援装置1の入力部15を介して入力してもよいし、予め輪郭線6及び奥行き値7が定義されたファイルを外部から取得してもよい。   The two-dimensional image 3, the background image 4, and the mask image 5 may be generated by the control unit 11 (hereinafter abbreviated as “control unit 11”) of the depth production support apparatus 1, or the media input / output unit 13. Alternatively, it may be acquired from the outside via the communication control unit 14 or the like. Further, the contour line 6 and the depth value 7 may be input via the input unit 15 of the depth production support apparatus 1 or a file in which the contour line 6 and the depth value 7 are defined in advance may be acquired from the outside. Good.

2次元画像3は、動画像(平面映像)の1枚分のフレーム画像または静止画像である。動画像(平面映像)には、例えば、単位時間当たり所定のフレーム数(通常、1秒間に30フレーム)のカラー静止画像が含まれており、各画素がRGB各256段階の階調を持つ。   The two-dimensional image 3 is a frame image or a still image for one moving image (planar image). A moving image (planar image) includes, for example, a color still image of a predetermined number of frames per unit time (usually 30 frames per second), and each pixel has 256 gradations of RGB.

背景画像4は、背景の奥行き感を示す画像である。背景画像4は、2次元画像3に基づいてフォトレタッチソフトなどを用いて手作業で生成してもよいし、別途ソフトウエアを用いて自動的に生成してもよい。   The background image 4 is an image showing a sense of depth in the background. The background image 4 may be generated manually using photo retouching software or the like based on the two-dimensional image 3, or may be automatically generated using separate software.

マスク画像5は、特定の被写体を識別するための2値化画像である。マスク画像5は、2次元画像3に基づいてフォトレタッチソフトなどを用いて手作業で生成してもよいし、別途ソフトウエアを用いて自動的に生成してもよい。   The mask image 5 is a binarized image for identifying a specific subject. The mask image 5 may be generated manually using photo retouching software or the like based on the two-dimensional image 3, or may be automatically generated using separate software.

輪郭線6は、マスク画像5の2値の境界を示す線である。輪郭線6は、制御部11が輪郭線検出処理を行って生成するようにしてもよいし、ユーザがマウス等を使用して入力してもよい。   The contour line 6 is a line indicating a binary boundary of the mask image 5. The contour line 6 may be generated by the control unit 11 performing a contour line detection process, or may be input by the user using a mouse or the like.

奥行き値7は、被写体の奥行き方向の位置を定義する値である。本発明では、奥行き値7の画素値の範囲を0〜255の256階調として表現する。0が黒、255が白、1〜254がグレー(中間調)に対応する。
ユーザの入力操作によって、輪郭線6に沿っていくつかの点(以下、アンカーポイントと呼ぶ)が指定され、各アンカーポイントに対してそれぞれ奥行き値7が入力されると、制御部11によって輪郭線6の内部領域の各画素の奥行き値7が算出され、設定される。
The depth value 7 is a value that defines the position of the subject in the depth direction. In the present invention, a range of pixel values having a depth value of 7 is expressed as 256 gradations from 0 to 255. 0 corresponds to black, 255 corresponds to white, and 1 to 254 correspond to gray (halftone).
When several points (hereinafter referred to as anchor points) are designated along the contour line 6 by the user's input operation and a depth value 7 is input for each anchor point, the contour line is controlled by the control unit 11. A depth value 7 of each pixel in the inner area 6 is calculated and set.

奥行き制作支援装置1は、2次元画像3、背景画像4、マスク画像5、輪郭線6、及び奥行き値7に基づいて、奥行き画像8の制作を支援するものである。特に、本発明の実施の形態における奥行き制作支援装置1は、立体物の局所的な出っ張り(または窪み)を表現した奥行き画像を作成するために、マスク画像5に対する奥行き値の設定方法(図10のS3〜S6、図15、図17〜図18等)に特徴がある。   The depth production support device 1 supports production of the depth image 8 based on the two-dimensional image 3, the background image 4, the mask image 5, the contour line 6, and the depth value 7. In particular, the depth production support apparatus 1 according to the embodiment of the present invention sets a depth value for the mask image 5 (FIG. 10) in order to create a depth image that represents a local protrusion (or depression) of a three-dimensional object. (S3-S6, FIG. 15, FIG. 17-18, etc.).

奥行き画像8は、2次元画像3に係るカメラから被写体までの奥行き値を画素値に置き換えた画像である。ここで、カメラとは、視差画像生成装置2の内部処理において定義される仮想的なカメラを意味する。   The depth image 8 is an image in which the depth value from the camera to the subject related to the two-dimensional image 3 is replaced with a pixel value. Here, the camera means a virtual camera defined in the internal processing of the parallax image generation device 2.

奥行き画像8は、例えば、画素値の範囲が0〜255(8ビット)のグレースケールであり、0(黒)が最も奥、255(白)が最も手前を意味する場合が多いが、逆であってもよい。以下では、説明を分かり易くするために、奥行き画像8は、画素値の範囲が0〜255であり、0(黒)が最も奥、255(白)が最も手前を意味するものとする。   The depth image 8 is, for example, a gray scale with a pixel value range of 0 to 255 (8 bits), and 0 (black) is the farthest and 255 (white) is often the foreground. There may be. In the following, in order to make the explanation easy to understand, the depth image 8 has a pixel value range of 0 to 255, 0 (black) being the deepest and 255 (white) being the foremost.

ラベル画像9は、それぞれの2次元画像3に対応付けて、2次元画像3に記録されたシーンを構成する被写体を識別する固有の数値(ラベル値)によって領域分けし、このラベル値を画素値に置き換えた(ラベリングされた)画像である。例えば、背景、建物、及び人物から構成されるシーンにおいて、背景、建物、及び人物に相当するラベル値として、それぞれL0、L1、L2を割り当て、対応する2次元画像3の各画素がどの被写体に属しているかを、L0、L1、L2の画素値に置き換えることによって表現する。   The label image 9 is associated with each two-dimensional image 3, and is divided into regions by unique numerical values (label values) for identifying subjects constituting the scene recorded in the two-dimensional image 3, and the label values are represented by pixel values. This is an image replaced (labeled) with. For example, in a scene composed of a background, a building, and a person, L0, L1, and L2 are assigned as label values corresponding to the background, the building, and the person, respectively, and each pixel of the corresponding two-dimensional image 3 is assigned to which subject. Whether it belongs or not is expressed by replacing it with pixel values of L0, L1, and L2.

ラベル画像9は、2次元画像3に基づいてフォトレタッチソフトなどを用いて手作業で生成してもよいし、本発明のように、奥行き制作支援装置1が自動的に生成してもよい。   The label image 9 may be generated manually using photo retouching software or the like based on the two-dimensional image 3, or may be automatically generated by the depth production support apparatus 1 as in the present invention.

視差画像10は、立体視を実現するための画像である。本発明の実施の形態では、視差画像10は、特に、両目視差(約60mm〜70mm程度)を利用し、裸眼観察によって立体視を実現するための画像である。   The parallax image 10 is an image for realizing stereoscopic viewing. In the embodiment of the present invention, the parallax image 10 is an image for realizing stereoscopic vision by naked-eye observation, particularly using binocular parallax (about 60 mm to 70 mm).

尚、本発明の実施の形態では詳細に述べないが、複数の視差画像10をディスプレイの仕様に合わせて合成し、ディスプレイに表示することによって、裸眼観察による立体視を実現することが可能となる。複数の視差画像10の合成処理については、公知の技術を利用すればよい。   Although not described in detail in the embodiment of the present invention, a plurality of parallax images 10 are synthesized in accordance with the specifications of the display, and displayed on the display, it is possible to realize stereoscopic vision by naked eye observation. . A known technique may be used for the synthesis process of the plurality of parallax images 10.

視差画像生成装置2は、2次元画像3、奥行き画像8、及びラベル画像9に基づいて視差画像10を生成するものである。視差画像生成装置2の詳細は、本出願人が先に出願した、特願2010−176864号、及び特願2011−55878号に記載されている。   The parallax image generation device 2 generates a parallax image 10 based on the two-dimensional image 3, the depth image 8, and the label image 9. Details of the parallax image generation device 2 are described in Japanese Patent Application Nos. 2010-176864 and 2011-55878, which were previously filed by the present applicant.

次に、図3〜図8を参照して、奥行き制作支援装置1の入出力データの表示例について説明する。   Next, display examples of input / output data of the depth production support apparatus 1 will be described with reference to FIGS.

図3は、2次元画像3の一例を示している。図3の例では、複数人でスポールブールというボール競技をしている動画像の1フレーム分を示している。図4は、図3に示した2次元画像3に基づいて生成された背景画像4の一例を示している。図3及び図4は、同一フレームである。なお、背景画像4の奥行き感は、厳密でなくてよい。また背景画像4はなくてもよい。   FIG. 3 shows an example of the two-dimensional image 3. The example of FIG. 3 shows one frame of a moving image in which a plurality of people are playing a ball game called a spall boule. FIG. 4 shows an example of the background image 4 generated based on the two-dimensional image 3 shown in FIG. 3 and 4 are the same frame. Note that the depth of the background image 4 need not be exact. The background image 4 may not be present.

図5は、図3に示した2次元画像3と同一フレームのマスク画像5の一例を示している。図5の例では、球技参加者であるプレー中の人物(特定の被写体)を識別するための2値化画像であり、そのプレー中の人物の画素が白、それ以外の画素が黒にされている。以下、図5のマスク画像5を、適宜、マスクAのマスク画像と称する。   FIG. 5 shows an example of the mask image 5 having the same frame as the two-dimensional image 3 shown in FIG. In the example of FIG. 5, the image is a binarized image for identifying a person playing a ball game participant (a specific subject), and the pixel of the person being played is white and the other pixels are black. ing. Hereinafter, the mask image 5 of FIG. 5 is appropriately referred to as a mask image of the mask A.

図6は、他のマスク画像5の一例を示している。図6の例では、対戦している様子を少し離れて見物している2人の人物(特定の被写体)を識別するための2値化画像であり、その2人の人物の画素が白、それ以外の画素が黒にされている。図6は、図3〜図5、図7とは別フレーム(異なる時刻)である。以下、図6のマスク画像5を、適宜、マスクBのマスク画像と称する。   FIG. 6 shows an example of another mask image 5. In the example of FIG. 6, it is a binarized image for identifying two persons (a specific subject) who are watching a battle a little apart, and the pixels of the two persons are white, The other pixels are black. 6 is a different frame (different time) from FIGS. 3 to 5 and FIG. Hereinafter, the mask image 5 of FIG. 6 is appropriately referred to as a mask image of the mask B.

図7は、他のマスク画像5の一例を示している。図7の例では、対戦相手の人物(特定の被写体)を識別するための2値化画像であり、その対戦相手の人物の画素が白、それ以外の画素が黒にされている。図7は、図3〜図6とは別フレームである。以下、図7のマスク画像5を、適宜、マスクCのマスク画像と称する。   FIG. 7 shows an example of another mask image 5. In the example of FIG. 7, it is a binarized image for identifying the opponent person (specific subject), and the opponent person's pixel is white and the other pixels are black. FIG. 7 is a different frame from FIGS. Hereinafter, the mask image 5 of FIG. 7 is appropriately referred to as a mask image of the mask C.

なお、図3に示す2次元画像3において、マスクBの被写体(見物している2人の人物)の中の1人は、マスクAの被写体(プレー中の人物)に隠れており映っていない。また、マスクCの被写体は、マスクBの被写体よりも右側に位置しており、図3に示す2次元画像3に映っていない。   In the two-dimensional image 3 shown in FIG. 3, one of the subjects of the mask B (two people being seen) is hidden behind the subject of the mask A (the person being played) and is not shown. . The subject of the mask C is located on the right side of the subject of the mask B and is not reflected in the two-dimensional image 3 shown in FIG.

以上のように、奥行き制作支援装置1は、フレームごとに、マスクAのマスク画像(図5)、マスクBのマスク画像(図6)、及びマスクCのマスク画像(図7)を予め用意しておき、それらのマスク画像5と奥行き値6に基づいて、フレームごとに奥行き画像8を制作する。   As described above, the depth production support apparatus 1 prepares the mask image of the mask A (FIG. 5), the mask image of the mask B (FIG. 6), and the mask image of the mask C (FIG. 7) for each frame. A depth image 8 is produced for each frame based on the mask image 5 and the depth value 6.

図8は、奥行き画像8の一例を示している。但し、図8に示す奥行き画像8は、対象物内部の奥行き設定を行っていない例である。奥行き画像8は、複数の被写体同士の奥行き方向の相対的な位置関係が、模擬的に定義された画像である。図8は、図3〜図7とは別フレームであり、プレー中の人物がボールを投げる直前のフレームである。図8の例では、一番手前(白の領域)にマスクAの被写体(プレー中の人物)、奥(グレーの領域)にマスクBの被写体(見物している2人の人物)が存在するという奥行き方向の位置関係が定義されている。また、背景画像4の奥行き情報も付加されている。   FIG. 8 shows an example of the depth image 8. However, the depth image 8 shown in FIG. 8 is an example in which the depth setting inside the object is not performed. The depth image 8 is an image in which the relative positional relationship between a plurality of subjects in the depth direction is defined in a simulated manner. FIG. 8 is a frame different from those shown in FIGS. 3 to 7 and is a frame immediately before the person playing is throwing the ball. In the example of FIG. 8, the subject of the mask A (the person who is playing) is in the foreground (white region), and the subject of the mask B (the two people who are watching) is in the back (gray region). The positional relationship in the depth direction is defined. Further, depth information of the background image 4 is also added.

図8に示す奥行き画像8では、マスクAの被写体やマスクBの被写体の内部(=マスク領域内部)が一色(単一の画素値)で塗られており、マスク領域内部に立体感(局所的な凹凸や丸み)がない画像になってしまう。そこで、本発明の実施の形態では、奥行き制作支援装置1がマスク領域内部の奥行き設定(図10のS3〜S8)を行い、立体物の内部にも立体感がある奥行き画像8を制作する。   In the depth image 8 shown in FIG. 8, the inside of the subject of the mask A and the subject of the mask B (= the inside of the mask area) is painted with one color (single pixel value), and a stereoscopic effect (locally) Image with no irregularities or roundness). Therefore, in the embodiment of the present invention, the depth production support apparatus 1 performs depth setting inside the mask area (S3 to S8 in FIG. 10), and produces a depth image 8 having a stereoscopic effect inside the three-dimensional object.

図9は、奥行き制作支援装置1が扱う入出力画像の対応付けを説明するための図である。   FIG. 9 is a diagram for explaining the association of input / output images handled by the depth production support apparatus 1.

図9に示すように、入力画像群は、フレームごとに、2次元画像、マスクAのマスク画像、マスクBのマスク画像、マスクCのマスク画像、及び背景画像の5枚の画像が1組となっている。また出力画像群は、フレームごとに、奥行き画像、及びラベル画像の2枚の画像が1組となっている。例えば、フレーム数が1000枚の場合、2次元画像は1000枚、マスク画像は3000枚、背景画像は1000枚準備され、奥行き画像は1000枚、ラベル画像は1000枚出力されることになる。   As shown in FIG. 9, the input image group includes a set of five images of a two-dimensional image, a mask image of mask A, a mask image of mask B, a mask image of mask C, and a background image for each frame. It has become. The output image group is a set of two images, a depth image and a label image, for each frame. For example, when the number of frames is 1000, 1000 two-dimensional images, 3000 mask images, 1000 background images, 1000 depth images, and 1000 label images are output.

図10は、奥行き制作支援装置1が実行する奥行き制作支援処理を説明するフローチャートである。また、図11は奥行き制作処理において奥行き制作支援装置1が提供する奥行き制作支援画面100の一例であり、図12〜図19は、処理対象とする画像と奥行き設定の各ステップの処理を説明するための図である。   FIG. 10 is a flowchart for explaining the depth production support process executed by the depth production support apparatus 1. FIG. 11 is an example of the depth production support screen 100 provided by the depth production support device 1 in the depth production processing. FIGS. 12 to 19 illustrate the processing of each step of setting the image to be processed and the depth. FIG.

まず、ユーザは、奥行き制作支援処理を開始するにあたり、図11に示すような奥行き制作支援画面100を表示部16に表示させる。図11の例の場合、奥行き制作支援画面100には、画像表示領域101、「ムービー読み込み」ボタン102、「マスク読み込み」ボタン103、「背景奥行き画像の読み込み」ボタン104等のボタン群、マスク切り替えプルダウン105、画像切り替えプルダウン106、輪郭設定部107、デプス(奥行き値)設定部111、丸み付け設定部116、保存ボタン120が表示されている。なお、以下の説明において、「奥行き」の語を「デプス」と置き換えて表現することもある。   First, when starting the depth production support process, the user causes the display unit 16 to display a depth production support screen 100 as shown in FIG. In the case of the example in FIG. 11, the depth production support screen 100 includes an image display area 101, a group of buttons such as a “load movie” button 102, a “read mask” button 103, and a “read background depth image” button 104, mask switching. A pull-down 105, an image switching pull-down 106, an outline setting unit 107, a depth (depth value) setting unit 111, a rounding setting unit 116, and a save button 120 are displayed. In the following description, the word “depth” may be replaced with “depth”.

「ムービー読み込み」ボタン102、「マスク読み込み」ボタン103、「背景奥行き画像の読み込み」ボタン104は、それぞれムービー(2次元画像3)の読み込み、マスク画像5の読み込み、背景画像4の読み込みを行う場合に操作(押下)される。マスク切り替えプルダウン105は、奥行き設定するマスク画像5を選択する際に操作される。画像切り替えプルダウン106は奥行き設定するフレームを切り替える場合に操作される。画像表示領域101には、奥行き設定操作の対象とするマスク画像5や、奥行き設定された奥行き画像、操作に必要なマウスポインタ等のGUI(Graphical User Interface)が表示される。   A “movie read” button 102, a “mask read” button 103, and a “read background depth image” button 104 read a movie (two-dimensional image 3), read a mask image 5, and read a background image 4, respectively. Is operated (pressed). The mask switching pull-down 105 is operated when the mask image 5 to be set for depth is selected. The image switching pull-down 106 is operated when switching the frame for setting the depth. In the image display area 101, a mask image 5 that is a target of the depth setting operation, a depth image in which the depth is set, and a GUI (Graphical User Interface) such as a mouse pointer necessary for the operation are displayed.

輪郭設定部107は、輪郭追加ボタン108、輪郭削除ボタン109、輪郭抽出ボタン110を備え、マスク画像5に対して輪郭線6の入力や削除を行う際に操作される。輪郭追加ボタン108は、輪郭線6を入力する際に操作され、輪郭削除ボタン109は既に描画されている輪郭線6を削除する際に操作され、輪郭抽出ボタン110は処理対象とするマスク画像5の輪郭を抽出する際に操作される。   The contour setting unit 107 includes a contour addition button 108, a contour deletion button 109, and a contour extraction button 110, and is operated when the contour line 6 is input to or deleted from the mask image 5. The contour addition button 108 is operated when the contour line 6 is input, the contour deletion button 109 is operated when the contour line 6 already drawn is deleted, and the contour extraction button 110 is the mask image 5 to be processed. It is operated when extracting the outline of the.

デプス設定部111は、デプス値入力欄112、設定ボタン112a、アンカーポイント削除ボタン113、グループ化ボタン114、デプス計算ボタン115を備え、奥行きを設定する点であるアンカーポイントに対する奥行き値を入力する際に操作される。デプス値入力欄112は、マウス等で選択されているアンカーポイントに対して奥行き値を数値入力するための入力欄である。設定ボタン112aは、デプス値入力欄112に対して入力された奥行き値をマスク画像5に設定する際に操作される。アンカーポイント削除ボタン113は、既に設定されているアンカーポイントを削除する際に操作される。グループ化ボタン114は、複数のアンカーポイントをグループ化する(同じ奥行き値とする)際に操作される。デプス計算ボタン115は、奥行き値の算出処理を開始させる際に操作される。   The depth setting unit 111 includes a depth value input field 112, a setting button 112a, an anchor point deletion button 113, a grouping button 114, and a depth calculation button 115, and inputs a depth value for an anchor point that is a point for setting a depth. To be operated. The depth value input column 112 is an input column for inputting a depth value to an anchor point selected with a mouse or the like. The setting button 112 a is operated when setting the depth value input to the depth value input field 112 in the mask image 5. The anchor point deletion button 113 is operated when deleting an already set anchor point. The grouping button 114 is operated when grouping a plurality of anchor points (with the same depth value). The depth calculation button 115 is operated when starting the depth value calculation process.

ここで、アンカーポイント及び奥行き値の設定操作について説明する。
アンカーポイントは、マスク画像5上に描画された輪郭線6上と、輪郭線6に隣接する画素であって輪郭線の外側にある画素に設置できるようにする。以下の説明では、輪郭線6上にある画素を輪郭線6の「内側の画素」或いは「内側」と呼び、輪郭線6の外側に隣接する画素を輪郭線6の「外側の画素」或いは「外側」と呼ぶ。また、上記「内側の画素」と「外側の画素」とをまとめて「輪郭線に沿った位置」と呼ぶものとする。
Here, the setting operation of the anchor point and the depth value will be described.
The anchor points are set on the contour line 6 drawn on the mask image 5 and on the pixels adjacent to the contour line 6 and outside the contour line. In the following description, pixels on the contour line 6 are referred to as “inner pixels” or “inner side” of the contour line 6, and pixels adjacent to the outer side of the contour line 6 are referred to as “outer pixel” or “ Called “outside”. The “inner pixel” and the “outer pixel” are collectively referred to as “position along the contour line”.

ユーザによるマウス操作によってマウスポインタ53がマスク画像5上の輪郭線6に沿った位置に移動されると、制御部11は、アンカーポイントの設置を受け付ける。この状態で、例えばマウスのボタンがクリック操作されると、その位置にアンカーポイントを設置する。例えば、アンカーポイントを示すマークをマスク画像5上に描画する。更に、ユーザによるマウス操作によってマウスポインタ53が特定のアンカーポイント上に移動された状態で例えばクリック等の操作が行われると、そのアンカーポイントが選択された状態とする。アンカーポイントが選択された状態で、デプス値入力欄112に奥行き値が数値入力され、設定ボタン112aが押下操作されると、選択されているアンカーポイントの位置に奥行き値が設定される。制御部11は、マスク画像5の該当するピクセルに対し、設定された奥行き値をセットする。また、制御部11は、マスク画像5上のアンカーポイントを示すマークに奥行き値を表示する。或いは、アンカーポイント上にマウスが移動されると、アンカーポイントの近傍にアンカーポイントの情報を、例えば(x座標、y座標、奥行き値)のような形態でポップアップ表示するようにしてもよい。   When the mouse pointer 53 is moved to a position along the contour line 6 on the mask image 5 by a mouse operation by the user, the control unit 11 accepts installation of an anchor point. In this state, for example, when a mouse button is clicked, an anchor point is set at that position. For example, a mark indicating an anchor point is drawn on the mask image 5. Furthermore, when an operation such as a click is performed in a state where the mouse pointer 53 is moved onto a specific anchor point by a mouse operation by the user, the anchor point is selected. When a depth value is entered in the depth value input field 112 with the anchor point selected, and the setting button 112a is pressed, the depth value is set at the position of the selected anchor point. The control unit 11 sets the set depth value for the corresponding pixel of the mask image 5. Further, the control unit 11 displays the depth value on the mark indicating the anchor point on the mask image 5. Alternatively, when the mouse is moved over the anchor point, information on the anchor point may be displayed in a pop-up form in the form of (x coordinate, y coordinate, depth value), for example.

丸み付け設定部116は、骨格使用チェックボックス117、スライダ118,119を備える。骨格使用チェックボックス117は、骨格を使用して丸み付け処理を行う場合に選択され、スライダ118は丸み付け範囲を指定する際に横方向にスライド(移動)操作され、スライダ119は丸み付け厚みを指定する際に横方向にスライド(移動)操作される。
保存ボタン120は、マスク画像5に対するアンカーポイントや奥行き値の設定内容や、作成された奥行き画像を保存する場合に操作される。
The rounding setting unit 116 includes a skeleton use check box 117 and sliders 118 and 119. The skeleton use check box 117 is selected when rounding processing is performed using a skeleton, and the slider 118 is slid (moved) in the horizontal direction when the rounding range is designated, and the slider 119 has a rounding thickness. When specifying, it is slid (moved) horizontally.
The save button 120 is operated to save the setting contents of the anchor point and depth value for the mask image 5 and the created depth image.

図10の説明に戻る。
以上のような奥行き制作支援画面100において、ユーザは、ムービー読み込みボタン102、マスク読み込みボタン103、背景奥行き画像の読み込みボタン104等を押下し、奥行き画像を制作するための入力画像群の読み込みを指示する。
Returning to the description of FIG.
In the depth production support screen 100 as described above, the user presses the movie reading button 102, the mask reading button 103, the background depth image reading button 104, and the like to instruct to read the input image group for producing the depth image. To do.

ステップS1において、制御部11は、ユーザからの指示に基づいて、入力画像群を読み込む。ムービー(複数フレームの画像)が読み込まれている場合は、ユーザによって、画像切り替えプルダウン106が押下されることで、奥行き値の設定編集を行うフレームが選択される。また、選択されているフレームに対し、マスク画像5が複数読み込まれている場合は、ユーザによって、マスク切り替えプルダウン105が押下されることで、奥行き値の設定編集を行うマスク画像5が選択される(ステップS2)。制御部11は選択されたマスク画像5を画像表示領域101に表示する。例えば、図12に示す2次元画像31や図13に示すマスク画像51、図示しない背景画像等が入力画像群として読み込まれるものとする。   In step S1, the control unit 11 reads an input image group based on an instruction from the user. When a movie (image of a plurality of frames) is read, the user selects a frame for setting and editing the depth value by pressing the image switching pull-down 106. When a plurality of mask images 5 are read for the selected frame, the mask image pull-down 105 is pressed by the user to select the mask image 5 for setting and editing the depth value. (Step S2). The control unit 11 displays the selected mask image 5 in the image display area 101. For example, it is assumed that a two-dimensional image 31 shown in FIG. 12, a mask image 51 shown in FIG. 13, a background image (not shown), and the like are read as an input image group.

ユーザにより輪郭設定部107の輪郭抽出ボタン110が押下されると(ステップS3)、制御部11はマスク画像51の輪郭を検出し、マスク画像51上に輪郭線61を描画する(ステップS4)。なお、輪郭線61の検出は、例えば画素値の変化に基づいてエッジ(境界)を認識するといった一般的な手法を用いればよい。また、輪郭線61はユーザがマウス等によって入力したり、軌跡の形状を変更したりしてもよい。
図14は、マスク画像51に対して設定された輪郭線61の例である。図14に示すようにマスク画像51の輪郭線61は、1ストロークで描画される閉曲線となる。閉曲線を採用することにより、後述する変形シミュレーションにおける奥行き値の算出(ステップS7)が複雑にならず、演算処理の負荷を軽減できる。
When the user presses the contour extraction button 110 of the contour setting unit 107 (step S3), the control unit 11 detects the contour of the mask image 51 and draws the contour line 61 on the mask image 51 (step S4). Note that the outline 61 may be detected by using a general method of recognizing an edge (boundary) based on a change in pixel value, for example. The contour line 61 may be input by the user with a mouse or the like, or the shape of the locus may be changed.
FIG. 14 is an example of the contour line 61 set for the mask image 51. As shown in FIG. 14, the outline 61 of the mask image 51 is a closed curve drawn with one stroke. By adopting the closed curve, the calculation of the depth value (step S7) in the deformation simulation to be described later is not complicated, and the calculation processing load can be reduced.

次に、上述した奥行き設定操作によって輪郭線61に沿った位置にアンカーポイントが設定され(ステップS5)、奥行き値が入力されると(ステップS6)、制御部11はアンカーポイントを示すマークをマスク画像51上に表示する。また、各アンカーポイントを示すマークに奥行き値を表示するようにしてもよい。
図15の例では、輪郭線61の内側に3つのアンカーポイント71a,71b,71cが設置され、外側に1つのアンカーポイント71dが設定されている。また、アンカーポイント71aの奥行き値は「150」、アンカーポイント71b,71cの奥行き値は「100」、アンカーポイント71dの奥行き値は「0」に設定されている。
このように、輪郭線61の内側と外側とでそれぞれ異なる奥行き値を設定すれば、輪郭線61を境界として、対象物に奥行きを持たせることができる。なお、輪郭線の外側の奥行き値については、一律の奥行き値を与えるようにしてもよい。
Next, an anchor point is set at a position along the contour line 61 by the depth setting operation described above (step S5). When a depth value is input (step S6), the control unit 11 masks a mark indicating the anchor point. It is displayed on the image 51. Further, the depth value may be displayed on a mark indicating each anchor point.
In the example of FIG. 15, three anchor points 71a, 71b, 71c are installed inside the contour line 61, and one anchor point 71d is set outside. The depth value of the anchor point 71a is set to “150”, the depth values of the anchor points 71b and 71c are set to “100”, and the depth value of the anchor point 71d is set to “0”.
Thus, if different depth values are set for the inside and the outside of the contour line 61, the object can be given a depth with the contour line 61 as a boundary. In addition, you may make it give a uniform depth value about the depth value outside a contour line.

次に、制御部11は変形シミュレート処理を行う(ステップS7)。変形シミュレート処理では、制御部11は、設定されたアンカーポイントの位置及び奥行き値に基づいて、まず、輪郭線61に沿った各点(アンカーポイント未設定点)の奥行き値を補間により求める。補間処理において、制御部11は、輪郭線61上の各点が奥行き方向に滑らかな傾斜を描くように奥行き値を求める。   Next, the control unit 11 performs a deformation simulation process (step S7). In the deformation simulation process, the control unit 11 first obtains the depth value of each point (an anchor point non-set point) along the contour line 61 by interpolation based on the set position and depth value of the anchor point. In the interpolation process, the control unit 11 obtains a depth value so that each point on the contour line 61 draws a smooth slope in the depth direction.

輪郭線61上の各点の奥行き値が算出されると、更に制御部11は、輪郭線61の内部の各画素(輪郭線61を除く各画素)の奥行き値を算出する。各画素の奥行き値は、輪郭線61の内部領域が滑らかな平面を描くように求められる。
境界(輪郭線61)の3次元座標に基づいて内部領域のすべての3次元座標を求めるための解法は様々なものがあるが、一例を示すと、図16(a)に示すような薄板の曲げ問題の解法等を利用できる。薄板の曲げ問題では、ひずみエネルギーが最小になるように各点の3次元位置を計算することで、滑らかな平面を得ることができる。図16(b)は反復法による解法を説明する図である。反復法では、境界(輪郭線61)を除くピクセル(点)を順に走査し、次式(1)を利用して各ピクセルの奥行き値を計算する。全体が収束するまで、これを繰り返す。
When the depth value of each point on the contour line 61 is calculated, the control unit 11 further calculates the depth value of each pixel inside the contour line 61 (each pixel excluding the contour line 61). The depth value of each pixel is obtained so that the inner region of the outline 61 draws a smooth plane.
There are various solutions for obtaining all the three-dimensional coordinates of the inner region based on the three-dimensional coordinates of the boundary (contour line 61). For example, a thin plate as shown in FIG. The solution of the bending problem can be used. In the thin plate bending problem, a smooth plane can be obtained by calculating the three-dimensional position of each point so that the strain energy is minimized. FIG. 16B is a diagram for explaining the solution by the iterative method. In the iterative method, pixels (points) excluding the boundary (outline 61) are sequentially scanned, and the depth value of each pixel is calculated using the following equation (1). This is repeated until the whole converges.

各点の奥行き値を求めると、制御部11は算出された奥行き値を画素値とする奥行き画像8を作成し、画像表示領域101に表示する。
図17及び図18は輪郭線61に沿って設定したアンカーポイント(奥行き値)による画像の変形のイメージを示す図である。図17は、輪郭線61上の各点に同一の奥行き値を持たせた状態を示すイメージ図であり、図18は更に、輪郭線61の一部(被写体の腕の部分)に他の部分より大きな奥行き値を設定することで、腕が前方に飛び出すような変形を施したイメージ図である。
なお、図17、図18は、奥行き方向の変形のイメージを示した図であり、本実施の形態で作成する奥行き画像8や奥行き画像8を用いて作成される視差画像そのものではない。生成される奥行き画像8には、図17、図18に示されるような影や輪郭線や輪郭線内部の画像等は含まれず、各画素に奥行き値をセットしたグレースケール画像にほかならない。
When the depth value of each point is obtained, the control unit 11 creates a depth image 8 having the calculated depth value as a pixel value and displays it in the image display area 101.
FIG. 17 and FIG. 18 are diagrams showing an image of deformation by an anchor point (depth value) set along the contour line 61. FIG. 17 is an image diagram showing a state in which each point on the contour line 61 has the same depth value. FIG. 18 further shows a part of the contour line 61 (the arm part of the subject) than other parts. It is the image figure which gave the deformation | transformation which the arm protrudes ahead by setting a big depth value.
FIGS. 17 and 18 are diagrams showing an image of deformation in the depth direction, and are not the depth image 8 created in the present embodiment or the parallax image itself created using the depth image 8. The generated depth image 8 does not include a shadow, an outline, an image inside the outline, or the like as shown in FIGS. 17 and 18, and is nothing but a grayscale image in which a depth value is set for each pixel.

アンカーポイント(奥行き値)設置、及び変形シミュレート処理による奥行き値の算出が行われ、奥行き画像8が作成されると、次に、制御部11は、丸み付けの処理を行う(ステップS8)。すなわち、ユーザにより、奥行き制作支援画面100の丸み付け設定部116が操作され、スライダ118、119によって丸み付けの範囲及び厚みが設定されると、設定された丸み付け範囲及び丸み付け厚みに基づいて奥行き画像8の奥行き値が更に再算出される。図19は丸み付け処理の概要を示す図である。図19(a)に示すように、ユーザにより丸み付けのパラメータ76として丸み付け範囲(R)が「3ピクセル」、丸み付け厚み(T)が「10」のようにセットされると、制御部11は、図19(b)の断面図77、図19(c)の画素値マップ78に示すように、輪郭線61の内側3ピクセルで奥行き値が「10」だけ滑らかに変化するように、該当画素の奥行き値を求める。   After the depth value is calculated by setting the anchor point (depth value) and the deformation simulation process, and the depth image 8 is created, the control unit 11 next performs a rounding process (step S8). That is, when the user operates the rounding setting unit 116 of the depth production support screen 100 and sets the rounding range and thickness by the sliders 118 and 119, the rounding range and rounding thickness are set based on the set rounding range and rounding thickness. The depth value of the depth image 8 is further recalculated. FIG. 19 is a diagram showing an outline of the rounding process. As shown in FIG. 19A, when the rounding range (R) is set to “3 pixels” and the rounding thickness (T) is set to “10” as the rounding parameter 76 by the user, the control unit 11 is a cross-sectional view 77 of FIG. 19B and a pixel value map 78 of FIG. 19C, so that the depth value smoothly changes by “10” at the three inner pixels of the contour line 61. The depth value of the corresponding pixel is obtained.

また、奥行き制作支援画面100の丸み付け設定部116の骨格使用チェックボックス117がONされている場合は、制御部11は、骨格を参照した丸み付けを行う。骨格を参照した丸み付け処理とは、丸み付けの範囲及び厚みに加え、骨格への接近度を参照した丸み付け処理のことである。丸み付け処理の詳細については、本出願人が先に出願した特願2011−223906号に記載されている。   When the skeleton use check box 117 of the rounding setting unit 116 on the depth production support screen 100 is ON, the control unit 11 performs rounding with reference to the skeleton. The rounding process with reference to the skeleton is a rounding process with reference to the degree of approach to the skeleton in addition to the range and thickness of the rounding. Details of the rounding process are described in Japanese Patent Application No. 2011-223906 filed earlier by the present applicant.

丸み付け処理が終了すると、制御部11は、別のマスク画像の奥行き設定処理を行う。
すなわち、奥行き値の設定が終了していないマスク画像(未設定マスク)がある場合は(ステップS9;Yes)、ステップS2に戻る。ステップS2において、マスク切り替えプルダウン105が操作され、別のマスクが選択されると、選択されたマスクについての奥行き設定処理(ステップS3〜ステップS8)を行う。
When the rounding process ends, the control unit 11 performs a depth setting process for another mask image.
That is, when there is a mask image (unset mask) for which the depth value has not been set (step S9; Yes), the process returns to step S2. In step S2, when the mask switching pull-down 105 is operated to select another mask, depth setting processing (step S3 to step S8) is performed for the selected mask.

すべてのマスクについて奥行き設定が完了すると(ステップS9;No)、作成されたマスク画像5の合成処理を行うとともに(ステップS10)、奥行き画像、及びラベル画像を保存し(ステップS11)、奥行き制作支援処理を終了する。   When the depth setting is completed for all the masks (step S9; No), the generated mask image 5 is combined (step S10), and the depth image and the label image are stored (step S11), and depth production support is performed. The process ends.

以上のようにして、奥行き制作支援装置1は、入力されたマスク画像5の輪郭線6を抽出して描画し、輪郭線6に沿ったいくつかの点へのアンカーポイント及び奥行き値7の設定を受け付ける。奥行き制作支援装置1は、入力されたアンカーポイントの位置及び奥行き値7に応じて、輪郭線6上の各点の奥行き値7を補間し、更に、輪郭線6の内部領域が滑らかな平面となるように、内部領域の各画素の奥行き値を算出し、奥行き画像8を作成する。
これにより、ユーザは、マスク画像5の輪郭線61に沿って少なくとも2点に奥行き値を設定するという簡単な操作だけで、内部領域が滑らかに変化する奥行き画像8を得ることができる。
また、丸み付け処理によって、輪郭線の内部に更に丸みのある奥行きを表現でき、自然な立体感を簡単な操作で実現できる。
As described above, the depth production support apparatus 1 extracts and draws the outline 6 of the input mask image 5 and sets anchor points and depth values 7 to several points along the outline 6. Accept. The depth production support apparatus 1 interpolates the depth value 7 of each point on the contour line 6 according to the input anchor point position and depth value 7, and further, the inner region of the contour line 6 is a smooth plane. As described above, the depth value of each pixel in the internal region is calculated, and the depth image 8 is created.
Thereby, the user can obtain the depth image 8 in which the internal region changes smoothly only by a simple operation of setting depth values at least at two points along the contour line 61 of the mask image 5.
Further, the rounding process can express a further rounded depth inside the contour line, and a natural three-dimensional effect can be realized with a simple operation.

[第2の実施の形態]
次に、本発明の第2の実施の形態について説明する。
第2の実施の形態において、奥行き制作支援装置1は、既に設定された輪郭線に対し、更に分岐線を追加し、分岐線に基づく輪郭線の再設定及び奥行き値の設定処理を行う。
以下、図10、図11、図20〜図26を参照して第2の実施の形態の奥行き制作支援方法について説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
In the second embodiment, the depth production support apparatus 1 adds a branch line to the already set contour line, and performs the resetting of the contour line based on the branch line and the depth value setting process.
Hereinafter, the depth production support method according to the second embodiment will be described with reference to FIGS. 10, 11, and 20 to 26.

第2の実施の形態では、マスク画像5の輪郭内部にある対象物の重なりを表現することを目的とする。このために、奥行き制作支援装置1は、第1の実施の形態で例示したような既に設定された輪郭線6に対し、分岐線63の追加入力を受け付け、分岐線63を元の輪郭線6と結合し、新たな1ストロークの輪郭線64を生成し、新たな輪郭線64に沿ってアンカーポイントを設置できるようにする。   In the second embodiment, an object is to express the overlap of objects within the contour of the mask image 5. For this purpose, the depth production support apparatus 1 accepts an additional input of the branch line 63 with respect to the already set contour line 6 as exemplified in the first embodiment, and the branch line 63 is converted into the original contour line 6. And a new one-stroke outline 64 is generated, and anchor points can be set along the new outline 64.

例えば、図10のステップS1、ステップS2において、図20に示す2次元画像32が読み込まれ、また図21に示すマスク画像52が読み込まれ、マスク画像52が編集対象として選択されるものとする。   For example, in step S1 and step S2 in FIG. 10, the two-dimensional image 32 shown in FIG. 20 is read, the mask image 52 shown in FIG. 21 is read, and the mask image 52 is selected as an editing target.

次に、図10のステップS3において、ユーザにより輪郭設定部107の輪郭抽出ボタン110が押下されると、ステップS4において制御部11はマスク画像52の輪郭を検出し、マスク画像52上に輪郭線62を描画する。図22は、マスク画像52に対して設定された輪郭線62の例である。   Next, when the user presses the contour extraction button 110 of the contour setting unit 107 in step S3 in FIG. 10, the control unit 11 detects the contour of the mask image 52 in step S4, and the contour line is displayed on the mask image 52. 62 is drawn. FIG. 22 is an example of the contour line 62 set for the mask image 52.

図22のように輪郭線62が描画された状態で、ユーザによる描画操作によって図23に示すような分岐線63a,63bが追加され、再度、奥行き制作支援画面100の輪郭抽出ボタン110が押下されると、制御部11は、分岐線63a,63bのマスク画像52を生成する(図24の中央のマスク画像)。そして、元のマスク画像52から分岐線63a,63bのマスク画像53を引き、新たなマスク画像54を生成する。新たなマスク画像54では、被写体の腕の重なりが表現されることとなる。
新たなマスク画像54が生成されると、制御部11は、新たなマスク画像54の輪郭を抽出し、新たな輪郭線64を生成し、描画する。図25は、マスク画像52に対して設定された新たな輪郭線64の例である。新たな輪郭線64も1ストロークで描画された閉曲線となる。
In the state where the contour line 62 is drawn as shown in FIG. 22, branch lines 63a and 63b as shown in FIG. 23 are added by the drawing operation by the user, and the contour extraction button 110 on the depth production support screen 100 is pressed again. Then, the control part 11 produces | generates the mask image 52 of branch line 63a, 63b (center mask image of FIG. 24). Then, the mask image 53 of the branch lines 63a and 63b is subtracted from the original mask image 52, and a new mask image 54 is generated. In the new mask image 54, the overlapping of the arms of the subject is expressed.
When a new mask image 54 is generated, the control unit 11 extracts the contour of the new mask image 54, generates a new contour line 64, and draws it. FIG. 25 is an example of a new contour line 64 set for the mask image 52. The new contour line 64 is also a closed curve drawn with one stroke.

その後、ステップS5及びステップS6において、新たな輪郭線64に沿った位置にアンカーポイントが設定され、奥行き値が入力されると、制御部11はアンカーポイントを示すマークをマスク画像54上に表示する。図25の例では、輪郭線64の内側に8つのアンカーポイント74a〜74hが設置されている。各アンカーポイント74a〜74hには、それぞれ奥行き値75a〜75hが設定される。   Thereafter, in step S5 and step S6, when an anchor point is set at a position along the new contour line 64 and a depth value is input, the control unit 11 displays a mark indicating the anchor point on the mask image 54. . In the example of FIG. 25, eight anchor points 74 a to 74 h are installed inside the contour line 64. Depth values 75a to 75h are set for the anchor points 74a to 74h, respectively.

次に、ステップS7において、制御部11は変形シミュレート処理を行う。変形シミュレート処理は第1の実施の形態と同様である。
すなわち、制御部11はまず、輪郭線64に沿った各点(アンカーポイント未設定点)の奥行き値を補間により求め、更に制御部11は、輪郭線64の内部の各画素(輪郭線64を除く各画素)の奥行き値を算出する。各画素の奥行き値は、輪郭線64の内部領域が滑らかな平面を描くように算出される。
更に、ステップS8において、丸み付け処理を行うようにしてもよい。
Next, in step S7, the control unit 11 performs a deformation simulation process. The deformation simulation process is the same as that in the first embodiment.
That is, the control unit 11 first obtains the depth value of each point (an anchor point unset point) along the contour line 64 by interpolation, and the control unit 11 further determines each pixel (the contour line 64 in the contour line 64). The depth value of each pixel) is calculated. The depth value of each pixel is calculated so that the inner area of the outline 64 draws a smooth plane.
Further, in step S8, a rounding process may be performed.

このようにして、マスク画像52(新たなマスク画像54)に対する奥行き値の設定が終了すると、別のマスクの奥行き設定(ステップS9;Yes→ステップS3〜ステップS8)を繰り返す。すべてのマスクについて奥行き設定が完了すると(ステップS9;No)、作成されたマスク画像5の合成処理を行うとともに(ステップS10)、奥行き画像8、及びラベル画像9を保存し、奥行き制作支援処理を終了する(ステップS11)。   Thus, when the setting of the depth value for the mask image 52 (new mask image 54) is completed, the depth setting for another mask (step S9; Yes → step S3 to step S8) is repeated. When the depth setting is completed for all the masks (step S9; No), the generated mask image 5 is synthesized (step S10), the depth image 8 and the label image 9 are stored, and the depth production support process is performed. The process ends (step S11).

以上のようにして、輪郭線に対し分岐線を追加し、分岐線(新たな輪郭線64に現れる)に沿ってアンカーポイントを設定すれば、元の輪郭線の内部領域に更に詳細な奥行き設定を行うことが可能となる。   As described above, if a branch line is added to the contour line and an anchor point is set along the branch line (appears in the new contour line 64), more detailed depth setting can be made in the inner area of the original contour line. Can be performed.

図26は、様々な画像に対する輪郭線6の設定例である。
図26(a)は車、図26(b)は動物、図26(c)は人物、図26(d)はヘッドフォンを例としている。図26(a)〜(d)の各輪郭線6は、すべて1ストロークで描画されている。上述したように、マスク画像5から抽出された輪郭線6に対し、ユーザが分岐線63を描画するだけで、新たな輪郭線64が描画されるため、被写体の輪郭線の内部に重なりがあるような画像であっても、重なりを境界(輪郭線)として奥行き値を設定することができる。
FIG. 26 shows setting examples of the contour line 6 for various images.
26A shows a car, FIG. 26B shows an animal, FIG. 26C shows a person, and FIG. 26D shows a headphone. Each outline 6 in FIGS. 26A to 26D is drawn with one stroke. As described above, since the new contour line 64 is drawn only by the user drawing the branch line 63 on the contour line 6 extracted from the mask image 5, there is an overlap inside the contour line of the subject. Even in such an image, the depth value can be set with the overlap as a boundary (contour line).

以上、説明したように、本発明の第2の実施の形態の奥行き制作支援装置1は、被写体の輪郭線62に更に分岐線63を追加可能とし、分岐線63が追加入力されると、これらを連結した新たな1ストロークの輪郭線64を生成する。このため、輪郭線64で被写体の重なり部分の境界を描画できる。また、被写体の重なり部分の境界が表現されている新たな輪郭線64に沿ってアンカーポイント及び奥行き値を設定すれば、第1の実施の形態と同様に、輪郭線64の内部領域が滑らかな平面となるように各画素の奥行き値が算出されるため、被写体の重なり部分についても、簡単な操作で手前と奥を表現できるようになる。   As described above, the depth production support apparatus 1 according to the second embodiment of the present invention can further add the branch line 63 to the contour line 62 of the subject, and when the branch line 63 is additionally input, A new one-stroke outline 64 is generated by connecting the two. For this reason, the boundary of the overlapping part of the subject can be drawn by the contour line 64. Further, if the anchor point and the depth value are set along the new contour line 64 in which the boundary of the overlapping portion of the subject is expressed, the inner region of the contour line 64 is smooth as in the first embodiment. Since the depth value of each pixel is calculated so as to be a plane, the front and back of the overlapping portion of the subject can be expressed with a simple operation.

[第3の実施の形態]
次に、本発明の第3の実施の形態について説明する。
第2の実施の形態では、分岐線63として輪郭線62と接している線を追加入力可能とし、分岐線を追加した場合の奥行き画像生成処理について説明したが、輪郭線62描画後に、輪郭線と接しない独立した線(以下、補助線と呼ぶ)を追加入力可能としてもよい。
すなわち、例えば、図20の2次元画像32及び図21のマスク画像52を奥行き制作の対象とする場合、奥行き制作支援装置1の制御部11は、第1及び第2の実施の形態と同様に、まずユーザの操作に従ってマスク画像52の輪郭線62を抽出する。その後、制御部11は、ユーザによる補助線の追加を受け付ける。ここでユーザは、鼻、筋肉、或いは鎖骨等の輪郭線62の内部にある凹凸を表現するため、輪郭線62の内部にそれぞれ独立した補助線を描く。輪郭線62は閉曲線とするが、補助線は必ずしも閉曲線でなくてもよい。更に、制御部11は、輪郭線に沿ったアンカーポイント及び奥行き値の入力を受け付ける他、補助線に沿ったアンカーポイント及び奥行き値の入力も受け付ける。
制御部11は、入力された奥行き値に基づき、輪郭線及び補助線を境界として、境界(輪郭線61及び補助線)以外の画素が滑らかな平面となるように、各画素の奥行き値を算出する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described.
In the second embodiment, a description has been given of the depth image generation processing in the case where a line in contact with the contour line 62 can be additionally input as the branch line 63 and the branch line is added. An independent line (hereinafter referred to as an auxiliary line) that does not touch the line may be additionally inputable.
That is, for example, when the two-dimensional image 32 in FIG. 20 and the mask image 52 in FIG. 21 are targets for depth production, the control unit 11 of the depth production support apparatus 1 is the same as in the first and second embodiments. First, the outline 62 of the mask image 52 is extracted according to the user's operation. Thereafter, the control unit 11 accepts addition of an auxiliary line by the user. Here, the user draws independent auxiliary lines inside the contour line 62 in order to express the irregularities inside the contour line 62 such as nose, muscle, or clavicle. The contour line 62 is a closed curve, but the auxiliary line is not necessarily a closed curve. Further, the control unit 11 accepts input of anchor points and depth values along the contour line, and also accepts input of anchor points and depth values along the auxiliary line.
Based on the input depth value, the control unit 11 calculates the depth value of each pixel so that the pixels other than the boundary (the contour line 61 and the auxiliary line) become a smooth plane with the contour line and the auxiliary line as a boundary. To do.

以上のようにして、輪郭線とは独立した補助線を輪郭線(閉曲線)の内部に追加し、輪郭線及び補助線に沿ってアンカーポイントを設定すれば、元の輪郭線の内部領域に更に詳細な奥行き設定を行うことが可能となる。なお、補助線の追加や削除は、各画素の奥行き値算出後に更に継続して行うことも可能である。   As described above, if an auxiliary line independent of the contour line is added to the inside of the contour line (closed curve) and an anchor point is set along the contour line and the auxiliary line, the inner area of the original contour line is further increased. Detailed depth setting can be performed. The addition and deletion of the auxiliary line can be further continued after the depth value of each pixel is calculated.

以上、添付図面を参照しながら、本発明に係る奥行き制作支援装置等の好適な実施形態について説明したが、本発明はかかる例に限定されない。例えば、第2の実施の形態と第3の実施の形態とを組み合わせ、輪郭線、分岐線、及び補助線の追加を適宜可能にしたり、これらの線に沿ったアンカーポイントの設置を行えるようにしてもよい。また、輪郭線の内部に輪郭線を新たに設定することもできる。本発明の輪郭線、分岐線、補助線等は、線上の各点に対し任意の奥行きを与えるという点で等高線とは異なり、直観的で自由な操作を実現できる。
その他、当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
The preferred embodiments of the depth production support apparatus and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. For example, by combining the second embodiment and the third embodiment, it is possible to appropriately add contour lines, branch lines, and auxiliary lines, or to set anchor points along these lines. May be. In addition, a contour line can be newly set inside the contour line. The contour line, branch line, auxiliary line, and the like of the present invention are different from the contour line in that an arbitrary depth is given to each point on the line, and an intuitive and free operation can be realized.
In addition, it is obvious that those skilled in the art can arrive at various changes or modifications within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. It is understood.

1………奥行き制作支援装置
3………2次元画像
4………背景画像
5………マスク画像
6………輪郭線
7………奥行き値
8………奥行き画像
9………ラベル画像
DESCRIPTION OF SYMBOLS 1 ......... Depth production support apparatus 3 ......... 2D image 4 ......... Background image 5 ......... Mask image 6 ...... Outline 7 ......... Depth value 8 ......... Depth image 9 ......... Label image

Claims (7)

立体視を実現するための視差画像の生成処理に利用する奥行き画像を制作する奥行き制作支援装置であって、
元の2次元画像内に描画されている特定の被写体を識別するために2値化された複数のマスク画像を読み込むマスク画像入力手段と、
前記マスク画像に対して閉曲線である輪郭線を設定する輪郭線設定手段と、
前記輪郭線に沿って複数の点を設定し、設定した点に対して所望の奥行き値を入力する奥行き値入力手段と、
前記奥行き値入力手段によって入力された奥行き値に基づき、前記輪郭線の内部領域が滑らかな平面となるように前記マスク画像の各画素の奥行き値を算出する奥行き値算出手段と、
前記奥行き値算出手段によって算出された奥行き値を前記マスク画像の各画素に設定し、奥行き値が設定された前記マスク画像を用いて前記奥行き画像を作成する奥行き画像作成手段と、
を備えることを特徴とする奥行き制作支援装置。
A depth production support device for producing a depth image used for generating a parallax image for realizing stereoscopic viewing,
Mask image input means for reading a plurality of binarized mask images for identifying a specific subject drawn in the original two-dimensional image;
Contour setting means for setting a contour that is a closed curve for the mask image;
A depth value input means for setting a plurality of points along the contour line and inputting a desired depth value for the set points;
A depth value calculating means for calculating the depth value of each pixel of the mask image based on the depth value input by the depth value input means so that the inner area of the contour line is a smooth plane;
Depth image calculation means for setting the depth value calculated by the depth value calculation means to each pixel of the mask image, and generating the depth image using the mask image in which the depth value is set;
A depth production support device characterized by comprising:
前記輪郭線設定手段によって設定された前記輪郭線から分岐する分岐線を追加入力する分岐線入力手段と、
前記分岐線を既に設定されている前記輪郭線と連結し、新たな輪郭線を設定する輪郭線再設定手段と、を更に備え、
前記奥行き値入力手段は、前記新たな輪郭線に沿った複数の点に対して所望の奥行き値を入力し、
前記奥行き値算出手段は、前記新たな輪郭線の内部領域が滑らかな平面となるように前記マスク画像の各画素の奥行き値を算出することを特徴とする請求項1に記載の奥行き制作支援装置。
A branch line input means for additionally inputting a branch line branched from the contour line set by the contour line setting means;
A contour line resetting means for connecting the branch line with the contour line already set and setting a new contour line; and
The depth value input means inputs a desired depth value for a plurality of points along the new contour line,
2. The depth production support apparatus according to claim 1, wherein the depth value calculation unit calculates a depth value of each pixel of the mask image so that an inner area of the new contour line becomes a smooth plane. .
前記奥行き画像作成手段によって作成された奥行き画像に対し、前記奥行き画像の各画素と前記輪郭線との接近度、所定の丸み付け範囲、及び所定の丸み付け厚みに基づいて丸み付け処理を行う丸み付け手段、
を更に備えることを特徴とする請求項1に記載の奥行き制作支援装置。
Rounding that performs rounding processing on the depth image created by the depth image creating means based on the degree of proximity between each pixel of the depth image and the contour line, a predetermined rounding range, and a predetermined rounding thickness Attachment means,
The depth production support apparatus according to claim 1, further comprising:
前記奥行き値入力手段は、前記輪郭線に沿った少なくとも2点に対し、異なる奥行き値をそれぞれ入力することを特徴とする請求項1から請求項のいずれかに記載の奥行き制作支援装置。 The depth value input means, to at least two points along the contour line, depth production support device according to claim 1, characterized in that the input different depth values respectively to one of claims 3. 前記輪郭線の内部領域に前記輪郭線と接しない補助線を追加入力する補助線入力手段を更に備え、
前記奥行き値入力手段は、更に、前記補助線に沿った複数の点に対して所望の奥行き値を入力し、
前記奥行き値算出手段は、前記輪郭線の内部領域であって、前記輪郭線及び前記補助線を境界として、前記境界以外の画素が滑らかな平面となるように前記マスク画像の各画素の奥行き値を算出することを特徴とする請求項1に記載の奥行き制作支援装置。
Auxiliary line input means for additionally inputting an auxiliary line not in contact with the contour line in the inner region of the contour line,
The depth value input means further inputs a desired depth value for a plurality of points along the auxiliary line,
The depth value calculation means is an inner area of the contour line, and the depth value of each pixel of the mask image is such that pixels other than the boundary are smooth planes with the contour line and the auxiliary line as a boundary. The depth production support apparatus according to claim 1, wherein:
立体視を実現するための視差画像の生成処理に利用する奥行き画像を制作する奥行き制作支援方法であって、
コンピュータが、
元の2次元画像内に描画されている特定の被写体を識別するために2値化された複数のマスク画像を読み込むマスク画像入力ステップと、
前記マスク画像に対して閉曲線である輪郭線を設定する輪郭線設定ステップと、
前記輪郭線に沿って複数の点を設定し、設定した点に対して所望の奥行き値を入力する奥行き値入力ステップと、
前記奥行き値入力ステップによって入力された奥行き値に基づき、前記輪郭線の内部領域が滑らかな平面となるように前記マスク画像の各画素の奥行き値を算出する奥行き値算出ステップと、
前記奥行き値算出ステップによって算出された奥行き値を前記マスク画像の各画素に設定し、奥行き値が設定された前記マスク画像を用いて前記奥行き画像を作成する奥行き画像作成ステップと、
を実行することを特徴とする奥行き制作支援方法。
A depth production support method for producing a depth image used for generating a parallax image for realizing stereoscopic viewing,
Computer
A mask image input step for reading a plurality of mask images binarized to identify a specific subject drawn in the original two-dimensional image;
An outline setting step for setting an outline that is a closed curve with respect to the mask image;
A depth value input step for setting a plurality of points along the contour line and inputting a desired depth value for the set points;
A depth value calculating step of calculating a depth value of each pixel of the mask image based on the depth value input by the depth value input step so that an inner region of the contour line is a smooth plane;
A depth image creation step of setting the depth value calculated in the depth value calculation step to each pixel of the mask image and creating the depth image using the mask image in which the depth value is set;
Depth production support method characterized by executing.
コンピュータに、
元の2次元画像内に描画されている特定の被写体を識別するために2値化された複数のマスク画像を読み込むマスク画像入力ステップと、
前記マスク画像に対して閉曲線である輪郭線を設定する輪郭線設定ステップと、
前記輪郭線に沿って複数の点を設定し、設定した点に対して所望の奥行き値を入力する奥行き値入力ステップと、
前記奥行き値入力ステップによって入力された奥行き値に基づき、前記輪郭線の内部領域が滑らかな平面となるように前記マスク画像の各画素の奥行き値を算出する奥行き値算出ステップと、
前記奥行き値算出ステップによって算出された奥行き値を前記マスク画像の各画素に設定し、奥行き値が設定された前記マスク画像を用いて前記奥行き画像を作成する奥行き画像作成ステップと、
を実行させるためのプログラム。
On the computer,
A mask image input step for reading a plurality of mask images binarized to identify a specific subject drawn in the original two-dimensional image;
An outline setting step for setting an outline that is a closed curve with respect to the mask image;
A depth value input step for setting a plurality of points along the contour line and inputting a desired depth value for the set points;
A depth value calculating step of calculating a depth value of each pixel of the mask image based on the depth value input by the depth value input step so that an inner region of the contour line is a smooth plane;
A depth image creation step of setting the depth value calculated in the depth value calculation step to each pixel of the mask image and creating the depth image using the mask image in which the depth value is set;
A program for running
JP2012069923A 2012-03-26 2012-03-26 Depth production support apparatus, depth production support method, and program Expired - Fee Related JP5994320B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012069923A JP5994320B2 (en) 2012-03-26 2012-03-26 Depth production support apparatus, depth production support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012069923A JP5994320B2 (en) 2012-03-26 2012-03-26 Depth production support apparatus, depth production support method, and program

Publications (2)

Publication Number Publication Date
JP2013201697A JP2013201697A (en) 2013-10-03
JP5994320B2 true JP5994320B2 (en) 2016-09-21

Family

ID=49521560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012069923A Expired - Fee Related JP5994320B2 (en) 2012-03-26 2012-03-26 Depth production support apparatus, depth production support method, and program

Country Status (1)

Country Link
JP (1) JP5994320B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5920858B1 (en) * 2015-07-01 2016-05-18 株式会社Live2D Program, information processing apparatus, depth definition method, and recording medium
KR101712435B1 (en) * 2015-09-10 2017-03-07 (주)이더블유비엠 Regularization apparatus for depth information on edge

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4708619B2 (en) * 2001-07-31 2011-06-22 キヤノン株式会社 Stereoscopic image forming system and stereoscopic image forming method
JP5615552B2 (en) * 2006-11-21 2014-10-29 コーニンクレッカ フィリップス エヌ ヴェ Generating an image depth map
JP4862004B2 (en) * 2008-03-05 2012-01-25 エヌ・ティ・ティ・コムウェア株式会社 Depth data generation apparatus, depth data generation method, and program thereof

Also Published As

Publication number Publication date
JP2013201697A (en) 2013-10-03

Similar Documents

Publication Publication Date Title
JP6627861B2 (en) Image processing system, image processing method, and program
KR102638526B1 (en) Modifying scenes in augmented reality using parameterized markers
US9007422B1 (en) Method and system for mutual interaction using space based augmentation
US9041819B2 (en) Method for stabilizing a digital video
US8611642B2 (en) Forming a steroscopic image using range map
US9876965B2 (en) Moving-image processing device, moving-image processing method, and information recording for determing interference
JP7353782B2 (en) Information processing device, information processing method, and program
US20130329985A1 (en) Generating a three-dimensional image
JP5809607B2 (en) Image processing apparatus, image processing method, and image processing program
JP2016071682A (en) Object arrangement device, object arrangement method, and program
JP6555755B2 (en) Image processing apparatus, image processing method, and image processing program
JP5994320B2 (en) Depth production support apparatus, depth production support method, and program
US8891857B2 (en) Concave surface modeling in image-based visual hull
JP2006072805A (en) Three-dimensional model display device and program
JP5857606B2 (en) Depth production support apparatus, depth production support method, and program
JP2017016166A (en) Image processing apparatus and image processing method
CN106169187A (en) For the method and apparatus that the object in video is set boundary
JP6182930B2 (en) Depth production support device, depth production method, and program
JP5980960B2 (en) Video generation device, video generation program, and video generation method
JP5817300B2 (en) Depth production support apparatus, depth production support method, and program
JP5966837B2 (en) Depth production support apparatus, depth production support method, and program
JP7119854B2 (en) Changed pixel region extraction device, image processing system, changed pixel region extraction method, image processing method and program
KR101003060B1 (en) Method for producing motion picture frames for stereoscopic video
KR101285111B1 (en) Conversion device for two dimensional image to three dimensional image, and method thereof
US10354415B2 (en) Method and apparatus for a seamless texture unit generator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160808

R150 Certificate of patent or registration of utility model

Ref document number: 5994320

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees