JP6182930B2 - Depth production support device, depth production method, and program - Google Patents
Depth production support device, depth production method, and program Download PDFInfo
- Publication number
- JP6182930B2 JP6182930B2 JP2013068165A JP2013068165A JP6182930B2 JP 6182930 B2 JP6182930 B2 JP 6182930B2 JP 2013068165 A JP2013068165 A JP 2013068165A JP 2013068165 A JP2013068165 A JP 2013068165A JP 6182930 B2 JP6182930 B2 JP 6182930B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- depth value
- frames
- frame
- adjacent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004519 manufacturing process Methods 0.000 title claims description 52
- 238000012545 processing Methods 0.000 claims description 15
- 238000000034 method Methods 0.000 description 51
- 238000010586 diagram Methods 0.000 description 11
- 230000002093 peripheral effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 210000003811 finger Anatomy 0.000 description 6
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 210000004932 little finger Anatomy 0.000 description 4
- 210000003813 thumb Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000007429 general method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005530 etching Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明は、立体視を実現するための視差画像を生成する視差画像生成装置が利用する奥行き画像を制作する奥行き制作支援装置等に関する。 The present invention relates to a depth production support apparatus that produces a depth image used by a parallax image generation apparatus that generates a parallax image for realizing stereoscopic vision.
従来、3次元映像表示システムでは、大別して、2視差方式のものと、3以上の視差を持つ多視差方式のものがある。いずれの方式も、必要な視点数からシーンを見た映像を準備する必要がある。 Conventional three-dimensional video display systems are roughly classified into a two-parallax system and a multi-parallax system having three or more parallaxes. In either method, it is necessary to prepare a video in which the scene is viewed from the required number of viewpoints.
最も直接的な映像の制作方法としては、必要な視差数分のカメラを用意し、同一シーンを所定の間隔に配置された複数のカメラで撮影する方法が考えられる。最近では2視差を直接撮影できるカメラが市販されているが、多視差を直接撮影できるカメラは一般的でない。 As the most direct video production method, there can be considered a method in which cameras for the required number of parallaxes are prepared and the same scene is shot with a plurality of cameras arranged at predetermined intervals. Recently, cameras that can directly shoot two parallaxes are commercially available, but cameras that can directly shoot multiple parallaxes are not common.
また、3次元CG(Computer Graphics)画像を作成し、複数のカメラ位置を設定してレンダリングする方法も考えられる。3次元CG画像には奥行き情報が含まれており、3次元画像から多視差方式に対応した視差画像を作成することは可能である。しかし、カメラ位置の数が多い場合、レンダリング回数が多くなり、時間とコストがかかるという問題がある。さらに、ほとんどの映像はCG画像ではなく実写であり、実写から3次元映像を作成することが求められている。 A method of creating a three-dimensional CG (Computer Graphics) image and setting a plurality of camera positions for rendering is also conceivable. The three-dimensional CG image includes depth information, and a parallax image corresponding to the multi-parallax method can be created from the three-dimensional image. However, when the number of camera positions is large, there is a problem that the number of renderings increases, which takes time and cost. Furthermore, most videos are not CG images but are real photographs, and it is required to create a three-dimensional video from the real photographs.
実写映像による多視差映像を制作する為に、平面(2D)映像を基にして多視差映像に変換する手法(いわゆる2次元/3次元変換の手法)は、いくつか存在する。しかし、多視差映像に変換する手法では、奥行き情報がない。そのため全てのシーン(フレーム)において手作業で1枚ずつ奥行き情報を作成する必要が生じ、非常に作業負荷が高かった。 There are several methods (so-called two-dimensional / three-dimensional conversion methods) for converting a multi-parallax image based on a plane (2D) image to produce a multi-parallax image based on a real image. However, there is no depth information in the method of converting to a multi-parallax image. Therefore, it is necessary to create depth information one by one in every scene (frame), and the work load is very high.
そこで、奥行き値を設定するための手法として、例えば、特許文献1には、ユーザ指示に応じてメッシュ形状を変形させ、奥行き値を設定する技術が提案されている。また、特許文献2には、ユーザ指示に応じて等高線を描き、その等高線に奥行き値を設定する技術が提案されている。また、非特許文献1には、3次元空間内において、映像の選択部分をユーザが移動・回転させ、奥行き値を設定する技術が提案されている。
Thus, as a method for setting the depth value, for example,
しかしながら、特許文献1に記載の技術は、操作すべき項目が多く、1フレーム分の奥行き情報を設定するために長時間を要し、設定した奥行き値が確認し難いという課題があった。また、特許文献2に記載の技術は、等高線を描き、奥行き情報を設定するために長時間を要するだけでなく、被写体が複雑な形状をしている場合、等高線の描写が困難になるという課題があった。また、非特許文献1に記載の技術は、設定方法は簡略化されているものの、異なるフレームにおける奥行き値の比較ができないため、位置関係の矛盾が生じやすいという課題があった。
However, the technique described in
そこで、本発明者らは、特許文献3において、(1)グラフとスライドバーを使用して奥行き値を設定する技術、(2)グラフとプレビュー画面を使用して奥行き値を確認する技術、(3)キーフレーム間の奥行き値を補間する技術、(4)前述の技術に基づいて奥行き画像及びラベル画像を生成する技術、を提案している。 In view of this, the present inventors disclosed in Patent Document 3 (1) a technique for setting a depth value using a graph and a slide bar, (2) a technique for checking a depth value using a graph and a preview screen, ( 3) A technique for interpolating depth values between key frames, and (4) a technique for generating a depth image and a label image based on the above-described technique are proposed.
さらに、本出願人は、特許文献4及び特許文献5において、局所的な凹凸を表現した奥行き画像を制作する技術を提案している。 Furthermore, the present applicant has proposed a technique for producing a depth image expressing local irregularities in Patent Document 4 and Patent Document 5.
しかしながら、特許文献1及び特許文献2に記載の技術では、操作すべき項目が多く、1フレーム分の奥行き情報を設定するために長時間を要するという従来からの課題がある。また、特許文献3に記載の技術では、マスク領域の局所的な出っ張りを表現できないという課題が残されているが、その課題を特許文献4に記載の技術で解決している。
However, the techniques described in
しかしながら、特許文献4に記載の技術では、静止画像の局所的な凹凸を表現した奥行き画像を制作するものである。そこで、特許文献4に記載の技術を動画像に対応させることも可能であるが、1フレームずつ手作業で奥行き情報を設定するために多くの時間を要し、非常に作業負荷が高くなる課題があった。この課題を、特許文献5に記載の技術で解決している。 However, in the technique described in Patent Document 4, a depth image expressing local unevenness of a still image is produced. Therefore, the technique described in Patent Document 4 can be applied to a moving image, but it takes a lot of time to manually set depth information for each frame, and the work load becomes very high. was there. This problem is solved by the technique described in Patent Document 5.
特許文献5に記載の技術では、動画像の各フレームの被写体に設定した一筆書きの輪郭線へ奥行き値を設定する際、輪郭線の少数の代表点(以下、アンカーポイントと記載する)への奥行き値を入力し、それらの間を補間することにより奥行き設定を行う。 In the technique described in Patent Document 5, when setting a depth value to a one-stroke outline set for a subject of each frame of a moving image, a small number of representative points (hereinafter referred to as anchor points) of the outline are used. Depth setting is performed by inputting depth values and interpolating between them.
図16は、特許文献5に記載の技術による奥行き設定を説明する図である。
図16(a)のフレームaから図16(b)のフレームbにかけて、被写体がカメラに向かって前進してくるような画像に対してアンカーポイントを設置した状況を示している。
FIG. 16 is a diagram illustrating depth setting by the technique described in Patent Document 5.
FIG. 16A shows a situation where anchor points are set for an image in which the subject moves forward toward the camera from frame a in FIG. 16A to frame b in FIG.
奥行き値の範囲は1〜255であり、フレームaからフレームbにかけて、奥行き値を+50増加させるように設定されている。すなわち、指先に設置したアンカーポイントの奥行き値はフレームaでは150、フレームbでは200に設定されている。ここで、フレームbにおいて被写体全体をより飛びださせるように更に+50奥行き値を増加させる設定をする場合、フレームbのすべてのアンカーポイントの奥行き値を1つ1つ変更する必要があり、手間と時間がかかるという問題がある。 The depth value ranges from 1 to 255, and is set to increase the depth value by +50 from frame a to frame b. That is, the depth value of the anchor point placed at the fingertip is set to 150 for frame a and 200 for frame b. Here, when the setting is made to further increase the +50 depth value so that the entire subject is further projected in the frame b, it is necessary to change the depth values of all the anchor points in the frame b one by one. There is a problem that it takes time.
本発明は、前述した問題点に鑑みてなされたものであり、その目的とするところは、被写体全体がカメラに向かって前進・後退する動画中の被写体輪郭線の奥行き設定を簡単な操作で行える奥行き制作支援装置等を提供することである。 The present invention has been made in view of the above-described problems, and an object of the present invention is to set the depth of a subject outline in a moving image in which the entire subject moves forward and backward toward the camera with a simple operation. It is to provide a depth production support device.
前述した目的を達成するために、第1の発明は、立体視を実現するための視差画像の生成処理に利用する奥行き画像の制作を支援する奥行き制作支援装置であって、元の動画像の各フレーム内に描画されている特定の被写体を識別するために2値化された複数のフレームのマスク画像を読み込むマスク画像入力手段と、前記マスク画像に対して輪郭線を設定する輪郭線設定手段と、前記複数のフレームのマスク画像に対して、キーとなる第1のフレームを少なくとも2つ設定し、前記第1のフレーム毎に、輪郭線全体に一律の値である第1の奥行き値を設定するベース奥行き値設定手段と、隣り合う2つの前記第1のフレーム間にあるフレームの前記第1の奥行き値を、隣り合う2つの前記第1のフレームに設定された前記第1の奥行き値から補間により求めるベース奥行き値補間手段と、前記複数のフレームのマスク画像に対して、キーとなる第2のフレームを少なくとも2つ設定し、各前記第2のフレームの輪郭線上の対応する位置に複数の第1の点を設定し、前記第1の点に輪郭線上の局所的な凹凸を表す第2の奥行き値を設定するアンカーポイント設定手段と、前記第2のフレームの前記第1の点に設定された前記第2の奥行き値と、当該第2のフレームの前記第1の奥行き値を加算し、前記第2のフレームの前記第1の点の最終奥行き値を決定し、前記第2のフレームの隣り合う前記第1の点間の輪郭線上の各位置の最終奥行き値を、前記隣り合う前記第1の点の前記最終奥行き値から補間により求める奥行き決定手段と、を具備することを特徴とする奥行き制作支援装置である。 In order to achieve the above-described object, the first invention is a depth production support apparatus that supports production of a depth image used for generating a parallax image for realizing stereoscopic vision, and which is an original moving image. Mask image input means for reading mask images of a plurality of frames binarized for identifying a specific subject drawn in each frame, and contour line setting means for setting a contour line for the mask image And at least two first frames as keys for the mask images of the plurality of frames, and for each of the first frames, a first depth value that is a uniform value for the entire contour line is set. The base depth value setting means to set, and the first depth value of the frame between the two adjacent first frames, the first depth value set in the two adjacent first frames Or At least two second frames serving as keys are set for the base depth value interpolating means to be obtained by interpolation and the mask images of the plurality of frames, and a plurality of them are provided at corresponding positions on the contour lines of the second frames. Anchor point setting means for setting a first depth point and setting a second depth value representing local irregularities on a contour line to the first point; and to the first point of the second frame Adding the set second depth value and the first depth value of the second frame to determine a final depth value of the first point of the second frame; Depth determining means for obtaining a final depth value at each position on a contour line between adjacent first points of a frame by interpolation from the final depth value of the adjacent first points. Depth production support equipment It is.
第1の発明によって、動画中の被写体輪郭線の奥行き設定を簡単な操作で行うことが可能になる。
例えば、被写体全体がカメラに向かって前進したり、カメラから遠ざかるよう後退する動画について、ベース奥行き値設定手段により、被写体の輪郭線に一律の第1の奥行き値を設定し、アンカーポイント設定手段により、輪郭線上の特定の点(第1の点)に輪郭線上の局所的な凹凸を表す第2の奥行き値を設定するという簡単な操作により、前記奥行き決定手段が、前記第1の奥行き値と前記第2の奥行き値を加算して第1の点の最終的な奥行き値を求め、この値を元に輪郭線上の各位置の最終奥行き値を補間により求めることが可能になる。
According to the first invention, it is possible to set the depth of the subject outline in a moving image with a simple operation.
For example, for a moving image in which the entire subject advances toward the camera or moves away from the camera, a uniform first depth value is set for the contour of the subject by the base depth value setting means, and the anchor point setting means is used. By the simple operation of setting a second depth value representing local irregularities on the contour line to a specific point (first point) on the contour line, the depth determining means The final depth value of the first point is obtained by adding the second depth values, and the final depth value at each position on the contour line can be obtained by interpolation based on this value.
前記輪郭線は、1ストロークで描画される閉曲線であることが好ましい。
また、前記第1のフレームは、前記複数のフレームのマスク画像のうちの最初のフレームと最後のフレームを含むことが望ましい。
The contour line is preferably a closed curve drawn in one stroke.
The first frame preferably includes a first frame and a last frame of the mask images of the plurality of frames.
前記ベース奥行き値補間手段は、前記隣り合う2つの第1のフレームに設定された前記第1の奥行き値を、前記隣り合う2つの第1のフレーム間にあるフレームと、前記隣り合う2つの第1のフレームとの間隔の比率によって線形補間することにより、前記隣り合う2つの第1のフレーム間にあるフレームの前記第1の奥行き値を決定する。
また、前記奥行き決定手段は、前記第2のフレームの前記第1の点間の輪郭線上の各位置の最終奥行き値を、隣り合う前記第1の点の最終奥行き値から補間することにより求める。
The base depth value interpolation means calculates the first depth value set in the two adjacent first frames, the frame between the two adjacent first frames, and the two adjacent first frames. The first depth value of a frame located between the two adjacent first frames is determined by linear interpolation according to the ratio of the interval with one frame.
Further, the depth determining means obtains the final depth value at each position on the contour line between the first points of the second frame by interpolating from the final depth values of the adjacent first points.
前記奥行き決定手段は、隣り合う前記第2のフレーム間の各フレームの、前記第2のフレームに設定された前記第1の点に対応する第2の点の位置情報を、前記隣り合う第2のフレームの前記第1の点の位置情報を、前記隣り合う2つの第2のフレーム間にあるフレームと、前記隣り合う2つの第2のフレームとの間隔の比率によって線形補間することにより求め、前記第2の点の最終奥行き値を、前記隣り合う第2のフレームの前記第1の点の前記最終奥行き値を、前記隣り合う2つの第2のフレーム間にあるフレームと、前記隣り合う2つの第2のフレームとの間隔の比率によって線形補間することにより求める。 The depth determining means obtains position information of a second point corresponding to the first point set in the second frame of each frame between the adjacent second frames, with the second adjacent point. The position information of the first point of the frame is obtained by linear interpolation according to the ratio of the interval between the two adjacent second frames and the two adjacent second frames, The final depth value of the second point, the final depth value of the first point of the adjacent second frame, the frame between the two adjacent second frames, and the adjacent 2 It is obtained by linear interpolation according to the ratio of the interval between two second frames.
前記奥行き決定手段は、隣り合う2つの前記第2の点間の輪郭線上の各位置の最終奥行き値を、隣り合う前記第2の点の最終奥行き値に基づいて求める。
これにより、全フレームのマスク画像の輪郭線上の全ての位置の最終奥行き値が決定可能になる。
The depth determination means obtains a final depth value at each position on the contour line between two adjacent second points based on the final depth value of the adjacent second points.
This makes it possible to determine final depth values at all positions on the contour line of the mask image of all frames.
前記奥行き決定手段は、前記第1の点の最終奥行き値及び前記第1の点間の輪郭線上の各位置の前記最終奥行き値に基づき、前記輪郭線の内部領域が滑らかな平面となるように前記マスク画像の各画素の奥行き値を算出し、前記奥行き画像を作成する。
これにより、全フレームのマスク画像の全画素の最終奥行き値が求まり、奥行き画像の制作が可能になる。
The depth determining means is configured so that an inner region of the contour line is a smooth plane based on the final depth value of the first point and the final depth value of each position on the contour line between the first points. The depth value of each pixel of the mask image is calculated to create the depth image.
As a result, the final depth value of all pixels of the mask image of all frames is obtained, and the depth image can be produced.
第1の発明によって、被写体全体がカメラに向かって前進したり、カメラから遠ざかるよう後退する動画において、被写体全体の動きについて第1の奥行き値を設定し、輪郭線上の局所的な凹凸について第2の奥行き値を設定することにより、被写体全体の動きと、局所的な凹凸の奥行きを分けて設定可能になり、各フレームの輪郭線上の点の奥行き値を被写体全体の動きと局所的な凹凸を考慮していちいち入力する手間を省き、簡単な操作による奥行き画像制作が可能になる。 According to the first invention, in the moving image in which the entire subject moves forward toward the camera or moves away from the camera, the first depth value is set for the movement of the entire subject, and the second local unevenness on the contour line is set. By setting the depth value, the movement of the entire subject and the depth of the local unevenness can be set separately, and the depth value of the point on the contour line of each frame can be set with the movement of the entire subject and the local unevenness. This makes it possible to create depth images with simple operations, eliminating the need to input each item.
第2の発明は、立体視を実現するための視差画像の生成処理に利用する奥行き画像を制作する奥行き制作方法であって、コンピュータが、元の動画像の各フレーム内に描画されている特定の被写体を識別するために2値化された複数のフレームのマスク画像を読み込むマスク画像入力ステップと、前記マスク画像に対して輪郭線を設定する輪郭線設定ステップと、前記複数のフレームのマスク画像に対して、キーとなる第1のフレームを少なくとも2つ設定し、前記第1のフレーム毎に、輪郭線全体に一律の値である第1の奥行き値を設定するベース奥行き値設定ステップと、隣り合う2つの前記第1のフレーム間にあるフレームの前記第1の奥行き値を、隣り合う2つの前記第1のフレームに設定された前記第1の奥行き値から補間により求めるベース奥行き値補間ステップと、前記複数のフレームのマスク画像に対して、キーとなる第2のフレームを少なくとも2つ設定し、各前記第2のフレームの輪郭線上の対応する位置に複数の第1の点を設定し、前記第1の点に輪郭線上の局所的な凹凸を表す第2の奥行き値を設定するアンカーポイント設定ステップと、前記第2のフレームの前記第1の点に設定された前記第2の奥行き値と、当該第2のフレームの前記第1の奥行き値を加算し、前記第2のフレームの前記点の最終奥行き値を決定し、前記第2のフレームの隣り合う前記第1の点間の輪郭線上の各位置の最終奥行き値を、前記隣り合う前記第1の点の前記最終奥行き値から補間により求める奥行き決定ステップと、を実行することを特徴とする奥行き制作方法である。 A second invention is a depth production method for producing a depth image to be used for generating a parallax image for realizing stereoscopic vision, wherein the computer is drawn in each frame of the original moving image. A mask image input step for reading a mask image of a plurality of frames binarized to identify a subject, a contour line setting step for setting a contour line for the mask image, and a mask image of the plurality of frames On the other hand, a base depth value setting step for setting at least two first frames as keys and setting a first depth value that is a uniform value for the entire contour line for each of the first frames; The first depth value of a frame between two adjacent first frames is interpolated from the first depth value set in two adjacent first frames. Base depth value interpolation step, and at least two second frames as keys for the mask images of the plurality of frames, and a plurality of frames at corresponding positions on the contour lines of the second frames. An anchor point setting step of setting a first point and setting a second depth value representing a local unevenness on a contour line at the first point, and setting to the first point of the second frame The second depth value that has been generated and the first depth value of the second frame are added to determine the final depth value of the point of the second frame, and adjacent to the second frame A depth determination step of performing a depth determination step by interpolating a final depth value of each position on the contour line between the first points from the final depth value of the adjacent first points. Is the method.
第3の発明は、コンピュータを、立体視を実現するための視差画像の生成処理に利用する奥行き画像の制作を支援する奥行き制作支援装置として機能させるためのプログラムであって、コンピュータを、元の動画像の各フレーム内に描画されている特定の被写体を識別するために2値化された複数のフレームのマスク画像を読み込むマスク画像入力手段、前記マスク画像に対して輪郭線を設定する輪郭線設定手と、前記複数のフレームのマスク画像に対して、キーとなる第1のフレームを少なくとも2つ設定し、前記第1のフレーム毎に、輪郭線全体に一律の値である第1の奥行き値を設定するベース奥行き値設定手段、隣り合う2つの前記第1のフレーム間にあるフレームの前記第1の奥行き値を、隣り合う2つの前記第1のフレームに設定された前記第1の奥行き値から補間により求めるベース奥行き値補間手段、前記複数のフレームのマスク画像に対して、キーとなる第2のフレームを少なくとも2つ設定し、各前記第2のフレームの輪郭線上の対応する位置に複数の第1の点を設定し、前記第1の点に輪郭線上の局所的な凹凸を表す第2の奥行き値を設定するアンカーポイント設定手段、前記第2のフレームの前記第1の点に設定された前記第2の奥行き値と、当該第2のフレームの前記第1の奥行き値を加算し、前記第2のフレームの前記第1の点の最終奥行き値を決定し、前記第2のフレームの隣り合う前記第1の点間の輪郭線上の各位置の最終奥行き値を、前記隣り合う前記第1の点の前記最終奥行き値から補間により求める奥行き決定手段、として機能させるためのプログラムである。 A third invention is a program for causing a computer to function as a depth production support apparatus that supports production of a depth image used for generation processing of a parallax image for realizing stereoscopic vision. Mask image input means for reading mask images of a plurality of frames binarized to identify a specific subject drawn in each frame of the moving image, and a contour line for setting a contour line for the mask image At least two first frames as keys are set for the setting hand and the mask images of the plurality of frames, and a first depth which is a uniform value for the entire contour line is set for each first frame. Base depth value setting means for setting a value, and setting the first depth value of a frame between two adjacent first frames to two adjacent first frames. Base depth value interpolating means that is obtained by interpolation from the first depth values, and setting at least two second frames as keys for the mask images of the plurality of frames, and for each of the second frames Anchor point setting means for setting a plurality of first points at corresponding positions on the contour line, and setting a second depth value representing local irregularities on the contour line at the first point, the second frame The second depth value set at the first point of the first frame and the first depth value of the second frame are added to obtain the final depth value of the first point of the second frame. Depth determining means for determining and determining the final depth value at each position on the contour line between the adjacent first points of the second frame by interpolation from the final depth value of the adjacent first points; To function as Is a program.
本発明により、被写体全体がカメラに向かって前進・後退する動画中の被写体輪郭線の奥行き設定を簡単な操作で行える奥行き制作支援装置等を提供することが可能になる。 According to the present invention, it is possible to provide a depth production support device and the like that can set the depth of a subject outline in a moving image in which the entire subject moves forward and backward toward the camera with a simple operation.
以下、添付図面に基づいて、本発明に係るエッチングレート測定装置の好適な実施形態について詳細に説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of an etching rate measuring apparatus according to the present invention will be described in detail with reference to the accompanying drawings.
図1は、本発明の実施形態に係る輪郭線対応点決定支援装置1のハードウエア構成図である。尚、図1のハードウエア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。
FIG. 1 is a hardware configuration diagram of a contour corresponding point
輪郭線対応点決定支援装置1は、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続される。
The contour corresponding point
制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成される。
The
CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、輪郭線対応点決定支援装置1が行う後述する処理を実行する。ROMは、不揮発性メモリであり、輪郭対応点決定支援装置1のブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。RAMは、揮発性メモリであり、記憶部12、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。
The CPU calls and executes a program stored in the
記憶部12は、HDD(ハードディスクドライブ)等であり、制御部11が実行するプログラム、プログラム実行に必要なデータ、OS(オペレーティングシステム)等が格納される。プログラムに関しては、OS(オペレーティングシステム)に相当する制御プログラムや、後述する処理を輪郭線対応点決定支援装置1に実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種の手段として実行される。
The
メディア入出力部13(ドライブ装置)は、データの入出力を行い、例えば、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)等のメディア入出力装置を有する。 The media input / output unit 13 (drive device) inputs / outputs data, for example, media such as a CD drive (-ROM, -R, -RW, etc.), DVD drive (-ROM, -R, -RW, etc.) Has input / output devices.
通信制御部14は、通信制御装置、通信ポート等を有し、輪郭線対応点決定支援装置1とネットワーク間の通信を媒介する通信インタフェースであり、ネットワークを介して、他の装置間との通信制御を行う。ネットワークは、有線、無線を問わない。
The
入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部15を介して、輪郭線対応点決定支援装置1に対して、操作指示、動作指示、データ入力等を行うことができる。
The
表示部16は、CRTモニタ、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携して輪郭線対応点決定支援装置1のビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。
The
周辺機器I/F(インタフェース)部17は、輪郭線対応点決定支援装置1に周辺機器を接続させるためのポートであり、周辺機器I/F部17を介して輪郭線対応点決定支援装置1は周辺機器とのデータの送受信を行う。周辺機器I/F部17は、USBやIEEE1394やRS−232C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続携帯は有線、無線を問わない。
The peripheral device I / F (interface)
バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。 The bus 18 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.
図2は、奥行き制作支援装置1および視差画像生成装置2の入出力データを示す図である。図2に示すように、奥行き制作支援装置1は、2次元画像3、背景画像4、マスク画像5、輪郭線6、および奥行き値7を入力データとし、奥行き画像8、およびラベル画像9を出力データとする。視差画像生成装置2は、2次元画像3、奥行き画像8、およびラベル画像9を入力データとし、視差画像10を出力データとする。
FIG. 2 is a diagram illustrating input / output data of the depth
2次元画像3、背景画像4、マスク画像5、輪郭線6は、奥行き制作支援装置1の制御部11(以下、「制御部11」と略記する。)が生成してもよいし、メディア入出力部13、通信制御部14等を介して外部から取得してもよい。
また、本実施の携帯の奥行き制作支援装置1では、奥行き値7については、少数のフレーム及び少数の輪郭線上の点についての奥行き値7を入力部15を介して入力することにより、奥行き制作支援装置1がその他のフレーム及びその他の輪郭線上の点についての奥行き値7を生成する。詳細については後述する。
The two-dimensional image 3, the background image 4, the mask image 5, and the
In the portable depth
2次元画像3は、動画像(平面映像)の1枚分のフレーム画像または静止画像である。動画像(平面映像)には、例えば、単位時間当たり所定のフレーム数(通常、1秒間に30フレーム)のカラー静止画像が含まれており、各画素がRGB各256段階の階調を持つ。 The two-dimensional image 3 is a frame image or a still image for one moving image (planar image). A moving image (planar image) includes, for example, a color still image of a predetermined number of frames per unit time (usually 30 frames per second), and each pixel has 256 gradations of RGB.
背景画像4は、背景の奥行き感を示す画像である。背景画像4は、2次元画像3に基づいてフォトレタッチソフトなどを用いて手作業で生成してもよいし、別途ソフトウエアを用いて自動的に生成してもよい。 The background image 4 is an image showing a sense of depth in the background. The background image 4 may be generated manually using photo retouching software or the like based on the two-dimensional image 3, or may be automatically generated using separate software.
マスク画像5は、特定の被写体を識別するための2値化画像である。マスク画像5は、2次元画像3に基づいてフォトレタッチソフトなどを用いて手作業で生成してもよいし、別途ソフトウエアを用いて自動的に生成してもよい。 The mask image 5 is a binarized image for identifying a specific subject. The mask image 5 may be generated manually using photo retouching software or the like based on the two-dimensional image 3, or may be automatically generated using separate software.
輪郭線6は、マスク画像5の2値の境界を示す線である。輪郭線6は、制御部11が輪郭線検出処理を行って生成するようにしてもよいし、ユーザがマウス等を使用して入力してもよい。
The
奥行き値7は、被写体の奥行き方向の位置を定義する値である。本発明では、奥行き値7の画素値の範囲を0〜255の256階調として表現する。0が黒、255が白、1〜254がグレー(中間調)に対応する。ユーザの入力操作によって、マスク画像の少数のフレームに設定されるベース奥行き値と、輪郭線6に沿っていくつかの点(以下、アンカーポイントと呼ぶ)について設定される局所的な凹凸の奥行き値が入力されると、制御部11によって輪郭線6の内部領域の各画素の奥行き値7が算出され、設定される。
The depth value 7 is a value that defines the position of the subject in the depth direction. In the present invention, a range of pixel values having a depth value of 7 is expressed as 256 gradations from 0 to 255. 0 corresponds to black, 255 corresponds to white, and 1 to 254 correspond to gray (halftone). Base depth values set for a small number of frames of the mask image by the user's input operation, and depth values of local unevenness set for several points (hereinafter referred to as anchor points) along the
奥行き制作支援装置1は、2次元画像3、背景画像4、マスク画像5、輪郭線6、および奥行き値7に基づいて、奥行き画像8の制作を支援するものである。特に、本発明の実施の形態における奥行き制作支援装置1は、カメラに向かって前進したりカメラから遠ざかるように後退する立体物(被写体)の奥行き値の設定を簡単に行えるようにする方法に特徴がある。
The depth
奥行き画像8は、2次元画像3に係るカメラから被写体までの奥行き値を画素値に置き換えた画像である。ここで、カメラとは、視差画像生成装置2の内部処理において定義される仮想的なカメラを意味する。 The depth image 8 is an image in which the depth value from the camera to the subject related to the two-dimensional image 3 is replaced with a pixel value. Here, the camera means a virtual camera defined in the internal processing of the parallax image generation device 2.
奥行き画像8は、例えば、画素値の範囲が0〜255(8ビット)のグレースケールであり、0(黒)が最も奥、255(白)が最も手前を意味する場合が多いが、逆であってもよい。以下では、説明を分かり易くするために、奥行き画像8は、画素値の範囲が0〜255であり、0(黒)が最も奥、255(白)が最も手前を意味するものとする。 The depth image 8 is, for example, a gray scale with a pixel value range of 0 to 255 (8 bits), and 0 (black) is the farthest and 255 (white) is often the foreground. There may be. In the following, in order to make the explanation easy to understand, the depth image 8 has a pixel value range of 0 to 255, 0 (black) being the deepest and 255 (white) being the foremost.
ラベル画像9は、それぞれの2次元画像3に対応付けて、2次元画像3に記録されたシーンを構成する被写体を識別する固有の数値(ラベル値)によって領域分けし、このラベル値を画素値に置き換えた(ラベリングされた)画像である。例えば、背景、建物、および人物から構成されるシーンにおいて、背景、建物、および人物に相当するラベル値として、それぞれL0、L1、L2を割り当て、対応する2次元画像3の各画素がどの被写体に属しているかを、L0、L1、L2の画素値に置き換えることによって表現する。 The label image 9 is associated with each two-dimensional image 3, and is divided into regions by unique numerical values (label values) for identifying subjects constituting the scene recorded in the two-dimensional image 3, and the label values are represented by pixel values. This is an image replaced (labeled) with. For example, in a scene composed of a background, a building, and a person, L0, L1, and L2 are assigned as label values corresponding to the background, the building, and the person, respectively, and each pixel of the corresponding two-dimensional image 3 is assigned to which subject. Whether it belongs or not is expressed by replacing it with pixel values of L0, L1, and L2.
ラベル画像9は、2次元画像3に基づいてフォトレタッチソフトなどを用いて手作業で生成してもよいし、本発明のように、奥行き制作支援装置1が自動的に生成してもよい。
The label image 9 may be generated manually using photo retouching software or the like based on the two-dimensional image 3, or may be automatically generated by the depth
視差画像10は、立体視を実現するための画像である。本発明の実施の形態では、視差画像10は、特に、両目視差(約60mm〜70mm程度)を利用し、裸眼観察によって立体視を実現するための画像である。
The
尚、本発明の実施の形態では詳細に述べないが、複数の視差画像10をディスプレイの仕様に合わせて合成し、ディスプレイに表示することによって、裸眼観察による立体視を実現することが可能となる。複数の視差画像10の合成処理については、公知の技術を利用すればよい。
Although not described in detail in the embodiment of the present invention, a plurality of
視差画像生成装置2は、2次元画像3、奥行き画像8、およびラベル画像9に基づいて視差画像10を生成するものである。視差画像生成装置2の詳細は、本出願人が先に出願した、特願2010−176864号、および特願2011−55878号に記載されている。
The parallax image generating device 2 generates a
図3は、奥行き制作支援装置1が実行する動画像の奥行き制作支援処理の流れを説明するフローチャートである。
FIG. 3 is a flowchart for explaining the flow of a depth creation support process for moving images executed by the depth
ステップ1において、奥行き制作支援装置1の制御部11(以下、制御部11ともいう。)は、ユーザからの指示に基づいて入力画像群(動画像)を読み込む。
ステップ2において、制御部11は、ユーザによって輪郭抽出が指示されると、マスク画像5の輪郭を検出し、マスク画像上に輪郭線6を描画する。輪郭線6は、1ストロークで描画される閉曲線である。尚、輪郭線6の検出方法は、例えば、画素値の変化に基づいてエッジ(境界)を認識するといった一般的な手法を用いればよい。また、輪郭線6は、ユーザがマウス等の入力部15を用いて入力したり、軌跡の形状を変形して得るようにしてもよい。
In
In step 2, when contour extraction is instructed by the user, the
次に、制御部11は、ステップ3において、ベース奥行き値83の設定を行う。
ベース奥行き値83の設定(ステップ3)は、本実施形態の奥行き制作支援装置1の特徴的な処理構成である。
ベース奥行き値83は、一旦、被写体の輪郭線6に一律に設定される奥行き値であり、被写体全体の奥行き方向の位置を決定するものである。制御部11は、少数のフレームについてのベース奥行き値83の設定を支援する画面を表示部16に表示し、ユーザに入力させる。
ベース奥行き値83の設定については、後述する。
Next, the
The setting of the base depth value 83 (step 3) is a characteristic processing configuration of the depth
The
The setting of the
次に、制御部11は、ステップ4において、ステップ3で設定された少数のフレームについてのベース奥行き値83を元に、全てのフレームのベース奥行き値83を補間により求める。
Next, in step 4, the
次に、制御部11は、ステップ5において、少数のフレーム上に対応する点(以下、アンカーポイントと呼ぶ)を設定し、マスク画像の輪郭線の局所的な凹凸を表す奥行き値を設定する。制御部11は、アンカーポイントと、アンカーポイントの奥行き値の入力を支援する画面を表示部16に表示し、ユーザに入力させる。
Next, in step 5, the
次に、制御部11は、ステップ6において、ステップ4のベース奥行き値補間処理及びステップ5のアンカーポイントの設定処理によって求まった、ベース奥行き値83及び局所的な凹凸を表す奥行き値を元に、全てのフレームについて、輪郭線上の全ての点の最終奥行き値を算出し、奥行き画像を作成する。
Next, in
以下、図3に示した動画像の奥行き制作支援処理について詳細に説明する。
図4は、奥行き制作支援装置1が扱う入力画像群を説明するための図である。
The moving picture depth production support process shown in FIG. 3 will be described in detail below.
FIG. 4 is a diagram for explaining an input image group handled by the depth
図4に示すように、入力画像群は、フレームごとに、2次元画像、被写体1から被写体nのn枚のマスク画像、及び背景画像が1組になっている。マスク画像の枚数nは、動画像に現れる立体物(被写体)の数に対応する。背景画像は、2次元画像のなかの立体物(被写体)を除いた部分の画像である。
例えば、フレーム数が1000枚の場合、2次元画像は1000枚、マスク画像はn×1000枚、背景画像は1000枚準備される。
As shown in FIG. 4, the input image group includes a two-dimensional image, n mask images of
For example, when the number of frames is 1000, 1000 two-dimensional images, n × 1000 mask images, and 1000 background images are prepared.
図5は、図3のステップ1によって奥行き制作支援装置1に入力させる1フレーム分の2次元画像31の一例を示す図である。
図5に示す2次元画像31には1つの立体物(被写体)からなるので、1フレームの入力画像群は、二次元画像と1枚のマスク画像と、背景画像で構成される。
図5に示す二次元画像31は、男性の被写体が左手でカメラ方向に腕を伸ばして指を指している。
FIG. 5 is a diagram illustrating an example of a two-dimensional image 31 for one frame that is input to the depth
Since the two-dimensional image 31 shown in FIG. 5 is composed of a single three-dimensional object (subject), one frame of the input image group includes a two-dimensional image, one mask image, and a background image.
In the two-dimensional image 31 shown in FIG. 5, a male subject extends his arm in the camera direction with his left hand and points a finger.
図6は、図3のステップ1によって奥行き制作支援装置1に入力させる図5に示した二次元画像31のマスク画像51を示す図である。
マスク画像51は奥行きについての情報を持たないため、被写体の向きや指を指している方向は不明である。そのため、奥行き画像制作支援装置1は、マスク画像51の奥行き値7を設定して奥行き画像8を作成する処理を後述のように行うのである。
FIG. 6 is a diagram showing a mask image 51 of the two-dimensional image 31 shown in FIG. 5 that is input to the depth
Since the mask image 51 has no information about the depth, the direction of the subject and the direction of pointing the finger are unknown. Therefore, the depth image
図7は、図3のステップ2によって、制御部11がマスク画像51について検出した輪郭線61を示している。輪郭線61は、マスク画像51の画素値が変化するエッジ部分を認識する一般的な手法を用いて求めることができ、1ストロークで描画される閉曲線である。
FIG. 7 shows the contour line 61 detected by the
制御部11は、図3のステップ2によって、同一の被写体の全てのフレームについて輪郭線を得る。
図8は、図6、図7に示したマスク画像51と同一の被写体の異なる2つのフレーム(フレームaとフレームb)の輪郭線の例を示す図である。
The
FIG. 8 is a diagram showing an example of contour lines of two different frames (frame a and frame b) of the same subject as the mask image 51 shown in FIGS.
図8の輪郭線は、図5に示した腕を前に出して前方を指差している男性が、フレームaのカメラから遠い位置から、フレームbのカメラ方向に前進している例を示している。
このような場合、被写体は同じように腕を前に出して前方を指差しているが、被写体全体は、フレームaではカメラから遠い、奥行きの深い奥の位置にあり、フレームbでは、奥行きの浅い手前の位置にある。
The contour line in FIG. 8 shows an example in which a man with the arm shown in FIG. 5 pointing forward and pointing forward advances from the position far from the camera in frame a toward the camera in frame b. Yes.
In such a case, the subject similarly puts his arm forward and points forward, but the entire subject is far away from the camera in frame a and at a deep depth position, and in frame b, the depth is It is in a shallow front position.
次に、制御部11は、図3のステップ3において、ベース奥行き値の設定を行う。
ベース奥行き値は、図8に示したような、被写体全体の奥行きを表す値である。
Next, the
The base depth value is a value representing the depth of the entire subject as shown in FIG.
制御部11は、図3のステップ3において、まず、ベース奥行き値を設定するための画面を表示部16に表示す。
図9は、ベース奥行き値設定画面例70を示す図である。
In step 3 of FIG. 3, the
FIG. 9 is a diagram illustrating a base depth value setting screen example 70.
図9に示すように、ベース奥行き値設定画面70は、例えば、マスク選択用プルダウン71、画像表示領域72、ベース奥行き値の設定領域73、キーフレーム設定ボタン77、キーフレーム選択ボタン78、キーフレーム削除ボタン79、ベース奥行き値設定ボタン65、終了ボタン66等で構成される。
また、ベース奥行き値設定領域73は、ベース奥行き値表示領域76、フレーム選択用スライダ74、ベース奥行き値設定用スライダ75等で構成される。
As shown in FIG. 9, the base depth value setting screen 70 includes, for example, a mask selection pull-
The base depth
ベース奥行き値表示領域76は、横軸をフレーム番号、縦軸をベース奥行き値として設定されたベース奥行き値を表示する。
縦軸のベース奥行き値は、1〜255の値を採ることが可能で、1が最も奥、255が最も手前であることを表す。
The base depth
The base depth value on the vertical axis can take values from 1 to 255, with 1 being the farthest and 255 being the foremost.
マスク選択用プルダウン71は、ベース奥行き値を設定するマスク画像5を選択するためのプルダウンメニューであり、現在処理中の動画像についてのマスク画像に付された識別番号等が表示され、その中から、選択することが可能である。
図4のように、処理する動画像の二次元画像にn個の被写体が含まれ、n個のマスク画像がある場合、マスク選択用プルダウン71にはn個のマスク画像の識別番号等が表示され、その中の一つをユーザに選択させるようにする。
The mask selection pull-
As shown in FIG. 4, when a two-dimensional image of a moving image to be processed includes n subjects and there are n mask images, the mask selection pull-
画像表示領域72には、マスク選択用プルダウン71で選択されたマスク画像の、フレーム選択用スライダ74で選択されたフレームのマスク画像が表示される。
ユーザは、フレーム選択用スライダ74をスライドさせて画像表示領域72に表示されるマスク画像を見ながら、ベース奥行き値を設定するフレーム(以降、ベース奥行き値設定キーフレームと呼ぶ)を決定することが可能である。
In the
The user can determine a frame (hereinafter referred to as a base depth value setting key frame) for setting a base depth value while sliding the
フレーム選択用スライダ74を所望の位置にスライドさせて、キーフレーム設定ボタン77をマウス等でクリックすることにより、ベース奥行き値設定キーフレームを決定することが可能である。
次に、決定したベース奥行き値設定キーフレームのベース奥行き値を、ベース奥行き値設定用スライダ75を所望の位置にスライドさせて、ベース奥行き値設定ボタン65をマウス等でクリックすることによりベース奥行き値を決定することが可能である。
The base depth value setting key frame can be determined by sliding the
Next, the base depth value of the determined base depth value setting key frame is slid by sliding the base depth
既に設定してあるキーフレームのマスク画像を画像表示領域72に表示させたい場合には、キーフレーム選択ボタン78を操作する。また、ベース奥行き値設定キーフレームを削除したい場合には、フレーム選択用スライダ74を削除したいキーフレームの位置にスライドさせるか、キーフレーム選択ボタン78してベース奥行き値設定キーフレームの位置に合わせて、キーフレーム削除ボタン79をクリックすればよい。
In order to display the mask image of the key frame that has already been set in the
図9のベース奥行き値設定画面70は一例であり、画面の構成はこれに限ることはない。 The base depth value setting screen 70 in FIG. 9 is an example, and the configuration of the screen is not limited to this.
図10は、図8の2つのフレーム(フレームa及びフレームb)のベース奥行き値を設定する場合のベース奥行き値設定領域73の部分を、図11は、ベース奥行き値の設定データ80の例を示している。
10 shows a portion of the base depth
図10(a)に示すように、被写体が奥にあるフレームa(フレーム番号22)のベース奥行き値を例えば100に設定し、被写体が手前に前進しているフレームb(フレーム番号32)では、図10(b)に示すように、ベース奥行き値を例えば150に設定する。
設定されたベース奥行き値は、ベース奥行き設定キーフレームの番号とともに記憶部12に格納される。
As shown in FIG. 10A, in the frame b (frame number 32) in which the base depth value of the frame a (frame number 22) with the subject in the back is set to 100, for example, and the subject is moving forward, As shown in FIG. 10B, the base depth value is set to 150, for example.
The set base depth value is stored in the
すなわち、図11に示すように、ベース奥行き値は、ベース奥行き値設定データ80として記憶部12に格納される。
ベース奥行き値設定データ80は、例えば、マスク画像の識別番号81、ベース奥行き値設定キーフレームの番号82、及び、ベース奥行き値83で構成される。
That is, as shown in FIG. 11, the base depth value is stored in the
The base depth
図11の例では、マスク画像1について、6つのベース奥行き値設定キーフレーム82についてベース奥行き値83が設定されたことを示している。
以上、図3のステップ3のベース奥行き値の設定処理により、被写体全体の奥行き方向の位置が、少数のベース奥行き値設定キーフレーム82について決定される。
In the example of FIG. 11, for the
As described above, the position in the depth direction of the entire subject is determined for a small number of base depth value setting
次に、制御部11は、図3のステップ4のベース奥行き値補間処理により、記憶部12に格納されているベース奥行き値設定データ80を元に、当該マスク画像の全フレームについてのベース奥行き値を求める。
Next, the
すなわち、隣り合う2つのベース奥行き値設定キーフレーム82間の各フレーム84についてのベース奥行き値83を、隣り合う2つのベース奥行き値設定キーフレーム82で設定されたベース奥行き値83を用いて補間により求める。
例えば、図11の例では、隣り合う2つのベース奥行き値設定キーフレーム82番号「22」と「32」の間にあるフレーム番号23〜31についてのベース奥行き値83を求める場合には、ベース奥行き値設定キーフレーム「22」と「32」のベース奥行き値83の値である「100」と「150」を用いて、求めるフレーム番号と両ベース奥行き値設定キーフレームの番号の比率に応じて線形補間して求めればよい。
That is, the
For example, in the example of FIG. 11, when obtaining the
図3のステップ4のベース奥行き値補間処理により、ベース奥行き値設定データ80として記憶部12に格納されたベース奥行き値設定キーフレーム間の全フレームについてのベース奥行き値83が求められ、ベース奥行き値データ85として記憶部12に格納される。
The
図12に示すように、ベース奥行き値データ85は、マスク画像の識別番号81、フレーム番号84、及びベース奥行き値83で構成される。
ベース奥行き値補間処理(図3のステップ4)により、特定の被写体のマスク画像が含まれる全フレームについてベース奥行き値83が求まる。
As shown in FIG. 12, the base depth value data 85 includes a mask
Based on the base depth value interpolation process (step 4 in FIG. 3), the
次に、制御部11は、図3のステップ5のアンカーポイントの設定処理を実行する。すなわち、表示部16に、アンカーポイント設定画面90を表示させ、ユーザにアンカーポイントを設定させる。
Next, the
図13は、アンカーポイント設定画面90の一例を示す図である。
図13に示す例では、アンカーポイント設定画面90は、マスク選択用プルダウン91、画像表示領域92、アンカーポイントの設定領域93、フレーム選択用スライダ94、キーフレーム設定ボタン96、キーフレーム削除ボタン97、キーフレーム選択ボタン98、終了ボタン99等で構成される。
FIG. 13 is a diagram illustrating an example of the anchor
In the example shown in FIG. 13, the anchor
また、アンカーポイントの設定領域93は、アンカーポイントの奥行き設定用スライダ86、奥行き値表示部87、設定ボタン88、削除ボタン89等で構成される。
図13のアンカーポイント設定画面90は一例であり、画面の構成はこれに限ることはない。
The anchor
The anchor
マスク選択用プルダウン91は、アンカーポイントを設定するマスク画像5を選択するためのプルダウンメニューであり、現在処理中の動画像についてのマスク画像に付された識別番号等が表示され、その中から、選択することが可能である。
The mask selection pull-
画像表示領域92には、マスク選択用プルダウン91で選択されたマスク画像5の、フレーム選択用スライダ94で選択されたフレームのマスク画像が表示される。
ユーザは、フレーム選択用スライダ94をスライドさせて画像表示領域92に表示されるマスク画像を見ながら、アンカーポイントを設定するフレーム(以降、アンカーポイント設定キーフレームと呼ぶ)を決定することが可能である。
In the
The user can determine a frame for setting an anchor point (hereinafter referred to as an anchor point setting key frame) while viewing the mask image displayed in the
フレーム選択用スライダ94を所望の位置にスライドさせて、キーフレーム設定ボタン96をマウス等でクリックすることにより、アンカーポイント設定キーフレームを決定することが可能である。
図13の例では、フレーム選択用スライダ94をスライドさせて、フレーム32をアンカーポイント設定キーフレームとしている。
決定したアンカーポイント設定キーフレームを決定すると、画像表示領域92には、アンカーポイント設定キーフレームのマスク画像が輪郭線とともに表示される。
An anchor point setting key frame can be determined by sliding the
In the example of FIG. 13, the
When the determined anchor point setting key frame is determined, the mask image of the anchor point setting key frame is displayed in the
次に、制御部11は、この輪郭線上に、局所的な凹凸を表すためのアンカーポイントを設定させる。すなわち、輪郭線上の局所的な凹凸の部分にマウス等によりカーソルを合わせクリックすることにより、アンカーポイントを設定する。
アンカーポイントは、画像表示領域92において、例えば、図13に示すように、○印で表示される。
Next, the
The anchor point is displayed in the
図13の例では、輪郭線の右下端から左回りに、腕の下の部分、手の甲の小指側の部分、人差し指の先、親指の付け根、首の付け根、反対側の首の付け根にアンカーポイントが設定されている。 In the example of FIG. 13, counterclockwise from the lower right end of the contour line, anchor points at the lower part of the arm, the little finger side of the back of the hand, the tip of the index finger, the base of the thumb, the base of the neck, the base of the neck on the opposite side Is set.
次に、各アンカーポイントの奥行き値を、アンカーポイントの設定領域93のアンカーポイントの奥行き設定用スライダ86を使用して入力させる。
アンカーポイントの奥行き値は、−255〜+255の値をとり、先に決定した輪郭線に一律に与えられたベース奥行き値に対する凹凸の程度を表す。
Next, the depth value of each anchor point is input using the anchor point
The depth value of the anchor point takes a value of −255 to +255, and represents the degree of unevenness with respect to the base depth value uniformly given to the previously determined contour line.
画像表示領域92に表示されている輪郭線上のアンカーポイントの位置を決定した後、アンカーポイントの奥行き設定用スライダ86を所望の位置にスライドして、設定ボタン88をクリックすることにより奥行き値を設定するようにすればよい。奥行き値表示部87には、アンカーポイントの奥行き設定用スライダ86のスライド位置の奥行き値が表示される。
After determining the position of the anchor point on the contour line displayed in the
図13の例では、先に位置を設定したアンカーポイントに対してアンカーポイントの奥行き値が設定され、輪郭線の右下端から左回りに、腕の下の部分のアンカーポイントに「0」、手の甲の小指側のアンカーポイントに「80」、人差し指の先のアンカーポイントに「100」、親指の付け根のアンカーポイントに「80」、首の付け根のアンカーポイントに「0」、反対側の首の付け根のアンカーポイントに「0」の奥行き値が設定されている。 In the example of FIG. 13, the depth value of the anchor point is set for the anchor point whose position has been previously set, and “0” is set to the anchor point in the lower part of the arm counterclockwise from the lower right end of the contour line. "80" for the little finger side anchor point, "100" for the index point at the tip of the index finger, "80" for the anchor point at the base of the thumb, "0" for the anchor point at the base of the neck, and the base of the neck on the opposite side A depth value of “0” is set at the anchor point.
制御部11は、設定されたアンカーポイントの位置情報とアンカーポイントの奥行き値は、マスク画像の識別番号、アンカーポイントのキーフレームのフレーム番号とともに、アンカーポイント情報として記憶部12に格納する。
The
キーフレーム削除ボタン97は、既に設定されているアンカーポイント設定キーフレームを削除する際にクリックする。
キーフレーム選択ボタン98は、既に設定されているアンカーポイント設定キーフレームを選択する際に、クリックする。
The key
The key
アンカーポイントは、少なくとも2つのキーフレームの輪郭線上の対応する位置に設けられる。
図14は、図8の、フレームaからフレームbにかけて、被写体がカメラ方向に前進するマスク画像対するアンカーポイントの奥行き値設定を示す図である。
The anchor point is provided at a corresponding position on the contour line of at least two key frames.
FIG. 14 is a diagram illustrating the depth value setting of the anchor point for the mask image in which the subject advances in the camera direction from frame a to frame b in FIG.
図14(a)のフレームaついては先に設定したベース奥行き値「100」が既に設定されており、アンカーポイントの設定処理(図3のステップ5)により、輪郭線の右下端から左回りに、腕の下の部分のアンカーポイントに「0」、手の甲の小指側のアンカーポイントに「80」、人差し指の先のアンカーポイントに「100」、親指の付け根のアンカーポイントに「80」、首の付け根のアンカーポイントに「0」、反対側の首の付け根のアンカーポイントに「0」の奥行き値が設定されている。 For the frame a in FIG. 14A, the previously set base depth value “100” has already been set, and by the anchor point setting process (step 5 in FIG. 3), "0" for the anchor point on the lower part of the arm, "80" for the little finger on the back of the hand, "100" for the anchor point on the tip of the index finger, "80" for the anchor point at the base of the thumb, the base of the neck A depth value of “0” is set to the anchor point of “0”, and a depth value of “0” is set to the anchor point at the base of the opposite neck.
被写体がカメラ方向に前進した図14(b)のフレームbにおいても、フレームaのアンカーポイントの位置と対応する位置にアンカーポイントが設定され、フレーム(a)と同様に、腕の下の部分のアンカーポイントに「0」、手の甲の小指側のアンカーポイントに「80」、人差し指の先のアンカーポイントに「100」、親指の付け根のアンカーポイントに「80」、首の付け根のアンカーポイントに「0」、反対側の首の付け根のアンカーポイントに「0」の奥行き値が設定されている。
図14(b)のフレームbでは、先に設定したベース奥行き値「150」が既に設定されている。
Also in the frame b in FIG. 14B in which the subject has advanced in the camera direction, the anchor point is set at a position corresponding to the position of the anchor point in the frame a. "0" for the anchor point, "80" for the little finger on the back of the hand, "100" for the tip of the index finger, "80" for the anchor point at the base of the thumb, "0" for the anchor point at the base of the neck ", A depth value of" 0 "is set at the anchor point at the base of the opposite neck.
In frame b in FIG. 14B, the base depth value “150” set in advance is already set.
図14の場合、フレームaからフレームbにかけて、腕を上げて指す輪郭線の形状は変わっていないので、図14(a)のフレームaと図14(b)のフレームbにおけるアンカーポイントの位置、奥行き値は同一になっている。
フレームの経過に従って、輪郭線の形状が変化するような場合には、アンカーポイントの位置はキーフレームの輪郭線上の対応する位置に設定され、アンカーポイントの奥行き値も異なる値に設定してもよい。
In the case of FIG. 14, the shape of the contour line pointing up from the frame a to the frame b has not changed, so the position of the anchor point in the frame a in FIG. 14A and the frame b in FIG. Depth values are the same.
When the shape of the contour changes as the frame progresses, the position of the anchor point may be set to a corresponding position on the contour of the key frame, and the depth value of the anchor point may be set to a different value. .
以上に示すように、アンカーポイントの設定処理(図3のステップ5)により、複数のアンカーポイントのキーフレームの輪郭線上の対応する複数の位置にアンカーポイントが設定され、アンカーポイントの奥行き値が設定される。 As described above, anchor point setting processing (step 5 in FIG. 3) sets anchor points at a plurality of corresponding positions on the outline of the key frame of the plurality of anchor points, and sets the depth values of the anchor points. Is done.
次に、制御部11は、図3のステップ6において、ステップ3〜5で設定されたベース奥行き値とアンカーポイントの奥行き値を元に、最終的な奥行き値を求め、奥行き画像8を生成する。
Next, in
図15は、図3のステップ6の奥行き決定処理の流れを示すフローチャートである。
まず、制御部11は、各アンカーポイントのキーフレームに設定されたアンカーポイントについて、最終奥行き値を求める(ステップ61)。
FIG. 15 is a flowchart showing the flow of the depth determination process in
First, the
すなわち、図12に示すようなベース奥行き値データ85を参照し、アンカーポイントのキーフレームのフレーム84についてベース奥行き値83を読み出し、ステップ5のアンカーポイントの設定処理において設定された各アンカーポイントの奥行き値と加算し、各アンカーポイントの最終奥行き値を算出する。
これによって、各アンカーポイントのキーフレームの、各アンカーポイントの最終奥行き値が求まる。
That is, with reference to the base depth value data 85 as shown in FIG. 12, the
Thus, the final depth value of each anchor point in the key frame of each anchor point is obtained.
次に、ステップ62において、制御部11は、各アンカーポイントのキーフレームについて、隣り合うアンカーポイント間の輪郭線上の各点の最終奥行き値を、隣り合うアンカーポイントの最終奥行き値から補間処理により算出する。
これにより、各アンカーポイントのキーフレームの輪郭線の最終奥行き値が確定する。
Next, in step 62, the
Thereby, the final depth value of the outline of the key frame of each anchor point is determined.
次に、ステップ63において、制御部11は、隣り合うアンカーポイントのキーフレーム間の各フレームについて、輪郭線上の各点の奥行き値を算出する。
すなわち、まず、各フレームの輪郭線上に、アンカーポイントに対応する点の位置を求める。これは、当該フレームの両側にあるアンカーポイントのキーフレームにおけるアンカーポイントの位置情報を、対象フレームから両キーフレームまでのフレーム数の比率により補間することで求めることができる。
Next, in step 63, the
That is, first, the position of the point corresponding to the anchor point is obtained on the outline of each frame. This can be obtained by interpolating the position information of the anchor point in the key frame of the anchor point on both sides of the frame by the ratio of the number of frames from the target frame to both key frames.
次に、アンカーポイントに対応する点の最終奥行き値を求める。これは、当該フレームの両側のアンカーポイントのキーフレームの対応するアンカーポイントの最終奥行き値を、対象フレームから両キーフレームまでのフレーム数の比率により補間することで求めることができる。
最後に、隣り合うアンカーポイントに対応する点の最終奥行き値を元に、その間の輪郭線上の点の最終奥行き値を求める。
Next, the final depth value of the point corresponding to the anchor point is obtained. This can be obtained by interpolating the final depth value of the anchor point corresponding to the key frame of the anchor point on both sides of the frame by the ratio of the number of frames from the target frame to both key frames.
Finally, based on the final depth values of the points corresponding to the adjacent anchor points, the final depth values of the points on the contour line between them are obtained.
ステップ63により、全フレームについて、輪郭線上の点の最終奥行き値が求まる。 In step 63, final depth values of points on the contour line are obtained for all frames.
次に、ステップ64において、制御部11は、各フレームについて、輪郭線(閉曲線)内部の奥行き値を算出する。例えば、輪郭線内部の奥行き値は、輪郭線上の各点の最終奥行き値を用いて、輪郭線の内部領域が滑らかな平面を描くように計算される。
Next, in step 64, the
次に、ステップ65において、制御部11は、各フレームについて、輪郭線上の最終奥行き値及び輪郭線内部の奥行き値から、奥行き画像を作成し、出力する。
これにより、本実施の形態の奥行き制作支援装置1の動画像の奥行き制作支援処理が完了する。
Next, in
Thereby, the depth production support processing of the moving image of the depth
以上のように、本発明の奥行き制作支援装置1により、被写体全体がカメラ方向に前進する動画像や、被写体がカメラ方向から後退する動画像について、マスク画像の輪郭線に与える奥行き値を簡単な操作で設定することが可能となり、立体視を実現する動画像処理を容易に行えるようになる。
As described above, with the depth
以上、添付図を参照しながら、本発明の実施の形態を説明したが、本発明の技術的範囲は、前述した実施の形態に左右されない。当業者であれば、特許請求の範囲に記載された技術的思想の範疇内において各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although embodiment of this invention was described referring an accompanying drawing, the technical scope of this invention is not influenced by embodiment mentioned above. It is obvious for those skilled in the art that various modifications or modifications can be conceived within the scope of the technical idea described in the claims, and these are naturally within the technical scope of the present invention. It is understood that it belongs.
1………奥行き制作支援装置
2………視差画像生成装置
3、31………2次元画像
5、51、81………マスク画像
6、61………輪郭線
7………奥行き値
8………奥行き画像
70………ベース奥行き値設定画面
80………ベース奥行き値設定データ
82………ベース奥行き値設定キーフレーム
83………ベース奥行き値
85………ベース奥行き値データ
90………アンカーポイント設定画面
DESCRIPTION OF
Claims (10)
元の動画像の各フレーム内に描画されている特定の被写体を識別するために2値化された複数のフレームのマスク画像を読み込むマスク画像入力手段と、
前記マスク画像に対して輪郭線を設定する輪郭線設定手段と、
前記複数のフレームのマスク画像に対して、キーとなる第1のフレームを少なくとも2つ設定し、前記第1のフレーム毎に、輪郭線全体に一律の値である第1の奥行き値を設定するベース奥行き値設定手段と、
隣り合う2つの前記第1のフレーム間にあるフレームの前記第1の奥行き値を、隣り合う2つの前記第1のフレームに設定された前記第1の奥行き値から補間により求めるベース奥行き値補間手段と、
前記複数のフレームのマスク画像に対して、キーとなる第2のフレームを少なくとも2つ設定し、各前記第2のフレームの輪郭線上の対応する位置に複数の第1の点を設定し、前記第1の点に輪郭線上の局所的な凹凸を表す第2の奥行き値を設定するアンカーポイント設定手段と、
前記第2のフレームの前記第1の点に設定された前記第2の奥行き値と、当該第2のフレームの前記第1の奥行き値を加算し、前記第2のフレームの前記第1の点の最終奥行き値を決定し、前記第2のフレームの隣り合う前記第1の点間の輪郭線上の各位置の最終奥行き値を、前記隣り合う前記第1の点の前記最終奥行き値から補間により求める奥行き決定手段と、
を具備することを特徴とする奥行き制作支援装置。 A depth production support apparatus that supports production of a depth image used for generation processing of a parallax image for realizing stereoscopic vision,
A mask image input means for reading mask images of a plurality of frames binarized to identify a specific subject drawn in each frame of the original moving image;
Contour setting means for setting a contour for the mask image;
At least two first frames serving as keys are set for the mask images of the plurality of frames, and a first depth value that is a uniform value is set for the entire contour line for each of the first frames. Base depth value setting means;
Base depth value interpolating means for interpolating the first depth value of a frame between two adjacent first frames from the first depth value set in the two adjacent first frames When,
For the mask images of the plurality of frames, set at least two second frames as keys, set a plurality of first points at corresponding positions on the contour lines of the second frames, and Anchor point setting means for setting a second depth value representing local irregularities on the contour line at the first point;
The second depth value set at the first point of the second frame and the first depth value of the second frame are added, and the first point of the second frame is added. And determining the final depth value of each position on the contour line between the adjacent first points of the second frame by interpolation from the final depth value of the adjacent first points. Depth determination means to be obtained;
A depth production support device characterized by comprising:
ことを特徴とする請求項1に記載の奥行き制作支援装置。 The depth production support apparatus according to claim 1, wherein the contour line is a closed curve drawn in one stroke.
ことを特徴とする請求項1に記載の奥行き制作支援装置。 The depth production support apparatus according to claim 1, wherein the first frame includes a first frame and a last frame of the mask images of the plurality of frames.
ことを特徴とする請求項1又は請求項3に記載の奥行き制作支援装置。 The base depth value interpolation means calculates the first depth value set in the two adjacent first frames, the frame between the two adjacent first frames, and the two adjacent first frames. 4. The first depth value of a frame between the two adjacent first frames is determined by linear interpolation according to a ratio of an interval with one frame. Depth production support device described in 1.
ことを特徴とする請求項1又は請求項2に記載の奥行き制作支援装置。 The depth determining means obtains the final depth value at each position on the contour line between the first points of the second frame by interpolating from the final depth values of the adjacent first points. The depth production support apparatus according to claim 1 or 2.
ことを特徴とする請求項1に記載の奥行き制作支援装置。 The depth determining means obtains position information of a second point corresponding to the first point set in the second frame of each frame between the adjacent second frames, with the second adjacent point. The position information of the first point of the frame is obtained by linear interpolation according to the ratio of the interval between the two adjacent second frames and the two adjacent second frames, The final depth value of the second point, the final depth value of the first point of the adjacent second frame, the frame between the two adjacent second frames, and the adjacent 2 The depth production support apparatus according to claim 1, wherein the depth production support apparatus is obtained by performing linear interpolation according to a ratio of an interval between two second frames.
ことを特徴とする請求項6に記載の奥行き制作支援装置。 The depth determination means obtains a final depth value at each position on a contour line between two adjacent second points based on a final depth value of the adjacent second points. 6. Depth production support apparatus according to 6.
ことを特徴とする請求項2に記載の奥行き制作支援装置。 The depth determining means is configured so that an inner region of the contour line is a smooth plane based on the final depth value of the first point and the final depth value of each position on the contour line between the first points. The depth production support apparatus according to claim 2 , wherein the depth image is created by calculating a depth value of each pixel of the mask image.
コンピュータが、
元の動画像の各フレーム内に描画されている特定の被写体を識別するために2値化された複数のフレームのマスク画像を読み込むマスク画像入力ステップと、
前記マスク画像に対して輪郭線を設定する輪郭線設定ステップと、
前記複数のフレームのマスク画像に対して、キーとなる第1のフレームを少なくとも2つ設定し、前記第1のフレーム毎に、輪郭線全体に一律の値である第1の奥行き値を設定するベース奥行き値設定ステップと、
隣り合う2つの前記第1のフレーム間にあるフレームの前記第1の奥行き値を、隣り合う2つの前記第1のフレームに設定された前記第1の奥行き値から補間により求めるベース奥行き値補間ステップと、
前記複数のフレームのマスク画像に対して、キーとなる第2のフレームを少なくとも2つ設定し、各前記第2のフレームの輪郭線上の対応する位置に複数の第1の点を設定し、前記第1の点に輪郭線上の局所的な凹凸を表す第2の奥行き値を設定するアンカーポイント設定ステップと、
前記第2のフレームの前記第1の点に設定された前記第2の奥行き値と、当該第2のフレームの前記第1の奥行き値を加算し、前記第2のフレームの前記第1の点の最終奥行き値を決定し、前記第2のフレームの隣り合う前記第1の点間の輪郭線上の各位置の最終奥行き値を、前記隣り合う前記第1の点の前記最終奥行き値から補間により求める奥行き決定ステップと、
を実行することを特徴とする奥行き制作方法。 A depth production method for producing a depth image used for generating a parallax image for realizing stereoscopic viewing,
Computer
A mask image input step for reading a plurality of binarized mask images for identifying a specific subject drawn in each frame of the original moving image;
An outline setting step for setting an outline for the mask image;
At least two first frames serving as keys are set for the mask images of the plurality of frames, and a first depth value that is a uniform value is set for the entire contour line for each of the first frames. A base depth value setting step;
Base depth value interpolation step for obtaining the first depth value of a frame between two adjacent first frames by interpolation from the first depth values set in the two adjacent first frames When,
For the mask images of the plurality of frames, set at least two second frames as keys, set a plurality of first points at corresponding positions on the contour lines of the second frames, and An anchor point setting step of setting a second depth value representing local irregularities on the contour line at the first point;
The second depth value set at the first point of the second frame and the first depth value of the second frame are added, and the first point of the second frame is added. And determining the final depth value of each position on the contour line between the adjacent first points of the second frame by interpolation from the final depth value of the adjacent first points. A depth determination step to be obtained;
The depth production method characterized by performing.
コンピュータを、
元の動画像の各フレーム内に描画されている特定の被写体を識別するために2値化された複数のフレームのマスク画像を読み込むマスク画像入力手段、
前記マスク画像に対して輪郭線を設定する輪郭線設定手と、
前記複数のフレームのマスク画像に対して、キーとなる第1のフレームを少なくとも2つ設定し、前記第1のフレーム毎に、輪郭線全体に一律の値である第1の奥行き値を設定するベース奥行き値設定手段、
隣り合う2つの前記第1のフレーム間にあるフレームの前記第1の奥行き値を、隣り合う2つの前記第1のフレームに設定された前記第1の奥行き値から補間により求めるベース奥行き値補間手段、
前記複数のフレームのマスク画像に対して、キーとなる第2のフレームを少なくとも2つ設定し、各前記第2のフレームの輪郭線上の対応する位置に複数の第1の点を設定し、前記第1の点に輪郭線上の局所的な凹凸を表す第2の奥行き値を設定するアンカーポイント設定手段、
前記第2のフレームの前記第1の点に設定された前記第2の奥行き値と、当該第2のフレームの前記第1の奥行き値を加算し、前記第2のフレームの前記第1の点の最終奥行き値を決定し、前記第2のフレームの隣り合う前記第1の点間の輪郭線上の各位置の最終奥行き値を、前記隣り合う前記第1の点の前記最終奥行き値から補間により求める奥行き決定手段、
として機能させるためのプログラム。 A program for causing a computer to function as a depth production support device that supports production of a depth image used for generation processing of a parallax image for realizing stereoscopic viewing,
Computer
A mask image input means for reading a mask image of a plurality of frames binarized to identify a specific subject drawn in each frame of the original moving image;
An outline setting hand for setting an outline for the mask image;
At least two first frames serving as keys are set for the mask images of the plurality of frames, and a first depth value that is a uniform value is set for the entire contour line for each of the first frames. Base depth value setting means,
Base depth value interpolating means for interpolating the first depth value of a frame between two adjacent first frames from the first depth value set in the two adjacent first frames ,
For the mask images of the plurality of frames, set at least two second frames as keys, set a plurality of first points at corresponding positions on the contour lines of the second frames, and Anchor point setting means for setting a second depth value representing local unevenness on the contour line to the first point,
The second depth value set at the first point of the second frame and the first depth value of the second frame are added, and the first point of the second frame is added. And determining the final depth value of each position on the contour line between the adjacent first points of the second frame by interpolation from the final depth value of the adjacent first points. Depth determining means to be obtained,
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013068165A JP6182930B2 (en) | 2013-03-28 | 2013-03-28 | Depth production support device, depth production method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013068165A JP6182930B2 (en) | 2013-03-28 | 2013-03-28 | Depth production support device, depth production method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014192794A JP2014192794A (en) | 2014-10-06 |
JP6182930B2 true JP6182930B2 (en) | 2017-08-23 |
Family
ID=51838673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013068165A Expired - Fee Related JP6182930B2 (en) | 2013-03-28 | 2013-03-28 | Depth production support device, depth production method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6182930B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5920858B1 (en) * | 2015-07-01 | 2016-05-18 | 株式会社Live2D | Program, information processing apparatus, depth definition method, and recording medium |
WO2024057902A1 (en) * | 2022-09-12 | 2024-03-21 | ソニーグループ株式会社 | Information processing device, method, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4862004B2 (en) * | 2008-03-05 | 2012-01-25 | エヌ・ティ・ティ・コムウェア株式会社 | Depth data generation apparatus, depth data generation method, and program thereof |
KR101497503B1 (en) * | 2008-09-25 | 2015-03-04 | 삼성전자주식회사 | Method and apparatus for generating depth map for conversion two dimensional image to three dimensional image |
US9270970B2 (en) * | 2010-10-27 | 2016-02-23 | Dolby International Ab | Device apparatus and method for 3D image interpolation based on a degree of similarity between a motion vector and a range motion vector |
JP2012120080A (en) * | 2010-12-03 | 2012-06-21 | Chuo Univ | Stereoscopic photography apparatus |
-
2013
- 2013-03-28 JP JP2013068165A patent/JP6182930B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014192794A (en) | 2014-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102638526B1 (en) | Modifying scenes in augmented reality using parameterized markers | |
JP6627861B2 (en) | Image processing system, image processing method, and program | |
CN110070556A (en) | Use the structural modeling of depth transducer | |
JP2015501044A (en) | Method and system for capturing and moving 3D models of real world objects and correctly scaled metadata | |
US20170212661A1 (en) | 3D Model Generation from 2D Images | |
JP5809607B2 (en) | Image processing apparatus, image processing method, and image processing program | |
TW201610916A (en) | Method and apparatus for interactive video segmentation | |
JP2019046055A (en) | Image processing device, and image processing method, and program | |
JP6182930B2 (en) | Depth production support device, depth production method, and program | |
CN110267079B (en) | Method and device for replacing human face in video to be played | |
JP6376591B2 (en) | Data output device, data output method, and three-dimensional object manufacturing system | |
CN106169187A (en) | For the method and apparatus that the object in video is set boundary | |
CN105046748B (en) | The 3D photo frame apparatus of image can be formed in a kind of three-dimensional geologic scene | |
JP5994320B2 (en) | Depth production support apparatus, depth production support method, and program | |
JP5857606B2 (en) | Depth production support apparatus, depth production support method, and program | |
JP5980960B2 (en) | Video generation device, video generation program, and video generation method | |
KR20120118462A (en) | Concave surface modeling in image-based visual hull | |
JP7570867B2 (en) | Image processing device, image processing method, and program | |
Saran et al. | Augmented annotations: Indoor dataset generation with augmented reality | |
JP5966837B2 (en) | Depth production support apparatus, depth production support method, and program | |
JP5817300B2 (en) | Depth production support apparatus, depth production support method, and program | |
US10289289B2 (en) | Techniques for authoring view points, view paths, and view surfaces for 3D models | |
JP7119854B2 (en) | Changed pixel region extraction device, image processing system, changed pixel region extraction method, image processing method and program | |
JP7179633B2 (en) | Measuring method, measuring device and program | |
JP6962242B2 (en) | Information processing device, superimposition display program, superimposition display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6182930 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |