JP2008067169A - Three-dimensional video composing device, shape data generation method and program therefor - Google Patents
Three-dimensional video composing device, shape data generation method and program therefor Download PDFInfo
- Publication number
- JP2008067169A JP2008067169A JP2006244198A JP2006244198A JP2008067169A JP 2008067169 A JP2008067169 A JP 2008067169A JP 2006244198 A JP2006244198 A JP 2006244198A JP 2006244198 A JP2006244198 A JP 2006244198A JP 2008067169 A JP2008067169 A JP 2008067169A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- shape data
- shape
- stereoscopic video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、特に立体映像の合成とともに、力覚・触覚提示装置に形状データを出力する立体映像合成装置、形状データ生成方法およびそのプログラムに関する。 The present invention relates to a stereoscopic video composition apparatus, a shape data generation method, and a program therefor, in particular, in addition to the synthesis of a stereoscopic video, and the output of shape data to a haptic / tactile sense presentation apparatus.
従来の立体映像表示装置は、あらかじめ左右の目に対応する2視点から見た映像を用意しておき、バリア方式(例えば、特許文献1、特許文献2参照)や偏光グラスシャッター方式の三次元ディスプレイ上で表示することで、ユーザが立体的に知覚することができる。
また、ペンタイプの操作部を持ち、ペンを操作することで力覚や触覚を体験することができるフォースフィードバック装置や、腕に装着し、腕全体の力覚や手の触感を体験することができるハプティック装置などの力覚・触覚提示装置もある。
Also, a force feedback device that has a pen-type operation unit and can experience force and tactile sensation by operating the pen, and it can be worn on the arm to experience the tactile sense of the entire arm and the tactile sensation of the hand There are also haptic / tactile presentation devices such as haptic devices.
しかしながら、従来の立体映像表示装置にあっては、立体映像を提示するのみであり、立体感があり、物体が浮き出て見えたとしても、それに触れることはできないという問題がある。また、CAD(Computer Aided Design)データなどの形状データに基づき、CG(Computer Graphics)を表示しながら、力覚・触覚提示装置で力覚および触覚を提示することはできたが、予め映像と一致した形状データを用意しなければならず、映像を生成するのに形状データが必要なCGには適用できても、ビデオカメラなどで撮影した実写映像には適用できないという問題があった。 However, the conventional stereoscopic video display device only presents a stereoscopic video, and there is a problem that there is a stereoscopic effect and even if an object appears to protrude, it cannot be touched. Also, based on the shape data such as CAD (Computer Aided Design) data, the haptic and tactile sensation devices were able to present the haptic and tactile sensation while displaying the CG (Computer Graphics). However, there is a problem that even if it can be applied to a CG that requires shape data to generate an image, it cannot be applied to a real image captured by a video camera or the like.
本発明は、このような事情に鑑みてなされたもので、その目的は、ビデオカメラなどで撮影した実写映像の立体映像を立体映像表示装置にて提示しつつ、該立体映像と一致した力覚・触覚を力覚・触覚提示装置にて提示可能な立体映像データと形状データとを出力できる立体映像合成装置を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to present a stereoscopic image of a real image captured by a video camera or the like on a stereoscopic image display device, and to match a force sense corresponding to the stereoscopic image. It is an object of the present invention to provide a 3D image synthesizing device capable of outputting 3D image data and shape data that can present tactile sensations with a force / tactile sense presentation device.
この発明は上述した課題を解決するためになされたもので、本発明の立体映像合成装置は、左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置において、前記左画像と前記右画像とから被写体の形状データを算出する形状算出部と、前記形状算出部が算出した形状データを、力覚・触覚提示装置に出力する形状出力部とを備えることを特徴とする。 The present invention has been made in order to solve the above-described problems, and the stereoscopic video composition apparatus of the present invention is a stereoscopic video that synthesizes a stereoscopic video from a left image viewed from the left eye viewpoint and a right image viewed from the right eye viewpoint. In the video composition device, a shape calculation unit that calculates shape data of a subject from the left image and the right image, and a shape output unit that outputs the shape data calculated by the shape calculation unit to the haptic / tactile sense presentation device; It is characterized by providing.
また、本発明の立体映像合成装置は、上述の立体映像合成装置であって、前記形状算出部は、前記左画像および前記右画像それぞれから特定の被写体の画像を抽出し、前記抽出した被写体の画像の各画素について、該被写体の画像の外郭からの距離に応じて画像に対して鉛直方向の座標を与えて該被写体の形状データを生成し、自装置が合成する立体映像の表示空間における前記特定の被写体の位置を、前記抽出した画像の視差に基づき算出し、前記生成した形状データを該算出した位置に配置した形状データを算出することを特徴とする。 The stereoscopic video composition device of the present invention is the stereoscopic video composition device described above, wherein the shape calculation unit extracts an image of a specific subject from each of the left image and the right image, and For each pixel of the image, the vertical coordinate is given to the image according to the distance from the outline of the image of the subject to generate shape data of the subject, and the stereoscopic image display space synthesized by the device itself A position of a specific subject is calculated based on the parallax of the extracted image, and shape data in which the generated shape data is arranged at the calculated position is calculated.
また、本発明の立体映像合成装置は、上述の立体映像合成装置であって、前記形状算出部は、前記左画像および前記右画像それぞれから特定の被写体の画像を抽出し、前記抽出した画像の視差に基づくステレオ計測により、被写体の形状データを算出することを特徴とする。 The stereoscopic video composition apparatus of the present invention is the above-described stereoscopic video composition apparatus, wherein the shape calculation unit extracts an image of a specific subject from each of the left image and the right image, and The object shape data is calculated by stereo measurement based on parallax.
また、本発明の立体映像合成装置は、上述の立体映像合成装置であって、前記形状算出部は、前記左画像と前記右画像との視差に基づくステレオ計測により、被写体の形状データを算出することを特徴とする。 The stereoscopic video composition apparatus of the present invention is the stereoscopic video composition apparatus described above, wherein the shape calculation unit calculates the shape data of the subject by stereo measurement based on the parallax between the left image and the right image. It is characterized by that.
また、本発明の形状データ生成方法は、左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置における形状データ生成方法において、前記立体映像合成装置が、前記左画像と前記右画像とから被写体の形状データを算出する第1の過程と、前記立体映像合成装置が、前記第1の過程にて算出した形状データを、力覚・触覚提示装置に出力する第2の過程とを備えることを特徴とする。 Further, the shape data generation method of the present invention is the shape data generation method in a stereoscopic video composition apparatus for synthesizing a stereoscopic video from a left image viewed from the left eye viewpoint and a right image viewed from the right eye viewpoint. A first process in which the apparatus calculates shape data of a subject from the left image and the right image, and a shape data calculated in the first process by the stereoscopic video composition apparatus is displayed as a haptic / tactile sensation. And a second process of outputting to the apparatus.
また、本発明のプログラムは、コンピュータを、左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置として機能させるためのプログラムにおいて、前記左画像と前記右画像とから被写体の形状データを算出する形状算出部、前記形状算出部が算出した形状データを、力覚・触覚提示装置に出力する形状出力部としても機能させる。 Further, the program of the present invention is a program for causing a computer to function as a stereoscopic video composition device that synthesizes a stereoscopic video from a left image viewed from the left eye viewpoint and a right image viewed from the right eye viewpoint. And the shape calculation unit for calculating the shape data of the subject from the right image, and the shape data calculated by the shape calculation unit also function as a shape output unit for outputting to the haptic / tactile sensation presentation device.
この発明によれば、立体映像合成装置は、左右2つの視点からビデオカメラなどで撮影した実写映像を本装置に入力させることで、立体映像表示装置に表示させた立体映像と一致した力覚・触覚を力覚・触覚提示装置にて提供させる形状データを生成することができる。 According to the present invention, the stereoscopic video synthesizing device inputs the real video captured by the video camera or the like from the two left and right viewpoints to the device, thereby matching the haptics and the stereoscopic video displayed on the stereoscopic video display device. Shape data for providing a tactile sensation with a force sense / tactile sense presentation device can be generated.
本発明の一実施形態の概要を説明する。立体映像合成装置300は、図1に示すように、左映像撮影装置100と右映像撮影装置200が撮影した左目の視点からの映像と右目の視点からの映像とを立体映像合成して、立体映像表示装置400にて表示する際に、撮影した映像から形状データを算出して、力覚・触覚提示装置500に出力する。これにより、ユーザは立体映像表示装置400にて表示された立体映像を見ると同時に、表示されている立体映像の動きと一致した形状に対する力覚・触覚を力覚・触覚提示装置500により得ることができる。
An outline of an embodiment of the present invention will be described. As shown in FIG. 1, the stereoscopic
以下、図面を参照して、本発明の実施の形態について説明する。図2は、この発明の一実施形態による立体映像合成装置300の構成を示す概略ブロック図である。左映像撮影装置100は、左目の視点からの映像を撮影するビデオカメラである。右映像撮影装置200は、左映像撮影装置100の右側に平行に設置され、右目の視点からの映像を撮影するビデオカメラである。立体映像合成装置300は、左映像撮影装置100と右映像撮影装置200とから左目用および右目用の映像を受付けて、立体映像を合成して立体映像表示装置400に出力するとともに、立体映像の動きと一致している形状データを算出して、力覚・触覚提示装置500に出力する。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 is a schematic block diagram showing a configuration of the stereoscopic video
図3は、本実施形態による立体映像合成装置300の構成を示す概略ブロック図である。
31は、左映像撮影装置100から入力された映像を受付けて、該映像から1フレームずつ抽出した左画像を出力する左映像データ入力部である。
32は、右映像撮影装置200から入力された映像を受付けて、該映像から1フレームずつ抽出した右画像を出力する右映像データ入力部である。
33は、左映像データ入力部31と右映像データ入力部32とから受けた左画像および右画像から被写体のみを抽出した左被写体画像および右被写体画像を生成し、この2つの画像に基づき被写体の形状データを算出することで、立体映像合成部35にて生成する立体映像データと同期した形状データを算出する形状算出部である。形状算出部33における被写体画像の生成方法と、被写体の形状データの算出方法とについての詳細については後述する。
FIG. 3 is a schematic block diagram illustrating the configuration of the stereoscopic
A left video
33 generates a left subject image and a right subject image obtained by extracting only the subject from the left image and the right image received from the left video
34は、形状算出部33により算出された形状データを力覚・触覚提示装置500に出力する形状出力部である。
立体映像合成部35は、左映像データ入力部31と右映像データ入力部32とから受けた左画像および右画像を合成して、立体映像表示装置400に合わせた形式の立体映像データを生成する。
36は、立体映像合成部35が生成した立体映像データを、立体映像表示装置400に出力する立体映像出力部である。
A
The stereoscopic
A stereoscopic
図4は、形状算出部33における被写体画像の生成方法を説明するフローチャートである。図4のフローチャートは、左画像から被写体を抽出して左被写体画像を生成する際の処理であるが、形状算出部33は、右画像についても左画像の場合と同様にして被写体を抽出して右被写体画像を生成する。
形状算出部33は、左映像撮影装置10にて背景のみを撮影し、左映像データ入力部31が受け付けて抽出した左背景画像を、予め記憶しておく(Sa1)。形状算出部33は、左映像データ入力部31から左画像を受けると、ステップSa1にて記憶した左背景画像を取得し、左画像を構成するi=0からImax−1までの全ての画素iについてステップSa3からステップSa6を繰り返す(Sa2)。
FIG. 4 is a flowchart for explaining a method for generating a subject image in the
The
まず、形状算出部33は、左画像の画素iの赤、緑、青成分の値と、左背景画像における画素iに対応する画素の赤、緑、青成分の値とを取得し(Sa3)、これら2つの画素の赤、緑、青成分の値が一致するか否かを判定する(Sa4)。ステップSa4にて一致すると判定したときは、そのままステップSa6に遷移し、一致しないと判定したときは、形状算出部33は、左画像における該画素iを被写体の画像の画素として抽出した後に(Sa5)、ステップSa6に遷移する。ステップSa6では、形状算出部33は、iの値を1加算した後に、左画像を構成する全ての画素iについてステップSa3〜Sa5の処理を行ったかをiがImaxより小さいか否かで判定し、iがImaxより小さいときは、ステップSa3に遷移して、前述の処理を繰り返し、iがImaxより小さくないときは、処理を終了する。これにより抽出された画素からなる画像が左被写体画像である。すなわち、被写体画像のうち、被写体の領域の画素は色が設定されているが、被写体の領域外の画素は色が設定されていない。
First, the
図5は、形状算出部33における左被写体画像もしくは右被写体画像に基づく被写体の形状データ生成方法のうち、被写体の画像に対して垂直な方向(奥行き方向)の算出方法を説明するフローチャートである。図6は、フローチャートで用いる状態Sのとりうる値を示した図であり、状態Sには被写体領域外と被写体領域とがあり、被写体領域には奥行き付与済みと奥行き未付与とがある。色が設定されている画素は被写体領域であり、設定されていない画素は被写体領域外である。本方法にて左被写体画像もしくは右被写体画像のうちの片方の被写体領域の各画素について画像に対して垂直な方向(奥行き方向)の位置を算出する。各画素の画像の横軸方向および縦軸方向の位置については、該被写体画像における被写体領域の重心位置を、左被写体画像における被写体領域の重心位置と右被写体画像における被写体領域の重心位置との平均の位置へ並行移動することで求める。
FIG. 5 is a flowchart for explaining a method for calculating a direction (depth direction) perpendicular to the subject image, out of the subject shape data generation method based on the left subject image or the right subject image in the
予め本処理を行う前に、形状算出部33は、図8にて後述する方法を用いて、付与する奥行きの初期値D0を算出しておく(Sb1)。処理を開始すると、形状算出部33は、後のステップSb10にて各画素の奥行きとして設定する変数Dに初期値D0を設定する(Sb2)。次に、形状算出部33は、該被写体画像を構成するi=0からImax−1までの全ての画素について、本ステップSb3とステップSb11に挟まれたステップSb4〜Sb10の処理を行う(Sb3)。ステップSb4では、形状算出部33は、該被写体画像における画素iの状態Sを取得する(Sb4)。状態Sを取得するにあたって、画素iが被写体領域外か被写体領域かは、該画素iが色を設定されているか否かで判定することができる。奥行き付与済みか奥行き未付与かは、該画素iの奥行きが付与されているか否かで判定するが、最後にステップSb14を経てから付与された画素については奥行き未付与とする。すなわち、ステップSb3〜Sb11の0からImaxのループは、ステップSb14を経て異なる奥行きの値を付与するように何度も繰り返されるが、同じ値の奥行きを付与するループの間に奥行きを付与された画素は奥行き未付与とみなす。
Before performing this process in advance, the
次に、形状算出部33は、ステップSb4にて取得した画素iの状態Sが被写体領域か否かを判定する(Sb5)。このステップSb5の判定は該画素に色が設定されているか否かにより判定することができる。色が設定されていれば被写体領域であり、設定されていなければ被写体領域外である。このステップSb5にて被写体領域でないと判定すると、ステップSb11に遷移して、次の画素についての処理に移るが、色が設定されており被写体領域であると判定するとステップSb6に遷移する。
Next, the
ステップSb6では、形状算出部33は、該画素に奥行きが未付与か否かを判定する(Sb6)。該画素には既に奥行きが付与されており未付与でないと判定するとステップSb11に遷移して、次の画素についての処理に移るが、該画素には未だ奥行きが付与されておらず未付与であると判定すると、形状算出部33は、画素iを囲む8点の画素の状態Sn(n=1〜8)を取得する(Sb7)。形状算出部33は、8点の画素の状態Snの中に被写体領域外のものがあるか否かを判定する(Sb8)。形状算出部33は、該8点の画素に一つでも被写体領域外の画素があると判定するとステップSb10に遷移して、画素iの奥行きの値として奥行きDの値を付与し(Sb10)、ステップSb11に遷移して、次の画素についての処理に移る。また、ステップSb8の判定にて、状態Snの中に被写体領域外のものがないと判定すると、ステップSb9に遷移して、形状算出部33は、状態Snの中に奥行きを付与済みのものがあるか否かを判定する(Sb9)。
In step Sb6, the
付与済みのものが無いと判定すると、ステップSb11に遷移して、次の画素についての処理に移る。また、ステップSb9の判定にて奥行き付与済みのものがあると判定すると、ステップSb10に遷移して、形状算出部33は、画素iの奥行きの値として奥行きDの値を付与し(Sb10)、ステップSb11に遷移する。ステップSb11では、形状算出部33は、iの値に1加算し、iがImaxより小さい間はステップSb4に戻り、全画素についてステップSb4〜Sb10の処理を行う。iがImax以上になると、ステップSb12に遷移して、形状算出部33は、該被写体画像の被写体領域の画素に奥行き未付与のものがあるか否かを判定する(Sb12)。未付与のものがないと判定すると形状算出部33は該処理を終了するが、未付与のものがあると判定するとステップSb14に遷移して、予め設定しておいた加算値ΔD(Sb13)を変数Dに加算し、ステップSb3に遷移して前述の処理を繰り返す。このようにして、形状算出部33は、被写体領域の全ての画素について、被写体領域の外郭からの距離に応じて奥行きの位置を算出することができる。
なお、上述のステップSb13にて変数Dに加算した加算値ΔDは、定数であってもよいし、何回目の加算であるかによって変わる値であってもよい。
If it is determined that there is no assigned one, the process proceeds to step Sb11 and the process for the next pixel is performed. If it is determined in step Sb9 that there is a depth-given one, the process proceeds to step Sb10, and the
Note that the addition value ΔD added to the variable D in step Sb13 described above may be a constant or a value that varies depending on the number of additions.
図7は、図5の方法にて被写体領域A1の奥行きを算出する経過を説明する図である。図7(a)に示す被写体領域A1がある場合、形状算出部33は、まず図7(b)に示す最外郭領域A2に奥行きD0を付与する。次に、形状算出部33は、図7(c)に示す2番目外郭領域A3に奥行きD0+ΔDを付与する。次に、形状算出部33は、図7(d)に示す3番目外郭領域A4に奥行きD0+2・ΔDを付与する。これで、全ての被写体領域の画素について奥行きを付与したので、図5()の処理を終了する。
図8は、図5のステップS1の初期値D0の算出方法を説明する図である。
座標XLは、図4にて説明した形状算出部33が算出した左被写体画像G1から抽出した被写体領域M1の重心位置のうち横軸方向の座標であり、左被写体画像G1の左端を原点としている。重心位置は、被写体領域M1の全ての画素の座標を平均することで求める。座標XRは、図4にて説明した形状算出部33が算出した右被写体画像G2から抽出した被写体領域M2の重心位置のうち横軸方向の座標であり、右被写体画像G2の左端を原点としている。画像に対して垂直な方向については、立体映像表示装置400が表示している立体映像を視聴するユーザの視点を原点とし、形状算出部33は、画像に対して垂直な方向の座標Zすなわち付与奥行きの初期値D0を(1)式にて算出する。
D0=1/(XL−XR) ・・・・(1)
FIG. 7 is a diagram illustrating a process of calculating the depth of the subject area A1 by the method of FIG. When there is a subject area A1 shown in FIG. 7A, the
FIG. 8 is a diagram illustrating a method for calculating the initial value D0 in step S1 of FIG.
The coordinate XL is a coordinate in the horizontal axis direction among the barycentric positions of the subject area M1 extracted from the left subject image G1 calculated by the
D0 = 1 / (XL-XR) (1)
例えば、形状算出部33が算出した左画像における被写体領域M1の重心位置のX座標XL=80、Y座標YL=42であり、右画像における被写体領域M2の重心位置のX座標XR=50、Y座標YR=40であるときは、形状算出部33は、立体映像の表示空間におけるZ座標すなわち付与奥行きの初期値D0を(2)式で算出する。
D0=1/(XL−XR)=1/(80−50)=0.033 ・・・(2)
ここで、Z座標の値が、X座標、Y座標の値に比べて非常に小さな値となっているが、これは、(2)式により求められるZ座標の値が、X座標、Y座標とは異なる縮尺となっているためであり、所定の定数CをZ座標に乗じることで、これを調整する。また、Z軸方向の位置を強調するように、所定の定数Cの大きさを調整してもよい。
For example, the X coordinate XL = 80 and Y coordinate YL = 42 of the centroid position of the subject area M1 in the left image calculated by the
D0 = 1 / (XL-XR) = 1 / (80-50) = 0.033 (2)
Here, the value of the Z coordinate is very small compared to the value of the X coordinate and the Y coordinate. This is because the value of the Z coordinate obtained by the equation (2) is the X coordinate and the Y coordinate. This is because the scale is different from that of FIG. 2, and this is adjusted by multiplying the Z coordinate by a predetermined constant C. Further, the magnitude of the predetermined constant C may be adjusted so as to emphasize the position in the Z-axis direction.
さらに、被写体領域M1の最外郭領域にありX座標X=78、Y座標Y=40の画素Iの立体映像の表示空間における位置は次のようにして算出する。奥行きは、最外郭領域なのでD0=0.333である。被写体領域M1の重心位置と被写体領域M2の重心位置との平均(Xm、Ym)は、Xm=(XL+XR)/2=(80+50)/2=65、Ym=(YL+YR)/2=(42+40)/2=41である。(XL、YL)から(Xm、Ym)への移動は、X軸方向にXm−XL=65−80=−15、Y軸方向にYm−YL=41−42=−1である。(X=78,Y=40)に対して、(XL、YL)から(Xm、Ym)までの平行移動をすると、X座標が78=−15=63、Y座標が40−1=39となる。これらにより、画素Iの立体映像の表示空間における位置は、(63,39,0.333)となる。 Further, the position of the pixel I in the outermost area of the subject area M1 and having the X coordinate X = 78 and the Y coordinate Y = 40 in the stereoscopic image display space is calculated as follows. Since the depth is the outermost region, D0 = 0.333. The average (Xm, Ym) of the centroid position of the subject area M1 and the centroid position of the subject area M2 is Xm = (XL + XR) / 2 = (80 + 50) / 2 = 65, Ym = (YL + YR) / 2 = (42 + 40) / 2 = 41. The movement from (XL, YL) to (Xm, Ym) is Xm−XL = 65−80 = −15 in the X axis direction and Ym−YL = 41−42 = −1 in the Y axis direction. When (X = 78, Y = 40) is translated from (XL, YL) to (Xm, Ym), the X coordinate is 78 = -15 = 63 and the Y coordinate is 40-1 = 39. Become. Accordingly, the position of the pixel I in the stereoscopic image display space is (63, 39, 0.333).
これにより、本実施形態の立体映像合成装置300は、実写の立体映像の動きと一致している形状データを算出して出力し、実写の立体映像を立体映像表示装置400で表示した際に、誰もが直感的に要求する触感への要望に対して、形状データを受けた力覚・触覚提示装置500によってそれを実現することができる。従来の実写の立体映像は単に立体物として見るのみであったが、触感が加わることによってより確実な立体物の把握が可能であるとともに新たなメディア、インターフェースの可能性が広がる。
また、本発明の立体映像合成装置300を用いたシステムは、構成が単純なため設置条件を選ばず容易に効果を発揮できるため、教育やマニュアル提示などの分野で特に効果的に利用することができる。
As a result, the stereoscopic
In addition, since the system using the 3D
なお、本実施形態では、形状算出部33における被写体画像の生成方法として、予め用意した左背景画像および右背景画像と、左画像および右画像とを比較して、色が異なる画素を抽出しているが、背景画像に替えて、予め設定しておいた所定の色と異なる画素を抽出するクロマキー処理を用いてもよい。これにより、背景画像を予め撮影する必要や左映像撮影装置100および右映像撮影装置200と背景との位置関係を一定にする必要はなくなるが、撮影する際に背景を所定の色にする必要がある。
In the present embodiment, as a method for generating a subject image in the
また、本実施形態では、被写体の形状データの算出方法として、被写体領域の外郭からの距離に応じて奥行きを設定しているが、左被写体画像と右被写体画像との視差に基づき奥行きを算出するステレオ計測(特開平8−254416、特開平11−94527、特開2001−241928など)により形状データを算出してもよい。このとき、形状算出部33における被写体画像の生成方法として、上述のクロマキー処理を用いても良い。これにより、被写体領域の外郭からの距離に応じて奥行きを設定するよりも、形状データを算出するための演算量は多くなるが、実際の形状に近い形状データを算出することができる。
In this embodiment, the depth is set according to the distance from the outline of the subject area as a method for calculating the shape data of the subject. However, the depth is calculated based on the parallax between the left subject image and the right subject image. The shape data may be calculated by stereo measurement (JP-A-8-254416, JP-A-11-94527, JP-A-2001-241928, etc.). At this time, the chroma key process described above may be used as a method for generating a subject image in the
また、本実施形態では、形状算出部33は、左画像および右画像から被写体を抽出した左被写体画像および右被写体画像を生成し、この生成した左被写体画像および右被写体画像に基づき、形状データを算出しているが、左画像および右画像から被写体を抽出せずに、左画像と右画像との視差に基づきステレオ計測の処理を行い各画素の奥行きを算出することで形状データを算出してもよい。これにより、演算量は多くなるが、背景画像を予め撮影する必要や左映像撮影装置100および右映像撮影装置200と背景との位置関係を一定にする必要、撮影する際に背景を所定の色にする必要がなくなり、実際の形状に近い形状データを算出することができる。
In the present embodiment, the
また、この立体映像合成装置300には、周辺機器として入力装置、表示装置等(いずれも図示せず)が接続されるものとする。ここで、入力装置とはキーボード、マウス等の入力デバイスのことをいう。表示装置とはCRT(Cathode Ray Tube)や液晶表示装置等のことをいう。
In addition, it is assumed that an input device, a display device, and the like (none of which are shown) are connected to the stereoscopic
また、図3における左映像データ入力部31、右映像データ入力部32、形状算出部33、形状出力部34、立体映像合成部35、立体映像出力部36の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより左映像データ入力部31、右映像データ入力部32、形状算出部33、形状出力部34、立体映像合成部35、立体映像出力部36の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
Further, a computer program for realizing the functions of the left video
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design and the like within a scope not departing from the gist of the present invention.
本発明の立体映像合成装置は、構成が単純であり設置条件を選ばないため、教育やマニュアル提示などに用いて好適であるが、これに限られるものではない。 The 3D image synthesizing apparatus of the present invention is suitable for education and manual presentation because it has a simple configuration and does not select installation conditions. However, the present invention is not limited to this.
100…左映像撮影装置
200…右映像撮影装置
300…立体映像合成装置
400…立体映像表示装置
500…力覚・触覚提示装置
31…左映像データ入力部
32…右映像データ入力部
33…形状算出部
34…形状データ出力部
35…立体映像合成部
36…立体映像出力部
DESCRIPTION OF
Claims (6)
前記左画像と前記右画像とから被写体の形状データを算出する形状算出部と、
前記形状算出部が算出した形状データを、力覚・触覚提示装置に出力する形状出力部と
を備えることを特徴とする立体映像合成装置。 In a stereoscopic video composition device that synthesizes a stereoscopic video from a left image viewed from the left eye viewpoint and a right image viewed from the right eye viewpoint,
A shape calculation unit for calculating shape data of a subject from the left image and the right image;
A stereoscopic image synthesizing device comprising: a shape output unit that outputs shape data calculated by the shape calculation unit to a haptic / tactile sensation presentation device.
前記立体映像合成装置が、前記左画像と前記右画像とから被写体の形状データを算出する第1の過程と、
前記立体映像合成装置が、前記第1の過程にて算出した形状データを、力覚・触覚提示装置に出力する第2の過程と
を備えることを特徴とする形状データ生成方法。 In the shape data generation method in the stereoscopic video composition device that synthesizes the stereoscopic video from the left image viewed from the left eye viewpoint and the right image viewed from the right eye viewpoint,
A first process in which the stereoscopic video composition device calculates shape data of a subject from the left image and the right image;
A shape data generating method comprising: a second step in which the stereoscopic video composition device outputs the shape data calculated in the first step to a haptic / tactile sensation presentation device.
前記左画像と前記右画像とから被写体の形状データを算出する形状算出部、
前記形状算出部が算出した形状データを、力覚・触覚提示装置に出力する形状出力部
としても機能させるプログラム。 In a program for causing a computer to function as a stereoscopic video composition device that synthesizes a stereoscopic video from a left image viewed from the left eye viewpoint and a right image viewed from the right eye viewpoint,
A shape calculation unit for calculating shape data of a subject from the left image and the right image;
A program that causes the shape data calculated by the shape calculation unit to function also as a shape output unit that outputs the shape data to the haptic / tactile sense presentation device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006244198A JP2008067169A (en) | 2006-09-08 | 2006-09-08 | Three-dimensional video composing device, shape data generation method and program therefor |
PCT/JP2007/056012 WO2008029529A1 (en) | 2006-09-08 | 2007-03-23 | Stereoscoptic video image synthesizing device, shape data generating method and its program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006244198A JP2008067169A (en) | 2006-09-08 | 2006-09-08 | Three-dimensional video composing device, shape data generation method and program therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008067169A true JP2008067169A (en) | 2008-03-21 |
Family
ID=39156974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006244198A Pending JP2008067169A (en) | 2006-09-08 | 2006-09-08 | Three-dimensional video composing device, shape data generation method and program therefor |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2008067169A (en) |
WO (1) | WO2008029529A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012022639A (en) * | 2010-07-16 | 2012-02-02 | Ntt Docomo Inc | Display device, image display device, and image display method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11150741A (en) * | 1997-11-18 | 1999-06-02 | Asahi Optical Co Ltd | Three-dimensional picture displaying method and its device by stereo photographing |
-
2006
- 2006-09-08 JP JP2006244198A patent/JP2008067169A/en active Pending
-
2007
- 2007-03-23 WO PCT/JP2007/056012 patent/WO2008029529A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012022639A (en) * | 2010-07-16 | 2012-02-02 | Ntt Docomo Inc | Display device, image display device, and image display method |
US8866739B2 (en) | 2010-07-16 | 2014-10-21 | Ntt Docomo, Inc. | Display device, image display system, and image display method |
Also Published As
Publication number | Publication date |
---|---|
WO2008029529A1 (en) | 2008-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6918455B2 (en) | Image processing equipment, image processing methods and programs | |
TWI547901B (en) | Simulating stereoscopic image display method and display device | |
JP2019125929A (en) | Image processing apparatus, image processing method, and program | |
JP2018049591A (en) | Image processing apparatus, image generation method, and program | |
JP2019054488A (en) | Providing apparatus, providing method, and program | |
JP2006325165A (en) | Device, program and method for generating telop | |
CN109791704B (en) | Texture rendering method, system and device based on multi-layer UV mapping for free-running FVV application | |
JP2020004325A (en) | Image processing device, image processing method, and program | |
WO2018051747A1 (en) | Image processing device, image generating method, and program | |
US20190138803A1 (en) | Image processing apparatus, image processing system, and image processing method, and program | |
Li et al. | Enhancing 3d applications using stereoscopic 3d and motion parallax | |
WO2013108285A1 (en) | Image recording device, three-dimensional image reproduction device, image recording method, and three-dimensional image reproduction method | |
JP2014010805A (en) | Image processing device, image processing method and image processing program | |
JP2015231114A (en) | Video display device | |
JP2022058753A (en) | Information processing apparatus, information processing method, and program | |
KR101212223B1 (en) | Device taking a picture and method to generating the image with depth information | |
KR101752691B1 (en) | Apparatus and method for providing virtual 3d contents animation where view selection is possible | |
JP2009212582A (en) | Feedback system for virtual studio | |
JP2008067169A (en) | Three-dimensional video composing device, shape data generation method and program therefor | |
WO2021147749A1 (en) | Method and apparatus for realizing 3d display, and 3d display system | |
JP5898036B2 (en) | Video communication system and video communication method | |
JP4777193B2 (en) | Stereoscopic image synthesizing apparatus, shape data generation method and program thereof | |
JP2008065684A (en) | Stereoscopic image synthesizing device, shape data generation method, and its program | |
JPWO2017098999A1 (en) | Information processing apparatus, information processing system, information processing apparatus control method, and computer program | |
JP5200141B2 (en) | Video presentation system, video presentation method, program, and recording medium |