JP2008067169A - Three-dimensional video composing device, shape data generation method and program therefor - Google Patents

Three-dimensional video composing device, shape data generation method and program therefor Download PDF

Info

Publication number
JP2008067169A
JP2008067169A JP2006244198A JP2006244198A JP2008067169A JP 2008067169 A JP2008067169 A JP 2008067169A JP 2006244198 A JP2006244198 A JP 2006244198A JP 2006244198 A JP2006244198 A JP 2006244198A JP 2008067169 A JP2008067169 A JP 2008067169A
Authority
JP
Japan
Prior art keywords
image
subject
shape data
shape
stereoscopic video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006244198A
Other languages
Japanese (ja)
Inventor
Shiro Ozawa
史朗 小澤
Hisao Abe
尚生 阿部
Shosuke Naruto
章介 鳴戸
Tsukuru Kamiya
造 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2006244198A priority Critical patent/JP2008067169A/en
Priority to PCT/JP2007/056012 priority patent/WO2008029529A1/en
Publication of JP2008067169A publication Critical patent/JP2008067169A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional video composing device, a shape data generation method and a program therefor by which three-dimensional video data and shape data which can present a sense of force/tactile sense matched to a three-dimensional video image of actual video image photographed by a video camera, etc. by a sense of force/tactile sense presentation device are output while presenting the three-dimensional video image by a three-dimensional video display device. <P>SOLUTION: In the three-dimensional video composing device which composes the three-dimensional video images from a left image seen from a viewpoint of a left eye and a right image seen from a viewpoint of a right eye, a shape calculation part 33 calculates the shape data of a subject from the left image and the right image. A shape output part 34 outputs the shape data arranged by the shape calculation part 33 to the sense of force/tactile sense presentation device. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、特に立体映像の合成とともに、力覚・触覚提示装置に形状データを出力する立体映像合成装置、形状データ生成方法およびそのプログラムに関する。   The present invention relates to a stereoscopic video composition apparatus, a shape data generation method, and a program therefor, in particular, in addition to the synthesis of a stereoscopic video, and the output of shape data to a haptic / tactile sense presentation apparatus.

従来の立体映像表示装置は、あらかじめ左右の目に対応する2視点から見た映像を用意しておき、バリア方式(例えば、特許文献1、特許文献2参照)や偏光グラスシャッター方式の三次元ディスプレイ上で表示することで、ユーザが立体的に知覚することができる。
また、ペンタイプの操作部を持ち、ペンを操作することで力覚や触覚を体験することができるフォースフィードバック装置や、腕に装着し、腕全体の力覚や手の触感を体験することができるハプティック装置などの力覚・触覚提示装置もある。
特開平8−248355号公報 特表2003−521181号公報
A conventional stereoscopic image display device prepares an image viewed from two viewpoints corresponding to the left and right eyes in advance, and a three-dimensional display using a barrier method (see, for example, Patent Document 1 and Patent Document 2) or a polarizing glass shutter method. By displaying the above, the user can perceive in three dimensions.
Also, a force feedback device that has a pen-type operation unit and can experience force and tactile sensation by operating the pen, and it can be worn on the arm to experience the tactile sense of the entire arm and the tactile sensation of the hand There are also haptic / tactile presentation devices such as haptic devices.
JP-A-8-248355 Special table 2003-521181

しかしながら、従来の立体映像表示装置にあっては、立体映像を提示するのみであり、立体感があり、物体が浮き出て見えたとしても、それに触れることはできないという問題がある。また、CAD(Computer Aided Design)データなどの形状データに基づき、CG(Computer Graphics)を表示しながら、力覚・触覚提示装置で力覚および触覚を提示することはできたが、予め映像と一致した形状データを用意しなければならず、映像を生成するのに形状データが必要なCGには適用できても、ビデオカメラなどで撮影した実写映像には適用できないという問題があった。   However, the conventional stereoscopic video display device only presents a stereoscopic video, and there is a problem that there is a stereoscopic effect and even if an object appears to protrude, it cannot be touched. Also, based on the shape data such as CAD (Computer Aided Design) data, the haptic and tactile sensation devices were able to present the haptic and tactile sensation while displaying the CG (Computer Graphics). However, there is a problem that even if it can be applied to a CG that requires shape data to generate an image, it cannot be applied to a real image captured by a video camera or the like.

本発明は、このような事情に鑑みてなされたもので、その目的は、ビデオカメラなどで撮影した実写映像の立体映像を立体映像表示装置にて提示しつつ、該立体映像と一致した力覚・触覚を力覚・触覚提示装置にて提示可能な立体映像データと形状データとを出力できる立体映像合成装置を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to present a stereoscopic image of a real image captured by a video camera or the like on a stereoscopic image display device, and to match a force sense corresponding to the stereoscopic image. It is an object of the present invention to provide a 3D image synthesizing device capable of outputting 3D image data and shape data that can present tactile sensations with a force / tactile sense presentation device.

この発明は上述した課題を解決するためになされたもので、本発明の立体映像合成装置は、左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置において、前記左画像と前記右画像とから被写体の形状データを算出する形状算出部と、前記形状算出部が算出した形状データを、力覚・触覚提示装置に出力する形状出力部とを備えることを特徴とする。   The present invention has been made in order to solve the above-described problems, and the stereoscopic video composition apparatus of the present invention is a stereoscopic video that synthesizes a stereoscopic video from a left image viewed from the left eye viewpoint and a right image viewed from the right eye viewpoint. In the video composition device, a shape calculation unit that calculates shape data of a subject from the left image and the right image, and a shape output unit that outputs the shape data calculated by the shape calculation unit to the haptic / tactile sense presentation device; It is characterized by providing.

また、本発明の立体映像合成装置は、上述の立体映像合成装置であって、前記形状算出部は、前記左画像および前記右画像それぞれから特定の被写体の画像を抽出し、前記抽出した被写体の画像の各画素について、該被写体の画像の外郭からの距離に応じて画像に対して鉛直方向の座標を与えて該被写体の形状データを生成し、自装置が合成する立体映像の表示空間における前記特定の被写体の位置を、前記抽出した画像の視差に基づき算出し、前記生成した形状データを該算出した位置に配置した形状データを算出することを特徴とする。   The stereoscopic video composition device of the present invention is the stereoscopic video composition device described above, wherein the shape calculation unit extracts an image of a specific subject from each of the left image and the right image, and For each pixel of the image, the vertical coordinate is given to the image according to the distance from the outline of the image of the subject to generate shape data of the subject, and the stereoscopic image display space synthesized by the device itself A position of a specific subject is calculated based on the parallax of the extracted image, and shape data in which the generated shape data is arranged at the calculated position is calculated.

また、本発明の立体映像合成装置は、上述の立体映像合成装置であって、前記形状算出部は、前記左画像および前記右画像それぞれから特定の被写体の画像を抽出し、前記抽出した画像の視差に基づくステレオ計測により、被写体の形状データを算出することを特徴とする。   The stereoscopic video composition apparatus of the present invention is the above-described stereoscopic video composition apparatus, wherein the shape calculation unit extracts an image of a specific subject from each of the left image and the right image, and The object shape data is calculated by stereo measurement based on parallax.

また、本発明の立体映像合成装置は、上述の立体映像合成装置であって、前記形状算出部は、前記左画像と前記右画像との視差に基づくステレオ計測により、被写体の形状データを算出することを特徴とする。   The stereoscopic video composition apparatus of the present invention is the stereoscopic video composition apparatus described above, wherein the shape calculation unit calculates the shape data of the subject by stereo measurement based on the parallax between the left image and the right image. It is characterized by that.

また、本発明の形状データ生成方法は、左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置における形状データ生成方法において、前記立体映像合成装置が、前記左画像と前記右画像とから被写体の形状データを算出する第1の過程と、前記立体映像合成装置が、前記第1の過程にて算出した形状データを、力覚・触覚提示装置に出力する第2の過程とを備えることを特徴とする。   Further, the shape data generation method of the present invention is the shape data generation method in a stereoscopic video composition apparatus for synthesizing a stereoscopic video from a left image viewed from the left eye viewpoint and a right image viewed from the right eye viewpoint. A first process in which the apparatus calculates shape data of a subject from the left image and the right image, and a shape data calculated in the first process by the stereoscopic video composition apparatus is displayed as a haptic / tactile sensation. And a second process of outputting to the apparatus.

また、本発明のプログラムは、コンピュータを、左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置として機能させるためのプログラムにおいて、前記左画像と前記右画像とから被写体の形状データを算出する形状算出部、前記形状算出部が算出した形状データを、力覚・触覚提示装置に出力する形状出力部としても機能させる。   Further, the program of the present invention is a program for causing a computer to function as a stereoscopic video composition device that synthesizes a stereoscopic video from a left image viewed from the left eye viewpoint and a right image viewed from the right eye viewpoint. And the shape calculation unit for calculating the shape data of the subject from the right image, and the shape data calculated by the shape calculation unit also function as a shape output unit for outputting to the haptic / tactile sensation presentation device.

この発明によれば、立体映像合成装置は、左右2つの視点からビデオカメラなどで撮影した実写映像を本装置に入力させることで、立体映像表示装置に表示させた立体映像と一致した力覚・触覚を力覚・触覚提示装置にて提供させる形状データを生成することができる。   According to the present invention, the stereoscopic video synthesizing device inputs the real video captured by the video camera or the like from the two left and right viewpoints to the device, thereby matching the haptics and the stereoscopic video displayed on the stereoscopic video display device. Shape data for providing a tactile sensation with a force sense / tactile sense presentation device can be generated.

本発明の一実施形態の概要を説明する。立体映像合成装置300は、図1に示すように、左映像撮影装置100と右映像撮影装置200が撮影した左目の視点からの映像と右目の視点からの映像とを立体映像合成して、立体映像表示装置400にて表示する際に、撮影した映像から形状データを算出して、力覚・触覚提示装置500に出力する。これにより、ユーザは立体映像表示装置400にて表示された立体映像を見ると同時に、表示されている立体映像の動きと一致した形状に対する力覚・触覚を力覚・触覚提示装置500により得ることができる。   An outline of an embodiment of the present invention will be described. As shown in FIG. 1, the stereoscopic video synthesis apparatus 300 synthesizes a stereoscopic video by combining a video from the left eye viewpoint and a video from the right eye viewpoint captured by the left video imaging apparatus 100 and the right video imaging apparatus 200. When displaying on the video display device 400, shape data is calculated from the captured video and output to the haptic / tactile sensation presentation device 500. As a result, the user can view the stereoscopic video displayed on the stereoscopic video display device 400 and simultaneously obtain the haptic / tactile sensation with the haptic / tactile sensation presentation device 500 for a shape that matches the movement of the displayed stereoscopic video. Can do.

以下、図面を参照して、本発明の実施の形態について説明する。図2は、この発明の一実施形態による立体映像合成装置300の構成を示す概略ブロック図である。左映像撮影装置100は、左目の視点からの映像を撮影するビデオカメラである。右映像撮影装置200は、左映像撮影装置100の右側に平行に設置され、右目の視点からの映像を撮影するビデオカメラである。立体映像合成装置300は、左映像撮影装置100と右映像撮影装置200とから左目用および右目用の映像を受付けて、立体映像を合成して立体映像表示装置400に出力するとともに、立体映像の動きと一致している形状データを算出して、力覚・触覚提示装置500に出力する。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 is a schematic block diagram showing a configuration of the stereoscopic video image synthesizing apparatus 300 according to the embodiment of the present invention. The left image capturing device 100 is a video camera that captures an image from the viewpoint of the left eye. The right image capturing device 200 is a video camera that is installed in parallel to the right side of the left image capturing device 100 and captures an image from the viewpoint of the right eye. The stereoscopic video synthesizing device 300 receives the left-eye and right-eye videos from the left video photographing device 100 and the right video photographing device 200, synthesizes the stereoscopic video, and outputs the synthesized video to the stereoscopic video display device 400. Shape data matching the movement is calculated and output to the haptic / tactile sensation presentation device 500.

図3は、本実施形態による立体映像合成装置300の構成を示す概略ブロック図である。
31は、左映像撮影装置100から入力された映像を受付けて、該映像から1フレームずつ抽出した左画像を出力する左映像データ入力部である。
32は、右映像撮影装置200から入力された映像を受付けて、該映像から1フレームずつ抽出した右画像を出力する右映像データ入力部である。
33は、左映像データ入力部31と右映像データ入力部32とから受けた左画像および右画像から被写体のみを抽出した左被写体画像および右被写体画像を生成し、この2つの画像に基づき被写体の形状データを算出することで、立体映像合成部35にて生成する立体映像データと同期した形状データを算出する形状算出部である。形状算出部33における被写体画像の生成方法と、被写体の形状データの算出方法とについての詳細については後述する。
FIG. 3 is a schematic block diagram illustrating the configuration of the stereoscopic video composition apparatus 300 according to the present embodiment.
A left video data input unit 31 receives a video input from the left video shooting device 100 and outputs a left image extracted frame by frame from the video.
Reference numeral 32 denotes a right video data input unit that receives a video input from the right video shooting device 200 and outputs a right image extracted frame by frame from the video.
33 generates a left subject image and a right subject image obtained by extracting only the subject from the left image and the right image received from the left video data input unit 31 and the right video data input unit 32, and based on these two images, It is a shape calculation unit that calculates shape data synchronized with the stereoscopic video data generated by the stereoscopic video synthesis unit 35 by calculating the shape data. Details of the subject image generation method and the subject shape data calculation method in the shape calculation unit 33 will be described later.

34は、形状算出部33により算出された形状データを力覚・触覚提示装置500に出力する形状出力部である。
立体映像合成部35は、左映像データ入力部31と右映像データ入力部32とから受けた左画像および右画像を合成して、立体映像表示装置400に合わせた形式の立体映像データを生成する。
36は、立体映像合成部35が生成した立体映像データを、立体映像表示装置400に出力する立体映像出力部である。
A shape output unit 34 outputs the shape data calculated by the shape calculation unit 33 to the haptic / tactile sensation presentation device 500.
The stereoscopic video composition unit 35 combines the left image and the right image received from the left video data input unit 31 and the right video data input unit 32 to generate stereoscopic video data in a format suitable for the stereoscopic video display device 400. .
A stereoscopic video output unit 36 outputs the stereoscopic video data generated by the stereoscopic video synthesis unit 35 to the stereoscopic video display device 400.

図4は、形状算出部33における被写体画像の生成方法を説明するフローチャートである。図4のフローチャートは、左画像から被写体を抽出して左被写体画像を生成する際の処理であるが、形状算出部33は、右画像についても左画像の場合と同様にして被写体を抽出して右被写体画像を生成する。
形状算出部33は、左映像撮影装置10にて背景のみを撮影し、左映像データ入力部31が受け付けて抽出した左背景画像を、予め記憶しておく(Sa1)。形状算出部33は、左映像データ入力部31から左画像を受けると、ステップSa1にて記憶した左背景画像を取得し、左画像を構成するi=0からImax−1までの全ての画素iについてステップSa3からステップSa6を繰り返す(Sa2)。
FIG. 4 is a flowchart for explaining a method for generating a subject image in the shape calculation unit 33. The flowchart in FIG. 4 shows processing when a subject is extracted from the left image to generate a left subject image, but the shape calculation unit 33 extracts the subject for the right image in the same manner as for the left image. A right subject image is generated.
The shape calculation unit 33 captures only the background with the left image capturing device 10 and stores in advance the left background image received and extracted by the left image data input unit 31 (Sa1). When the shape calculation unit 33 receives the left image from the left video data input unit 31, the shape calculation unit 33 acquires the left background image stored in step Sa <b> 1, and all the pixels i from i = 0 to Imax−1 constituting the left image. Steps Sa3 to Sa6 are repeated for (Sa2).

まず、形状算出部33は、左画像の画素iの赤、緑、青成分の値と、左背景画像における画素iに対応する画素の赤、緑、青成分の値とを取得し(Sa3)、これら2つの画素の赤、緑、青成分の値が一致するか否かを判定する(Sa4)。ステップSa4にて一致すると判定したときは、そのままステップSa6に遷移し、一致しないと判定したときは、形状算出部33は、左画像における該画素iを被写体の画像の画素として抽出した後に(Sa5)、ステップSa6に遷移する。ステップSa6では、形状算出部33は、iの値を1加算した後に、左画像を構成する全ての画素iについてステップSa3〜Sa5の処理を行ったかをiがImaxより小さいか否かで判定し、iがImaxより小さいときは、ステップSa3に遷移して、前述の処理を繰り返し、iがImaxより小さくないときは、処理を終了する。これにより抽出された画素からなる画像が左被写体画像である。すなわち、被写体画像のうち、被写体の領域の画素は色が設定されているが、被写体の領域外の画素は色が設定されていない。   First, the shape calculation unit 33 acquires the red, green, and blue component values of the pixel i in the left image and the red, green, and blue component values of the pixel corresponding to the pixel i in the left background image (Sa3). Then, it is determined whether the red, green, and blue component values of these two pixels match (Sa4). If it is determined in step Sa4 that they match, the process directly proceeds to step Sa6. If it is determined that they do not match, the shape calculation unit 33 extracts the pixel i in the left image as a pixel of the subject image (Sa5 ), And the process proceeds to step Sa6. In step Sa6, the shape calculation unit 33 adds 1 to the value of i, and then determines whether or not i is smaller than Imax by performing the processing of steps Sa3 to Sa5 for all the pixels i constituting the left image. , I is smaller than Imax, the process proceeds to step Sa3 to repeat the above-described processing. When i is not smaller than Imax, the processing is terminated. The image composed of the extracted pixels is the left subject image. That is, in the subject image, the color of the pixels in the subject area is set, but the color of the pixels outside the subject area is not set.

図5は、形状算出部33における左被写体画像もしくは右被写体画像に基づく被写体の形状データ生成方法のうち、被写体の画像に対して垂直な方向(奥行き方向)の算出方法を説明するフローチャートである。図6は、フローチャートで用いる状態Sのとりうる値を示した図であり、状態Sには被写体領域外と被写体領域とがあり、被写体領域には奥行き付与済みと奥行き未付与とがある。色が設定されている画素は被写体領域であり、設定されていない画素は被写体領域外である。本方法にて左被写体画像もしくは右被写体画像のうちの片方の被写体領域の各画素について画像に対して垂直な方向(奥行き方向)の位置を算出する。各画素の画像の横軸方向および縦軸方向の位置については、該被写体画像における被写体領域の重心位置を、左被写体画像における被写体領域の重心位置と右被写体画像における被写体領域の重心位置との平均の位置へ並行移動することで求める。   FIG. 5 is a flowchart for explaining a method for calculating a direction (depth direction) perpendicular to the subject image, out of the subject shape data generation method based on the left subject image or the right subject image in the shape calculation unit 33. FIG. 6 is a diagram showing possible values of the state S used in the flowchart. In the state S, there are a subject area outside and a subject area, and the subject area has a depth added and a depth not added. Pixels for which colors are set are subject areas, and pixels for which colors are not set are outside the subject areas. With this method, the position in the direction perpendicular to the image (depth direction) is calculated for each pixel in one of the left subject image and the right subject image. Regarding the position of the image of each pixel in the horizontal axis direction and the vertical axis direction, the center of gravity of the subject area in the subject image is the average of the center of gravity of the subject area in the left subject image and the center of gravity of the subject area in the right subject image. It is calculated by moving to the position of.

予め本処理を行う前に、形状算出部33は、図8にて後述する方法を用いて、付与する奥行きの初期値D0を算出しておく(Sb1)。処理を開始すると、形状算出部33は、後のステップSb10にて各画素の奥行きとして設定する変数Dに初期値D0を設定する(Sb2)。次に、形状算出部33は、該被写体画像を構成するi=0からImax−1までの全ての画素について、本ステップSb3とステップSb11に挟まれたステップSb4〜Sb10の処理を行う(Sb3)。ステップSb4では、形状算出部33は、該被写体画像における画素iの状態Sを取得する(Sb4)。状態Sを取得するにあたって、画素iが被写体領域外か被写体領域かは、該画素iが色を設定されているか否かで判定することができる。奥行き付与済みか奥行き未付与かは、該画素iの奥行きが付与されているか否かで判定するが、最後にステップSb14を経てから付与された画素については奥行き未付与とする。すなわち、ステップSb3〜Sb11の0からImaxのループは、ステップSb14を経て異なる奥行きの値を付与するように何度も繰り返されるが、同じ値の奥行きを付与するループの間に奥行きを付与された画素は奥行き未付与とみなす。   Before performing this process in advance, the shape calculation unit 33 calculates an initial value D0 of the depth to be added using a method described later with reference to FIG. 8 (Sb1). When the process is started, the shape calculation unit 33 sets an initial value D0 in a variable D that is set as the depth of each pixel in a subsequent step Sb10 (Sb2). Next, the shape calculation unit 33 performs the processing of Steps Sb4 to Sb10 sandwiched between Step Sb3 and Step Sb11 for all pixels from i = 0 to Imax-1 constituting the subject image (Sb3). . In step Sb4, the shape calculation unit 33 acquires the state S of the pixel i in the subject image (Sb4). In acquiring the state S, whether the pixel i is out of the subject area or the subject area can be determined by whether or not the color of the pixel i is set. Whether the depth has been added or not has been determined based on whether or not the depth of the pixel i has been given. However, the pixel that has been given after step Sb14 is not given depth. That is, the loop from 0 to Imax of steps Sb3 to Sb11 is repeated many times so as to give different depth values through step Sb14, but the depth is given between the loops giving the same value of depth. The pixel is regarded as having no depth.

次に、形状算出部33は、ステップSb4にて取得した画素iの状態Sが被写体領域か否かを判定する(Sb5)。このステップSb5の判定は該画素に色が設定されているか否かにより判定することができる。色が設定されていれば被写体領域であり、設定されていなければ被写体領域外である。このステップSb5にて被写体領域でないと判定すると、ステップSb11に遷移して、次の画素についての処理に移るが、色が設定されており被写体領域であると判定するとステップSb6に遷移する。   Next, the shape calculation unit 33 determines whether or not the state S of the pixel i acquired in step Sb4 is the subject area (Sb5). The determination in step Sb5 can be made based on whether or not a color is set for the pixel. If the color is set, it is the subject area, and if it is not set, it is outside the subject area. If it is determined in step Sb5 that it is not the subject area, the process proceeds to step Sb11, and the process proceeds to the next pixel. If it is determined that the color is set and the object area is determined, the process proceeds to step Sb6.

ステップSb6では、形状算出部33は、該画素に奥行きが未付与か否かを判定する(Sb6)。該画素には既に奥行きが付与されており未付与でないと判定するとステップSb11に遷移して、次の画素についての処理に移るが、該画素には未だ奥行きが付与されておらず未付与であると判定すると、形状算出部33は、画素iを囲む8点の画素の状態Sn(n=1〜8)を取得する(Sb7)。形状算出部33は、8点の画素の状態Snの中に被写体領域外のものがあるか否かを判定する(Sb8)。形状算出部33は、該8点の画素に一つでも被写体領域外の画素があると判定するとステップSb10に遷移して、画素iの奥行きの値として奥行きDの値を付与し(Sb10)、ステップSb11に遷移して、次の画素についての処理に移る。また、ステップSb8の判定にて、状態Snの中に被写体領域外のものがないと判定すると、ステップSb9に遷移して、形状算出部33は、状態Snの中に奥行きを付与済みのものがあるか否かを判定する(Sb9)。   In step Sb6, the shape calculation unit 33 determines whether or not a depth is not given to the pixel (Sb6). If it is determined that a depth has already been given to the pixel and the pixel has not been given, the process proceeds to step Sb11 to proceed to processing for the next pixel, but the pixel has not yet been given a depth and has not been given. Then, the shape calculation unit 33 acquires the state Sn (n = 1 to 8) of the eight pixels surrounding the pixel i (Sb7). The shape calculation unit 33 determines whether or not there is a state Sn out of the subject area among the eight pixel states Sn (Sb8). If the shape calculation unit 33 determines that at least one of the eight pixels is outside the subject area, the shape calculation unit 33 proceeds to step Sb10 and assigns the value of the depth D as the depth value of the pixel i (Sb10). The process proceeds to step Sb11 to proceed to processing for the next pixel. If it is determined in step Sb8 that there are no objects outside the subject area in the state Sn, the process proceeds to step Sb9, and the shape calculation unit 33 determines that the state Sn has been given a depth. It is determined whether or not there is (Sb9).

付与済みのものが無いと判定すると、ステップSb11に遷移して、次の画素についての処理に移る。また、ステップSb9の判定にて奥行き付与済みのものがあると判定すると、ステップSb10に遷移して、形状算出部33は、画素iの奥行きの値として奥行きDの値を付与し(Sb10)、ステップSb11に遷移する。ステップSb11では、形状算出部33は、iの値に1加算し、iがImaxより小さい間はステップSb4に戻り、全画素についてステップSb4〜Sb10の処理を行う。iがImax以上になると、ステップSb12に遷移して、形状算出部33は、該被写体画像の被写体領域の画素に奥行き未付与のものがあるか否かを判定する(Sb12)。未付与のものがないと判定すると形状算出部33は該処理を終了するが、未付与のものがあると判定するとステップSb14に遷移して、予め設定しておいた加算値ΔD(Sb13)を変数Dに加算し、ステップSb3に遷移して前述の処理を繰り返す。このようにして、形状算出部33は、被写体領域の全ての画素について、被写体領域の外郭からの距離に応じて奥行きの位置を算出することができる。
なお、上述のステップSb13にて変数Dに加算した加算値ΔDは、定数であってもよいし、何回目の加算であるかによって変わる値であってもよい。
If it is determined that there is no assigned one, the process proceeds to step Sb11 and the process for the next pixel is performed. If it is determined in step Sb9 that there is a depth-given one, the process proceeds to step Sb10, and the shape calculation unit 33 assigns a depth D value as the depth value of the pixel i (Sb10). The process proceeds to step Sb11. In step Sb11, the shape calculation unit 33 adds 1 to the value of i, returns to step Sb4 while i is smaller than Imax, and performs the processing of steps Sb4 to Sb10 for all pixels. When i becomes equal to or greater than Imax, the process proceeds to step Sb12, and the shape calculation unit 33 determines whether there is a pixel in the subject area of the subject image that has not been given a depth (Sb12). If it is determined that there are no unassigned ones, the shape calculating unit 33 terminates the process. If it is determined that there are unassigned ones, the shape calculating unit 33 proceeds to step Sb14 and sets a preset addition value ΔD (Sb13). It adds to the variable D, changes to step Sb3, and repeats the above-mentioned process. In this manner, the shape calculation unit 33 can calculate the position of the depth for all the pixels in the subject area according to the distance from the outline of the subject area.
Note that the addition value ΔD added to the variable D in step Sb13 described above may be a constant or a value that varies depending on the number of additions.

図7は、図5の方法にて被写体領域A1の奥行きを算出する経過を説明する図である。図7(a)に示す被写体領域A1がある場合、形状算出部33は、まず図7(b)に示す最外郭領域A2に奥行きD0を付与する。次に、形状算出部33は、図7(c)に示す2番目外郭領域A3に奥行きD0+ΔDを付与する。次に、形状算出部33は、図7(d)に示す3番目外郭領域A4に奥行きD0+2・ΔDを付与する。これで、全ての被写体領域の画素について奥行きを付与したので、図5()の処理を終了する。
図8は、図5のステップS1の初期値D0の算出方法を説明する図である。
座標XLは、図4にて説明した形状算出部33が算出した左被写体画像G1から抽出した被写体領域M1の重心位置のうち横軸方向の座標であり、左被写体画像G1の左端を原点としている。重心位置は、被写体領域M1の全ての画素の座標を平均することで求める。座標XRは、図4にて説明した形状算出部33が算出した右被写体画像G2から抽出した被写体領域M2の重心位置のうち横軸方向の座標であり、右被写体画像G2の左端を原点としている。画像に対して垂直な方向については、立体映像表示装置400が表示している立体映像を視聴するユーザの視点を原点とし、形状算出部33は、画像に対して垂直な方向の座標Zすなわち付与奥行きの初期値D0を(1)式にて算出する。
D0=1/(XL−XR) ・・・・(1)
FIG. 7 is a diagram illustrating a process of calculating the depth of the subject area A1 by the method of FIG. When there is a subject area A1 shown in FIG. 7A, the shape calculation unit 33 first assigns a depth D0 to the outermost area A2 shown in FIG. 7B. Next, the shape calculation unit 33 gives the depth D0 + ΔD to the second outline region A3 shown in FIG. Next, the shape calculation unit 33 assigns the depth D0 + 2 · ΔD to the third outline region A4 illustrated in FIG. Thus, since the depth is given to the pixels of all the subject areas, the processing of FIG.
FIG. 8 is a diagram illustrating a method for calculating the initial value D0 in step S1 of FIG.
The coordinate XL is a coordinate in the horizontal axis direction among the barycentric positions of the subject area M1 extracted from the left subject image G1 calculated by the shape calculation unit 33 described with reference to FIG. 4, and the origin is the left end of the left subject image G1. . The position of the center of gravity is obtained by averaging the coordinates of all the pixels in the subject area M1. The coordinate XR is a coordinate in the horizontal axis direction among the barycentric positions of the subject area M2 extracted from the right subject image G2 calculated by the shape calculation unit 33 described with reference to FIG. 4, and the left end of the right subject image G2 is the origin. . For the direction perpendicular to the image, the origin of the viewpoint of the user viewing the stereoscopic video displayed on the stereoscopic video display device 400 is the origin, and the shape calculation unit 33 assigns the coordinate Z in the direction perpendicular to the image, that is, gives The initial value D0 of the depth is calculated by the equation (1).
D0 = 1 / (XL-XR) (1)

例えば、形状算出部33が算出した左画像における被写体領域M1の重心位置のX座標XL=80、Y座標YL=42であり、右画像における被写体領域M2の重心位置のX座標XR=50、Y座標YR=40であるときは、形状算出部33は、立体映像の表示空間におけるZ座標すなわち付与奥行きの初期値D0を(2)式で算出する。
D0=1/(XL−XR)=1/(80−50)=0.033 ・・・(2)
ここで、Z座標の値が、X座標、Y座標の値に比べて非常に小さな値となっているが、これは、(2)式により求められるZ座標の値が、X座標、Y座標とは異なる縮尺となっているためであり、所定の定数CをZ座標に乗じることで、これを調整する。また、Z軸方向の位置を強調するように、所定の定数Cの大きさを調整してもよい。
For example, the X coordinate XL = 80 and Y coordinate YL = 42 of the centroid position of the subject area M1 in the left image calculated by the shape calculation unit 33, and the X coordinate XR = 50 and Y of the centroid position of the subject area M2 in the right image. When the coordinate YR = 40, the shape calculation unit 33 calculates the Z coordinate in the stereoscopic video display space, that is, the initial value D0 of the given depth, using the equation (2).
D0 = 1 / (XL-XR) = 1 / (80-50) = 0.033 (2)
Here, the value of the Z coordinate is very small compared to the value of the X coordinate and the Y coordinate. This is because the value of the Z coordinate obtained by the equation (2) is the X coordinate and the Y coordinate. This is because the scale is different from that of FIG. 2, and this is adjusted by multiplying the Z coordinate by a predetermined constant C. Further, the magnitude of the predetermined constant C may be adjusted so as to emphasize the position in the Z-axis direction.

さらに、被写体領域M1の最外郭領域にありX座標X=78、Y座標Y=40の画素Iの立体映像の表示空間における位置は次のようにして算出する。奥行きは、最外郭領域なのでD0=0.333である。被写体領域M1の重心位置と被写体領域M2の重心位置との平均(Xm、Ym)は、Xm=(XL+XR)/2=(80+50)/2=65、Ym=(YL+YR)/2=(42+40)/2=41である。(XL、YL)から(Xm、Ym)への移動は、X軸方向にXm−XL=65−80=−15、Y軸方向にYm−YL=41−42=−1である。(X=78,Y=40)に対して、(XL、YL)から(Xm、Ym)までの平行移動をすると、X座標が78=−15=63、Y座標が40−1=39となる。これらにより、画素Iの立体映像の表示空間における位置は、(63,39,0.333)となる。   Further, the position of the pixel I in the outermost area of the subject area M1 and having the X coordinate X = 78 and the Y coordinate Y = 40 in the stereoscopic image display space is calculated as follows. Since the depth is the outermost region, D0 = 0.333. The average (Xm, Ym) of the centroid position of the subject area M1 and the centroid position of the subject area M2 is Xm = (XL + XR) / 2 = (80 + 50) / 2 = 65, Ym = (YL + YR) / 2 = (42 + 40) / 2 = 41. The movement from (XL, YL) to (Xm, Ym) is Xm−XL = 65−80 = −15 in the X axis direction and Ym−YL = 41−42 = −1 in the Y axis direction. When (X = 78, Y = 40) is translated from (XL, YL) to (Xm, Ym), the X coordinate is 78 = -15 = 63 and the Y coordinate is 40-1 = 39. Become. Accordingly, the position of the pixel I in the stereoscopic image display space is (63, 39, 0.333).

これにより、本実施形態の立体映像合成装置300は、実写の立体映像の動きと一致している形状データを算出して出力し、実写の立体映像を立体映像表示装置400で表示した際に、誰もが直感的に要求する触感への要望に対して、形状データを受けた力覚・触覚提示装置500によってそれを実現することができる。従来の実写の立体映像は単に立体物として見るのみであったが、触感が加わることによってより確実な立体物の把握が可能であるとともに新たなメディア、インターフェースの可能性が広がる。
また、本発明の立体映像合成装置300を用いたシステムは、構成が単純なため設置条件を選ばず容易に効果を発揮できるため、教育やマニュアル提示などの分野で特に効果的に利用することができる。
As a result, the stereoscopic video composition device 300 according to the present embodiment calculates and outputs shape data that matches the motion of the live-action stereoscopic video, and displays the real-time stereoscopic video on the stereoscopic video display device 400. The tactile sensation requested by anyone intuitively can be realized by the haptic / tactile sensation presentation device 500 that has received shape data. Conventional live-action 3D images were simply viewed as 3D objects, but the addition of tactile sensation makes it possible to grasp the 3D objects more reliably and expand the possibilities of new media and interfaces.
In addition, since the system using the 3D image synthesizing apparatus 300 of the present invention is simple in configuration, it can be easily used regardless of installation conditions, and therefore can be used particularly effectively in fields such as education and manual presentation. it can.

なお、本実施形態では、形状算出部33における被写体画像の生成方法として、予め用意した左背景画像および右背景画像と、左画像および右画像とを比較して、色が異なる画素を抽出しているが、背景画像に替えて、予め設定しておいた所定の色と異なる画素を抽出するクロマキー処理を用いてもよい。これにより、背景画像を予め撮影する必要や左映像撮影装置100および右映像撮影装置200と背景との位置関係を一定にする必要はなくなるが、撮影する際に背景を所定の色にする必要がある。   In the present embodiment, as a method for generating a subject image in the shape calculation unit 33, a left background image and a right background image prepared in advance are compared with the left image and the right image, and pixels having different colors are extracted. However, instead of the background image, a chroma key process for extracting pixels different from a predetermined color set in advance may be used. This eliminates the need to capture a background image in advance or to make the positional relationship between the left image capturing device 100 and the right image capturing device 200 and the background constant, but it is necessary to set the background to a predetermined color when capturing images. is there.

また、本実施形態では、被写体の形状データの算出方法として、被写体領域の外郭からの距離に応じて奥行きを設定しているが、左被写体画像と右被写体画像との視差に基づき奥行きを算出するステレオ計測(特開平8−254416、特開平11−94527、特開2001−241928など)により形状データを算出してもよい。このとき、形状算出部33における被写体画像の生成方法として、上述のクロマキー処理を用いても良い。これにより、被写体領域の外郭からの距離に応じて奥行きを設定するよりも、形状データを算出するための演算量は多くなるが、実際の形状に近い形状データを算出することができる。   In this embodiment, the depth is set according to the distance from the outline of the subject area as a method for calculating the shape data of the subject. However, the depth is calculated based on the parallax between the left subject image and the right subject image. The shape data may be calculated by stereo measurement (JP-A-8-254416, JP-A-11-94527, JP-A-2001-241928, etc.). At this time, the chroma key process described above may be used as a method for generating a subject image in the shape calculation unit 33. Thus, the calculation amount for calculating the shape data is larger than that for setting the depth according to the distance from the outline of the subject area, but shape data close to the actual shape can be calculated.

また、本実施形態では、形状算出部33は、左画像および右画像から被写体を抽出した左被写体画像および右被写体画像を生成し、この生成した左被写体画像および右被写体画像に基づき、形状データを算出しているが、左画像および右画像から被写体を抽出せずに、左画像と右画像との視差に基づきステレオ計測の処理を行い各画素の奥行きを算出することで形状データを算出してもよい。これにより、演算量は多くなるが、背景画像を予め撮影する必要や左映像撮影装置100および右映像撮影装置200と背景との位置関係を一定にする必要、撮影する際に背景を所定の色にする必要がなくなり、実際の形状に近い形状データを算出することができる。   In the present embodiment, the shape calculation unit 33 generates a left subject image and a right subject image obtained by extracting a subject from the left image and the right image, and generates shape data based on the generated left subject image and right subject image. Although it is calculated, shape data is calculated by calculating the depth of each pixel by performing stereo measurement processing based on the parallax between the left image and the right image without extracting the subject from the left image and the right image Also good. This increases the amount of calculation, but it is necessary to capture a background image in advance, or to make the positional relationship between the left image capturing device 100 and the right image capturing device 200 and the background constant, and when the image is captured, the background is set to a predetermined color. The shape data close to the actual shape can be calculated.

また、この立体映像合成装置300には、周辺機器として入力装置、表示装置等(いずれも図示せず)が接続されるものとする。ここで、入力装置とはキーボード、マウス等の入力デバイスのことをいう。表示装置とはCRT(Cathode Ray Tube)や液晶表示装置等のことをいう。   In addition, it is assumed that an input device, a display device, and the like (none of which are shown) are connected to the stereoscopic video composition device 300 as peripheral devices. Here, the input device refers to an input device such as a keyboard and a mouse. The display device refers to a CRT (Cathode Ray Tube), a liquid crystal display device, or the like.

また、図3における左映像データ入力部31、右映像データ入力部32、形状算出部33、形状出力部34、立体映像合成部35、立体映像出力部36の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより左映像データ入力部31、右映像データ入力部32、形状算出部33、形状出力部34、立体映像合成部35、立体映像出力部36の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Further, a computer program for realizing the functions of the left video data input unit 31, the right video data input unit 32, the shape calculation unit 33, the shape output unit 34, the stereoscopic video synthesis unit 35, and the stereoscopic video output unit 36 in FIG. A left video data input unit 31, a right video data input unit 32, a shape calculation unit 33, and a shape output are recorded on a readable recording medium, and a program recorded on the recording medium is read and executed by a computer system. The processing of the unit 34, the stereoscopic video composition unit 35, and the stereoscopic video output unit 36 may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design and the like within a scope not departing from the gist of the present invention.

本発明の立体映像合成装置は、構成が単純であり設置条件を選ばないため、教育やマニュアル提示などに用いて好適であるが、これに限られるものではない。   The 3D image synthesizing apparatus of the present invention is suitable for education and manual presentation because it has a simple configuration and does not select installation conditions. However, the present invention is not limited to this.

この発明の一実施形態の概略を示すブロック図である。It is a block diagram which shows the outline of one Embodiment of this invention. 同実施形態における立体映像合成装置300を用いたシステムの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the system using the three-dimensional video composition apparatus 300 in the embodiment. 同実施形態における立体映像合成装置300の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the three-dimensional video composition apparatus 300 in the embodiment. 同実施形態における形状算出部33における被写体画像の生成方法を説明するフローチャートである。It is a flowchart explaining the production | generation method of the to-be-photographed image in the shape calculation part 33 in the embodiment. 同実施形態における形状算出部33における左被写体画像もしくは右被写体画像に基づく被写体の形状データ生成方法を説明するフローチャートである。7 is a flowchart illustrating a method for generating shape data of a subject based on a left subject image or a right subject image in a shape calculation unit 33 in the embodiment. 同実施形態における状態Sの内容を説明する図である。It is a figure explaining the contents of state S in the embodiment. 同実施形態における形状算出部33にて被写体領域A1の奥行きを算出する経過を説明する図である。It is a figure explaining progress which calculates the depth of subject field A1 in shape calculation part 33 in the embodiment. 同実施形態における形状算出部33にて図5のステップS1の初期値D0の算出方法を説明する図である。It is a figure explaining the calculation method of the initial value D0 of step S1 of FIG. 5 in the shape calculation part 33 in the embodiment.

符号の説明Explanation of symbols

100…左映像撮影装置
200…右映像撮影装置
300…立体映像合成装置
400…立体映像表示装置
500…力覚・触覚提示装置
31…左映像データ入力部
32…右映像データ入力部
33…形状算出部
34…形状データ出力部
35…立体映像合成部
36…立体映像出力部
DESCRIPTION OF SYMBOLS 100 ... Left video imaging device 200 ... Right video imaging device 300 ... stereoscopic image synthesizing device 400 ... stereoscopic video display device 500 ... force / tactile sensation presentation device 31 ... left video data input unit 32 ... right video data input unit 33 ... shape calculation Unit 34 ... shape data output unit 35 ... 3D image composition unit 36 ... 3D image output unit

Claims (6)

左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置において、
前記左画像と前記右画像とから被写体の形状データを算出する形状算出部と、
前記形状算出部が算出した形状データを、力覚・触覚提示装置に出力する形状出力部と
を備えることを特徴とする立体映像合成装置。
In a stereoscopic video composition device that synthesizes a stereoscopic video from a left image viewed from the left eye viewpoint and a right image viewed from the right eye viewpoint,
A shape calculation unit for calculating shape data of a subject from the left image and the right image;
A stereoscopic image synthesizing device comprising: a shape output unit that outputs shape data calculated by the shape calculation unit to a haptic / tactile sensation presentation device.
前記形状算出部は、前記左画像および前記右画像それぞれから特定の被写体の画像を抽出し、前記抽出した被写体の画像の各画素について、該被写体の画像の外郭からの距離に応じて画像に対して鉛直方向の座標を与えて該被写体の形状データを生成し、自装置が合成する立体映像の表示空間における前記特定の被写体の位置を、前記抽出した画像の視差に基づき算出し、前記生成した形状データを該算出した位置に配置した形状データを算出することを特徴とする請求項1に記載の立体映像合成装置。   The shape calculation unit extracts an image of a specific subject from each of the left image and the right image, and for each pixel of the extracted subject image, an image corresponding to a distance from the outline of the subject image The shape data of the subject is generated by giving the coordinates in the vertical direction, the position of the specific subject in the display space of the stereoscopic video synthesized by the device is calculated based on the parallax of the extracted image, and the generated The stereoscopic video composition apparatus according to claim 1, wherein shape data in which shape data is arranged at the calculated position is calculated. 前記形状算出部は、前記左画像および前記右画像それぞれから特定の被写体の画像を抽出し、前記抽出した画像の視差に基づくステレオ計測により、被写体の形状データを算出することを特徴とする請求項1に記載の立体映像合成装置。   The shape calculation unit extracts an image of a specific subject from each of the left image and the right image, and calculates shape data of the subject by stereo measurement based on the parallax of the extracted image. The stereoscopic video composition apparatus according to 1. 前記形状算出部は、前記左画像と前記右画像との視差に基づくステレオ計測により、被写体の形状データを算出することを特徴とする請求項1に記載の立体映像合成装置。   The stereoscopic image synthesis apparatus according to claim 1, wherein the shape calculation unit calculates shape data of a subject by stereo measurement based on a parallax between the left image and the right image. 左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置における形状データ生成方法において、
前記立体映像合成装置が、前記左画像と前記右画像とから被写体の形状データを算出する第1の過程と、
前記立体映像合成装置が、前記第1の過程にて算出した形状データを、力覚・触覚提示装置に出力する第2の過程と
を備えることを特徴とする形状データ生成方法。
In the shape data generation method in the stereoscopic video composition device that synthesizes the stereoscopic video from the left image viewed from the left eye viewpoint and the right image viewed from the right eye viewpoint,
A first process in which the stereoscopic video composition device calculates shape data of a subject from the left image and the right image;
A shape data generating method comprising: a second step in which the stereoscopic video composition device outputs the shape data calculated in the first step to a haptic / tactile sensation presentation device.
コンピュータを、左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置として機能させるためのプログラムにおいて、
前記左画像と前記右画像とから被写体の形状データを算出する形状算出部、
前記形状算出部が算出した形状データを、力覚・触覚提示装置に出力する形状出力部
としても機能させるプログラム。
In a program for causing a computer to function as a stereoscopic video composition device that synthesizes a stereoscopic video from a left image viewed from the left eye viewpoint and a right image viewed from the right eye viewpoint,
A shape calculation unit for calculating shape data of a subject from the left image and the right image;
A program that causes the shape data calculated by the shape calculation unit to function also as a shape output unit that outputs the shape data to the haptic / tactile sense presentation device.
JP2006244198A 2006-09-08 2006-09-08 Three-dimensional video composing device, shape data generation method and program therefor Pending JP2008067169A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006244198A JP2008067169A (en) 2006-09-08 2006-09-08 Three-dimensional video composing device, shape data generation method and program therefor
PCT/JP2007/056012 WO2008029529A1 (en) 2006-09-08 2007-03-23 Stereoscoptic video image synthesizing device, shape data generating method and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006244198A JP2008067169A (en) 2006-09-08 2006-09-08 Three-dimensional video composing device, shape data generation method and program therefor

Publications (1)

Publication Number Publication Date
JP2008067169A true JP2008067169A (en) 2008-03-21

Family

ID=39156974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006244198A Pending JP2008067169A (en) 2006-09-08 2006-09-08 Three-dimensional video composing device, shape data generation method and program therefor

Country Status (2)

Country Link
JP (1) JP2008067169A (en)
WO (1) WO2008029529A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022639A (en) * 2010-07-16 2012-02-02 Ntt Docomo Inc Display device, image display device, and image display method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11150741A (en) * 1997-11-18 1999-06-02 Asahi Optical Co Ltd Three-dimensional picture displaying method and its device by stereo photographing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022639A (en) * 2010-07-16 2012-02-02 Ntt Docomo Inc Display device, image display device, and image display method
US8866739B2 (en) 2010-07-16 2014-10-21 Ntt Docomo, Inc. Display device, image display system, and image display method

Also Published As

Publication number Publication date
WO2008029529A1 (en) 2008-03-13

Similar Documents

Publication Publication Date Title
JP6918455B2 (en) Image processing equipment, image processing methods and programs
TWI547901B (en) Simulating stereoscopic image display method and display device
JP2019125929A (en) Image processing apparatus, image processing method, and program
JP2018049591A (en) Image processing apparatus, image generation method, and program
JP2019054488A (en) Providing apparatus, providing method, and program
JP2006325165A (en) Device, program and method for generating telop
CN109791704B (en) Texture rendering method, system and device based on multi-layer UV mapping for free-running FVV application
JP2020004325A (en) Image processing device, image processing method, and program
WO2018051747A1 (en) Image processing device, image generating method, and program
US20190138803A1 (en) Image processing apparatus, image processing system, and image processing method, and program
Li et al. Enhancing 3d applications using stereoscopic 3d and motion parallax
WO2013108285A1 (en) Image recording device, three-dimensional image reproduction device, image recording method, and three-dimensional image reproduction method
JP2014010805A (en) Image processing device, image processing method and image processing program
JP2015231114A (en) Video display device
JP2022058753A (en) Information processing apparatus, information processing method, and program
KR101212223B1 (en) Device taking a picture and method to generating the image with depth information
KR101752691B1 (en) Apparatus and method for providing virtual 3d contents animation where view selection is possible
JP2009212582A (en) Feedback system for virtual studio
JP2008067169A (en) Three-dimensional video composing device, shape data generation method and program therefor
WO2021147749A1 (en) Method and apparatus for realizing 3d display, and 3d display system
JP5898036B2 (en) Video communication system and video communication method
JP4777193B2 (en) Stereoscopic image synthesizing apparatus, shape data generation method and program thereof
JP2008065684A (en) Stereoscopic image synthesizing device, shape data generation method, and its program
JPWO2017098999A1 (en) Information processing apparatus, information processing system, information processing apparatus control method, and computer program
JP5200141B2 (en) Video presentation system, video presentation method, program, and recording medium