JPH1198531A - Device for converting two-dimensional image into three-dimensional image and its method - Google Patents

Device for converting two-dimensional image into three-dimensional image and its method

Info

Publication number
JPH1198531A
JPH1198531A JP9259036A JP25903697A JPH1198531A JP H1198531 A JPH1198531 A JP H1198531A JP 9259036 A JP9259036 A JP 9259036A JP 25903697 A JP25903697 A JP 25903697A JP H1198531 A JPH1198531 A JP H1198531A
Authority
JP
Japan
Prior art keywords
background weight
background
image
weight data
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9259036A
Other languages
Japanese (ja)
Inventor
Shiyuugo Yamashita
周悟 山下
Haruhiko Murata
治彦 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP9259036A priority Critical patent/JPH1198531A/en
Priority to US09/152,328 priority patent/US6584219B1/en
Publication of JPH1198531A publication Critical patent/JPH1198531A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Abstract

PROBLEM TO BE SOLVED: To generate more correct depth information by generating a background weight at every parallactic calculation area and generating depth information, based on an image feature quantity, group information and the background weight. SOLUTION: A background weight data receiving circuit 60 receives background weight data provided with the background weights of respective parallactic calculation areas from an external device such as a computer and received background weight data is transmitted to a background weight deciding circuit 65. Besides, desired background weight data read from a background weight data storage device 61 by a background weight data selecting circuit 62 is also transmitted to the circuit 65. Moreover, distance in the respective parallactic calculation areas is judged from a movement vector and background weight data generated, based on the judgement, is also transmitted to the circuit 65. The background weight data deciding circuit 65 properly combines data from the background weight data receiving circuit 60, the background weight data selecting circuit 62 and a distance judging circuit 64 so as to transmit it to the depth information calculating circuit.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、2次元映像を3次
元映像に変換する装置および方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a method for converting a two-dimensional image into a three-dimensional image.

【0002】[0002]

【従来の技術】[Prior art]

【0003】本願出願人は、2次元映像を3次元映像に
変換する新たな方式として、図1に示すように、2次元
映像信号から映像の遠近に関する奥行情報を生成し、該
奥行情報に基づいて視差情報を生成し、該視差情報に基
づいて、左目に写る左目用映像と右目に写る右目用映像
に視差が生じるように、2次元映像信号を加工して、左
目用映像信号と右目用映像信号を生成する方式を提案し
ている(特願平6−10583号)。前記奥行情報およ
び視差情報は、一画面領域に対して予め区別した分割領
域を想定しておき、該分割領域毎に数値として生成され
る。この分割領域の領域数は、任意に設定することがで
きるが、以下の説明では、図4に示すように、一画面を
水平方向に10個、垂直方向に6個の合計60個に分割
した分割領域F1〜F60を利用する。以下、前記分割
領域を視差算出領域と呼ぶ。
As a new method for converting a two-dimensional video into a three-dimensional video, the applicant of the present application generates depth information relating to the perspective of a video from a two-dimensional video signal as shown in FIG. Based on the parallax information, a two-dimensional video signal is processed so that a parallax is generated between a left-eye video displayed on the left eye and a right-eye video displayed on the right eye, and a left-eye video signal and a right-eye video signal are processed. A method of generating a video signal has been proposed (Japanese Patent Application No. 6-10583). The depth information and the parallax information are generated as numerical values for each divided area, assuming divided areas that are distinguished from one screen area in advance. Although the number of the divided regions can be set arbitrarily, in the following description, as shown in FIG. 4, one screen is divided into 10 in the horizontal direction and 6 in the vertical direction, for a total of 60 regions. The divided areas F1 to F60 are used. Hereinafter, the divided area is referred to as a parallax calculation area.

【0004】[0004]

【発明が解決しようとする課題】奥行情報を生成する奥
行情報生成手段としては、以下のようなものがある。ま
ず、各視差算出領域において、映像の遠近に関する画像
特徴量より算出した数値を奥行情報として生成する手段
がある。前記画像特徴量としては、輝度高周波成分の積
算値、輝度コントラスト、輝度積算値、R−Y成分の積
算値、B−Y成分の積算値および彩度積算値のうちから
選択された任意の1つまたは任意の組み合わせが使用さ
れる。ここで、輝度高周波成分とは、輝度信号周波数成
分の高域部分をいう。輝度コントラストとは、輝度の最
大値と最小値の差をいう。輝度積算値とは、輝度信号周
波数成分のDC成分をいう。
There are the following depth information generating means for generating depth information. First, in each parallax calculation area, there is a means for generating a numerical value calculated from the image feature amount relating to the perspective of a video as depth information. The image feature amount is an arbitrary one selected from the integrated value of the luminance high-frequency component, the luminance contrast, the integrated value of the luminance, the integrated value of the RY component, the integrated value of the BY component, and the integrated value of the saturation. One or any combination is used. Here, the luminance high-frequency component refers to a high-frequency portion of the luminance signal frequency component. The luminance contrast refers to a difference between a maximum value and a minimum value of luminance. The luminance integrated value refers to a DC component of a luminance signal frequency component.

【0005】また、他の奥行情報生成手段としては、前
記画像特徴量を用いて、1フィールド画像に含まれる複
数個の物体を推定し、物体毎にグループ分けを行なっ
て、グループ毎に奥行情報を生成する手段がある。この
グループ毎に奥行情報を生成する手段は、画像特徴量の
1次結合を用いる前記手段に比べて、ある物体における
各部の視差変動を抑制し、該物体の画像歪みを軽減で
き、従って、良好な立体視が可能となる。このグループ
毎に奥行情報を生成する手段において、各グループにお
ける奥行情報の生成には、前記画像特徴量の他に、背景
重みが使用される。背景重みは、奥行情報の精度向上の
ために視差算出領域毎に予め固定される数値である。例
えば、奥行情報の値を近景ほど大きく、遠景ほど小さく
すると、各視差算出領域F1〜F60における一般的な
背景重みは、図5に示すように、周辺部よりも中央部の
方が、上部よりも下部の方が大きな値となる。この理由
は、通常の映像では、周辺部よりも中央部に、上部より
も下部に近景となる被写体が撮影されるからである。し
かしながら、例えば、トンネルの出入口の映像や内視鏡
から見た映像は、周辺部が近景となり、中央部が遠景と
なるため、この場合では、不正確な奥行情報を生成し、
不正確な3次元映像が生成されることになる。
Further, another depth information generating means estimates a plurality of objects included in one field image using the image feature amount, performs grouping for each object, and obtains depth information for each group. There is a means for generating The means for generating the depth information for each group can suppress the parallax fluctuation of each part in a certain object and reduce the image distortion of the object as compared with the means using the linear combination of the image feature amounts, and therefore, is excellent. 3D viewing becomes possible. In the means for generating depth information for each group, the generation of depth information in each group uses a background weight in addition to the image feature amount. The background weight is a numerical value fixed in advance for each parallax calculation area in order to improve the accuracy of the depth information. For example, if the value of the depth information is set to be larger in the near view and smaller in the far view, the general background weight in each of the parallax calculation areas F1 to F60 is, as shown in FIG. Is also larger at the bottom. The reason for this is that, in a normal image, a subject having a foreground in the center rather than the periphery and below the upper part is photographed. However, for example, an image of an entrance or exit of a tunnel or an image viewed from an endoscope is such that the peripheral portion is a near view and the central portion is a distant view, so that in this case, inaccurate depth information is generated,
An inaccurate 3D image will be generated.

【0006】画像特徴量を利用する上記2つの奥行情報
生成手段とは別に、視差算出領域毎に2次元映像信号か
ら動きベクトルを生成し、動きベクトルに基づいて、奥
行情報を生成する手段がある。しかしながら、動きベク
トルを利用する奥行情報生成手段は、映像に動きの無い
静止画には適用が困難である。
In addition to the above two depth information generating means using image feature amounts, there is a means for generating a motion vector from a two-dimensional video signal for each parallax calculation area and generating depth information based on the motion vector. . However, it is difficult to apply depth information generating means using a motion vector to a still image having no motion in a video.

【0007】[0007]

【発明の目的】本発明は、より正確な奥行情報を生成で
きる、2次元映像を3次元映像に変換する装置および方
法を提供することを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an apparatus and a method for converting a two-dimensional image into a three-dimensional image which can generate more accurate depth information.

【0008】[0008]

【課題を解決するための手段】本発明は、奥行情報を生
成する奥行情報生成手段として、画像特徴量に基づい
て、1フィールド画像に含まれる複数個の物体を推定
し、物体毎にグループ分けを行なって、グループ毎に奥
行情報を生成する手段を使用する。具体的には、奥行情
報生成手段は、2次元入力映像信号から各視差算出領域
の画像特徴量を生成する画像特徴量生成手段と、該画像
特徴量に基づいて、1フィールド画面内の全領域をその
画面に含まれている物体毎にグループ分けを行ない、各
視差算出領域がどのグループに属するかを示すグループ
情報を生成するグループ情報生成手段と、視差算出領域
毎に背景重みを生成する背景重み生成手段と、前記画像
特徴量、グループ情報および背景重みに基づいて、グル
ープ毎に、画像特徴量及び背景重みを組み合わせて奥行
情報を算出する奥行情報算出手段とを具える。本発明で
は、前記背景重み生成手段にて生成される背景重みは、
映像に応じて適当な値となるように変更できる。具体的
には、背景重み生成手段は、各視差算出領域の背景重み
を有する背景重みデータを外部から受信する背景重みデ
ータ受信手段と、背景重みデータを複数個具えた背景重
みデータ記憶手段および該記憶手段から所望の背景重み
を選択して読み出す背景重みデータ選択手段と、2次元
入力映像信号から動きベクトルを生成する動きベクトル
生成手段および該動きベクトルを用いて各視差算出領域
の遠近を判定し、該判定結果に基づいて背景重みを生成
する遠近判定手段との中から、1つの手段または複数を
組み合わせた手段を具える。
According to the present invention, as depth information generating means for generating depth information, a plurality of objects included in one field image are estimated on the basis of image feature amounts, and the objects are grouped. Is performed to generate depth information for each group. Specifically, the depth information generating means includes: an image feature amount generating means for generating an image feature amount of each parallax calculation area from the two-dimensional input video signal; and an entire area within one field screen based on the image feature amount. Group information generating means for performing grouping for each object included in the screen and generating group information indicating which group each parallax calculation area belongs to, and a background for generating a background weight for each parallax calculation area A weight generating unit; and a depth information calculating unit that calculates depth information by combining the image feature amount and the background weight for each group based on the image feature amount, the group information, and the background weight. In the present invention, the background weight generated by the background weight generation unit is:
It can be changed to an appropriate value according to the image. Specifically, the background weight generating means includes a background weight data receiving means for receiving, from the outside, background weight data having a background weight of each parallax calculation area, a background weight data storage means having a plurality of background weight data, and Background weight data selection means for selecting and reading a desired background weight from the storage means, motion vector generation means for generating a motion vector from a two-dimensional input video signal, and determining the distance of each parallax calculation area using the motion vector. And a perspective determining means for generating a background weight based on the determination result.

【0009】[0009]

【作用および効果】本発明によれば、背景重み生成手段
は、外部装置から背景重みデータを受け取ることによ
り、記憶装置に記憶した複数の背景重みデータの中の1
つを選択することにより、または、動きベクトルから得
られる遠近判定結果に基づいて背景重みデータを生成す
ることにより、各視差算出領域の背景重みを、映像に対
応するものに変更できる。従って、前記背景重み生成手
段を具える奥行情報生成手段は、映像に対応する正確な
奥行情報を生成できる。その結果、前記奥行情報生成手
段を具える2次元映像を3次元映像に変換する装置は、
映像に対応する正確な3次元映像を生成できる。
According to the present invention, the background weight generation means receives one of the plurality of background weight data stored in the storage device by receiving the background weight data from the external device.
By selecting one or by generating background weight data based on the perspective judgment result obtained from the motion vector, the background weight of each parallax calculation area can be changed to one corresponding to the video. Therefore, the depth information generating means including the background weight generating means can generate accurate depth information corresponding to the video. As a result, a device for converting a 2D image provided with the depth information generating means into a 3D image is
An accurate three-dimensional image corresponding to the image can be generated.

【0010】[0010]

【発明の実施の形態】以下、本発明の実施形態について
説明する。図1は、2次元映像を3次元映像に変換する
2D/3D映像変換装置(1)の構成を示すブロック図で
ある。輝度信号Y、色差信号R−Yおよび色差信号B−
Yからなる2次元映像信号は、それぞれ、A/Dコンバ
ータ(10)によってデジタル信号に変換された後、左映像
用任意画素遅延FIFO(20)、右映像用任意画素遅延F
IFO(21)および奥行情報生成回路(3)に送られる。左
映像用任意画素遅延FIFO(20)、右映像用任意画素遅
延FIFO(21)は、デジタル変換された各2次元映像信
号を順次書き込む。なお、図では省略しているが、各2
次元映像信号Y、R−YおよびB−Y用の左映像用任意
画素遅延FIFO(30)および右映像用任意画素遅延FI
FO(31)がそれぞれ配備される。
Embodiments of the present invention will be described below. FIG. 1 is a block diagram showing a configuration of a 2D / 3D video conversion device (1) for converting a 2D video into a 3D video. Luminance signal Y, color difference signal RY, and color difference signal B-
The two-dimensional video signal consisting of Y is converted into a digital signal by an A / D converter (10), and then the left video arbitrary pixel delay FIFO (20) and the right video arbitrary pixel delay F
It is sent to the IFO (21) and the depth information generation circuit (3). The left pixel arbitrary pixel delay FIFO (20) and the right image arbitrary pixel delay FIFO (21) sequentially write digitally converted two-dimensional video signals. In addition, although omitted in the figure, each 2
Arbitrary pixel delay FIFO for left image (30) and arbitrary pixel delay FI for right image for three-dimensional image signals Y, RY and BY
Each FO (31) is provided.

【0011】奥行情報生成回路(3)は、図4に示すよう
な、1フィールド画面内に予め設定された複数個の視差
算出領域F1〜F60それぞれに対し、2次元映像信号
から映像の遠近に関する奥行情報を生成し、該奥行情報
を視差情報生成回路(4)に送信する。この奥行情報の生
成方法の詳細については、後述する。視差情報生成回路
(4)は、図1に示すように、視差算出領域毎に奥行情報
から視差情報を生成し、該視差情報を視差制御回路(5)
に送信する。
The depth information generating circuit (3) relates to a plurality of parallax calculation areas F1 to F60 preset in one field screen as shown in FIG. It generates depth information and transmits the depth information to the parallax information generation circuit (4). Details of the method of generating the depth information will be described later. Parallax information generation circuit
(4) generates the disparity information from the depth information for each disparity calculation area as shown in FIG. 1, and outputs the disparity information to a disparity control circuit (5).
Send to

【0012】視差制御回路(5)は、各視差算出領域F1
〜F60における視差情報に基づいて、1フィールドの
画素位置毎の視差情報を生成し、各画素位置の視差情報
に基づいて、左映像用任意画素遅延FIFO(20)および
右映像用任意画素遅延FIFO(21)のそれぞれから各映
像信号を順次読み出すタイミングがずれるように制御す
る。これにより、同じフィールドにおける左目用映像と
右目用映像との間に視差が発生する。左映像用任意画素
遅延FIFO(20)および右映像用任意画素遅延FIFO
(21)のそれぞれから読み出された各映像信号は、D/A
コンバータ(11)(12)にてアナログ信号に変換された後、
アナログの左目用映像信号および右目用映像信号からな
る3次元映像信号が出力される。従って、出力された3
次元映像信号を立体表示装置(図示せず)に表示し、表
示される映像の内、左目用映像を左目のみで観察し、右
目用映像を右目のみで観察することにより、遠近感のあ
る立体映像が得られる。なお、視差制御回路(5)の構成
は、特願平9−159949号に詳述されているので、
本願では仔細を省略する。
The parallax control circuit (5) controls each parallax calculation area F1.
Based on the disparity information in F60 to F60, the disparity information for each pixel position of one field is generated, and based on the disparity information of each pixel position, the left image arbitrary pixel delay FIFO (20) and the right image arbitrary pixel delay FIFO Control is performed such that the timing of sequentially reading each video signal from each of (21) is shifted. As a result, parallax occurs between the left-eye image and the right-eye image in the same field. Arbitrary pixel delay FIFO for left image (20) and Arbitrary pixel delay FIFO for right image
Each video signal read from each of (21) is D / A
After being converted to analog signals by converters (11) and (12),
A three-dimensional video signal including an analog left-eye video signal and a right-eye video signal is output. Therefore, the output 3
The three-dimensional image signal is displayed on a stereoscopic display device (not shown), and among the displayed images, the left-eye image is observed only with the left eye, and the right-eye image is observed only with the right eye. Video is obtained. The configuration of the parallax control circuit (5) is described in detail in Japanese Patent Application No. 9-159949.
In the present application, details are omitted.

【0014】図3は、奥行情報生成回路(3)の構成を示
すブロック図である。デジタル化された各2次元映像信
号は、画像特徴量生成回路(30)に送られる。画像特徴量
生成回路(30)は、各2次元映像信号から1フィールド毎
に、各視差算出領域F1〜F60それぞれに対して、映
像の遠近に関する画像特徴量を算出する。本実施形態で
は、前記画像特徴量として、輝度高周波成分の積算値、
輝度コントラスト、R−Y信号成分の積算値およびB−
Y信号成分の積算値を生成する。なお、これらの画像特
徴量を生成する回路の構成は、特願平9−159949
号に詳述されているので、本願では仔細を省略する。
FIG. 3 is a block diagram showing the configuration of the depth information generating circuit (3). Each digitized two-dimensional video signal is sent to an image feature quantity generation circuit (30). The image feature value generation circuit (30) calculates the image feature value related to the perspective of the video for each of the parallax calculation areas F1 to F60 for each field from each two-dimensional video signal. In the present embodiment, an integrated value of a luminance high-frequency component,
Luminance contrast, integrated value of RY signal component and B-
An integrated value of the Y signal component is generated. The configuration of the circuit for generating these image feature values is described in Japanese Patent Application No. 9-159949.
In the present application, details are omitted.

【0015】一般的な画像では、近景の物体にピントが
合っている映像が多く、従って、近景の物体ほど、高周
波成分、コントラスト、輝度および彩度が高いと考えら
れ、同様に、輝度高周波成分の積算値、輝度コントラス
トなどの画像特徴量が大きいと考えられる。
[0015] In a general image, many images are focused on a foreground object. Therefore, it is considered that the nearer object has a higher high-frequency component, contrast, luminance, and saturation. It is considered that the image feature amount such as the integrated value of the image and the brightness contrast is large.

【0016】前記画像特徴量生成回路(30)にて生成され
た画像特徴量の内、R−Y信号成分の積算値およびB−
Y信号成分の積算値がグループ情報生成回路(31)に送ら
れる。さらに、輝度高周波成分の積算値がグループ情報
生成回路(31)に送られることもある。また、前記画像特
徴量の内、輝度高周波成分の積算値および輝度コントラ
ストが奥行情報算出回路(32)に送られる。グループ情報
生成回路(31)では、画像特徴量を用いて、1フィールド
画像に含まれる物体毎に視差算出領域が幾つかのグルー
プに纏められ、各視差算出領域がどのグループに属する
かを示すグループ情報が生成されて、該グループ情報が
奥行情報算出回路(32)に送られる。奥行情報算出回路(3
2)では、グループ毎に奥行情報が算出されることとな
る。なお、画像特徴量を用いて、1フィールド画像に含
まれる物体毎に視差算出領域を幾つかのグループに纏め
る方法については、特願平9−159949号に詳述さ
れているので、本願では仔細を省略する。
Among the image feature amounts generated by the image feature amount generation circuit (30), the integrated value of the RY signal component and the B-
The integrated value of the Y signal component is sent to the group information generation circuit (31). Further, the integrated value of the luminance high-frequency component may be sent to the group information generating circuit (31). Further, the integrated value of the luminance high frequency component and the luminance contrast among the image feature amounts are sent to the depth information calculation circuit (32). In the group information generation circuit (31), the parallax calculation regions are grouped into several groups for each object included in one field image using the image feature amount, and a group indicating which group each parallax calculation region belongs to is included. Information is generated, and the group information is sent to the depth information calculation circuit (32). Depth information calculation circuit (3
In 2), depth information is calculated for each group. Note that a method of using the image feature amounts to combine the parallax calculation areas into several groups for each object included in one field image is described in detail in Japanese Patent Application No. 9-159949. Is omitted.

【0017】また、奥行情報算出回路(32)にて奥行情報
を算出する際には、前記画像特徴量の他に背景重みが使
用される。背景重みは、視差算出領域毎に定められた数
値であり、奥行情報の精度向上のために使用される。本
発明では、背景重みは変更可能であるため、奥行情報生
成回路(3)は、背景重みを生成する背景重み生成回路
(6)を具える。なお、背景重み生成回路(6)の構成につ
いては後述する。
When the depth information is calculated by the depth information calculation circuit (32), a background weight is used in addition to the image feature amount. The background weight is a numerical value determined for each parallax calculation area, and is used for improving the accuracy of depth information. In the present invention, since the background weight can be changed, the depth information generation circuit (3) includes a background weight generation circuit that generates the background weight.
(6) is provided. The configuration of the background weight generation circuit (6) will be described later.

【0018】奥行情報算出回路(32)は、画像特徴量生成
回路(30)から視差算出領域毎に受け取る輝度高周波成分
積算値および輝度コントラストと、グループ情報生成回
路(31)から受け取る1フィールド画像におけるグループ
情報と、背景重み生成回路(6)から視差算出領域毎に受
け取る背景重みとに基づいて、グループ毎の奥行情報が
算出される。任意の1つのグループに対する奥行情報の
算出方法について説明する。まず、該グループに属して
いる視差算出領域の領域数nが求められる。また、前記
視差算出領域に対する輝度高周波成分の積算値の正規化
値aの総和Σaが算出される。同様に、前記視差算出領
域に対して、輝度コントラストの正規化値bの総和Σb
と、背景重み成分cの総和Σcとが算出される。そし
て、次式に基づいて、前記グループに対する奥行情報H
が算出される。 H=(K1×Σa+K2×Σb+K3×Σc)÷n 上記の式において、K1、K2およびK3は係数であり、
例えば、K1=3/8、K2=1/8、K3=4/8に設
定される。前記奥行情報Hは、適当に補正処理が行なわ
れた後に、視差情報生成回路(4)に送られる。
The depth information calculation circuit (32) includes a luminance high-frequency component integrated value and a luminance contrast received for each parallax calculation region from the image feature amount generation circuit (30), and a one-field image received from the group information generation circuit (31). Depth information for each group is calculated based on the group information and the background weight received for each parallax calculation region from the background weight generation circuit (6). A method of calculating depth information for any one group will be described. First, the number n of parallax calculation regions belonging to the group is determined. Further, the sum Σa of the normalized value a of the integrated value of the luminance high-frequency component for the parallax calculation area is calculated. Similarly, for the parallax calculation area, the sum Σb of the normalized value b of the luminance contrast
And the sum Σc of the background weight components c is calculated. Then, based on the following equation, the depth information H for the group
Is calculated. H = (K 1 × Σa + K 2 × Σb + K 3 × Σc) ÷ n In the above equation, K 1 , K 2 and K 3 are coefficients,
For example, is set to K 1 = 3/8, K 2 = 1/8, K 3 = 4/8. The depth information H is sent to the parallax information generation circuit (4) after being appropriately corrected.

【0019】図3は、背景重み生成回路(6)の構成を示
すブロック図である。背景重み生成回路(6)は、各視差
算出領域の背景重みを有する背景重みデータを、コンピ
ュータなどの外部装置から受信する背景重みデータ受信
回路(60)を具える。背景重みデータ受信回路(60)にて受
信した背景重みデータは、後記する背景重み決定回路(6
5)に送られる。また、背景重み生成回路(6)は、前記背
景重みデータを複数個記憶する背景重みデータ記憶装置
(61)と、スイッチ入力などの外部からの指示により、背
景重みデータ記憶装置(61)から所望の背景重みデータを
選択して読み出す背景重みデータ選択回路(62)を具え
る。背景重みデータ選択回路(62)にて読み出された背景
重みデータは、後記する背景重み決定回路(65)に送られ
る。また、背景重み生成回路(6)は、2次元映像信号か
ら視差算出領域毎に動きベクトルを生成する動きベクト
ル生成回路(63)と、該動きベクトルから各視差算出領域
の遠近を判定し、該判定に基づいて背景重みデータを生
成する遠近判定回路(64)を具える。遠近判定回路(64)に
て生成された背景重みデータは、後記する背景重み決定
回路(65)に送られる。なお、2次元映像信号から所定領
域毎に動きベクトルを生成し、この動きベクトルによ
り、各所定領域毎の遠近を判定する手法は、例えば、特
願平7−88276号に記載されているので、本願では
仔細を省略する。
FIG. 3 is a block diagram showing the configuration of the background weight generation circuit (6). The background weight generation circuit (6) includes a background weight data receiving circuit (60) for receiving background weight data having a background weight of each parallax calculation area from an external device such as a computer. The background weight data received by the background weight data receiving circuit (60) is used as a background weight determining circuit (6).
Sent to 5). The background weight generation circuit (6) is a background weight data storage device for storing a plurality of the background weight data.
(61) and a background weight data selection circuit (62) for selecting and reading desired background weight data from the background weight data storage device (61) according to an external instruction such as a switch input. The background weight data read by the background weight data selection circuit (62) is sent to a background weight determination circuit (65) described later. Further, the background weight generation circuit (6) determines a perspective of each parallax calculation area from the motion vector with a motion vector generation circuit (63) that generates a motion vector for each parallax calculation area from the two-dimensional video signal. A perspective judgment circuit (64) for generating background weight data based on the judgment is provided. The background weight data generated by the perspective judgment circuit (64) is sent to a background weight determination circuit (65) described later. A method of generating a motion vector for each predetermined region from a two-dimensional video signal and determining the perspective of each predetermined region based on the motion vector is described in, for example, Japanese Patent Application No. 7-88276. In the present application, details are omitted.

【0020】背景重み決定回路(65)は、背景重みデータ
受信回路(60)、背景重みデータ選択回路(62)および遠近
判定回路(64)からの背景重みデータを適当に組み合わせ
て、組み合わされた背景重みデータが、奥行情報算出回
路(32)に送られる。
The background weight determining circuit (65) is obtained by appropriately combining the background weight data from the background weight data receiving circuit (60), the background weight data selecting circuit (62), and the perspective judgment circuit (64). The background weight data is sent to the depth information calculation circuit (32).

【0021】なお、本発明に関して言えば、背景重み生
成回路(6)は、背景重みデータ受信回路(60)と、背景重
みデータ記憶装置(61)および背景重みデータ選択回路(6
2)と、動きベクトル生成回路(63)および遠近判定回路(6
4)との中で、少なくとも1つを具えていればよい。
In the present invention, the background weight generation circuit (6) includes a background weight data reception circuit (60), a background weight data storage device (61), and a background weight data selection circuit (6).
2), a motion vector generation circuit (63) and a perspective judgment circuit (6
At least one of 4) should be provided.

【0022】[0022]

【実施例】以下、様々な場合に本発明を適用した例を説
明する。 (実施例1)本実施例では、2D/3D映像変換装置
(1)に対し、通常の2次元映像の他に、トンネルの出入
口や内視鏡の映像のように、中央部が遠景となり周辺部
が近景となる2次元映像が入力される場合を考える。本
実施例では、背景重み生成回路(6)には、背景重みデー
タ記憶装置(61)および背景重みデータ選択回路(62)が使
用される。背景重みデータ記憶装置(61)において、図5
に示すような、周辺部よりも中央部の方が、上部よりも
下部の方が大きな値となる一般的な背景重みデータを背
景重みデータ1として、図3の第1データ記憶部(610)
に記憶し、図6に示すような、中央部よりも周辺部の方
が大きな値となる背景重みデータを背景重みデータ2と
して、図3の第2データ記憶部(611)に記憶しておく。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, examples in which the present invention is applied to various cases will be described. (Embodiment 1) In this embodiment, a 2D / 3D video conversion device
In contrast to (1), a case is considered where a two-dimensional image having a distant view at the center and a near view at the peripheral part, such as a tunnel entrance or an endoscope image, is input in addition to a normal two-dimensional image. In the present embodiment, a background weight data storage device (61) and a background weight data selection circuit (62) are used for the background weight generation circuit (6). In the background weight data storage device (61), FIG.
As shown in FIG. 3, a general background weight data having a larger value in a lower part of a central part than in a peripheral part thereof is used as background weight data 1 as a first data storage unit (610) in FIG.
The background weight data having a larger value in the peripheral part than in the central part as shown in FIG. 6 is stored as the background weight data 2 in the second data storage unit (611) in FIG. .

【0023】そして、2D/3D映像変換装置(1)に対
して、通常の映像が入力されているときには、背景重み
データ選択回路(62)は、第1データ記憶部(610)を選択
して背景重みデータ1を読み出し、該背景重みデータ1
が奥行情報算出回路(32)に送られるようにしておき、内
視鏡の映像が入力されるときには、スイッチ入力などの
外部からの指示により、背景重みデータ選択回路(62)
は、第2データ記憶部(611)を選択して背景重みデータ
2を読み出し、該背景重みデータ2が奥行情報算出回路
(32)に送られるようにする。従って、本実施例では、映
像に適合した背景重みを選択して奥行情報算出回路(32)
に送ることができ、奥行情報生成回路(3)にて映像に適
合した奥行情報を生成でき、その結果、映像に適合した
正確な3次元映像を生成できる。
When a normal image is input to the 2D / 3D image converter (1), the background weight data selection circuit (62) selects the first data storage section (610) and The background weight data 1 is read, and the background weight data 1 is read.
Is transmitted to the depth information calculation circuit (32), and when an image of the endoscope is input, a background weight data selection circuit (62)
Selects the second data storage unit (611) and reads the background weight data 2, and the background weight data 2 is
(32). Therefore, in the present embodiment, the background information calculation circuit (32)
The depth information generating circuit (3) can generate depth information suitable for the video, and as a result, can generate an accurate three-dimensional video suitable for the video.

【0024】(実施例2)本実施例では、2D/3D映
像変換装置(1)に対し、動画映像と静止画映像が入力さ
れる場合について考える。本実施例では、背景重み生成
回路(6)には、背景重みデータ記憶装置(61)、背景重み
データ選択回路(62)、動きベクトル生成回路(63)、遠近
判定回路(64)および背景重み決定回路(65)が使用され
る。背景重みデータ記憶装置(61)には、前記背景重みデ
ータ1を記憶しておき、背景重みデータ選択回路(62)
は、常に背景重みデータ1を読み出して背景重み決定回
路(65)に送られるようにしておく。
(Embodiment 2) In the present embodiment, a case is considered in which a moving image and a still image are input to the 2D / 3D image converter (1). In this embodiment, the background weight generation circuit (6) includes a background weight data storage device (61), a background weight data selection circuit (62), a motion vector generation circuit (63), a perspective judgment circuit (64), and a background weight A decision circuit (65) is used. The background weight data storage device (61) stores the background weight data 1 and a background weight data selection circuit (62).
, The background weight data 1 is always read and sent to the background weight determination circuit (65).

【0025】動画映像が2D/3D映像変換装置(1)に
入力される場合には、動きベクトル生成回路(63)にて動
きベクトルが生成され、遠近判定回路(64)にて、図7に
示すように判定不能領域Nの少ない良好な遠近判定が行
えるから、背景重み決定回路(65)は、遠近判定回路(64)
からの背景重みデータを選択して奥行情報算出回路(32)
に送信する。一方、静止画映像が2D/3D映像変換装
置(1)に入力される場合や、現フィールドのシーンが前
フィールドのシーンとは別のシーンに変化する場合(シ
ーンチェンジ)には、動きベクトルの生成が困難である
から、背景重み決定回路(65)は、背景重みデータ選択回
路(62)からの背景重みデータ1を選択して奥行情報算出
回路(32)に送信する。また、動きが明確でない2次元映
像が2D/3D映像変換装置(1)に入力される際には、
動きベクトルによる遠近判定の信頼性が低くなるから、
背景重み決定回路(65)は、遠近判定回路(64)からの背景
重みデータと、背景重みデータ選択回路(62)からの背景
重みデータ1の両方を受け取って、図8に示すように、
遠近判定回路(64)からの背景重みデータにおいて、近景
領域Fの背景重み成分を5とし、遠景領域Rの重み成分
を1とし、判定不能領域Nの背景重み成分を0として、
背景重みデータ選択回路(62)からの背景重みデータ1の
対応する領域の背景重み成分と足し合わせて、奥行情報
算出回路(32)に送信する。従って、本実施例では、動画
映像および静止画映像のそれぞれに対応する背景重みを
生成することができ、その結果、動画映像および静止画
映像の両方に対応して、良好な3次元映像を生成でき
る。
When a moving image is input to the 2D / 3D image converter (1), a motion vector is generated by a motion vector generation circuit (63), and the motion vector is generated by a perspective judgment circuit (64) as shown in FIG. As shown, a good perspective judgment with a small number of undecidable areas N can be performed, so that the background weight determination circuit (65) includes a perspective judgment circuit (64).
Selects the background weight data from the depth information calculation circuit (32)
Send to On the other hand, when a still image is input to the 2D / 3D image converter (1), or when the scene of the current field changes to a scene different from the scene of the previous field (scene change), the motion vector Since generation is difficult, the background weight determination circuit (65) selects the background weight data 1 from the background weight data selection circuit (62) and transmits it to the depth information calculation circuit (32). When a two-dimensional video whose motion is not clear is input to the 2D / 3D video converter (1),
Since the reliability of the perspective judgment based on the motion vector becomes low,
The background weight determination circuit (65) receives both the background weight data from the perspective judgment circuit (64) and the background weight data 1 from the background weight data selection circuit (62), and as shown in FIG.
In the background weight data from the perspective determination circuit (64), the background weight component of the foreground region F is set to 5, the weight component of the distant view region R is set to 1, and the background weight component of the undeterminable region N is set to 0.
The sum is added to the background weight component of the area corresponding to the background weight data 1 from the background weight data selection circuit (62) and transmitted to the depth information calculation circuit (32). Therefore, in the present embodiment, it is possible to generate the background weights corresponding to each of the moving image and the still image, and as a result, to generate a good three-dimensional image corresponding to both the moving image and the still image. it can.

【0026】(実施例3)本実施例では、2D/3D映
像変換装置(1)に対し、パーソナルコンピュータから映
像信号と、各視差算出領域のうち近景としたい領域が指
定された近景領域指定データとが入力される場合につい
て考える。本実施例では、背景重み生成回路(6)には、
背景重みデータ受信回路(60)が使用される。背景重みデ
ータ受信回路(60)は、パーソナルコンピュータから近景
領域指定データを受信し、該近景領域指定データが奥行
情報算出回路(32)に送られる。従って、本実施例では、
近景となる領域を外部装置から指定することが可能であ
る。本実施例は、例えば、マルチウィンドウ機能を有す
るコンピュータシステムにおいて、ディスプレイ上に表
示される多数のウィンドウのうち、ある特定のウィンド
ウ(例えば、アクティブ状態のウィンドウ)を他のウィ
ンドウよりも近景としたい場合に有効である。
(Embodiment 3) In this embodiment, a video signal from a personal computer and near-view area designation data in which an area to be set as a foreground in each parallax calculation area is specified for a 2D / 3D image conversion apparatus (1). Is input. In the present embodiment, the background weight generation circuit (6) includes:
A background weight data receiving circuit (60) is used. The background weight data receiving circuit (60) receives the foreground region designation data from the personal computer, and sends the foreground region designation data to the depth information calculation circuit (32). Therefore, in this embodiment,
It is possible to specify a near-view area from an external device. In the present embodiment, for example, in a computer system having a multi-window function, when a specific window (for example, an active window) among many windows displayed on a display is to be set as a closer view than other windows, It is effective for

【0027】上記実施形態の説明は、本発明を説明する
ためのものであって、特許請求の範囲に記載の発明を限
定し、或いは範囲を減縮する様に解すべきではない。
又、本発明の各部構成は上記実施形態に限らず、特許請
求の範囲に記載の技術的範囲内で種々の変形が可能であ
ることは勿論である。
The description of the above embodiments is for the purpose of illustrating the present invention, and should not be construed as limiting the invention described in the claims or reducing the scope thereof.
Further, the configuration of each part of the present invention is not limited to the above-described embodiment, and it is needless to say that various modifications can be made within the technical scope described in the claims.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態における2D/3D映像変換装置の
全体構成を示すブロック図である。
FIG. 1 is a block diagram illustrating an overall configuration of a 2D / 3D video conversion device according to an embodiment.

【図2】奥行情報生成回路の構成を示すブロック図であ
る。
FIG. 2 is a block diagram illustrating a configuration of a depth information generation circuit.

【図3】背景重み生成回路の構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a configuration of a background weight generation circuit.

【図4】本願において設定される視差算出領域を示す模
式図である。
FIG. 4 is a schematic diagram showing a parallax calculation area set in the present application.

【図5】視差算出領域毎に設定された一般的な背景重み
を示す模式図である。
FIG. 5 is a schematic diagram showing general background weights set for each parallax calculation area.

【図6】画面の中央部が遠景であり、周辺部が近景であ
る映像に適合する背景重みを示す模式図である。
FIG. 6 is a schematic diagram showing background weights suitable for an image in which a central portion of the screen is a distant view and a peripheral portion is a near view.

【図7】遠近判定回路にて視差算出領域毎に判定された
遠近判定結果を示す模式図である。
FIG. 7 is a schematic diagram illustrating a perspective determination result determined for each parallax calculation area by a perspective determination circuit;

【図8】一般的な背景重みと遠近判定結果とを組み合わ
せて生成された背景重みを示す模式図である。
FIG. 8 is a schematic diagram showing background weights generated by combining general background weights and perspective determination results.

【符号の説明】[Explanation of symbols]

(3) 奥行情報生成回路 (4) 視差情報生成回路 (5) 視差制御回路 (6) 背景重み生成回路 (30) 画像特徴量生成回路 (31) グループ情報生成回路 (32) 奥行情報算出回路 (60) 背景重みデータ受信回路 (61) 背景重みデータ記憶装置 (62) 背景重みデータ選択回路 (63) 動きベクトル生成回路 (64) 遠近判定回路 (3) Depth information generation circuit (4) Parallax information generation circuit (5) Parallax control circuit (6) Background weight generation circuit (30) Image feature amount generation circuit (31) Group information generation circuit (32) Depth information calculation circuit ( 60) Background weight data reception circuit (61) Background weight data storage device (62) Background weight data selection circuit (63) Motion vector generation circuit (64) Perspective judgment circuit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 2次元入力映像信号に基づいて、フィー
ルド毎に、1フィールド画面内に設定された複数の視差
算出領域のそれぞれに対して、映像の遠近に関する奥行
情報を生成する奥行情報生成手段(3)と、 該奥行情報に基づいて、各視差算出領域の視差情報を生
成する視差情報生成手段(4)と、 該視差情報に基づいて、左目用映像と右目用映像に視差
が生じるように、2次元映像信号を制御して、左目用映
像信号と右目用映像信号を生成する視差制御手段(5)と
を具えており、 奥行情報生成手段(3)は、 A.2次元入力映像信号から各視差算出領域の画像特徴
量を生成する画像特徴量生成手段(30)と、 B.該画像特徴量に基づいて、1フィールド画面内の全
領域をその画面に含まれている物体毎にグループ分けを
行ない、各視差算出領域がどのグループに属するかを示
すグループ情報を生成するグループ情報生成手段(31)
と、 C.視差算出領域毎に背景重みを生成する背景重み生成
手段(6)と、 D.前記画像特徴量、グループ情報および背景重みに基
づいて、グループ毎に、画像特徴量及び背景重みを組み
合わせて奥行情報を算出する奥行情報算出手段(32)とを
具えており、 背景重み生成手段(6)は、各視差算出領域の背景重みを
有する背景重みデータを外部から受信する背景重みデー
タ受信手段(60)或いは前記背景重みデータを複数個具え
た背景重みデータ記憶手段(61)および該背景重みデータ
記憶手段(61)から所望の背景重みを選択して読み出す背
景重みデータ選択手段(62)と、2次元入力映像信号から
動きベクトルを生成する動きベクトル生成手段(63)およ
び該動きベクトルを用いて各視差算出領域の遠近を判定
し、該判定結果に基づいて背景重みを生成する遠近判定
手段(64)との中から、1つの手段または複数を組み合わ
せた手段を具えることを特徴とする、2次元映像を3次
元映像に変換する装置。
1. Depth information generating means for generating depth information relating to the perspective of an image for each of a plurality of parallax calculation areas set in one field screen for each field based on a two-dimensional input image signal. (3) Disparity information generating means (4) for generating disparity information of each disparity calculation area based on the depth information, and disparity is generated between the left-eye image and the right-eye image based on the disparity information. And a parallax control means (5) for controlling a two-dimensional video signal to generate a left-eye video signal and a right-eye video signal. The depth information generating means (3) comprises: B. image feature generation means (30) for generating an image feature of each parallax calculation area from the two-dimensional input video signal; Group information for generating a group information indicating which group each parallax calculation area belongs to, by performing grouping of all areas in one field screen for each object included in the screen based on the image feature amount. Generation means (31)
And C. D. background weight generation means (6) for generating a background weight for each parallax calculation area; A depth information calculation unit (32) for calculating depth information by combining the image feature amount and the background weight for each group based on the image feature amount, the group information, and the background weight; 6) a background weight data receiving means (60) for externally receiving background weight data having a background weight of each parallax calculation area or a background weight data storage means (61) having a plurality of the background weight data; A background weight data selecting unit (62) for selecting and reading a desired background weight from the weight data storage unit (61); a motion vector generating unit (63) for generating a motion vector from a two-dimensional input video signal; A perspective determination means (64) for determining the perspective of each parallax calculation area using the determination result and generating a background weight based on the determination result. An apparatus for converting a 2D image into a 3D image.
【請求項2】 背景重み生成手段(6)は、各視差算出領
域の背景重みを有する背景重みデータを外部から受信す
る背景重みデータ受信手段(60)を具え、 2次元映像信号として、コンピュータからモニタ映像信
号を受け取り、 背景重みデータ受信手段(60)は、コンピュータから近景
領域を指定するデータを受け取ることを特徴とする、請
求項1に記載の2次元映像を3次元映像に変換する装
置。
2. Background weight generation means (6) comprises background weight data receiving means (60) for receiving background weight data having the background weight of each parallax calculation area from outside, and as a two-dimensional video signal from a computer. The apparatus for converting a 2D image into a 3D image according to claim 1, wherein the monitor image signal is received, and the background weight data receiving means (60) receives data specifying a near-view area from a computer.
【請求項3】 2次元入力映像信号に基づいて、フィー
ルド毎に、1フィールド画面内に設定された複数の視差
算出領域のそれぞれに対して、映像の遠近に関する奥行
情報を生成し、該奥行情報に基づいて、各視差算出領域
の視差情報を生成し、該視差情報に基づいて、左目用映
像信号と右目用映像信号を生成する、2次元映像を3次
元映像に変換する方法であって、 奥行情報の生成は、2次元入力映像信号から各視差算出
領域の画像特徴量を生成し、該画像特徴量に基づいて、
1フィールド画面内の全領域をその画面に含まれている
物体毎にグループ分けを行ない、各視差算出領域がどの
グループに属するかを示すグループ情報を生成し、一方
で、視差算出領域毎に背景重みを生成し、前記画像特徴
量、グループ情報及び背景重みに基づいて、グループ毎
に、画像特徴量と背景重みを組み合わせて奥行情報を算
出することにより行なわれ、 背景重みの生成は、各視差算出領域の背景重みを有する
背景重みデータを外部から受信する方法と、背景重みデ
ータを複数個予め記憶しておき、所望の背景重みを選択
して読み出す方法と、動きベクトルを用いて各視差算出
領域の遠近を判定し、該判定結果に基づいて背景重みを
生成する方法の内、1つ又は複数を組み合わせた方法に
よって行なわれることを特徴とする、2次元映像を3次
元映像に変換する方法。
3. Based on a two-dimensional input video signal, for each of a plurality of parallax calculation areas set in one field screen, depth information relating to the perspective of the video is generated, and the depth information is generated. A method of generating parallax information of each parallax calculation area, and generating a left-eye video signal and a right-eye video signal based on the parallax information, a method of converting a two-dimensional video into a three-dimensional video, The generation of the depth information generates an image feature amount of each parallax calculation area from the two-dimensional input video signal, and based on the image feature amount,
The entire area in one field screen is grouped for each object included in the screen, and group information indicating which group each parallax calculation area belongs to is generated, while the background information is generated for each parallax calculation area. Weights are generated, and depth information is calculated by combining the image feature amounts and the background weights for each group based on the image feature amounts, the group information, and the background weights. A method of externally receiving background weight data having a background weight of a calculation region, a method of storing a plurality of background weight data in advance, selecting and reading a desired background weight, and a method of calculating each disparity using a motion vector. A two-dimensional method which is performed by a method of determining one or more of a method of determining the distance of an area and generating a background weight based on the determination result. A method of converting an image into a 3D image.
JP9259036A 1997-09-18 1997-09-24 Device for converting two-dimensional image into three-dimensional image and its method Pending JPH1198531A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP9259036A JPH1198531A (en) 1997-09-24 1997-09-24 Device for converting two-dimensional image into three-dimensional image and its method
US09/152,328 US6584219B1 (en) 1997-09-18 1998-09-14 2D/3D image conversion system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9259036A JPH1198531A (en) 1997-09-24 1997-09-24 Device for converting two-dimensional image into three-dimensional image and its method

Publications (1)

Publication Number Publication Date
JPH1198531A true JPH1198531A (en) 1999-04-09

Family

ID=17328451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9259036A Pending JPH1198531A (en) 1997-09-18 1997-09-24 Device for converting two-dimensional image into three-dimensional image and its method

Country Status (1)

Country Link
JP (1) JPH1198531A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123842A (en) * 2000-10-13 2002-04-26 Takumi:Kk Device for generating stereoscopic image, and medium for recording information
KR100780467B1 (en) 2006-09-28 2007-11-29 이관영 Apparatus and method of manufacturing three dimensional goods using sound
KR100860673B1 (en) 2007-03-13 2008-09-26 삼성전자주식회사 Apparatus and method for generating image to generate 3d image
KR100902353B1 (en) 2007-11-16 2009-06-12 광주과학기술원 Device and Method for estimating death map, Method for making intermediate view and Encoding multi-view using the same
WO2009102090A1 (en) * 2008-02-12 2009-08-20 Kwanyoung Lee Apparatus and method of manufacturing article using sound
JP2010136371A (en) * 2008-12-04 2010-06-17 Samsung Electronics Co Ltd Apparatus and method for estimating depth, and apparatus and method for stereoscopic (3d) video conversion
JP2010171608A (en) * 2009-01-21 2010-08-05 Nikon Corp Image processing device, program, image processing method, recording method, and recording medium
CN101917636A (en) * 2010-04-13 2010-12-15 上海易维视科技有限公司 Method and system for converting two-dimensional video of complex scene into three-dimensional video
JP2011182366A (en) * 2010-03-04 2011-09-15 Toppan Printing Co Ltd Image processing method, image processing device, and image processing program
KR101099610B1 (en) 2009-07-24 2011-12-29 한국기계연구원 Method for getting 3-dimensional shape information of a panel
JP2012134655A (en) * 2010-12-20 2012-07-12 Toshiba Corp Image processing device, image processing method, and image display device
JP2012227797A (en) * 2011-04-21 2012-11-15 M Soft:Kk Stereoscopic image generation method and stereoscopic image generation system
WO2013186882A1 (en) * 2012-06-13 2013-12-19 株式会社エム・ソフト 3d-image generation method, and 3d-image generation system
WO2013186881A1 (en) * 2012-06-13 2013-12-19 株式会社エム・ソフト 3d-image generation method and 3d-image generation system
WO2017040555A3 (en) * 2015-09-02 2017-08-31 Microsoft Technology Licensing, Llc Sensing object depth within an image

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123842A (en) * 2000-10-13 2002-04-26 Takumi:Kk Device for generating stereoscopic image, and medium for recording information
KR100780467B1 (en) 2006-09-28 2007-11-29 이관영 Apparatus and method of manufacturing three dimensional goods using sound
KR100860673B1 (en) 2007-03-13 2008-09-26 삼성전자주식회사 Apparatus and method for generating image to generate 3d image
KR100902353B1 (en) 2007-11-16 2009-06-12 광주과학기술원 Device and Method for estimating death map, Method for making intermediate view and Encoding multi-view using the same
WO2009102090A1 (en) * 2008-02-12 2009-08-20 Kwanyoung Lee Apparatus and method of manufacturing article using sound
JP2010136371A (en) * 2008-12-04 2010-06-17 Samsung Electronics Co Ltd Apparatus and method for estimating depth, and apparatus and method for stereoscopic (3d) video conversion
CN101754040A (en) * 2008-12-04 2010-06-23 三星电子株式会社 Method and appratus for estimating depth, and method and apparatus for converting 2d video to 3d video
US9137512B2 (en) 2008-12-04 2015-09-15 Samsung Electronics Co., Ltd. Method and apparatus for estimating depth, and method and apparatus for converting 2D video to 3D video
US8675048B2 (en) 2009-01-21 2014-03-18 Nikon Corporation Image processing apparatus, image processing method, recording method, and recording medium
JP2010171608A (en) * 2009-01-21 2010-08-05 Nikon Corp Image processing device, program, image processing method, recording method, and recording medium
KR101099610B1 (en) 2009-07-24 2011-12-29 한국기계연구원 Method for getting 3-dimensional shape information of a panel
JP2011182366A (en) * 2010-03-04 2011-09-15 Toppan Printing Co Ltd Image processing method, image processing device, and image processing program
CN101917636A (en) * 2010-04-13 2010-12-15 上海易维视科技有限公司 Method and system for converting two-dimensional video of complex scene into three-dimensional video
JP2012134655A (en) * 2010-12-20 2012-07-12 Toshiba Corp Image processing device, image processing method, and image display device
JP2012227797A (en) * 2011-04-21 2012-11-15 M Soft:Kk Stereoscopic image generation method and stereoscopic image generation system
WO2013186882A1 (en) * 2012-06-13 2013-12-19 株式会社エム・ソフト 3d-image generation method, and 3d-image generation system
WO2013186881A1 (en) * 2012-06-13 2013-12-19 株式会社エム・ソフト 3d-image generation method and 3d-image generation system
WO2017040555A3 (en) * 2015-09-02 2017-08-31 Microsoft Technology Licensing, Llc Sensing object depth within an image

Similar Documents

Publication Publication Date Title
US8369607B2 (en) Method and apparatus for processing three-dimensional images
KR100334722B1 (en) Method and the apparatus for generating stereoscopic image using MPEG data
JPH1198531A (en) Device for converting two-dimensional image into three-dimensional image and its method
US8441521B2 (en) Method and apparatus for determining view of stereoscopic image for stereo synchronization
KR102330237B1 (en) Wide baseline stereo for low-latency rendering
EP2387248A2 (en) Method and apparatus for processing three-dimensional images
US20120320045A1 (en) Image Processing Method and Apparatus Thereof
JP3096612B2 (en) Time-division stereoscopic video signal detection method, time-division stereoscopic video signal detection device, and stereoscopic video display device
JPH0830806A (en) Three-dimensional image conversion method
JPH01245684A (en) Picture information transmitting system
JP2013201688A (en) Image processing apparatus, image processing method, and image processing program
CN105100595A (en) Image capture apparatus and method for controlling the same
JPH09200803A (en) Image processing unit and image processing method
KR100322727B1 (en) Method and system for converting two-dimensional/stereo images
JP5700998B2 (en) 3D image display apparatus and control method thereof
Kim et al. Object-based stereoscopic conversion of MPEG-4 encoded data
JPH09116930A (en) Method for converting two-dimensional video into three-dimensional video
KR100230447B1 (en) 3-dimension image conversion apparatus and method of 2-dimension continuous image
JP2806332B2 (en) Video motion compensation circuit
JP2846843B2 (en) How to convert 2D video to 3D video
US8244072B2 (en) System and method for determining color value of pixel
JPH11110180A (en) Method and device for converting two-dimensional image into three-dimensional image
KR20010073388A (en) Frame rate converter and method for converting frame rate
JPH08186846A (en) Stereoscopic picture generator
JPH1175221A (en) Method for converting 2-dimensional video into 3-dimensional video image

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030715